Cuaderno de Cultura Científica jarioa-rako harpidetza egin
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Eguneratua: duela 53 min 7 seg

Historias de la malaria: El mosquito

Al, 2017-09-04 17:00

Ahora lo sabemos y, entonces, hace más de un siglo, se sospechaba. Hasta Laveran mencionó, casi como una curiosidad, en sus escritos, que malaria y mosquitos coincidían a menudo. Conocemos ya las fiebres y lo que las alivia, aunque no cura del todo, la quinina. Y se ha descubierto el parásito que las provoca: especies del protozoo Plasmodium según los estudios de Laveran y otros. El protozoo está en la sangre de los enfermos, sobre todo en sus glóbulos rojos. Pero, en aquellos años, se desconocía por completo cómo el Plasmodium pasaba de persona a persona y contagiaba la enfermedad.

Como escribe Wilhelm von Drigalski, el enfermo no contagiaba nunca a nadie con sus esputos, ni por contacto, ni al besar o con sus deposiciones, ni al frotar la piel de otra persona. Se sospechó del aire y del agua. Nadie pensó en los mosquitos, aunque algunos, como Laveran, lo sospechaban pero no se atrevían a plantearlo como hipótesis de trabajo. François Pagès definió la malaria como enfermedad “cerrada”, pues, de alguna manera, el parásito quedaba encerrado en el cuerpo del enfermo.

El primero que estudió la transmisión de enfermedades por picaduras de insectos fue Patrick Manson en China. Demostró que la filaria, el nematodo causante de la filariasis, se contagiaba por mosquitos, todo ello después de numerosas, difíciles y tediosas disecciones de mosquitos en busca del parásito. Publicó sus resultados en 1877 y 1878. Unos años más tarde, en 1893, y en Estados Unidos, Theobald Smith demostró que la fiebre de Texas del ganado se transmitía por picaduras de garrapatas.

En esos años, Patrick Manson convenció al médico militar inglés Ronald Ross de que el plasmodio descubierto por Laveran como causante de la malaria estaba confirmado. Le enseñó a encontrar el protozoo, a través del microscopio, en sangre fresca de enfermos. Ross, destinado en la India, un subcontinente maltratado por la malaria y, sobre todo, lo más importante para Manson, Ross y sus mandos en el ejército, la enfermedad afectaba a los soldados ingleses y a los miembros de la administración colonial. Ross comenzó a diseccionar, como había hecho Manson con la filariasis, mosquitos que habían picado a enfermos de malaria. El cuerpo de esos mosquitos, que Ross diseccionaba al microscopio, medía 6-7 milímetros de longitud y 2 milímetros de anchura, y buscaba en ellos un protozoo de 0.001-0.01 milímetros de diámetro.

Página del cuaderno de notas de Ross en la que identifica en parásito de la malaria

En 1897 localizó los gránulos de pigmento negro típicos de la malaria en el estómago de un mosquito del género Anopheles. Fue el 20 de agosto cuando Ross encontró el protozoo en el estómago de la hembra del mosquito. Desde entonces, cada 20 de agosto se celebra el Día del Mosquito. Constató que, del estómago, los protozoos desaparecían en unas horas y, finalmente, los localizó en las glándulas salivares el 4 de julio de 1898. Solo las hembras pican y tienen glándulas salivares con anticoagulantes; los machos comen frutas y tienen glándulas salivares totalmente distintas. Así entendió cómo los mosquitos transmitían la malaria con la picadura.

El mismo año, 1897, demostró que los mosquitos del género Culex transmitían el Plasmodium en aves. Ross describió el ciclo vital del protozoo y telegrafió el descubrimiento a Manson en 1898 que, a su vez, lo comunicó a la British Medical Association en Edimburgo. También contactó con Laveran para explicarle su hallazgo.

Una de las dificultades que encontró Ross en su trabajo fue que entonces no se sabía que solo especies del género Anopheles transmitían la malaria. Además, desconocía por completo la taxonomía de los mosquitos y solo los distinguía con descripciones muy breves e imprecisas. Y, también, la región de la India donde investigó la intervención de los mosquitos en la malaria tenía pocas especies de Anopheles y la mayoría de ellos eran de los géneros Culex y Aedes.

Giovanni Battista Grassi

La escuela italiana de estudio de la malaria, con el trabajo de Gian Battista Grassi, Amico Bignami y Giuseppe Bastianelli, demostró el ciclo vital del Plasmodium en las especies de mosquito del género Anopheles que transmiten la malaria humana. Grassi planteó que no todos los mosquitos transmitían la malaria y que uno de ellos sería el vector específico. Como era zoólogo, organizó la búsqueda de evidencias sobre ese vector desde su experiencia profesional: recorrió el país muestreando mosquitos en las zonas endémicas con malaria y en las regiones que no padecían la enfermedad. Para Grassi, las herramientas del zoólogo para resolver el enigma del vector de la malaria eran los habituales: la sistemática del grupo, es decir, de los mosquitos; y la distribución geográfica de las especies implicadas, o sea, del protozoo, de los enfermos de malaria y, por supuesto, de los mosquitos.

Después del estudio de los ejemplares recogidos y clasificados y de su relación con la malaria, concluyó que la especie que aparecía en todas las áreas con malaria era el Anopheles claviger. Recurrió a dos médicos del Hospital Santo Spirito de Roma, los doctores Bignami y Bastianelli, para probar su hipótesis.

El 28 de junio de 1898, soltaron sus Anopheles sobre algunos enfermos internados en el hospital y, uno de ellos contrajo la malaria, que curaron con quinina. Por tanto, Anopheles claviger puede contagiar la malaria. La comunicación de este experimento a la Academia del Lincei termina con la descripción del ciclo del Plasmodium en el cuerpo del Anopheles.

La contraprueba que propuso Grassi era para demostrar que, evitando las picaduras del Anopheles, no se enfermaba de malaria. Eligió Capaccio, en la provincia de Salerno, una zona con una peligrosa malaria endémica. Los voluntarios eran trabajadores del ferrocarril que vivían en diferentes estaciones con sus familias. La prueba se organizó para los meses entre junio y octubre, la época del año con más malaria.

Aisló con rejillas metálicas las casas y habitaciones donde dormían 112 trabajadores y sus familias, incluido el propio Grassi, para impedir que llegaran los mosquitos hasta ellos. Otros 415 trabajadores, que serían el control, siguieron con su conducta normal y sin aislamiento. Entre los voluntarios aislados, solo hubo cinco casos de malaria, además leve y, quizá, más bien recaídas de fiebres anteriores. Los 415 trabajadores sin aislamiento enfermaron.

Grassi culminó su investigación con su lema de que hay mosquitos sin paludismo, pero no hay paludismo sin mosquitos.

La prueba más contundente la presentaron Ross y Manson. Uno grupo de mosquitos Anopheles criados en el laboratorio picaron a un enfermo de malaria en Italia. Ross envió los mosquitos a Londres, dirigidos a Manson. Cuando recibió los mosquitos, expuso a su hijo a las picaduras. Así se contagió con la malaria, la alivió con quinina e, incluso, tuvo hasta tres recaídas. En 1902, Ronald Ross recibió el Premio Nobel.

En el ciclo vital del Plasmodium hay dos etapas esenciales y consecutivas. En primer lugar, el mosquito debe picar al enfermo de malaria cuando su sangre está cargada de gametocitos, por tanto, cuando el protozoo se ha multiplicado en los glóbulos rojos, los ha destruido y se ha liberado a la sangre. Es, entonces, cuando el acceso de fiebre ataca al enfermo. Y, en segundo lugar, el mosquito infectado debe picar a otra persona en algo más de 10 días, como mucho 13 días, que es el tiempo máximo que el Plasmodium permanece vivo en el cuerpo del mosquito.

Por otra parte, el enfermo de malaria tiene ciclos de fiebre, o de tener la sangre llena de gametocitos, cada 24 horas, y los mosquitos Anopheles pican de noche. Deben coincidir fiebre y noche, y se consigue con los ciclos de fiebre de 24 horas. Así el mosquito pica, se alimenta de la sangre del enfermo, culmina el ciclo vital del protozoo y, con nuevas picaduras, extiende la enfermedad.

Hay censadas 465 especies del género Anopheles y más de 50 todavía sin catalogar. De ellas, unas 70 pueden transmitir la malaria en la especie humana, y 41 de ellas con gran eficacia. Son las consideradas un problema de salud pública y se intentan controlar. Con datos de 2008 y 2009 se ha elaborado una mapa global de estas especies de Anopheles. Sin entrar en detalles, hay que destacar que ninguna de ellas tiene una distribución planetaria y que cada continente, subcontinente e, incluso, regiones geográficas menores, tienen unas especies concretas. Por ejemplo, en la Península Ibérica destaca Anopheles atroparvus, con A. labranchiae en la costa mediterránea. Son las especies que destacan pero hay más, casi siempre con una distribución más localizada o fragmentada. De hecho, en la Península hay citadas 15 especies, aunque su taxonomía está todavía en discusión.

Ahora Mathieu Nacher, de la Facultad de Medicina de Cayena, en la Guayana Francesa, se pregunta si los síntomas que la fiebre provoca en el enfermo atraen a los mosquitos a picar. La fiebre atrae al mosquito con el aumento de la temperatura de la piel, la secreción de lactato que provoca la temperatura y los temblores, la producción de dióxido de carbono con la hiperventilación del enfermo, la sudoración, además del cansancio y agotamiento del enfermo que impide la conducta instintiva de espantar a los mosquitos cuando se les oye su característico zumbido. Como ejemplo sirve que el aumento de dióxido de carbono en la respiración llega al mosquito hasta unos 20 metros, y atrae al doble de ejemplares de Anopheles gambiae si, a la vez, le llega el olor del cuerpo humano. Y la fiebre, la mayor temperatura de la piel y la secreción de sudor aumentan el flujo de sangre en la superficie del cuerpo y, así, hay más sangre para los mosquitos en sus picaduras.

Desde siempre, y es un saber popular, los mosquitos pican más a unas personas que a otras. Ignoramos cuál es la causa de estas preferencias. R.H Wright sugirió que era una combinación de humedad y temperatura adecuadas en la piel. Es la mayor temperatura y una gran humedad lo que atrae al mosquito y, de nuevo, es lo típico de una persona con fiebre. Y, de nuevo según Wright, hay algo más pues los mosquitos distinguen un cilindro metálico y el brazo de una persona aunque ambos tengan igual temperatura y humedad.

Un trabajo interesante para conocer esta característica de la piel que atrae al mosquito es el de Bart Knols, del Centro Internacional de Fisiología y Ecología de Insectos de Nairobi, en Kenia. Primero observa que, a una persona tumbada, durmiendo, con temperatura tropical, los mosquitos pican la piel que tiene al descubierto, sobre todo el rostro, pero si está sentada pican los pies y piernas. Knols conoce el famoso queso Limburger, originario de Bélgica, y nos recuerda que este queso huele parecido a los pies de algunas personas. Se pregunta si las bacterias de la piel tienen algo que ver. Es más, detecta que a los mosquitos les va este queso.

Cuando analiza las bacterias de los pies encuentra una especie Brevibacterium epidermis, que crece entre los dedos de los pies. Y, en el queso, encuentra la Brevibacterium linis, distinta especie, el mismo género y, por lo que sabemos, el mismo hedor. Así que pies y queso Limburger atraen por igual a los mosquitos. Por esta interesante investigación, Bart Knols recibió el Premio IgNobel de 2006.

Referencias:

Capanna, E. 2006. Grassi versus Ross: who solved the middle of malaria? International Microbiology 9: 69-74.

Coleman-Jones, E. 1999. Ronald Ross and the great malaria problem: historical reference in the biological sciences. Journal of Biological Education 33: 181-184.

Constantini, C. et al. 1996. Mosquito responses to carbon dioxide in a West African Sudan Savannah village. Medical and Veterinary Entomology 10: 220-227.

Dekker, T. et al. 1998. Selection of biting sites on a human host by Anopheles gambia s.s., An. arabiensis and An. quadriannulatus. Entomologia Experimentalis et Applicata 87: 295-300.

Dworking, J. & S.Y. Tan. 2011. Ronald Ross (1857-1932): Discoverer of malaria’s life cycle. Singapore Medical Journal 52: 466-467.

Earle, D.P. 1979. A history of malaria and its ironies. Transactions of the American Clinical and Climatological Association 90: 1-26.

Eldridge, B.F. 1992. Patrick Manson and the discovery age of vector biology. Journal of the American Mosquito Control Association 8: 215-220.

Enserink, M. 2002. What mosquito want: secrets of host attraction. Science 298: 90-92.

Knols, B.G.J. 1996. On human odour, malaria mosquitoes, and Limburger cheese. Lancet 348: 1322.

Laverdant, C. 2007. Le context scientifique contemporain de la découverte de Laveran. Bulletin de l’Academie nationale de medicine 191: 1227-1234.

Ledermann, W. & G. Valle. 2009. Ética e investigación en la historia de la malaria. Revista Chilena de Infectología 26: 466-471.

Martín Sierra, F. 1998. El papel de la sanidad militar en el descubrimiento del mosquito como agente transmisor del paludismo y de la fiebre amarilla. Sanidad Militar 54: 286-296.

Nacher, M. 2004. Charming the mosquito: do malaria symptons increase the attractiveness o the hosto for the vector? Medical Hypotheses doi: 10.1016/j.mehy.2004.08.030

Pagés, F. 1953. Le paludisme. Presses Universitaires de France. Paris. 113 pp.

Sinka, M.E. et al. 2012. A global map of dominant malaria vectors. Parasites & Vectors 5: 69.

Snowden, F.M. 2006. The conquest of malaria. Italy, 1900-1962. Yale University Press. New Haven and London.

Takken, W. & B.G.J. Knols. 1999. Odor-mediated behavior of Afrotropical malaria mosquitoes. Annual Review of E ntomology 44: 131-157.

Villanueva-Meyer, M. 2015. Ronald Ross (1857-1932): Descubridor de la causa de la malaria y pionero en enfermedades tropicales. Galenus 52: 56-57.

von Drigalski, W. 1954. Hombres contra microbios. La victoria de la Humanidad sobre las grandes epidemias. Ed. Labor. Barcelona. 368 pp.

White, G.B. 1983. Malaria vector ecology and genetics. British Medical Bulletin 38: 207-212.

Wright, R.H. 1975. Why mosquito repellents repell. Scientific American July: 104-111.

Yoeli, M. 1973. Sir Ronald Ross and the evolution of malaria research. Bulletin of the New York Academy of Medicine 49: 722-735.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Historias de la malaria: El mosquito se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Historias de la malaria: Charles Louis Alphonse Laveran y el protozoo
  2. Historias de la malaria: El parásito
  3. Historias de la malaria: El charlatán y caballero Sir Robert Talbor
Kategoriak: Zientzia

FINGER: estratificar a la población para optimizar el funcionamiento de los servicios sanitarios

Al, 2017-09-04 11:59

Una investigación del departamento de Medicina Preventiva y Salud Pública de la Universidad del País Vasco/Euskal Herriko Unibertsitatea propone un programa de estratificación de la población con el objetivo de optimizar el funcionamiento de los servicios sanitarios durante los 12 meses siguientes.

Durante los últimos años, el número de pacientes con enfermedades crónicas ha aumentado, debido, entre otros factores, al envejecimiento poblacional. Además, muchos enfermos crónicos tienen más de un problema de salud. Algunos de estos pacientes tienen que acudir varias veces al año a su centro de salud y a consultas de especialistas, visitan reiteradamente los servicios de urgencias y son ingresados de manera repetida en hospitales. “Con frecuencia, se observan situaciones de falta de coordinación: se duplican algunas pruebas y se omiten otras, se producen interacciones entre los medicamentos que se les recetan y se les proponen planes de cuidados muy complicados, difíciles de comprender para el paciente. Todos conocemos situaciones de parientes a los que ven muchos especialistas al cabo del año y, a veces, es imposible seguir las recomendaciones de todos” afirma Jon Orueta, autor del estudio realizado en el Departamento de Medicina Preventiva y Salud Pública de la UPV/EHU. “Existe una opinión generalizada de que la organización de los sistemas de salud ha quedado obsoleta y son necesarios cambios profundos. La estructura de la pirámide de población actual nos lleva a pensar que en los próximos años vamos a atender a una población envejecida, que requerirá cuidados sanitarios complejos y que puede llegar a colapsar el sistema sanitario. Sin embargo, el sistema actual funciona bien para muchos de los pacientes. Por lo tanto, es necesario decidir a qué pacientes podemos seguir atendiendo con el modelo tradicional y para cuáles tenemos que buscar nuevas formas de atención sanitaria”, añade.

Jon Orueta ha desarrollado un sistema de estratificación que plantea la división de la población en estratos, es decir, grupos de personas con necesidades similares, para diseñar la atención sanitaria que, según las previsiones realizadas, requerirá cada estrato durante los 12 meses siguientes. De este modo, el sistema sanitario no se queda a la espera de que el paciente crónico empeore y tenga que acudir a las consultas o los hospitales, sino que se pueden planificar sus cuidados de manera anticipada e intervenir antes de que se produzcan descompensaciones.

Los sistemas de estratificación más conocidos fueron creados en Estados Unidos, y a pesar de las diferencias entre su sistema sanitario y nuestros servicios de salud, varias investigaciones han confirmado su validez. Orueta, que actualmente trabaja en la OSI Uribe de Osakidetza, dirigió el Programa de Estratificación Poblacional de la CAV durante cuatro años, y conoce de primera mano las dificultades para emplear estos sistemas. “Al intentar aplicarlos al mundo real, lo que hemos visto es que son modelos estadísticos muy complejos, que manejan muchas variables, y que a veces resultan difíciles de comprender para los médicos o para los gestores. Además, se trata de programas informáticos que requieren la compra de licencias anuales de uso. Por eso, hemos desarrollado un instrumento más fácil de entender, intuitivo, y que a pesar de su simplicidad no pierde demasiada capacidad explicativa respecto a los modelos americanos. Además, dado que se ha desarrollado aquí, no tendría costes de licencia”.

El sistema FINGER (Formación e Identificación de Nuevos Grupos de Estratificación de Riesgo) se basa en los diagnósticos de todos los problemas de salud por los que el paciente ha tenido contacto con los servicios de salud. Es claro y sencillo, pero “consigue identificar correctamente a una proporción importante de los pacientes que requerirán gran cantidad de recursos, necesitarán hospitalizaciones no programadas o que presentarán mayor riesgo de fallecimiento durante el año siguiente. De esa forma, cada paciente es asignado en el estrato más acorde a su situación futura, y recibe una mejor atención”.

Los modelos predictivos, por sí solos, “no mejoran la salud de las personas, ni evitan hospitalizaciones, ni disminuyen los costes, a menos que se acompañen de planes de intervención”, afirma Orueta. La aplicación de un sistema como FINGER y los subsiguientes planes de intervención podría proporcionar “una mejor atención, mejores cuidados, menos hospitalizaciones y menos descompensaciones. Y, lógicamente, si se utilizan menos los hospitales y las unidades de cuidados muy complejos, el coste se reducirá”. Pero el objetivo del sistema es proporcionar una mejor atención, “la reducción del gasto sanitario es una consecuencia de dicha aplicación” subraya Orueta.

Referencia:

Millán E, Lopez Arbeloa G, Samper R, Carneiro M, Pocheville E, Aurrekoetxea J, de Pablos I, Orueta J. (2015) Assessment of a Predictive Risk Model for Classifying Patients with Multimorbidity in the Basque Country Value Health. 18(7):A374. doi: 10.1016/j.jval.2015.09.773.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo FINGER: estratificar a la población para optimizar el funcionamiento de los servicios sanitarios se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Algoritmos de triaje para readmitidos en urgencias
  2. Una red electrica global basada en corriente continua para optimizar el uso de energías renovables
  3. Posibles biomarcadores para el ictus
Kategoriak: Zientzia

El Sol

Ig, 2017-09-03 11:59

El sistema solar se formó hace unos 4.600 millones de años a partir de una pequeña parte (alrededor de un 5%) de una gigantesca nube molecular formada principalmente por hidrógeno. La mayor fracción de ese 5% de materia –el 99,85%- colapsó formando el Sol, y el resto formó un disco protoplanetario que acabría dando lugar a los demás cuerpos del sistema (planetas, satélites, asteroides y demás).

El Sol es una esfera casi perfecta de plasma caliente cuyo diámetro es 109 veces el de la Tierra, y su masa, 330.000 veces la de nuestro planeta. Un 73% de la materia solar es hidrógeno y un 25%, helio; el 2% restante se lo reparten otros elementos. Tras su formación, la temperatura y la densidad de la masa central alcanzaron valores altísimos. El núcleo del sol -correspondiente a una esfera cuyo radio es la cuarta parte del total- se encuentra a una densidad que es 150 veces superior a la del agua y a una temperatura de 15,7 millones de kelvins. Bajo esas condiciones en su interior se producen de forma permanente reacciones nucleares de fusión, la inmensa mayoría consistentes en la conversión de hidrógeno en helio. Esas reacciones emiten rayos gamma -fotones de muy alta energía- que son absorbidos de manera inmediata por el plasma solar y liberados a continuación de nuevo, aunque con algo menos de energía. Ese proceso doble de absorción y reemisión se produce infinidad de veces antes de que los fotones lleguen a la superficie solar. Por ello, transcurren miles de años desde su emisión inicial hasta que alcanzan la superficie y salen al exterior: según estimaciones teóricas ese tiempo puede ir de 10.000 a 170.000 años. Y sin embargo, desde que un fotón sale del Sol hasta que excita una molécula fotorreceptora en una célula de nuestra retina, tan solo transcurren algo más de ocho minutos (aunque, lógicamente, para el fotón no ha pasado el tiempo).

Cada metro cuadrado de la superficie de la Tierra recibe de su estrella, en promedio, 1 kilovatio de potencia cuando se encuentra en su cénit en días despejados. A la superficie no llega toda la que penetra en la atmósfera, puesto que esta filtra e impide la llegada de radiaciones de ciertas longitudes de onda. Si no fuera por ese filtro, serían 1,37 kilovatios por metro cuadrado. El 50% de la energía que llega al exterior de la atmósfera lo hace en forma de radiación infrarroja, un 40% es luz visible y un 10%, radiación ultravioleta. Un 70% de esta última, en mayor proporción cuanto menor es la longitud de onda, no llega a la superficie terrestre.

El Sol no permanece estático. Da vueltas sobre sí mismo de manera que su ecuador completa una vuelta en 25,6 días, aunque ese tiempo es algo más prolongado en los polos (33,5 días), pues la velocidad de rotación no es homogénea, disminuye del ecuador hacia los polos. Y además de rotar, también describe un movimiento, prácticamente elíptico, de traslación alrededor del centro de la Vía Láctea. Tarda entre 225 y 250 millones de años en describir una órbita completa; o sea, eso es lo que dura nuestro año galáctico. Ese desplazamiento se produce a la increíble velocidad de 251 kilómetros por segundo. Viajamos, pues, por el espacio a lomos de un planeta que gira enloquecido alrededor de una estrella que, a su vez, se desplaza a una velocidad imposible de asimilar a nuestra escala, en torno al centro de la galaxia. Y esta, por su parte, tampoco se está quieta. No somos conscientes de ello, pero vivimos en un gigantesco torbellino cósmico.

—————————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

Una versión anterior de este artículo fue publicada en el diario Deia el 27 de agosto de 2017.

El artículo El Sol se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La gran erupción
  2. Una ventana llamada Rosetta
  3. El calor no es un fluido
Kategoriak: Zientzia

Ciencia a presión: Ciencia patológica y patología editorial

La, 2017-09-02 11:59

La expresión publish or perish (publica o perece) es de sobra conocida en el ámbito científico. Quiere expresar la importancia que tienen las publicaciones en los currículos del personal investigador. En ciencia no basta con hacer observaciones, obtener unos resultados y derivar conclusiones. Hay, además, que hacerlo público y, a poder ser, en medios de la máxima difusión internacional. La ciencia que no se da a conocer, que no se publica, no existe. El problema es que de eso, precisamente, depende el éxito profesional de los investigadores, sus posibilidades de estabilización y de promoción. De ahí la conocida expresión del principio.

El mundo de la comunicación tiene también sus normas. En comunicación se trata de que lo que se publica sea consumido. De la misma forma que la ciencia que no se publica no existe, en comunicación tampoco existen los contenidos que no se consumen: o sea, no existen los artículos que no se leen, los programas de radio que no se oyen, los de televisión que no se ven o los sitios web que no se visitan. En comunicación valdría decir “sé visto, oído o leído, o perece”.

Ambas esferas tienen ahí un interesante punto en común. Y por supuesto, en comunicación o difusión científica el ámbito de confluencia se aprecia en mayor medida aún. Confluyen aquí ambas necesidades, la de hacer públicos los resultados de investigación y, además, conseguir que lleguen a cuantas más personas mejor.

El problema es que la presión por publicar y por tener impacto comunicativo puede conducir tanto a unos como a otros profesionales, a adoptar comportamientos deshonestos, contrarios a la ética profesional e, incluso, a desvirtuar completamente el fin de la ciencia y de su traslación al conjunto del cuerpo social. Y también puede conducir, y de hecho ha conducido, a que se haya configurado un sistema de publicaciones científicas con patologías.

De todo esto se trató el pasado 31 de marzo en “Producir o perecer: ciencia a presión”, el seminario que organizaron conjuntamente la Asociación Española de Comunicación Científica y la Cátedra de Cultura Científica de la UPV/EHU.

3ª Conferencia

Joaquín Sevilla, profesor y responsable de divulgación del conocimiento de la Universidad Pública de Navarra: Ciencia patológica y patología editorial

Ciencia patológica y patología editorial

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Ciencia a presión: Ciencia patológica y patología editorial se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia a presión: Científicos que avalan patrañas
  2. Ciencia a presión: Periodistas que avalan patrañas
  3. Ni ciencia, ni pseudociencia, ciencia patológica.
Kategoriak: Zientzia

Una búsqueda celestial que ha durado 580 años

Or, 2017-09-01 12:00

La astronomía en el Antiguo Oriente ha sido una cuestión importante durante miles de años. En Corea del Sur aún se conservan estructuras denominadas Cheomseongdae, que significa literalmente torre para observar estrellas. La construcción que veis en la imagen inferior se edificó a mediados del siglo VI después de Cristo, entre los años 632 y 637, y durante los siguientes siglos las diferentes dinastías que gobernaron la región se preocuparon de hacerse con un notable cuerpo de astrólogos que se encargaron de registrar lo que ocurría en el cielo. Esta temprana afición por anotar y describir lo que veían nos resultará muy útil en nuestro artículo de hoy.

Cheomseongdae en la ciudad coreana de Gyeongju | Jinho Jung Flickr CC

Cuentan los documentos que se conservan que, en marzo de 1437, los astrólogos imperiales de la incipiente dinastía Joseon vieron aparecer una nueva estrella en el cielo, desde su “torre de las estrellas” en el palacio de Hanyang, la actual Seúl. Aquella nueva luz fue visible durante catorce días antes de desaparecer gradualmente del firmamento, mientras los sabios coreanos se afanaban por anotar su posición en algún lugar de “la cola” de la constelación de Escorpio.

De aquel fugaz resplandor, documentado hace ya 580 años, no se volvió a saber nada hasta hace tan solo unos días. La revista Nature publicó ayer mismo un artículo anunciando que, desde sus modernas atalayas, otro equipo de astrónomos ha localizado la luz que iluminó el cielo coreano en el siglo XV.

Por supuesto, por las descripciones del fenómeno que se conservan, los astrofísicos sabían desde hace tiempo que aquella luz observada en 1437 debía pertenecer a una nova, la cuestión era encontrarla… y no ha resultado fácil, de hecho, el autor principal del estudio Michael Shara, conservador del Departamento de Astrofísica del Museo Americano de Historia Natural, señalaba en un comunicado de prensa que “es la primera nova que se ha podido detectar con certeza basándose en los registros chinos, coreanos y japoneses de los últimos 2.500 años“.

Infografía de la formación de una nova clásica | Imagen NASA/CXC/M.Weiss

Explicar con palabras sencillas qué es una nova en un sistema binario no es muy difícil. Tenemos dos estrellas en una combinación que resulta bastante habitual en el Universo: una enana blanca y una gigante roja, girando una alrededor de la otra. Como veis en la infografía en esa relación estelar se produce un traspaso de material, principalmente helio e hidrógeno, de la roja a la blanca… A medida que acumula material la temperatura también aumenta y, cuando la enana blanca alcanza el punto de fusión nuclear, explota violentamente dejando una brillo, bastante más tenue que una supernova, pero aún así visible incluso para los astrólogos coreanos del siglo XV.

El proceso de formación de una nova puede durar docenas de miles de años, mientras la enana blanca acumula material “robado” de su compañera, sin embargo, el desenlace final es visible en el cielo durante unas pocas semanas o meses… después de eso, se desvanece poco a poco dejando apenas una tenue “concha” como vago recordatorio de lo que fue y a ver quién es el guapo que la encuentra de nuevo.

La búsqueda de esa nova ha interesado durante años al autor principal del trabajo, Michael Shara que, junto con otros astrofísicos como Mike Bode, de la Universidad John Moores de Liverpool, han estado buscando material y documentación hasta llegar a una placa fotográfica realizada hace ya casi un siglo.

Placa fotográfica, realizada en 1923, de la región estelar donde se encuentra la nova | DASCH Digital Access to a Sky Century, Harvard University

La placa (imagen superior) fue capturada desde la estación Boyden del Observatorio de Harvard, en Arequipa (Perú), en el año 1923, utilizando el telescopio Bruce Doublet de 24 pulgadas y con una exposición de 300 minutos. Se encontraba catalogada como “A12425” dentro del inmenso catálogo DASCH de la Universidad de Harvard, que recopila aproximadamente 200.000 placas fotográficas capturadas durante todo el siglo XX.

A esta primera placa de 1923, siguieron otras tantas del archivo DASCH, obtenidas ya en la década de 1940, con las que los investigadores por fin se encontraban en disposición para seguir la trayectoria de la nova. Ahora tan solo hacía falta apuntar uno de los modernos telescopios con los que contamos en la actualidad y… ¡voilá!

Imagen capturada en junio de 2016 por el telescopio Carnegie SWOPE de Chile | M.Shara et al. ArXiv

Llegamos finalmente a la imagen más clara de la nova observada en Seúl el 11 de marzo de 1437, (a la que me he permitido añadir las fechas). Lo que vemos corresponde a la concha expulsada en la explosión y fue tomada en junio del pasado 2016, por el telescopio Carnegie SWOPE de 1 metro en Chile usando un filtro que destaca el gas hidrógeno caliente de la concha. La estrella que produjo la concha nova está indicada con marcas rojas. Hoy está lejos del centro de la cáscara donde estalló. Sin embargo, su movimiento medido a través del cielo lo coloca en el “+” rojo en 1437. La posición del centro de la cáscara en 1437 está en el signo “+” verde.

Han sido necesarios casi seiscientos años desde la observación de aquellos atónitos ojos de los astrólogos coreanos que contemplaron un resplandor en el cielo, hasta llegar a la detección moderna de la nova y su evolución durante todo este tiempo. De las torres de piedra para mirar a las estrellas a los telescopios modernos, seis siglos en la Historia de la Humanidad… un suspiro en la vida del Universo.

Este post ha sido realizado por Javier Peláez (@irreductible) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Referencias científicas y más información:

M. Shara, K. Iłkiewicz, J. Mikołajewska, A. Pagnotta, D. Zurek, et al. “Proper-motion age dating of the progeny of Nova Scorpii AD 1437” Nature 548, 558–560 (31 August 2017) doi:10.1038/nature23644

M. Shara, K. Iłkiewicz, J. Mikołajewska, A. Pagnotta, D. Zurek, et al. “Nova Scorpius 1437 A.D. is now a dwarf nova, age-dated by its proper motion” Solar and Stellar Astrophysics (astro-ph.SR) | arXiv:1704.00086 [astro-ph.SR]

American Museum of Natural History “Scientists Recover Nova First Spotted 600 Years Ago by Korean Astrologers” Comunicado de prensa

El artículo Una búsqueda celestial que ha durado 580 años se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La historia de la insulina, 90 años salvando vidas
  2. 500 años de matrimonio no tan bien avenido
  3. 25 años de planetas extrasolares
Kategoriak: Zientzia

La ciencia y el ‘establishment’

Og, 2017-08-31 11:59

Una de las más peculiares justificaciones que se dan para rechazar los datos científicos en campos como las terapias alternativas o la eficacia y seguridad de las vacunas es la acusación de que la ciencia pertenece al ‘establishment’, esa palabra contenedor que agrupa a los segmentos sociales de poder. En estos tiempos de rechazo a cualquier cosa que esté cerca del poder, sea político o económico, ser asociado con las estructuras que dominan el mundo es el beso de la muerte y una pérdida automática de credibilidad: si formas parte de ‘los de arriba’ cualquier cosa que digas es automáticamente sospechosa de servir tan sólo para mantener la injusticia. Este rechazo y desconfianza a todo lo que represente poder forma parte de las revoluciones populistas que nos han dado fenómenos como el Brexit o la presidencia Trump, y sin duda tiene su parte de razón: la propaganda y la mentira son herramientas de los poderosos para conseguir sus intereses y mantener sus privilegios. Lo que resulta poco menos que hilarante es acusar a la ciencia, como conocimiento o como actividad, de estar en ese grupo. Porque los científicos nunca han tenido poder.

Hasta tal punto es así que cuando algún científico profesional se dedica a la política a todos los efectos deja de ser científico, o no actúa en público como tal: Alfredo Pérez Rubalcaba es profesor universitario de Química, pero es una anécdota en su carrera política, al igual que Angela Merkel es doctora en físicoquímica sin que ello haya parecido afectar demasiado a su presencia pública. Mientras la mayoría de los políticos son o abogados o especialistas en política, como es razonable, y actúan como tales, los científicos que llegan a la política aparentemente se olvidan de su pasado. Lo cual nos dice mucho sobre la realidad de la ciencia en los círculos de poder: si fuese una característica positiva quienes la poseen presumirían de ella.

De hecho la ciencia como metodología y el poder son bastante incompatibles, dado que la una trabaja para superar constantemente el ‘statu quo’ mientras que una característica permanente de cualquier poder es la tendencia a mantener la estructura que lo soporta. Mientras que el sueño del ‘establishment’ es que las cosas permanezcan como están, con ellos mandando, el objetivo de la ciencia es siempre superar los conocimientos anteriores. Por eso en múltiples ocasiones a lo largo de la historia poderes de diferentes tipos, desde gobiernos autoritarios a regímenes religiosos, han intentado e intentan hoy en día limitar, coartar y controlar el avance científico. Y por eso es tan complicado conseguir que los científicos ejerzan ningún tipo de acción conjunta o se organicen en estructuras de cualquier tipo: entrenados como escépticos y críticos profesionales resulta casi imposible usar con ellos las técnicas habituales de microgestión política, como sabe bien quien haya sobrevivido alguna vez a una reunión de departamento universitario.

La vida cotidiana de los científicos profesionales también respalda esta falta de poder real: sometidos a burocracias aplastantes y limitados en sus fuentes de financiación y recursos sus sueldos no son particularmente elevados ni gozan de privilegios sociales. Si la ciencia de verdad formase parte del poder sus practicantes recibirían las prebendas asociadas con esa exaltada posición. La realidad del día a día del científico desmiente categóricamente esta idea.

Es cierto que las empresas usan, y abusan, de la ciencia para aumentar sus beneficios; y es cierto que lo gobiernos y las naciones aprovechan las ventajas en riqueza y poder militar que la ciencia les ofrece. En el proceso a veces la ciencia es retorcida, abusada y masacrada, a veces hasta convertirla en caricatura de sí misma como cuando se utilizó para justificar principios político-morales en contra de la evidencia como el llamado ‘racismo científico’ o el darwinismo social. Pero esto es tan culpa de la ciencia como pueda serlo de la religión o de la nación cuando se convierten estos conceptos en justificaciones de políticas absurdas: la idea que una ideología retuerce para justificarse no es culpable de esa manipulación. Ni los descubrimientos realizados por la actividad científica quedan invalidados por el hecho de que haya quien abuse del nombre y prestigio de la ciencia para hacer propaganda o llevar a cabo manipulaciones políticas.

No, la ciencia no forma parte del ‘establishment’, y jamás lo hará. La acusación es injusta y extraña, al menos hasta que no veamos a los científicos en activo cobrando sueldos millonarios, presumiendo de sus artículos en la tribuna del Congreso, dirigiendo programas de televisión e horario de máxima audiencia y volando en aviones del estado a sus congresos. Cuando el fichaje de un científico por una institución ocupe en los medios tanto espacio como las opiniones de un político o como la llegada de un futbolista podremos revisar esta idea. De momento estamos muy, muy lejos de ello.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo La ciencia y el ‘establishment’ se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia, poder y comercio
  2. La ciencia y la competencia
  3. La ciencia y la duda
Kategoriak: Zientzia

Plattner y la cuarta dimensión

Az, 2017-08-30 11:59

«El caso Plattner y La máquina del tiempo aprovechan las posibilidades patéticas de la cuarta dimensión».

Jorge Luis Borges, en el prólogo de [H.G. Wells, La puerta en el muro, Siruela, 1984]

En su conocida novela de ciencia ficción La máquina del tiempo (1895), el escritor británico Herbert George Wells (1866-1946) hablaba de la cuarta dimensión; la cuarta dimensión entendida como el tiempo.

En 1896, en la revista New Review, Wells publicó el relato corto titulado La historia de Plattner, en el que aparece de nuevo la cuarta dimensión, aunque de una manera diferente.

Imagen 1: Dos portadas de La historia de Plattner que dan algunas pistas sobre el relato.

Pero empecemos por el principio. En La historia de Plattner, el protagonista es Gottfried Plattner, profesor en la Sussexville Proprietary School donde se encarga de enseñar las lenguas modernas. También debe ocuparse de la docencia de otras materias, como química, geografía económica, contabilidad, taquigrafía, dibujo y cualquier otra que se le encomiende… aunque sepa poco de ellas. Plattner es especialmente inexperto en química “En química era particularmente deficiente, sin conocer, según dice él, poco más que los Tres Gases (cualesquiera que puedan ser)”. Uno de sus alumnos le lleva un polvo verdoso para que lo analice… y un accidente sucede:

Existe práctica unanimidad en cuanto a lo que hizo Plattner. Vertió un poco de polvo verde en un tubo de ensayo y trató la sustancia, sucesivamente, con agua, ácido clorhídrico, ácido nítrico y ácido sulfúrico. Al no obtener resultado alguno vació casi la mitad de la botella en una bandeja y encendió una cerilla. Con la mano izquierda sujetaba la botellita de medicina. La sustancia comenzó a echar humo, se licuó e hizo explosión con ensordecedora violencia y un destello cegador.

Ante la sorpresa de los estudiantes, Plattner desaparece sin dejar huella:

No quedaba a la vista ni una partícula visible de Plattner, ni una gota de sangre, ni un jirón de ropa. Al parecer había desaparecido sin dejar rastro. No quedaron ni los rabos, como suele decirse. La evidencia de su total desaparición a consecuencia de la explosión es un hecho indudable.

Durante nueve días lo buscan de manera infructuosa:

Un aspecto no menos notable del asunto es el hecho de que varias personas del vecindario tuvieron sueños muy intensos de Plattner durante el período de excitación que precedió a su regreso, y que dichos sueños presentaban una curiosa uniformidad. En casi todos ellos se veía a Plattner, a veces solo y otras veces acompañado, caminando a través de una fulgurante iridiscencia En todos los casos su rostro aparecía pálido y relajado, y en algunos gesticulaba hacia la persona que soñaba. Uno o dos de los muchachos, evidentemente bajo la influencia de la pesadilla se imaginaron que Plattner se les acercaba con sigilo y parecía mirarles fijamente a los ojos. Otros huían con Plattner de la persecución de unas criaturas vagas y extraordinarias de forma esférica. Pero todas estas fantasías se olvidaron en interrogantes y especulaciones cuando el segundo miércoles después del lunes de la explosión, Plattner regresó.

En efecto, Plattner regresa súbitamente, ‘cayendo’ desde algún lugar, tras escucharse un ruido violento y producirse un relámpago. El profesor desaparecido desconoce lo que ha sucedido; ha permanecido, en contra de su voluntad, en ‘otro lugar’. Pero, al mismo tiempo, según sus declaraciones, podía ver lo que hacían las personas de ‘nuestro mundo’:

Estaban preparando sus tareas nocturnas y observó con curiosidad que varios de ellos resolvían con trampa sus teoremas de Euclides mediante una chuleta, cuya existencia no había sospechado hasta ese momento.

Una de las pruebas de que la fantástica historia de Plattner puede ser cierta es que su cuerpo ha sufrido una transformación, se ha invertido:

Es una lástima que la aversión de Plattner a la idea de la disección post mortem pueda posponer, quizá para siempre, la prueba positiva de que todo su cuerpo tiene invertidos los lados derecho e izquierdo. De ese hecho depende casi por completo la credibilidad de la historia. No hay manera de coger a un hombre y moverlo en el espacio, tal y como la gente normal lo entiende, que dé como resultado un cambio de sus lados. No importa lo que haga, su derecha seguirá siendo la derecha y la izquierda la izquierda. Esto se puede hacer con algo perfectamente delgado y plano. Si se recorta una figura de papel, cualquier figura con un lado derecho y otro izquierdo, se puede cambiar su forma invirtiéndola. Pero con un cuerpo sólido es diferente. Los matemáticos nos dicen que la única manera de cambiar los lados derecho e izquierdo de un cuerpo sólido es sacarle del espacio que conocemos, sustraerlo de la existencia ordinaria y llevarle a cualquier otro espacio exterior. Esto es un poco abstruso, sin duda, pero cualquiera con algún conocimiento de matemática teórica confirmará al lector esa verdad. Para expresarlo en un lenguaje técnico, la curiosa inversión de los lados derecho e izquierdo de Plattner es una prueba de que ha escapado de nuestro espacio hacia el que recibe el nombre de Cuarta Dimensión, y que después ha regresado a nuestro mundo. A menos que prefiramos consideramos víctimas de una inversión elaborada y sin sentido, estamos casi obligados a creerlo.

Wells explica exquisitamente –por analogía con el paso de la dimensión dos a la dimensión tres–, que solo ha podido suceder ese cambio físico en Plattner si el protagonista ha viajado a la cuarta dimensión, allí se ha invertido su cuerpo, y ha regresado después…

Imagen 2: Para invertir esta figura plana es preciso hacerlo en el espacio tridimensional, no es posible hacerlo en el espacio bidimensional.

Puede leerse la historia completa en este enlace.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Plattner y la cuarta dimensión se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Hipercubo, visualizando la cuarta dimensión
  2. Hipercubo, visualizando la cuarta dimensión (y 2)
  3. #Naukas15 La cuarta dimensión de la genética
Kategoriak: Zientzia

Sistemas nerviosos: las áreas motoras

Ar, 2017-08-29 17:00

Como quedó dicho en la anotación anterior de esta serie, el procesamiento e integración de la información recibida en las áreas sensoriales de la corteza, puede dar lugar a la generación de respuestas motoras. Con esto quiere decirse que tales respuestas se traducen en la contracción de ciertos grupos de músculos esqueléticos y, como consecuencia de ello, en la realización de determinadas acciones voluntarias (respuestas vocales, desplazamientos, movimientos de masticación, gesticulaciones, etc.). Las áreas corticales responsables de la planificación, control y ejecución de los movimientos voluntarios se encuentran en la denominada corteza motora primaria (área 4 de Brodmann) y esta, a su vez, se sitúa en el lóbulo frontal, junto a la corteza somotasensorial, aunque separada de aquella por el surco central.

La corteza motora debió de surgir en mamíferos placentarios hace aproximadamente 100 millones de años, pues muy probablemente los primeros mamíferos -surgidos a partir de 200 millones de años- procesaban la información somatosensorial y la motora en la misma zona cortical, la somatomotora. Se cree que la diferenciación anatómica de las dos funciones –sensorial y motora- proporcionó a los primeros mamíferos placentarios habilidades motoras mucho más complejas que las que poseían sus ancestros.

Como ocurre con la información sensorial, también la información motora que sale del hemisferio derecho tiene su destino en el lado izquierdo del cuerpo, y viceversa; por esa razón, los daños producidos en la corteza motora dan lugar a parálisis o problemas de movimiento en el lado opuesto a aquel en que se produjo el daño. También en este caso la corteza primaria se organiza topológicamente, de manera que neuronas y grupos de neuronas adyacentes tienden a controlar músculos próximos entre sí, aunque en este caso la correspondencia entre la organización de los puntos en la corteza y de los músculos no es tan estricta como en el caso del mapa somatosensorial. Al parecer, más que el control de músculos individuales, lo que controlan las diferentes áreas de la corteza motora son grupos de músculos, de manera que aquellos implicados en movimientos complejos pueden contraerse de forma coordinada. Y como veremos más adelante, en cada proceso motor pueden participar diferentes zonas corticales. De hecho, la corteza motora primaria no ha de ser tomada como un mapa estático de músculos o movimientos, sino como un mapa computacional dinámico cuya organización interna y conexiones espinales convierten las señales centrales relativas a las intenciones motoras y al feedback sensorial procedente de las extremidades en órdenes motoras.

La corteza motora primaria forma parte de una red distribuida de áreas corticales, cada una de las cuales desempeña su propia función de control motor. Esas otras áreas son:

(1) La corteza premotora (área de Brodmann 6), que se se encuentra adyacente a la corteza motora primaria y por delante de ella. En ella se pueden distinguir, a su vez, las siguientes áreas: (1.1) premotora lateral ventral, (1.2) premotora lateral dorsal, (1.3) motora suplementaria, y (1.4) áreas motoras cinguladas.

(2) La corteza parietal posterior, que se encuentra en el lóbulo parietal, al otro lado de la corteza somatosensorial. Participa en la transformación en órdenes motoras de información sensorial de varias fuentes, así como en tareas de planificación. Es también considerada un área asociativa, aunque como veremos, en el caso de las áreas tratadas en esta anotación, tal distinción no es fácil de hacer y quizás, ni siquiera tiene sentido hacerla.

Aunque tradicionalmente se pensaba que las áreas motoras funcionaban siguiendo una secuencia jerárquica prefijada, sus actividades y funciones se hallan distribuidas a lo largo de todo el sistema cortical motor, sin que se produzcan secuencias lineales de acciones. Al contrario, cada operación neuronal puede implicar diferentes áreas funcionando en paralelo, y el modo en que participan unas y otras depende de las circunstancias y se puede modificar a lo largo del tiempo. Por otro lado, la visión clásica de las áreas motoras relegaba a estas a una función de meras ejecutoras de las órdenes elaboradas por otras áreas del cerebro. Sin embargo, las funciones de percepción, cognición y acción no se diferencian ni anatómica ni funcionalmente con tanta claridad, sino que se encuentran íntimamente relacionadas y se producen con el concurso simultáneo de diferentes áreas.

Los ganglios basales son estructuras subcorticales también implicadas en el control de las actividades motoras. Consisten en masas de materia gris localizadas en el interior de la materia blanca cerebral. Su papel en el control motor es complejo y consiste en (1) inhibición del tono muscular de musculatura esquelética en diferentes partes del cuerpo, (2) selección y mantenimiento de ciertos movimientos en virtud de su conveniencia, a la vez que se suprimen otros por innecesarios o indeseados, y (3) ayuda a monitorizar y coordinar contracciones lentas relacionadas, normalmente, con el mantenimiento de la postura corporal. La acción de los ganglios basales se realiza incidiendo en la actividad de las vías motoras. En conjunto, se puede decir que los ganglios basales ocupan una posición central en el control de la musculatura esquelética recibiendo y enviando infinidad de conexiones sinápticas con diferentes estructuras encefálicas, como la corteza cerebral, el tálamo y el tallo encefálico.

Las del cerebro (areas motoras corticales y ganglios basales) no son las únicas regiones del sistema nervioso implicadas en el control de la actividad motora. Ciertas áreas “inferiores”, así como la médula espinal, ejercen un control involuntario de la musculatura esquelética en tareas tales como el mantenimiento de la postura corporal, por ejemplo. De la misma forma, pueden mantener la coordinación y el control de forma involuntaria (inconsciente) de ciertos movimientos que habían sido iniciados de forma voluntaria por la corteza cerebral. Y por otro lado, y como vimos en la anotación que le dedicamos, el cerebelo juega un papel importante en la planificación de movimientos y en la realización en el orden debido de secuencias de movimientos, especialmente cuando se trata de habilidades motoras aprendidas. Las áreas corticales inician de forma voluntaria una secuencia aprendida, pero el cerebelo es el que garantiza que esa secuencia se ejecuta de forma correcta, y a tal efecto, envía señales a la corteza motora primaria.

Fuentes:

Eric R. Kandel, James H. Schwartz, Thomas M. Jessell, Steven A. Siegelbaum & A. J. Hudspeth (2012): Principles of Neural Science, Mc Graw Hill, New York

Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sistemas nerviosos: las áreas motoras se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas nerviosos: las áreas sensoriales
  2. Sistemas nerviosos: el sistema límbico
  3. Sistemas nerviosos: el sistema central de vertebrados
Kategoriak: Zientzia

Un modelo simple de gas

Ar, 2017-08-29 11:59

¿Cuáles son las diferencias entre un gas y un líquido o un sólido? Sabemos por experiencia que, si no se comprimen, los líquidos y los sólidos tienen volumen definido. Incluso si sus formas cambian, todavía ocupan la misma cantidad de espacio. Un gas, por otra parte, se expandirá espontáneamente para llenar cualquier recipiente (como una habitación). Si no está confinado, saldrá y se extenderá en todas direcciones [1].

Los gases tienen densidades bajas en comparación con los de líquidos y sólidos, típicamente alrededor de 1000 veces más pequeñas. Por lo tanto, las moléculas [2] de gas suelen estar relativamente alejadas unas de otras. En el modelo de un gas que vamos a construir, podemos suponer razonablemente que las fuerzas entre las moléculas actúan sólo a distancias muy cortas. En otras palabras, las moléculas de gas se consideran que se mueven libremente la mayor parte del tiempo. En los líquidos, las moléculas están más juntas, las fuerzas actúan continuamente entre ellas y les impiden que se separen demasiado. En los sólidos, las moléculas suelen estar aún más juntas, y las fuerzas entre ellas las mantienen en una disposición más (cristales) o menos (vidrios) definida.

Antes de continuar quizás convengan recordar que vamos a plantear un modelo teórico de un gas. Este modelo existirá, por tanto, solo en nuestra imaginación. Al igual que los puntos, las líneas, los triángulos y las esferas que se estudian en geometría, este modelo teórico podrá ser tratado matemáticamente. Los resultados de este tratamiento pretenden comprender el mundo real aunque, por supuesto, previamente el modelo tendrá que ser comprobado experimentalmente a fin de ver si se aproxima a la realidad.

Nuestro modelo inicial de un gas es por tanto muy simple, siguiendo el consejo de Newton de comenzar con las hipótesis más simples. Asumiremos que las moléculas son pequeñas esferas o grupos de esferas que no ejercen ninguna fuerza en las demás salvo cuando hacen contacto. Además, supondremos que todas las colisiones de estas esferas son perfectamente elásticas, esto es, la energía cinética total de dos esferas es la misma antes y después de chocar, no hay pérdidas.

Nuestro modelo teórico considera que el gas consiste en un gran número de partículas muy pequeñas en movimiento rápido y desordenado. “Un gran número” significa algo así como un trillón (1018) o más partículas en una muestra tan pequeña como una burbuja en un refresco. “Muy pequeño” significa un diámetro claramente inferior a un nanómetro (10-9 m) para cada una de esas partículas. “Movimiento rápido” significa una velocidad media a temperaturas normales de unos cuantos cientos de metros por segundo.

El concepto “desordenado” es algo más prolijo de explicar. Los teóricos cinéticos del siglo XIX supusieron que cada molécula individual se movía de manera definida, determinada por las leyes del movimiento de Newton. Por supuesto, en la práctica es imposible seguir billones y billones de partículas al mismo tiempo. Se mueven en todas direcciones y cada partícula cambia su dirección y velocidad durante las colisiones con otras partículas o con la pared del recipiente. Por lo tanto, no podemos hacer una predicción definida del movimiento de ninguna partícula individual. Por contra, debemos contentarnos con describir el comportamiento promedio de grandes colecciones de partículas. De un momento a otro, cada molécula individual se comporta de acuerdo con las leyes del movimiento. Pero es más fácil describir el comportamiento promedio, y asumir completa ignorancia sobre cualquier movimiento individual.

Para ver por qué esto es así, imagina los resultados de lanzar al aire un gran número de monedas a la vez. Si asumimos que las monedas se comportan al azar, puedes predecir con confianza que lanzar un millón de monedas dará aproximadamente 50% de caras y 50% de cruces. El mismo principio se aplica a las moléculas de gas rebotando en un contenedor. Puedes asumir con seguridad, por ejemplo, que se mueven en una dirección tantas como lo hacen en cualquier otra. Además, en un momento dado el mismo número de moléculas es igualmente probable que se encuentre en cualquier centímetro cúbico de espacio dentro del contenedor como en cualquier otro. “Desordenado”, entonces, significa que las velocidades y las posiciones se distribuyen al azar. Cada molécula es tan probable que esté moviéndose a la derecha como a la izquierda (o en cualquier otra dirección). Es tan probable que esté cerca del centro como cerca del borde (o en cualquier otra posición).

Ya tenemos construido nuestro modelo. Ahora a ver cómo se comporta y a ver que extraemos de ello. Eso será en las próximas entregas de esta serie.

Notas:

[1] El confinamiento no implica la existencia de un contenedor, aunque en este texto asumamos implícitamente que sí por simplicidad. Un gas puede estar confinado por la gravedad, como en una estrella o, sin ir más lejos, en la atmósfera, aunque no sea un confinamiento completamente estanco.

[2] Empleamos “moléculas” y no “átomos” por generalidad del concepto. Los gases constituidos por átomos que no forman parte de una molécula son una minoría frente a todos los gases moleculares posibles.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Un modelo simple de gas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una cuestión de movimiento
  2. La ley del gas ideal y la tercera ley de la termodinámica
  3. La segunda ley de la termodinámica
Kategoriak: Zientzia

El consumo de alcohol para el corazón y las dificultades de divulgar ciencia

Al, 2017-08-28 17:00

Javier Sánchez Perona

Es frecuente encontrar divulgadores científicos de nutrición que rechazan de forma tajante el consumo de alcohol, negando las creencias previas, que tan extendidas están en nuestra sociedad y nuestra cultura. Esas creencias que dicen que el consumo de alcohol de forma moderada es saludable para el corazón.

El máximo exponente de esta corriente es probablemente Julio Basulto. A Julio, lo mismo que a los otros divulgadores científicos, lo respeto muchísimo porque la labor que hacen es compleja, ingente y muy necesaria. Sin embargo, en algunas ocasiones me da la impresión de que algunos divulgadores somos demasiado categóricos con algunas afirmaciones. Realmente, es complicado divulgar, porque el público normalmente exige respuestas contundentes y en ciencia no siempre es fácil ser riguroso y contundente al mismo tiempo. Además la ciencia es dinámica, lo que hoy se da por sentado puede ser rebatido mañana. Las demostraciones científicas se obtienen tras muchos tipos de estudios que van aportando pequeñas evidencias, algunas con más potencia que otras, pero esos matices son difíciles de explicar al gran público. Aquí os dejo una charla Ted de Julio Basulto sobre el consumo de alcohol, que se ha hecho bastante viral.

Otra de mis divulgadoras favoritas es Deborah García Bello, que ha publicado muy recientemente un artículo sobre el consumo de alcohol, siguiendo la misma tesis que Julio Basulto: el consumo se alcohol es perjudicial siempre y en toda cantidad.

En su artículo, Deborah sostiene que el fundamento de que “el consumo de alcohol es saludable” proviene de los experimentos realizados con resveratrol, un polifenol presente en el vino. A este compuesto se han atribuido multitud de efectos, la mayoría positivos, sobre la salud. Yo llegué a escuchar a alguien decir que “si quieres que te salga algo en un experimento in vitro, ponle resveratrol, que hace de todo”. Sin embargo, los efectos del resveratrol no han sido aún probados en humanos.

En el artículo, Déborah hace una recopilación del conocimiento científico hasta la fecha sobre el consumo de alcohol y la opinión de algunas organizaciones de referencia, como la Organización Mundial de la Salud (OMS). En el informe de la OMS, Alcohol in the European Union, que es de 2012, se dice “el uso del alcohol está relacionado de forma abrumadora y perjudicial con muchos eventos cardiovasculares, incluyendo la enfermedad hipertensiva, accidente cerebrovascular hemorrágico y fibrilación auricular”. Pero lo que no menciona Déborah es que en el mismo párrafo se dice que “Para la cardiopatía isquémica y el accidente cerebrovascular isquémico, la relación es más compleja.” O sea, que para estos otros eventos cardiovasculares, no está tan claro si es consumo de alcohol es perjudicial. Y ya estamos con el problema de siempre. En estas condiciones es muy complicado responder a la pregunta ¿el alcohol es bueno para el corazón? Para poder responder rigurosamente habría que explicar los matices de accidente cerebrovascular hemorrágico y accidente cerebrovascular isquémico y eso no es tan fácil.

Siguiendo con el informe de la OMS, en el mismo párrafo dice. “Pero, por término medio, el consumo ligero a moderado tiene un efecto protector sobre las enfermedades isquémicas (Roerecke & Rehm, en prensa). Este efecto se encuentra igual para las personas que sólo beben cerveza o que sólo beben vino”. Y cuando ya parecía que el consumo moderado de cerveza sí podría tener un beneficio, el mismo párrafo le da otra vuelta. “Sin embargo, cada vez más se entiende que gran parte de este efecto se debe a factores de confusión (Roerecke & Rehm, 2010)”. Los factores de confusión son variables que se deben tener en cuenta a la hora de establecer las relaciones entre alcohol y salud. Por ejemplo, el estatus económico, la edad, la educación, el consumo de tabaco, drogas, etc. Muchas veces si no se tienen en cuenta estos confundidores aparecen relaciones donde en realidad no las hay. Por ejemplo, las personas que consumen vino habitualmente podrían tener mejor calidad de vida, pero no debido a las virtudes del vino, sino a su mayor poder adquisitivo.

Como habéis visto, en el párrafo anterior he citado a Roerecke y Rehm, investigadores de la Universidad de Toronto (Canadá), lo que me sirve para ejemplificar que el debate sobre el consumo moderado de alcohol sigue vigente. Estos autores hablan de la influencia de los confundidores, pero ellos mismos en un meta-análisis de estudios observacionales publicado en la revista Addiction en 2012, concluían que “Este estudio demostró que la mayor parte del efecto cardioprotector se puede lograr ya con 1-2 bebidas/día para los hombres y 1 bebida/día para las mujeres.” [1].

Y ahora viene lo bueno. ¡Guerra de científicos! Tras esta conclusión, Tim Stockwell, de la Universidad de Victoria (Canada), respondió con un comentario en la misma revista [2]. “Los autores señalan que la mayoría de los estudios incluidos fueron muy pobres. Muy pocos controlaron factores de confusión potenciales del estilo de vida (por ejemplo, no fumar) que pudieran estar correlacionados tanto con el consumo moderado de alcohol como con la salud, muy pocos controlados directamente por la inclusión de ex bebedores en el grupo de referencia ‘abstemio’ y muchos evaluaron la bebida al inicio durante un período de tiempo relativamente corto.” O sea, que según Stockwell, Roerecke y Rehm no habían elegido bien los estudios incluidos en su meta-análisis.

¿Qué es lo ideal que tiene que hacer un científico cuando hace una crítica de ese tipo? Replicar el estudio. Si los demás lo han hecho mal, él lo hará bien. Y eso hizo Stockwell. En 2016, publicó otro meta-análisis en el que incluyó más estudios que Roerecke y Rehm y se publicó en la revista Journal of Studies on Alcohol and Drugs [3]. Stockwell concluyó que “Las estimaciones del riesgo de mortalidad por el alcohol están significativamente alteradas por el diseño y las características del estudio. Los metaanálisis que ajustan para estos factores encuentran que el consumo de alcohol en volumen pequeño no tiene un beneficio neto de mortalidad en comparación con la abstención de por vida o el consumo ocasional de alcohol.” Dicho de otro modo, el consumo moderado de alcohol no es protector, y si otros estudios lo han encontrado es porque estaban mal diseñados. Este estudio se menciona en el artículo de Deborah también.

¿Pero pensabais que Roerecke y Rehm no tendrían una respuesta? Si es así os equivocabais. La publicaron en la misma revista [4]. Resulta que el estudio de Stockwell también tenía deficiencias: “Los estudios disponibles para el análisis de Stockwell son de cohortes seleccionadas de un rango limitado de sociedades, con importantes deficiencias metodológicas. La mayoría de los estudios dependen de una sola medida auto-reportada del volumen de bebida al momento de la inscripción en el estudio.” Y llegan a decir que no es posible comparar sociedades donde el consumo de alcohol es cultural y habitual con sociedades donde ser abstemio es lo normal: “Parece imposible determinar comparaciones verdaderas con la abstención en los países occidentales de altos ingresos. Los estudios prospectivos en países donde la abstención no es una anomalía cultural podrían ayudar a cuantificar los efectos.”

A Stockwell también le respondieron otros investigadores y de forma mucho más contundente [5]. En primer lugar porque se trata de investigadores que forman parte del Foro Científico Internacional de Investigación sobre Alcohol. Es importante señalar que este foro declara no recibir apoyo de ninguna organización o empresa de la industria de bebidas alcohólicas y que no tienen conflictos de interés. Y en segundo lugar por este comentario final: “En opinión de nuestro Foro, el artículo de Stockwell et al. distorsiona la evidencia científica acumulada sobre el alcohol y la mortalidad. La preocupación es que la selección sesgada de los estudios socava el valor del artículo, pero, lo que es más importante, promulga la desinformación en nombre del método científico.” ¡Toma ya! Pocas veces se puede leer algo tan duro en una revista científica.

En definitiva, parece que no está ni mucho menos claro que el consumo moderado de alcohol sea perjudicial para el corazón y que el debate está en su apogeo. Hace un par de meses, el grupo de Roerecke y Rehm publicó el último meta-análisis [6]: “Cuanto más alcohol se consume, mayor es el riesgo de enfermedad o muerte. Las excepciones fueron las enfermedades isquémicas y la diabetes, con relaciones curvilíneas, y con efectos beneficiosos en personas que beben de forma ligera o moderada, sin ocasiones irregulares en que beben grandes cantidades.” Con relaciones curvilíenas se refieren a la famosa curva J, que indica que el consumo moderado es más beneficioso que no consumir alcohol pero que los grandes consumidores tienen un riesgo mucho mayor (Figura 1).

Figura 1. Imagen tomada de Basulto J. La verdadera “curva en J” del alcohol, accedido el 28/08/2017

En este estudio, Roerecke y Rehm también admitían que se necesita tener en cuenta muchos más factores además de la cantidad de alcohol. El equipo de Miguel Angel Martínez-González, de la Universidad de Navarra, publicó en 2014 un estudio observacional en el que se tuvieron en cuenta, además de la cantidad de alcohol consumida diaria, la frecuencia de consumo semanal, el tipo de bebida alcohólica, si se come preferentemente con las comidas y si se abusa en algunas ocasiones [7]. Teniendo en cuenta todos estos factores, concluyeron que un patrón de consumo mediterráneo (consumo moderado diario, sobre todo de vino, durante las comidas y sin abuso irregular) conduce a un menor riesgo de mortalidad en comparación con los abstemios.

Como veis, el problema se suscita porque el grado de evidencia existente no es lo suficientemente alto. No existen por el momento suficientes datos de ensayos clínicos, que aportan un mayor nivel de evidencia científica. Por el momento los estudios está realizados en pequeños grupos de 20-40 personas [8-9], y están enfocados a marcadores asociados a la enfermedad cardiovascular, pero no a mortalidad o eventos primarios como el infarto o el ictus. Tendremos que esperar.

En conclusión, hay un fuerte debate científico todavía sobre los perjuicios y beneficios del consumo de alcohol. Por supuesto, no hay discusión sobre el consumo de alcohol en grandes cantidades, pero sí cuando el consumo es moderado y consiste en vino o cerveza. Aún no tenemos suficientes estudios clínicos para hacer afirmaciones demasiado rotundas sobre si el consumo de una copa de vino o cerveza al día puede ser beneficioso. Por tanto, me parece un poco arriesgado ser categórico, aunque sea lo que el público demande de un divulgador.

Referencias

1. Roerecke M, Rehm J. The cardioprotective association of average alcohol consumption and ischaemic heart disease: a systematic review and meta-analysis. Addiction. 2012;107(7):1246-60.

2. Stockwell T. Commentary on Roerecke & Rehm (2012): The state of the science on moderate drinking and health–a case of heterogeneity in and heterogeneity out? Addiction. 2012;107:1261-2.

3. Stockwell T, Zhao J, Panwar S, Roemer A, Naimi T, Chikritzhs T. Do “Moderate” Drinkers Have Reduced Mortality Risk? A Systematic Review and Meta-Analysis of Alcohol Consumption and All-Cause Mortality. J Stud Alcohol Drugs. 2016;77(2):185-98.

4. Rehm J, Roerecke M, Room R. All-Cause Mortality Risks for “Moderate Drinkers”: What Are the Implications for Burden-of-Disease Studies and Low Risk-Drinking Guidelines? J Stud Alcohol Drugs. 2016;77(2):203-4; discussion 205-7.

5. Barrett-Connor E, de Gaetano G, Djoussé L, Ellison RC, Estruch R, Finkel H, Goldfinger T, Keil U, Lanzmann-Petithory D, Mattivi F, Skovenborg E, Stockley C, Svilaas A, Teissedre PL, Thelle DS, Ursini F, Waterhouse AL. Comments on Moderate Alcohol Consumption and Mortality. J Stud Alcohol Drugs. 2016;77(5):834-6.

6. Rehm J, Gmel GE Sr, Gmel G, Hasan OSM, Imtiaz S, Popova S, Probst C, Roerecke M, Room R, Samokhvalov AV, Shield KD, Shuper PA. The relationship between different dimensions of alcohol use and the burden of disease-an update. Addiction. 2017;112(6):968-1001.

7. Gea A, Bes-Rastrollo M, Toledo E, Garcia-Lopez M, Beunza JJ, Estruch R, Martinez-Gonzalez MA. Mediterranean alcohol-drinking pattern and mortality in the SUN (Seguimiento Universidad de Navarra) Project: a prospective cohort study. Br J Nutr. 2014;111(10):1871-80.

8. Estruch R, Sacanella E, Mota F, Chiva-Blanch G, Antúnez E, Casals E, Deulofeu R, Rotilio D, Andres-Lacueva C, Lamuela-Raventos RM, de Gaetano G, Urbano-Marquez A. Moderate consumption of red wine, but not gin, decreases erythrocyte superoxide dismutase activity: a randomised cross-over trial. Nutr Metab Cardiovasc Dis. 2011;21(1):46-53.

9. Mori TA, Burke V, Zilkens RR, Hodgson JM, Beilin LJ, Puddey IB. The effects of alcohol on ambulatory blood pressure and other cardiovascular risk factors in type 2 diabetes: a randomized intervention. J Hypertens. 2016;34(3):421-8.

Sobre el autor: Javier Sánchez Perona (@MrChylo) es Científico Titular del Instituto de la Grasa-CSIC y Profesor Asociado de la Universidad Pablo de Olavide. Trabaja en el conocimiento de los mecanismos implicados en el transporte y metabolismo de los lípidos en humanos, así como en las repercusiones que tienen las grasas de la dieta y sus compuestos bioactivos sobre las enfermedades metabólicas. Es miembro de Ciencia Con Futuro y divulga en el blog Malnutridos

El artículo El consumo de alcohol para el corazón y las dificultades de divulgar ciencia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. «Una copita de vino es buena para el corazón». Claro que sí, guapi.
  2. Daños estructurales por consumo de alcohol en el cerebro humano
  3. Beber alcohol produce cáncer
Kategoriak: Zientzia

Resveratrol y pteroestilbeno en el control epigenético de la acumulación de grasa corporal

Al, 2017-08-28 11:59

Ana Gracia Jadraque ha demostrado, en su tesis doctoral defendida en la Universidad del País Vasco/Euskal Herriko Unibertsitatea, que los cambios producidos por los compuestos fenólicos resveratrol y el pterostilbeno en la adición de grupos metilo al ADN y a los microRNAs están involucrados en la prevención de la acumulación de grasa corporal.

ADN metilado (las esferas blancas representan grupos metilo)

En los últimos años, está cobrando mucho interés la regulación de genes a través de la metilación del ADN, proceso epigenético (mecanismo que regula la expresión de genes) que produce cambios en la actividad del ADN sin alterar su secuencia, y su control mediante pequeños fragmentos de RNA llamados microRNAs. Este tipo de regulación tiene gran importancia tanto en la fisiopatología de diversas enfermedades comunes en nuestra sociedad como en el tratamiento de las mismas. Asimismo, la dieta es un factor ambiental que ha demostrado ejercer una influencia importante sobre estos procesos de regulación. En concreto, se ha demostrado que diversos compuestos bioactivos, presentes en los alimentos, son capaces de modificar la metilación del ADN y la expresión de microRNAs.

Los resultados de la tesis defendida por Ana Gracia Jadraque, ‘Implicación de la metilación del ADN y los microRNAs en el efecto delipidante de los estilbenos en el tejido adiposo y el hígado’, basados en estudios realizados en modelos animales con obesidad, demuestran que el pterostilbeno provoca modificaciones en el grado de metilación de una de las enzimas (proteínas que llevan a cabo reacciones químicas dentro del organismo) involucradas en la lipogénesis de novo, ruta por la que se forman ácidos grasos nuevos para ser almacenados en el tejido adiposo, además de interactuar directamente con las enzimas responsables de realizar estas marcas epigenéticas (DNMTs).

Aunque esa alteración de la lipogénsis de novo no se produce con el tratamiento con resveratrol, presente entre otros en frutos rojos como uva y derivados, sí produjo cambios en la regulación de varios microRNAs en el tejido adiposo blanco. Varios de los microRNAs modificados tienen relación con genes del metabolismo de los triglicéridos, ejerciendo algunos de ellos una regulación indirecta sobre la formación de ácidos grasos.

Un segundo estudio realizado en hígado, ha proporcionado nuevas pruebas que muestran que el resveratrol disminuye la expresión de microRNAs altamente expresados en ese órgano. Como resultado, se ha observado que un aumento de la expresión y de la actividad de una enzima involucrada en la b-oxidación de ácidos grasos, ruta metabólica que degrada ácidos grasos para formar energía, puede ser debido a una modulación de la expresión de microRNAs mediada por el resveratrol.

Estos cambios producidos por ambos compuestos fenólicos en la metilación del ADN y en los microRNAs están involucrados en la prevención de la acumulación de grasa corporal.

Estudios previos, realizados por el grupo de investigación Nutrición y Obesidad del Departamento de Farmacia y Ciencias de los Alimentos de la UPV/EHU, ya pusieron de manifiesto que algunos compuestos fenólicos, como el resveratrol y el pterostilbeno, eran capaces de prevenir la obesidad inducida por dietas ricas en grasa saturada y azúcares simples en modelos animales. Debido al escaso conocimiento de los efectos de estos compuestos por mecanismos epigenéticos y microRNAs, esta tesis doctoral se ha centrado en el estudio de esos dos aspectos moleculares sobre el metabolismo de los triglicéridos. Para ello, se llevaron a cabo dos enfoques. El primero fue analizar la posible influencia del resveratrol y pterostilbeno sobre la metilación del ADN en la acumulación de triglicéridos en el tejido adiposo y, el segundo, establecer la participación del resveratrol en la regulación post-transcripcional por microRNAs en el tejido adiposo y la acumulación de grasa hepática.

Referencias:

Gracia A, Fernández-Quintela A, Miranda J, Eseberri I, González M, Portillo MP (2017) Are miRNA-103, miRNA-107 and miRNA-122 Involved in the Prevention of Liver Steatosis Induced by Resveratrol? Nutrients doi: 10.3390/nu9040360

Gracia A, Miranda J, Fernández-Quintela A, Eseberri I, Garcia-Lacarte M, Milagro FI, Martínez JA, Aguirre L, Portillo MP (2016) Involvement of miR-539-5p in the inhibition of de novo lipogenesis induced by resveratrol in white adipose tissue Food Funct. doi: 10.1039/c5fo01090j

Gracia A, Elcoroaristizabal X, Fernández-Quintela A, Miranda J, Bediaga NG, M de Pancorbo M, Rimando AM, Portillo MP (2014) Fatty acid synthase methylation levels in adipose tissue: effects of an obesogenic diet and phenol compounds Genes Nutr. doi: 10.1007/s12263-014-0411-9

El artículo Resveratrol y pteroestilbeno en el control epigenético de la acumulación de grasa corporal se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La combinación de dos moléculas marroniza la grasa
  2. El pteroestilbeno como posible tratamiento de la obesidad
  3. La grasa abdominal no depende del ejercicio que hagas sino de la grasa que consumas
Kategoriak: Zientzia

El arte de innovar, de Javier Echeverría

Ig, 2017-08-27 11:59

Juan Ignacio Pérez Iglesias, lector

La noción de innovación se adueñó hace ya bastantes años del lenguaje de gestores y políticos relacionados con la industria y con lo que antes se había venido denominando I+D (investigación y desarrollo) a secas. Esa innovación en el lenguaje obedecía, a mi juicio, a que gestores y políticos, en su gran mayoría, consideran el conocimiento (a secas) un lujo cultural que está bien pero que resulta, a todas luces, limitado y, si es el caso, prescindible. No les parecía suficiente la D de desarrollo (tecnológico), y encontraron en la i minúscula una posible vía para reorientar las políticas de apoyo a la generación de conocimiento y ámbitos relacionados con estas. La opción por la i minúscula se vio favorecida por los intereses de ciertos agentes que habían encontrado limitaciones para acceder al sistema de I+D (o sea, a sus fondos) tal y como se hallaba configurado y vieron en la i minúscula una posible vía para superar la limitación.

Es así como un servidor ha interpretado la irrupción de esa i en el mundo de las instituciones e industrias muy dependientes del conocimiento avanzado y de las políticas públicas dirigidas a su promoción. Pero lo más probable es que esté perfectamente equivocado, por supuesto.

Se acaba de publicar un libro raro. Se titula El arte de innovar. Naturalezas, lenguajes, sociedades y aunque el título no lo expresa con claridad, la obra tiene por objeto elaborar las que podrían ser bases para un desarrollo de una nueva disciplina, que podría denominarse innología, en la que se englobarían estudios sobre innovación y muy en particular, una filosofía de la innovación.

Lo cierto es que hasta que no lo leí en el texto no había sido consciente de que tal cosa, filosofía de la innovación, no existe o, al menos, no existe con carácter formal. Existen la epistemología, la axiología y la filosofía de la ciencia, pero no existe nada que pueda ser denominado filosofía de la innovación. Se han publicado algunos libros sobre innovación (Drucker, 1995; Lundvall, 1992; o más recientemente y de tono muy divulgativo, Johnson, 2010, son buenos ejemplos). Y existen los textos de la OCDE (Manual de Oslo de 2005 y otros textos más recientes) y de la Comisión Europea, de 2006 y 20101. Pero ninguno de ellos había abordado de forma explícita la cuestión de la filosofía de la innovación.

Y eso es, precisamente, lo que ha hecho Javier Echeverría, quizás una de las personas, por su trayectoria, más adecuadas para abordar la tarea. Javier recibió en 1995 el Premio Anagrama de Ensayo por Cosmopolitas domésticos y el Premio Nacional de Ensayo en 2000 por Los Señores del Aire, Telépolis y el Tercer Entorno. En la actualidad es profesor de investigación Ikerbasque, trabaja en la UPV/EHU y es miembro de Jakiunde.

En su libro Echeverría se propone sacar la noción de innovación del marco limitado del mundo de la empresa y las instituciones para llevarlo a uno mucho más amplio. Pretende naturalizar el concepto de innovación, de manera que se convierta en una noción aplicable a esferas tan diferentes como la naturaleza, las sociedades, las empresas, las ideas, el lenguaje y otras. El enfoque de Echeverría es, pues, pluralista y sistémico.

Y es ambicioso. La ambición de su planteamiento es necesaria; de otra forma no saldría de los cauces trillados en los manuales al uso. Pero esa ambición es quizás la causa de las principales objeciones que le encuentro. Así, por ejemplo, si bien me parece razonable incluir muchos procesos biológicos, con sus resultados, en el catálogo de innovaciones, no veo tan claro que merezcan similar consideración fenómenos de carácter cósmico. Desde el punto de vista de lo que podemos aprender de los citados ejemplos, además, me parece claro que los biológicos –con algunas reservas respecto al estatus de nociones tales como evolución lamarkiana o el concepto de evolución darwinista- pueden ser fuente de inspiración para elaborar modelos de procesos innovadores, en una línea que ya apunta el autor. Pero no veo esa misma funcionalidad en fenómenos tales como la formación de agujeros negros, por ejmplo. Y, en el otro extremo, por muy innovadora que haya sido una táctica bélica, dudo que cumpla los requisitos que el propio autor impone a las innovaciones en términos, por ejemplo, de difusión social y grado de adopción. Pero realmente estas son cuestiones que no impugnan el núcleo del atrabajo y que merecerían una discusión pormenorizada.

Dejo para el final dos consideraciones relativas a aspectos de la obra que me han resultado de especial interés. Uno es su componente axiológica. Aunque la noción de valor me sigue resultando esquiva a ciertos efectos, esa componente me parece relevante. Y entronca, además, con parte de la producción de Echeverría de los últimos años, en concreto en el terreno de los valores de la ciencia. Y la segunda consideración se refiere a la reseña que hace de tres pensadores –Aristóteles, Bacon y Leibniz- que introdujeron innovaciones de gran alcance en el pensamiento humano. Quizás por mi desconocimiento del personaje, lo relativo al último, a Leibniz, me resultado de especial interés.

En suma, tenemos una obra sobre un tema muy de moda, pero, hasta donde alcanza mi conocimiento, con un tratamiento nuevo. Si la propuesta de Javier Echeverría tiene éxito, la innovación debería salir de los estrechos y confusos cauces por los que discurre ahora y para ser contemplada en nuevo contexto, más amplio y más fecundo. Para quienes levantamos la ceja cada vez que oímos o leemos la palabra innovación, eso serían buenas noticias. Aunque solo fuera por esa razón ya me parece suficiente para dar la bienvenida al libro. Y a quien, además, esté interesado en la innovación por razones académicas (en su estudio) o prácticas (en su ejercicio), “El arte de innovar” puede resultarle una lectura enriquecedora.

Ficha:

Autor: Javier Echeverría

Año: 2017

Título: El arte de innovar. Naturalezas, lenguajes, sociedades.

Editorial: Plaza y Valdés editores, Madrid.

1 Se omiten las referencias porque no se han utilizado para la redacción de esta reseña, pero pueden hallarse, junto con muchas más, en el propio texto de Echeverría.

En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.

El artículo El arte de innovar, de Javier Echeverría se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Arte & Ciencia: Cómo descubrir secretos que esconden las obras de arte
  2. Arte & Ciencia: Química y Arte, reacciones creativas
  3. Arte & Ciencia: Sobre la dimensión cognitiva del arte en relación a la ciencia
Kategoriak: Zientzia

Ciencia a presión: Periodistas que avalan patrañas

La, 2017-08-26 11:59

La expresión publish or perish (publica o perece) es de sobra conocida en el ámbito científico. Quiere expresar la importancia que tienen las publicaciones en los currículos del personal investigador. En ciencia no basta con hacer observaciones, obtener unos resultados y derivar conclusiones. Hay, además, que hacerlo público y, a poder ser, en medios de la máxima difusión internacional. La ciencia que no se da a conocer, que no se publica, no existe. El problema es que de eso, precisamente, depende el éxito profesional de los investigadores, sus posibilidades de estabilización y de promoción. De ahí la conocida expresión del principio.

El mundo de la comunicación tiene también sus normas. En comunicación se trata de que lo que se publica sea consumido. De la misma forma que la ciencia que no se publica no existe, en comunicación tampoco existen los contenidos que no se consumen: o sea, no existen los artículos que no se leen, los programas de radio que no se oyen, los de televisión que no se ven o los sitios web que no se visitan. En comunicación valdría decir “sé visto, oído o leído, o perece”.

Ambas esferas tienen ahí un interesante punto en común. Y por supuesto, en comunicación o difusión científica el ámbito de confluencia se aprecia en mayor medida aún. Confluyen aquí ambas necesidades, la de hacer públicos los resultados de investigación y, además, conseguir que lleguen a cuantas más personas mejor.

El problema es que la presión por publicar y por tener impacto comunicativo puede conducir tanto a unos como a otros profesionales, a adoptar comportamientos deshonestos, contrarios a la ética profesional e, incluso, a desvirtuar completamente el fin de la ciencia y de su traslación al conjunto del cuerpo social. Y también puede conducir, y de hecho ha conducido, a que se haya configurado un sistema de publicaciones científicas con patologías.

De todo esto se trató el pasado 31 de marzo en “Producir o perecer: ciencia a presión”, el seminario que organizaron conjuntamente la Asociación Española de Comunicación Científica y la Cátedra de Cultura Científica de la UPV/EHU.

2ª Conferencia

José Antonio Pérez Ledo, autor del blog Mi Mesa cojea y colaborador en distintos medios de comunicación: Periodistas que avalan patrañas

Periodistas que avalan patrañas

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Ciencia a presión: Periodistas que avalan patrañas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia a presión: Científicos que avalan patrañas
  2. Curso de verano “La ciencia de nuestras vidas”: Cuando la música era ciencia, por Almudena M. Castro
  3. Curso de verano “La ciencia de nuestras vidas”: Arte, literatura y ciencia, por Gustavo A. Schwartz
Kategoriak: Zientzia

Redescubriendo las integrales en 1994

Or, 2017-08-25 12:00

Los científicos a menudo nos quejamos, especialmente desde foros como este en el que escribo, del desinterés por la cultura científica que existe en gran parte de la sociedad. Frecuentemente esta falta de interés está relacionada con la sensación de que la ciencia es demasiado difícil para ser comprendida, la creencia de que “la ciencia no es para mí”[1].

Por su reputación de asignatura hueso y su terrible capacidad para traumatizar estudiantes, las matemáticas se llevan la palma en el ránking de “cosas demasiado difíciles”. La idea de la inaccesibilidad de las matemáticas llega a calar incluso entre científicos de otras ramas. Para mayor drama, en todas las ramas de la ciencia surgen problemas matemáticos de forma natural. Abordar este tipo de problemas dando la espalda a las matemáticas suele ser una mala idea. Lo ilustraremos con un ejemplo, un ejemplo bastante extremo:

Sucedió en febrero de 1994, cuando se publicó este artículo en la revista Diabetes Care: “A mathematical model for the determination of total area under glucose tolerance and other metabolic curves”, firmado por Mary M. Tai, que pasaría inmediatamente a la historia de la ciencia, aunque por motivos poco halagadores.

El artículo trata del análisis de curvas metabólicas. Simplificando mucho, la diferencia entre un paciente sano y un paciente con diabetes es que este último es mucho más lento eliminando de su sangre la glucosa recién consumida. Una forma fácil de visualizar esto es midiendo su concentración de glucosa en sangre, pongamos, cada hora, y representándola en figuras como la siguiente:

La forma de este tipo de curvas es, pues, de vital importancia. Concretamente, el problema que se pretende resolver en el artículo y, de hecho, se resuelve, es el de determinar el área bajo una de estas curvas. El método propuesto consiste en rellenarla con pequeños trapecios y sumar las áreas de cada uno de ellos, como se aprecia en la figura:

Lo curioso del caso es que el método propuesto como novedoso, y bautizado nada menos que como “modelo de Tai”, se conoce desde tan antiguo que resulta difícil establecer la fecha concreta de su descubrimiento. Hay sospechas fundadas de que los Babilonios lo usaban para sus cálculos astronómicos; de lo que no cabe duda de que era un método bien conocido en los tiempos de Euler. En matemáticas se conoce con el nombre, mucho más humilde, de regla del trapecio.

Es posible que todo lo anterior les resulte familiar. En las matemáticas del instituto se estudia algo llamado integral. Las integrales sirven, entre otras cosas, para calcular el área bajo una curva. Es decir: existe un método (conocido desde finales del siglo XVII) enseñado en los libros de texto de secundaria, que responde a la pregunta de investigación que se plantea el artículo[1], y que constituye uno de los pilares de la rama matemática conocida como cálculo infinitesimal. En resumen, se publicó un artículo que redescubría una operación básica con tres siglos de retraso (como mínimo).

Que un artículo como este resultase publicado es, cuanto menos, chocante. Más chocante aún es saber que recibió una apreciable cantidad de citas por parte de colegas, que encontraron el “modelo de Tai” útil para su trabajo. Hubo también colegas que comentaron acertadamente que el artículo estaba redescubriendo (y rebautizando) la regla del trapecio. A estos, la autora responde enrocándose en su posición, considerando la regla del trapecio “mero sentido común” y un conocimiento tan irrelevante “que no es de Premio Nobel”. A pesar de esto, no tiene reparos en reclamar su nombre para el método de “sentido común” pocas líneas más abajo. El resto de respuestas van en la misma línea y tono, dejando claro que no estamos ante un problema de comunicación entre disciplinas. Lejos de ser retractado, las citas del artículo siguen aumentando gracias al revuelo formado, aunque fundamentalmente es citado como ejemplo de ciencia patológica.

Las reacciones habituales que he encontrado cuando he contado esta historia a mis colegas son risa, incredulidad, e incluso algunas veces indignación. Pero yendo un poco más allá de lo superficial, esta historia tiene varias lecturas interesantes.

Para empezar, pone de manifiesto que la falta de cultura científica se da también dentro de la comunidad científica. El hecho de que nadie en todo el proceso de publicación levantase la ceja ante un método con siglos de antigüedad, con un papel central en la historia de la ciencia y descrito en los libros de texto de secundaria, es prueba de ello.

Por otro lado, el problema original es obviamente un problema geométrico básico, que incluso tiene cierto “aroma” a geometría griega. La autora tiene un nivel de matemáticas suficiente para desarrollar desde cero un método aproximado que lo resuelve. Un vistazo a cualquier libro de matemáticas le habría ahorrado tiempo y esfuerzo. ¿Por qué no empezó por ahí?, ¿estamos quizá ante otra forma enrevesada de enfrentar un problema en esencia matemático, pero “dando la espalda a las matemáticas”?

Siendo un poco más sutiles, uno puede preguntarse si realmente es lícito “rescatar” un método conocido para aplicarlo dónde no se ha aplicado antes. Al fin y al cabo, el uso de métodos conocidos en áreas “exóticas” es la esencia de la investigación multidisciplinar. En el caso del artículo mencionado, casi todo el mundo opina que se cruzó una línea roja. Pero, ¿y un artículo que, por ejemplo, rescate un teorema matemático del siglo XIX para llegar a conclusiones sobre un modelo de crecimiento de plankton? En este caso casi todo el mundo opinará que se trata de una investigación totalmente lícita, a pesar de que la novedad de los resultados puede también ponerse en entredicho. Suele ser fácil ver en qué lado de la línea roja estamos, pero no es nada sencillo trazarla.

Y, por último, la anécdota deja patente que el proceso de revisión por pares dista mucho de ser perfecto. Es buena idea mantener un sano escepticismo a todos los niveles, incluso al leer artículos revisados, publicados… e incluso altamente citados.

Seguro que hay más opiniones. Les invito a dejarlas en los comentarios.

Este post ha sido realizado por Pablo Rodríguez (@DonMostrenco) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.

Referencias, citas y más información:

[1] Cuando la ciencia se “disfraza” en forma de historia (véase el extraordinario ejemplo del podcast Catástrofe Ultravioleta o los eventos Naukas) y se rompe esta primera barrera, los resultados son sorprendentes: resulta que la ciencia no solamente interesa a casi todo el mundo, sino que también gusta.

[2] El concepto renacentista de integral es incluso más avanzado que el mostrado en el artículo de 1994, pues en este último se pasan por alto los problemas derivados de escoger anchuras arbitrarias para los trapecios (problema que las integrales evitan usando el concepto de límite para tomar rectángulos infinitamente estrechos).

M. M. Tai, “A Mathematical Model for the Determination of Total Area Under Glucose Tolerance and Other Metabolic Curves,” Diabetes Care, vol. 17, no. 2, pp. 152–154, Feb. 1994.

El artículo Redescubriendo las integrales en 1994 se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Redescubriendo el primer arte vasco: nuevos hallazgos, nuevas investigaciones
  2. ¿Puede ser culto alguien de Letras?
  3. El efecto Richardson, la clave del estudio moderno de los fractales
Kategoriak: Zientzia

«Una copita de vino es buena para el corazón». Claro que sí, guapi.

Og, 2017-08-24 11:59

Hemos escuchado tantas veces eso de que «Una copita de vino es buena para el corazón» que parece verdad. Recuerdo a mi abuela, que no solía tomar alcohol, diciendo que el vino era salud. En los días de fiesta, con las mejillas encendidas y los labios tintados, disfrutaba mojando un pedazo de pan en sus sopas de burro cansado. Las sopas de burro cansado son un postre típico gallego: vino tinto caliente con azúcar y migas de pan duro. Si es tradicional, tiene que ser bueno. Si toda la vida se ha dicho que el vino es bueno para el corazón, será cierto. ¿O no?

  • El origen de la creencia

Hay intereses de diversa naturaleza que han llevado a perpetuar hasta nuestros días la idea de que el vino es saludable, al menos una copita. Las bondades se las atribuímos a algunas de las sustancias que contiene, como flavonoides y antioxidantes como los polifenoles, entre ellos el más famoso es el resveratrol. Del resveratrol incluso se ha llegado a decir que era algo así como el elixir de la eterna juventud, que ayuda a prevenir daños en los vasos sanguíneos, que previene la obesidad y la diabetes, ambos factores de riesgo cardíaco. Ninguna de estas virtudes ha podido demostrarse con estudios en seres humanos.

El mito no surgió de la nada. Algunas de estas bondades del resveratrol se probaron en ratones, gusanos y moscas, y de ahí el resveratrol llegó con fuerza al mercado de los suplementos alimenticios. Pero se encontraron con un problema, y es que no es legal decir que un producto «ralentiza el envejecimiento celular» por llevar resveratrol, porque no funciona así en humanos. Pero sí se puede decir si contiene selenio. Y tampoco se puede decir del resveratrol que «ayuda al funcionamiento normal del corazón». En cambio, esto último sí se puede decir de la Vitamina B1. Añadir vitamina B1 a estos suplementos fue la treta que emplearon algunas marcas para poder afirmar legalmente que sus productos con resveratrol son buenos para el corazón.

De la tradición informativa e interesada sobre los beneficios del vino, a los modernos suplementos alimenticios, el caso es que seguimos creyendo que un consumo moderado de vino es saludable. Decir lo contrario es ser un aguafiestas e ir en contra de todo lo que se ha dicho hasta ahora. Pero, ¿qué dicen sobre el consumo moderado de vino las principales organizaciones de la salud? ¿Qué conslusiones se han extraído de los numerosos estudios científicos que se han hecho al respecto?

  • Lo que dice la ciencia sobre consumo de vino y salud

Ya en 2012 la Organización Mundial de la Salud publicaba en su informe Alcohol in the European Union que «el alcohol es perjudicial para el sistema cardiovascular». La Comisión Europea también publicó que «un consumo moderado de alcohol aumenta el riesgo a largo plazo de sufrir cardiopatías».

En 2014 la revista British Medical Journal publicaba una extensa revisión de 56 estudios epidemiológicos sobre consumo de alcohol. La conclusión fue clara y contundente: «el consumo de alcohol aumenta los eventos coronarios en todos los bebedores, incluyendo aquellos que beben moderadamente».

En 2016, en la revista BMC Public Health se publicó que cada año mueren 780.381 personas por enfermedades cardiovasculares atribuibles al consumo de alcohol.

Tampoco es cierto que el consumo moderado de alcohol previene la mortalidad, sino que «el bajo consumo de alcohol no ejerce beneficios netos en la mortalidad al compararlo con la abstinencia de por vida o el consumo ocasional de alcohol», tal y como se ha publicado en 2016 en la revista Journal of Studies on Alcohol and Drugs.

No sólo ha quedado claro que el consumo de vino incrementa el riesgo de sufrir cardiopatías, sino que múltiples estudios científicos han concluído que el consumo de alcohol está relacionado con otras patologías y enfermedades. Estas conclusiones son extrapolables a todas las bebidas alcohólicas: cerveza, ginebra, ron, etc.

Resulta que el consumo de bebidas alcohólicas también se relaciona con el riesgo de cáncer, con el mayor nivel de evidencia posible. La Organización Mundial de la Salud en su Informe Mundial de Situación sobre Alcohol y Salud publicado en 2015 concretó que «un consumo tan bajo como una bebida diaria causa un aumento significativo del riesgo de algunos tipos de cáncer».

En 2016 el Fondo Mundial para la Investigación del Cáncer detalló que «existen evidencias científicas sólidas de que el alcohol incrementa el riesgo de padecer 6 cánceres: mama, intestino, hígado, boca/garganta, esófago y estómago». Las conclusiones fueron rotundas y reveladoras. Hasta entonces se deconocían los mecanismos biológicos por los cuales el alcohol aumentaba el riesgo de padecer cáncer. En este estudio se descubrió que el vínculo entre consumo de alcohol y cáncer iba más allá de la estadística. «No se trata de un simple vínculo, sino de una relación causal bien establecida: el agente responsable directo del desarrollo de los cánceres citados es el consumo de alcohol, incluso a dosis relativamente bajas».

No es casualidad que en la imagen que figura en el documento informativo del Fondo Mundial para la Investigación del Cáncer aparezcan unas copas de vino. El vino es, sin duda, la bebida alcohólica sobre la que se han creado más mitos relacionados con la salud. Ya es hora de dejarlos atrás.

Conclusiones

Consumimos vino como parte de nuestra tradición cultural, como parte de los actos sociales, por sabor y por placer. Que cada cual juzgue si estas razones son buenas o no y valore los riesgos asociados que acarrean. En cambio, sabemos con certeza que la salud cardiovascular no es una razón por la que consumir vino, sino todo lo contrario. El consumo de vino, incluso el moderado, el de una copita no hace daño a nadie, aumenta el riesgo de padecer cardiopatías y produce hasta seis tipos de cáncer. Si quieres buscarte una excusa para tomarte esa copita de vino, que no sea tu salud. La razón que encuentres siempre será a costa de ella.

Si te interesa saber más:

¿Es sana esa “copita de vino” diaria?. Vídeo de Julio Basulto en el que se mencionan gran parte de las referencias que aparecen en este artículo.

Beber alcohol produce cáncer. Artículo de Juan Ignacio Pérez.

Consumo de alcohol y salud en el mundo. Artículo de Juan Revenga.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo «Una copita de vino es buena para el corazón». Claro que sí, guapi. se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Con los edulcorantes artificiales (casi) todo son ventajas
  2. El azúcar oculto en los alimentos
  3. Tomas poca estevia
Kategoriak: Zientzia

Frank Stella, la forma del lienzo

Az, 2017-08-23 11:59

En mi anterior entrada del Cuaderno de Cultura Científica de la Universidad del País Vasco / Euskal Herriko Unibertsitatea Mosaicos hexagonales para el verano se mostraban algunas obras de arte relacionadas con los mosaicos hexagonales, e incluso solo con el propio hexágono. En particular, se mencionaba a un artista abstracto y minimalista norteamericano, Frank Stella, y su obra Sydney Guberman (1964), cuya forma es hexagonal. Y es precisamente la forma de esta obra, no por el hecho de que sea hexagonal, sino porque no es el típico lienzo rectangular, lo que me ha hecho volver a mirar desde este espacio la obra de este artista.

“Emperatriz de la India” (1965), de Frank Stella, de la serie V del artista

La revolución artística que se produjo con la llegada de la abstracción en el siglo XX trajo consigo también una reflexión sobre la forma de la obra de arte, y en particular, del lienzo sobre el que se pintaba. Esta reflexión está muy presente en la obra del artista de Massachusetts (EE.UU.), Frank Stella, quien juega con la forma del lienzo, no solo rompiendo con la forma rectangular usual, sino haciendo que la forma del lienzo sea parte de la propia obra.

No estamos hablando simplemente de elegir otra forma para el lienzo sobre el que se va a pintar, como por ejemplo, en el Autorretrato con Endymion Porter (1635), del pintor flamenco Anton van Dyck (1599 – 1641), que es ovalado, sino de una ruptura total con las formas clásicas de la pintura, rectangular, ovalada o circular, y la incorporación de la forma como parte de la propia obra, de la propia creación artística.

“Autorretrato con Endymion Porter” (1635), de Anton van Dyck, en el Museo del Prado de Madrid

Frank Stella no es en único artista que juega con la forma de los “lienzos”, de hecho en la década de 1960 muchos artistas abstractos decidieron incorporar la reflexión de la forma del lienzo a sus obras, aunque sí es uno de los más significativos, y es del que vamos a mostrar algunas obras en esta entrada.

El pintor y grabador norteamericano Frank Stella nació en Malden, Massachusetts, en 1936. Si leemos un poco sobre la obra de este artista descubriremos que se inició en el expresionismo abstracto, movimiento artístico al que pertenece su serie de obras Black Paintings (pinturas negras), que están formadas por bandas negras paralelas, separadas por estrechas líneas blancas que realmente son espacios no pintados entre las blandas negras paralelas. Como podemos leer en la página The Art Story, Modern Art Insight [theartstory.org] este recurso artístico plantea una reflexión al espectador sobre la naturaleza bidimensional de la pintura, realizando así un camino inverso al que se produjo con la invención de la perspectiva en el renacimiento.

Las bandas negras paralelas de cada obra seguían un patrón diferente, por ejemplo en la siguiente obra, Matrimonio entre razón y miseria II (1959), las bandas negras tenían forma de U invertida, pero en general cada obra tenía su propio patrón geométrico.

“Matrimonio entre razón y miseria II” (1959), de Frank Stella, y que se encuentra en el MoMA

Una de las frases más famosas de Frank Stella para definir su arte es

Mi pintura se basa en el hecho de que solo lo que se puede ver allí está allí… lo que ves es lo que ves”.

Esta serie de obras tuvo una gran importancia dentro del minimalismo, movimiento artístico dentro del cual Stella fue uno de sus artistas más significativos.

A partir de 1960 Frank Stella empezaría a utilizar aluminio y cobre para sus lienzos, y también pintaría bandas paralelas de diferentes colores, no solamente negras, como en su obra Harran II (1967), que pertenece a la serie de obras Protractor (trasportador). Se producirían sus primeras obras cuyos lienzos tendrían formas particulares, no rectangulares.

“Harran II” (1967), de Frank Stella, que pertenece al Museo Guggenheim y que tiene un tamaño considerable, 3 metros de alto por 6 metros de largo

A continuación, mostramos otra obra de Frank Stella perteneciente a la serie Protractor, Firuzabad (1970), cuando se exhibió en el Museo de Arte Moderno de San Francisco. En la imagen vemos al propio artista posando para la fotografía de Liz Mangelsdorf.

El artista Frank Stella delante de su obra “Firuzabad” (1970), que es el nombre de una ciudad iraní, en el Museo de Arte Moderno de San Francisco, en 2004

Una serie de obras de Frank Stella que es en sí misma una reflexión sobre la forma de los lienzos, es su serie Irregular polygons (polígonos irregulares), de mediados de la década de 1960. En esta serie de obras, Stella fusiona formas sencillas, para crear formas irregulares más complejas. De nuevo el color es una parte esencial de las obras.

“Moultonboro III” (1966), de Frank Stella, cuyo nombre hace referencia, al parecer, a un pueblo de New Hampshire (EE.UU.)

La obra Moultonboro III (1966) está formada por un triángulo trazado por una banda ancha amarilla y de interior también amarillo, aunque diferente al anterior para diferenciarlos, colocado en la parte superior izquierda de una forma de color rojo que nos sugiere un cuadrado, ya que no está completo sino que el espectador puede formarlo o no en su mente mientras observa la obra, como si descansara debajo del triángulo. Además, separando el cuadrado rojo y el triángulo amarillo se forma una banda en forma de algo similar a una letra Z, de color azul. El contraste entre formas y colores es un elemento esencial en las obras de la serie Irregular Polygons, que además crea una ilusión de objetos planos que saltan a la tercera dimensión superponiéndose, plegándose o arrugándose.

Stella hace varias versiones de esta obra, utilizando diferentes colores, al igual que con otras obras. Por ejemplo, en Moultonboro II el triángulo es blanco, con una banda ancha verde y el cuadrado es negro.

Fotografía de la exposición “Irregular Polygons 1965-66” de Frank Stella en el Toledo Museum of Art, en 2011. Las obras que aparecen son “Ossipee II” (1966), “Chocorua IV” (1966), “Effingham IV” (1966) y “Moultonville I”I (1966)

Los nombres de la serie Irregular Polygons son nombres de pueblos, y otros lugares, de New Hampshire.

Posteriormente, en series como Polish Villages (pueblos polacos), e influenciado por el constructivismo ruso, utiliza formas geométricas no tan sencillas como en la serie Irregular Polygons, creando imágenes cada vez más complejas. Los nombres de las obras de esta serie son nombres de pueblos polacos y las obras hacen referencia a las sinagogas destruidas por los Nazis.

“Olkienniki III” (1972), de Frank Stella, perteneciente a la serie “Polish Villages”

En obras posteriores, como en la serie Indian Birds (pájaros de la India), Stella traspasa el concepto de “pintura” para realizar obras más cercanas a lo podíamos llamar “esculturas verticales para paredes”, con una complejidad enorme.

“Jungli Kowwa” (1979), de Frank Stella, perteneciente a la serie “Indian Birds”

Pero volvamos a los lienzos geométricos de la década de los años 1960, donde realiza obras con formas geométricas sencillas a base de bandas anchas, como por ejemplo sencillos polígonos (triángulos, cuadrados, pentágonos, hexágonos,etc), realizados por bandas anchas, ya sean pintadas en negro o realizadas en aluminio o cobre.

Fotografía de Rudy Burckhardt de la exposición de Frank Stella en la Galería Leo Castelli en 1964

“Henry Garden” (1963), de Frank Stella, perteneciente a su serie realizada en aluminio, que consiste en una serie de octógonos concéntricos

Pero vamos a terminar esta pequeña introducción a la obra de lienzos con diferentes formas del artista norteamericano Frank Stella con algunas de sus esculturas geométricas. En la primera de estas esculturas, Estrella inflada y estrella de madera (2014), aparecen dos dodecaedros estrellados, realizados en aluminio y madera de teca.

“Estrella inflada y estrella de madera” (2014), de Frank Stella, dentro del International Sculpture Route Amsterdam – ARTZUID 2015

Y la segunda escultura Estrella negra (2014) es un icosaedro estrellado, realizado en fibra de carbono.

“Estrella negra” (2014), de Frank Stella, dentro de la exposición “Frank Stella: A Retrospective” en el Whitney Museum of American Art, fotografiada por Nic Lehoux

Bibliografía

1.- Frank Stella – Connections – Haunch of Venison – London, Art Splash Contemporary Art

2.- Liz Rideal, Cómo leer pinturas, una guía sobre sus significados y métodos, Blume, 2015.

3.- Entrada sobre Frank Stella en la página web The Art Story, Modern Art Insight

4. Toledo Museum of Art

5.- Exposiciones de Frank Stella en la galería Leo Castelli

6.- Missoula Art Museum

7.- International Sculpture Route Amsterdam – ARTZUID

8.- Anna Painchaud, Unbounded Doctrine, encountering the art-making career of Frank Stella, Arts Editor, 2015

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Frank Stella, la forma del lienzo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Mosaicos hexagonales para el verano
  2. El caso de William & Frank Buckland
  3. Artistas que miran a las matemáticas
Kategoriak: Zientzia

Sistemas nerviosos: las áreas sensoriales

Ar, 2017-08-22 17:00

Las áreas sensoriales son las que reciben y procesan información procedente de los receptores sensoriales, normalmente pertenecientes a los que denominamos “órganos de los sentidos”. Se denominan áreas sensoriales primarias a aquellas que reciben señales cuyo origen inmediato anterior es el tálamo. Como vimos aquí, el tálamo ejerce la función de estación de relevo de la información sensorial y de filtro -de acuerdo con su potencial relevancia- de dicha información. En general, cada hemisferio cerebral recibe información procedente del lado del cuerpo opuesto. Así, la corteza visual izquierda recibe las señales procedentes de la retina del ojo derecho.

Por otro lado, la información visual, auditiva y somatosensorial da lugar a la definición en la corteza de mapas sensoriales topográficos, de manera que la información procedente de células sensoriales adyacentes llega a neuronas corticales adyacentes también. Se pueden elaborar mapas sensoriales de todos los vertebrados y, lógicamente, a cada especie corresponde el suyo propio, que cuya configuración depende de la importancia relativa de cada modalidad sensorial para dicha especie. Los siluros, por ejemplo, tienen mapas sensoriales en el rombencéfalo con áreas muy extensas para los receptores gustativos de su superficie corporal y de boca y faringe. No obstante, la mayor parte de la información disponible se refiere a los mamíferos. A ellos, principalmente, nos referiremos a continuación.

La información visual llega de los ojos hasta la denominada “corteza visual primaria” (V1) (área de Brodmann 17) tras pasar por el núcleo geniculado lateral del tálamo. La corteza visual primaria se encuentra en el lóbulo occipital (zona posterior) y en ella se configura un mapa (retinotópico), en el que la configuración espacial de los puntos que reciben las señales reproduce la de los fotorreceptores en la retina. La información visual es posteriormente procesada de manera parcial en diferentes áreas de la corteza, pues se trata de una información con varios componentes (color, posición, trayectoria, contexto, etc.) que son procesados de manera independiente hasta que otras áreas (asociativas) de la corteza recrean la imagen.

La corteza auditiva primaria se halla en el lóbulo temporal (áreas de Brodmann 41 y 42) y es, como su nombre indica, el área cortical encargada de un primer procesamiento de la información auditiva. La información llega de los oídos tras pasar por el núcleo geniculado medial del tálamo, y también aquí se halla definido un mapa sensorial, denominado tonotópico. En este caso, las células de la corteza próximas entre sí reciben información relativa a frecuencias de sonido similares; ha de tenerse en cuenta que la recepción de sonidos en el oído se produce de tal forma que los tonos se reciben con arreglo a una disposición espacial de los receptores (células pilosas). La corteza auditiva primaria –que identifica tono y volumen del sonido- se halla rodeada por la secundaria, y esta a su vez, por la terciaria. Cada una de ellas iría procesando aspectos cada vez más complejos de la información sonora.

Con la denominación de corteza somatosensorial se hace referencia a una franja de los lóbulos parietales del cerebro de mamíferos (áreas de Brodmann 1, 2 y 3) a la que llegan las denominadas sensaciones somáticas procedentes de receptores situados en la superficie corporal y en músculos y articulaciones. Se trata de receptores de tacto, presión (barorreceptores), temperatura (termorreceptores), dolor (nociceptores), los superficiales, y de posición (propioceptores), los musculares y articulares. En vertebrados no mamíferos la propiocepción es procesada en otras áreas encefálicas; así, en peces es el cerebelo el que procesa la información procedente de piel y aletas, y en tortugas y ranas son los ganglios talámicos los que generan respuestas somatotrópicas.

Como ocurre con la información visual y auditiva, cada región de la corteza somatosensorial recibe inputs de un área específica del cuerpo; a esas regiones se las denomina “áreas de representación”. Además, cuanto mayor es la densidad de receptores en una determinada zona del cuerpo, mayor es la superficie de la corteza dedicada a procesar esa información. Esa proporcionalidad y la disposición en que se encuentran las “áreas de representación” han permitido elaborar el correspondiente mapa somatotrópico, en el que se pueden localizar las diferentes sensaciones. También han permitido elaborar una forma de representación muy ilustrativa que corresponde a un cuerpo del animal en cuestión en la que el tamaño de cada parte del cuerpo es proporcional a la superficie de su correspondiente área de representación. Cuando la imagen representa una figura humana se denomina “homúnculo sensorial”.

La información olfativa llega, en primer lugar, al bulbo olfativo, donde es procesada parcialmente. Las células mitrales del bulbo olfativo envían las señales a diferentes áreas cerebrales siguiendo dos rutas principales: (1) una subcortical, que se dirige principalmente a regiones del sistema límbico, y (2) otra talámico-cortical. La ruta subcortical implica al hipotálamo, dada la importancia de los olores en el comportamiento alimenticio y sexual. La talámico-cortical, sin embargo, es importante para la identificación precisa de olores y su percepción consciente.

Aunque la información gustativa alcanza a diferentes áreas de la corteza, se considera que la responsable de la percepción del gusto es la corteza gustativa primaria. Se subdivide en dos subestructuras, la ínsula anterior (en la ínsula) y el opérculo frontal (en el giro frontal inferior del lóbulo frontal).

Finalmente, cada región de la corteza sensorial proyecta la información recibida, a través de la materia blanca, hacia áreas de la corteza próximas, donde es sometida, junto con la de otras regiones, a elaboración, análisis e integración. En dicha integración intervienen otros elementos (memoria, emociones evocadas, etc.) y, como consecuencia de ello, pueden elaborarse las correspondientes respuestas, motoras principalmente.

Fuentes:

Eric R. Kandel, James H. Schwartz, Thomas M. Jessell, Steven A. Siegelbaum & A. J. Hudspeth (2012): Principles of Neural Science, Mc Graw Hill, New York

Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sistemas nerviosos: las áreas sensoriales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas nerviosos: el sistema central de vertebrados
  2. Sistemas nerviosos: el tálamo y el hipotálamo
  3. Sistemas nerviosos: el cerebro de vertebrados
Kategoriak: Zientzia

La ley del gas ideal y la tercera ley de la termodinámica

Ar, 2017-08-22 11:59

Boyle se dio cuenta de que si la temperatura de un gas cambia durante un experimento, la relación P = a/V ya no es correcta. Por ejemplo, la presión ejercida por un gas en un recipiente cerrado de tamaño fijo aumenta si el gas se calienta, aunque su volumen permanece constante. Sin embargo, si la temperatura de un gas se mantiene constante, entonces la regla de Boyle sí funciona. Así, modificamos la regla de la siguiente manera:

P = a/V, si T es constante (a)

Muchos científicos a lo largo del siglo XVIII también investigaron cómo, por ejemplo en un globo de paredes delgadas, los gases se expanden cuando se aporta calor, a pesar de que la presión sigue siendo la misma. Finalmente, se acumularon suficientes indicios como para formular una regla general sorprendentemente simple. El químico francés Joseph-Louis Gay-Lussac (1778-1850) encontró que todos los gases que estudió (aire, oxígeno, hidrógeno, dióxido de carbono, etc.) cambian su volumen de la misma manera. Si la presión se mantenía constante, entonces el cambio de volumen era proporcional al cambio de temperatura. Esto puede expresarse en símbolos:

ΔV ∝ ΔT, si P es constante (b)

Por otra parte, si el volumen se mantenía constante (usando, por ejemplo, un contenedor rígido), el cambio en la presión del gas era proporcional al cambio de la temperatura:

ΔP ∝ ΔT, si V es constante (c)

Los datos experimentales obtenidos por Boyle, Gay-Lussac y muchos otros científicos se expresan en las tres proporcionalidades, (a), (b) y (c). Éstas relacionan las tres características principales de una cantidad fija de un gas: la presión, el volumen y la temperatura, medidos cada uno desde cero, cuando una variable se mantiene constante. Introduciendo una nueva constante, k, estas tres proporcionalidades pueden unirse en una sola ecuación general conocida como ley del gas ideal.

P·V = k·T

Esta ecuación es uno de los descubrimientos más importantes sobre los gases, pero al usarla se debe tener un cuidado extremo con las unidades. La constante de proporcionalidad k depende del tipo de gas (en concreto de su masa molar); T, la temperatura del gas, tiene que ser dada en la escala absoluta, o Kelvin, donde, como ya mencionamos, T (K) = T (° C) + 273,15. La presión P es siempre la presión total (en unidades de N / m2, a la que se da el nombre de Pascal, abreviatura Pa), e incluye la denominada presión ambiente de la atmósfera. Esto es algo que se suele olvidar. Así, si inflo en neumático trasero de mi coche hasta los 2,2 ·105 Pa por encima de la presión atmosférica tal y como indica el fabricante, la presión real dentro del neumático es de 2,2 ·105 Pa + 1,0 ·105 Pa = 3,2 ·105 Pa.

La ecuación que relaciona P, V y T se denomina “ley” del gas ideal porque no es completamente exacta para gases reales a presiones muy bajas. Tampoco se aplica cuando la presión es tan alta, o la temperatura tan baja, que el gas está a punto de pasar a ser líquido. Por lo tanto, no es una ley de la física en el mismo sentido que la majestuosa ley de la conservación de la energía, que es válida en todas las circunstancias.

En realidad es simplemente es un resumen útil aproximado de resultados experimentales de las propiedades observadas de gases reales. No hay más que considerar lo que sucedería si intentamos bajar la temperatura del gas al cero absoluto; Es decir, T = 0 K (o, en Celsius, t = – 273,15 ° C). En este caso extremo, todo el término de la ecuación en el que está la temperatura sería cero. Por tanto, el término PV también debe ser cero. A presión constante, el volumen se reduciría a cero, lo que no tiene sentido si tenemos una cantidad de gas distinta de cero.

De hecho, todos los gases reales se vuelven líquidos antes de alcanzar esa temperatura. Tanto el experimento como la teoría termodinámica indican que es realmente imposible enfriar cualquier cosa -gas, líquido o sólido- exactamente a esta temperatura de T = 0 K. Este hecho se conoce como tercera ley de la termodinámica.

Sin embargo, una serie de operaciones de enfriamiento pueden producir temperaturas que se acercan mucho a este límite. En vista del significado único de la temperatura más baja para un gas que obedece a la ley del gas ideal, Lord Kelvin (William Thomson) propuso la escala de temperatura absoluta y puso su cero a – 273,15 ° C. Esta es la razón por la que la escala absoluta se denomina a veces escala de Kelvin, y por qué las temperaturas en esta escala se miden en kelvins.

La ley del gas ideal, P·V = k·T, es una ley fenomenológica, es decir, resume hechos experimentales sobre gases. La teoría cinética de los gases ofrece una explicación teórica de estos hechos. Para prepararnos para eso, necesitamos desarrollar un modelo cinético de un gas.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo La ley del gas ideal y la tercera ley de la termodinámica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Carnot y los comienzos de la termodinámica (2)
  2. La segunda ley de la termodinámica
  3. Carnot y los comienzos de la termodinámica (1)
Kategoriak: Zientzia

Gradualismo o saltacionismo… en evolución lingüística

Al, 2017-08-21 17:00

El gradualismo y el saltacionismo son dos grandes corrientes de pensamiento en biología evolutiva. Los gradualistas sostienen que la evolución de las especies ocurre de forma gradual, mientras los saltacionistas defienden la idea de que los cambios son abruptos, y que antes y después de los mismos, prácticamente no se produce variación alguna durante largos periodos de tiempo; en otras palabras, que la evolución no ocurre poco a poco sino a saltos.

Se han planteado incógnitas similares en relación con la evolución de las lenguas. Hace unos años, un grupo liderado por el británico Mark Pagel analizó la evolución de diferentes grupos de lenguas: indoeuropeas (en Europa), bantúes (en África) y austronesias (en el Pacífico). Encontraron que los cambios más importantes ocurren en los periodos en que se produce la divergencia de distintas variedades dentro de una misma lengua y que acaban dando lugar a nuevas lenguas. Así, han llegado a la conclusión de que un tercio de la variación del vocabulario en las lenguas bantúes se ha producido en los periodos de diferenciación, y que esas proporciones han sido de un 20% en las lenguas indoeuropeas, y de un 10% en las austronesias.

La hipótesis que proponen para explicar ese fenómeno es que la diferenciación que da lugar a la aparición de nuevas lenguas es un proceso de evolución cultural que no ocurre, como pasa con otros, de manera pasiva. Según los autores, esa diferenciación tendría una cierta componente activa, una componente que obedecería al interés de las comunidades de hablantes por diferenciarse unas de otras. A eso se debería que en los momentos iniciales de la diferenciación los cambios se produzcan de forma especialmente rápida, haciéndose más graduales posteriormente.

Es interesante valorar las diferencias observadas entre las tres familias lingüísticas. Las distintas proporciones de diferenciación en las bifurcaciones dentro de cada familia de lenguas son coherentes con la idea de la componente activa en el proceso de generación lingüística. Allí donde la separación entre comunidades vino muy determinada por barreras físicas (todo un amplio mar separando diferentes archipiélagos), no era necesario acentuar las diferencias, pues las comunidades ya estaban separadas físicamente; y así, el proceso de diferenciación ha sido mucho más pasivo. Esto es, el mismo aislamiento de las comunidades actuaría diferenciando pasivamente a unas lenguas de otras. Muy probablemente las comunidades bantúes experimentaban, por comparación, una mayor necesidad de diferenciación cultural, por lo que la diferenciación de esas lenguas ha contado con una componente más activa que las de las otras familias.

Las lenguas, en todo el mundo, son algo más que meras herramientas de comunicación, tanto si nos gusta como si no.

Fuente:

Atkinson, Q., Meade, A., Venditti, C., Greenhill, S., Pagel, M. (2008): Language evolves in punctuational bursts. Science 319 (5863), p. 588. doi: 10.1126/science.1149683

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Gradualismo o saltacionismo… en evolución lingüística se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas nerviosos: evolución del tamaño de las regiones encefálicas
  2. Turquía prohíbe la enseñanza de la evolución – pero la ciencia no es un sistema de creencias
  3. Sistemas nerviosos: evolución del tamaño encefálico
Kategoriak: Zientzia

Verdín, eucaliptos y cambio climático

Al, 2017-08-21 11:59

Un estudio del Departamento de Biología Vegetal y Ecología de la UPV/EHU evidencia que los efectos del cambio climático, en este caso la escasez de agua en los sistemas acuáticos junto con la presencia de plantaciones de eucaliptos, están cambiando el metabolismo de dichos sistemas. Se trata, según Aingeru Martínez, uno de los autores del estudio, de otra evidencia de la alteración de los ciclos de nutrientes a nivel global.

El aumento de temperatura es, normalmente, el aspecto más destacado del cambio climático; sin embargo, no es el único. Las variaciones en el nivel de agua constituyen otro aspecto a tener en cuenta. Según Martínez, “se está observando que existen periodos cada vez más pronunciados y prolongados de escasez de agua en los sistemas acuáticos, lo cual es normal en regímenes áridos y mediterráneos; pero se está dando también en zonas de ambiente templado como la nuestra. Es importante saber qué impacto tiene eso sobre los ecosistemas acuáticos”.

El estudio contempla, además, el efecto que producen las plantaciones de monocultivo de Eucalyptus grandis, una de las especies de árboles más plantadas del mundo, en los ecosistemas acuáticos. Y es que las hojas de eucalipto, una vez sumergidas, transfieren al agua materia orgánica disuelta, “algo similar a lo que ocurre cuando hacemos una infusión”, aclara. Así es como se crean los lixiviados de hojarasca que, en el caso del eucalipto, “son muy recalcitrantes, ricos en compuestos secundarios complejos y aceites que son difícilmente metabolizables por las comunidades biológicas; incluso llegan a ser tóxicos”, explica Martínez. “Nos parecía importante unir estos dos aspectos: por una parte, el modo en el que puede afectar la escasez de agua, y por otra parte, el hecho de que los sistemas acuáticos estén rodeados de plantaciones de eucalipto”, añade.

La investigación se ha centrado en el análisis de los citados efectos en el biofilm, “el verdín que vemos en las piedras de ríos y embalses”, aclara Martínez. El biofilm es uno de los componentes básicos de las cadenas tróficas, y “juega un papel fundamental tanto en el ciclo biogeoquímico de la materia orgánica disuelta como en la transferencia de materia, nutrientes y energía a niveles tróficos superiores. Así, alteraciones en el metabolismo del biofilm podrían generar una reacción en cascada, y afectar al funcionamiento de los ecosistemas de agua dulce”, afirma Aingeru Martínez.

Para poder conocer los efectos de los lixiviados de hojarasca en el biofilm, han llevado a cabo un experimento en el que han sumergido sustratos artificiales colonizados por biofilm en cinco diferentes concentraciones de lixiviados de E. grandis, “a fin de simular las concentraciones que se pueden encontrar en los sistemas naturales según el grado de escasez de agua”. Han medido los efectos sobre el crecimiento, la respiración, la producción primaria, la concentración de nutrientes y la actividad exoenzimática. “Los efectos más significativos se observaron sobre la respiración y la producción primaria. Esto altera el metabolismo de la comunidad, ya que se vuelve más heterótrofa, es decir, existe un mayor consumo de oxígeno y liberación de CO2 al medio”.

Por lo tanto, debido a la importancia del biofilm sobre el funcionamiento de los sistemas de agua dulce, “se podría decir que los periodos de escasez de agua, junto con la presencia de plantaciones extensivas de eucaliptos, alteran el metabolismo y, por tanto, el funcionamiento de los sistemas de agua dulce a nivel mundial. Teniendo en cuenta la importancia de los sistemas acuáticos de agua dulce en el ciclo del carbono, a nivel global, se trataría de una evidencia más de que nuestras actividades están produciendo cambios en los ciclos de nutrientes a nivel global”.

Referencia:

Martínez A, Kominoski JS & Larrañaga A, (2017) “Leaf-litter leachate concentration promotes heterotrophy in freshwater biofilms: Understanding consequences of water scarcity”.. Science of the Total Environment. Vol. 599–600. Pages 1677–1684.. DOI: 10.1016/j.scitotenv.2017.05.043.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Verdín, eucaliptos y cambio climático se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El declive de las praderas de algas por el cambio climático
  2. Del cambio climático
  3. “El cambio climático: ciencia, política y moral” por José Manuel Sánchez Ron
Kategoriak: Zientzia

Orriak