Cuaderno de Cultura Científica jarioa-rako harpidetza egin
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Eguneratua: duela ordu 1 52 min

Las fluctuaciones del núcleo celular son un reloj

Az, 2017-09-13 17:00

Núcleos de células humanas con marcadores fluorescentes para la cromatina (violeta) y y la membrana nuclear (verde). Imagen cortesía de Fang-Yi Chu y Alexandra Zidovska, Departamento de Física, Universidad de Nueva York.

Un equipo de investigadores biofísicos de la Universidad de Nueva York (EE.UU.) ha puesto de manifiesto la existencia de un marcador del ciclo de vida (lo que llamaríamos un reloj) de las células humanas vivas. Este descubrimiento aporta un nuevo elemento en el estudio de las células vivas que puede ser muy relevante en la comprensión de los componentes básicos de la vida así como en la de la aparición de enfermedades.

Hasta ahora la determinación del punto del ciclo en el que se encontraba la célula se podía realizar solo si la célula estaba muerta, en una especie de autopsia celular. Con este hallazgo, en el que se comprueba que el núcleo tiene fluctuaciones rápidas que disminuyen en amplitud conforme la célula envejece, se puede mejorar mucho nuestro conocimiento de las células tanto sanas como enfermas.

Se sabe desde hace mucho tiempo que la forma y el tamaño del núcleo de la célula cambian de forma sustancial durante la vida de una célula. Lo que no se sabía, sin embargo, era si el núcleo cambia su forma durante períodos de tiempo cortos . Este desconocimiento se debía en gran parte a las limitaciones técnicas de llevar a cabo las mediciones necesarias en células vivas.

Los investigadores, con el objeto de estudiar la dinámica del núcleo, utilizaron un microscopio de fluorescencia de última generación que les permite ver cambios de forma extremadamente pequeños y muy rápidos del núcleo en las células vivas. Para ello hicironn fluorescentes tanto la cromatina contenida en el núcleo con un color (violeta) y la membrana nuclear con otro (verde).

Los investigadores descubrieron que el núcleo de la célula humana tiene un tipo de movimiento previamente no detectado: su envolvente nuclear parpadea, o fluctúa, durante un período de unos segundos. En concreto, la amplitud de estos cambios en la forma disminuye con el tiempo durante el ciclo celular. Este movimiento es la primera característica física conocida que cambia sistemáticamente con el ciclo celular.

Por tanto, este proceso puede servir como un reloj interno de la célula, ya que señala la “edad” de la célula, esto es, en qué momento de su ciclo vital se encuentra.

Como los errores estructurales y funcionales de la envoltura nuclear conducen a un gran número de trastornos del desarrollo y hereditarios, como la cardiomiopatía, la distrofia muscular y el cáncer, el conocimiento de la mecánica de las fluctuaciones de la forma del núcleo celular podría, además, contribuir a comprender mejor el envoltorio nuclear en la salud y en la enfermedad.

Referencia:

Fang-Yi Chu el al. (2017) “On the origin of shape fluctuations of the cell nucleus,” PNAS doi: 10.1073/pnas.1702226114

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Las fluctuaciones del núcleo celular son un reloj se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La suave piel del núcleo
  2. La secuencia de estructuras intermedias durante la división de la membrana celular
  3. Fluctuaciones cuánticas y aspirinas
Kategoriak: Zientzia

Visualizando la hiperesfera a través de la fibración de Hopf

Az, 2017-09-13 11:59

La hiperesfera, 3-esfera o esfera de dimensión 3, S3, es el análogo en dimensión cuatro de la esfera S2; es decir, la 3-esfera es el conjunto de puntos del espacio real de dimensión 4, R4, que equidistan de un punto fijo, llamado centro.

No es fácil imaginarla, porque no es fácil percibir el espacio de dimensión 4. La fibración de Hopf es precisamente una manera de describir la 3-esfera mediante circunferencias y una esfera.

Fibración de Hopf. Fuente: Wikimedia Commons

Si pensamos en la ‘identificación’ entre el espacio real de dimensión 2, R2, y el conjunto de los números complejos, C, una manera alternativa de definir la 3-esfera es la siguiente: la esfera (unidad) de dimensión 3 es el subespacio de C2 (pares de números complejos) formado por aquellos puntos cuya suma de módulos es 1:

En topología, se usa una descripción alternativa; suele pensarse en la 3-esfera como el resultado de pegar dos toros sólidos (producto de un disco y una circunferencia). En efecto, consideremos los dos toros sólidos de ecuaciones:

y

Claramente, se verifica que:

¿Por qué los anteriores son toros sólidos? Porque la siguiente función es un homeomorfismo (puede probarse lo análogo con T2):

es decir, T1 es (homeomorfo a) el producto de una circunferencia y un disco de radio 1/2 (puntos del plano real que distan del centro menos o igual que 1/2), o lo que es lo mismo, un toro sólido.

Observar que estos dos toros sólidos tienen como frontera común un toro; en efecto:

que es homeomorfo al producto de dos circunferencias, es decir, un toro.

Esta descripción permite considerar la esfera de dimensión 3 como el espacio de adjunción de dos toros sólidos a través de su frontera común: esta identificación, este pegado, se realiza a través de la aplicación que identifica meridianos con paralelos y paralelos con meridianos:

De otra manera, hemos pegado T1 y T2 (homeomorfos a toros sólidos) a través del toro (producto de dos circunferencias)que tienen como frontera común. Por cierto, si la función que identifica los toros frontera hubiera sido la aplicación identidad (que identifica meridianos con meridianos y paralelos con paralelos),

el espacio resultante habría sido el producto de una circunferencia (una 1-esfera) por una 2-esfera, S1xS2,en vez de la 3-esfera.

El matemático Heinz Hopf (1894-1971) descubrió la fibración que lleva su nombre en 1931: encontró, de hecho, una función continua de la 3-esfera en la esfera, en la que cada punto de la 2-esfera proviene de una circunferencia embebida en la 3-esfera. En matemáticas se suele decir que la 3-esfera es un fibrado (no trivial) sobre la 2-esfera, con fibra una circunferencia. Es decir, de manera intuitiva, se puede ver la 3-esfera (la que vive en un espacio real de dimensión 4) como una 2-esfera que en cada uno de sus puntos lleva pegada una 1-esfera.

No es fácil visualizar lo que estamos diciendo, porque estamos trabajando en dimensión 4… pero estos dos videos de la magnífica serie Dimensiones pueden aclarar un poco la anterior construcción:


Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Visualizando la hiperesfera a través de la fibración de Hopf se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Hipercubo, visualizando la cuarta dimensión
  2. Hipercubo, visualizando la cuarta dimensión (y 2)
  3. Plattner y la cuarta dimensión
Kategoriak: Zientzia

Sistemas nerviosos: la médula espinal

Ar, 2017-09-12 17:00

La médula espinal es un cordón cilíndrico de tejido nervioso que se extiende desde el tallo encefálico hacia la parte posterior o inferior del cuerpo a lo largo (en humanos) de unos 45 cm. Es la parte del sistema nervioso que retiene la organización segmentada propia de varios grupos de invertebrados. Sale del cráneo a través de un orificio en el cráneo relativamente amplio y se encuentra protegido en el interior de una columna vertebral. A lo largo de su recorrido salen de la médula varios pares de nervios, llamados espinales, cuyo su número varía entre especies.

Como en la corteza cerebral, también en la médula se distinguen materia blanca y materia gris. En la médula la materia gris se dispone en el interior, adoptando un perfil semejante a una mariposa; está constituida por cuerpos neuronales sin vaina de mielina con sus dendritas, algunas pequeñas interneuronas y células de glía. La materia blanca está organizada en tractos, que son fascículos de fibras nerviosas mielinadas consistentes en axones de interneuronas de gran longitud. Los fascículos están organizados en columnas que se extienden a lo largo de toda la médula. Cada uno de esos tractos comienza o termina en un punto particular del encéfalo, y cada uno es específico del tipo de información que transmite. Unos ascienden hasta el encéfalo; son fibras aferentes que conducen señales sensoriales. Otros descienden; son fibras eferentes y conducen señales hacia músculos u otros órganos efectores.

Los nervios espinales (fascículos de axones) conectan con cada lado de la médula mediante una raíz dorsal y una raíz ventral. Las fibras aferentes entran por la raíz dorsal, mientras las eferentes salen por la ventral. Los cuerpos celulares de las neuronas aferentes se concentran en un ganglio de la raíz dorsal; los de las neuronas eferentes, sin embargo, se encuentran en la propia médula, en la materia gris, y envían axones a través de la raíz dorsal. Ambas raíces se unen en único nervio al salir de la médula, un nervio que, por lo tanto, transmite información en las dos direcciones de manera independiente. Estos nervios espinales, junto con los craneales, forman parte de lo que se conoce como sistema nervioso periférico, al que ya nos referimos aquí. Una vez salen de la médula, los nervios espinales se van ramificando, formando una amplia red nerviosa que sirve a los tejidos, tanto para recibir información de ellos o del entorno, como para enviar señales que den lugar a actuaciones.

La médula espinal cumple dos funciones. (1) Por un lado, es el canal por el que se transmite información entre el encéfalo y las diferentes partes del cuerpo (órganos receptores y efectores). (2) Y por el otro, integra actividad entre inputs aferentes (señales sensoriales) y outputs aferentes (señales motoras), sin que tenga que intervenir el encéfalo. La ruta que se establece entre esas neuronas aferentes y eferentes, con el concurso de una pequeña interneurona es un arco reflejo. Y a esos reflejos se les denomina espinales. En ocasiones la médula espinal es el origen de determinados movimientos repetitivos, como ocurre en aves (los pollos pueden andar sin que el encéfalo intervenga) y en peces (pueden nadar y mantener funciones viscerales sin control encefálico).

Por último, las fibras preganglionares del sistema nervioso simpático (que es parte del sistema periférico autónomo) parten de la región torácico-lumbar de la médula espinal. Cada una de ellas establece sinapsis, a su vez, con una fibra (postganglionar) en el correspondiente ganglio. Igualmente, las tres fibras espinales del sistema parasimpático también parten de la médula y establecen conexiones sinápticas con ganglios terminales que se encuentran en los órganos diana o su proximidad inmediata. Estas son las vías mediante las cuales el sistema nervioso central controla la actividad del sistema autónomo.

Fuentes:

David Randall, Warren Burggren & Kathleen French (2002): Eckert Animal Physiology: Mechanisms and Adaptations 5th ed.; Freeman & Co, New York

Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sistemas nerviosos: la médula espinal se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas nerviosos: el sistema periférico de vertebrados
  2. Sistemas nerviosos: el sistema central de vertebrados
  3. Sistemas nerviosos: el tronco encefálico y el cerebelo
Kategoriak: Zientzia

La distribución de velocidades moleculares de Maxwell

Ar, 2017-09-12 11:59

Armados con nuestro modelo simple y las ideas de Clausius, hay que empezar por el principio, esto es, por las volocidades que tendrán las moléculas y que determinarán su energía cinética.

No parece razonable que en un momento dado todas las moléculas en un gas tengan la misma velocidad. En 1859, Maxwell aplicó las matemáticas de la probabilidad a este problema. Propuso que las velocidades de las moléculas en un gas se distribuyen sobre todos los valores posibles. Eso sí, la mayoría de las moléculas tienen velocidades no muy alejadas de la velocidad media. Algunas tendrán velocidades mucho más bajas y otras pocas velocidades mucho más altas que la media.

Resultados del experimento del tiro al blanco con unas decenas de flechas (a,b) y con un número mucho mayor (c).

Un ejemplo simple ayudar a entender por qué la distribución de Maxwell de las velocidades moleculares se representa por curvas continuas, lo que es equivalente a explicar por qué Maxweel afirma que las velocidades se distribuyen en todas las velocidades posibles. Supongamos que una persona dispara flechas a una diana en un campo de tiro. Algunas flechas probablemente alcanzarán el centro de la diana, el blanco. Otras flechas darán en puntos más o menos alejados del blanco, como vemos en (a) en la figura de arriba. Si contamos el número de flechas diseminadas a diferentes distancias del blanco podemos construir un gráfico muy sencillo como el que se presenta en (b). Este gráfico muestra la distribución de los agujeros hechos por los impactos de las flechas en función de la distancia al blanco para un conjunto de unas pocas decenas de disparos. Si repetimos el experimento para un número mucho mayor de disparos, obtendremos una distribución como la de (c). Si el número de disparos fuese incluso mucho mayor la diferencia en la distancia al blanco que podríamos considerar con un número significativo de impactos sería mucho menor. En el límite, para un número extremadamente grande de disparos habría un número significativo de los mismos prácticamente para cualquier distancia que pudiésemos medir. Por analogía, al ser el número de moléculas en un gas, de hecho, realmente enorme, el gráfico que muestra la distribución de las velocidades moleculares es continuo a cualquier escala que se pueda dibujar.

La forma exacta que toma la curva que se forma cuando la distribución (c) se lleva a valores muy altos viene determinada por muchas cosas que tienen que ver con el arco (dimensiones, materiales, estado), las flechas (materiales, dimensiones), la persona (pericia, fortaleza, estado de salud), y así sucesivamente. Otros procesos dan lugar a otras formas de curvas. Las velocidades de las moléculas en un gas están determinadas por las colisiones que tienen entre sí. Maxwell utilizó un inteligente argumento matemático para deducir cuál debería ser la distribución de las velocidades moleculares y que da lugar a curvas para un gas concreto en función de la temperatura como vemos en la imagen siguiente.

Distribución de las velocidades moleculares para un gas dado en función de tres temperaturas diferentes.

Para un gas a cualquier temperatura dada, la “cola” de cada curva es mucho más larga a la derecha (alta velocidad) que a la izquierda (velocidades bajas). A medida que la temperatura aumenta, el pico de la curva se desplaza a velocidades más altas y la distribución de la velocidad se vuelve más amplia.

Todo esto está muy bien, pero tenía que demostrarse experimentalmente que era correcto para que fuese de alguna utilidad. Hubo que esperar más de 60 años para que pudieran realizarse mediciones directas en los años veinte del siglo pasado. Otto Stern diseñó un método realmente ingenioso para medir las velocidades de un haz de moléculas. Los experimentos de Stern* y otros investigadores demostraron que las velocidades moleculares se distribuyen según calculó Maxwell.

Nota:

*Este resultado hubiese sido la confirmación de la teoria cinética y de la existencia de las moléculas si la teoría sobre el movimiento browniano de Einstein no hubiese sido probada experimentalmente por Perrin en 1908.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo La distribución de velocidades moleculares de Maxwell se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un modelo simple de gas
  2. Las máquinas moleculares que han ganado un Nobel
  3. Los antecedentes de la teoría cinética
Kategoriak: Zientzia

Desmitificando: Alguien me está mirando…

Al, 2017-09-11 17:00

El hombre me interesa como estudio psicológico. En el desayuno de esta mañana de repente tuve esa sensación vaga de desasosiego que se apodera de algunas personas cuando alguien las mira atentamente, y, mirando rápidamente alrededor, me encontré con sus ojos clavados en mí con una intensidad que llegaba a la ferocidad, aunque se suavizó de forma instantánea mientras hacía una observación trivial sobre el tiempo. Curiosamente, Harton dice que tuvo una experiencia similar en cubierta ayer.
Sir Arthur Conan Doyle, en “La relación de J. Hababuk Jephson”, 1884.

Era, según como se anunciaba, el hombre que tenía Rayos X en los ojos. Así conseguía ver a través de las paredes o el mundo en colores pues veía otras longitudes de ondas, además de las habituales. Y no piensen que veía a las señoras sin ropa, en realidad, lo que veía eran sus huesos. Era una película así titulada, “El hombre con Rayos X en los ojos”, dirigida por Roger Corman y estrenada en 1963. La traducción del título, desde el original, que era una simple “X”, era engañosa. El protagonista no tiene Rayos X en los ojos, es decir, no emite Rayos X con los ojos, sino que aumenta el espectro de longitudes de onda que capta con sus fotorreceptores e incluye los Rayos X. Y el título traducido más bien sugiere que emite Rayos X con los ojos. Lo cual me lleva a la creencia tan extendida de que vemos porque emitimos rayos de visión con los ojos y no porque detectamos los rayos de luz que vienen del exterior.

Mucha personas aceptan que emitimos rayos por los ojos, incluso, como veremos, hasta un tercio de estudiantes universitarios. Como es posible que se mantenga esta creencia durante tantos años en esta era de la ciencia y, se supone, de la buena educación científica y tecnológica, es sorprendente. Aunque ya conocemos que ocurre con muchas otras ocurrencias como esta. Christian Jarrett, del blog BPS Research Digest, escribe que esta creencia se apoya en otros mitos como, por ejemplo, la idea, tan extendida igualmente, de “sentir” que alguien a nuestra espalda nos está mirando. Es la llamada escopestesia, y esa sensación solo puede deberse a que los rayos que emiten sus ojos están impactando en nuestra nuca.

Y todo esto a pesar de que, en experimentos controlados, los voluntarios no puedan detectar si hay o no alguien a su espalda. En encuestas de finales de los noventa e inicios de los dos mil en Estados Unidos, entre el 13% y el 67% de los encuestados eligen como sistema de visión en nuestra especie la emisión de rayos desde los ojos. Como resumen, Gerald Winer y su grupo, de la Universidad Estatal de Ohio, concluyen que más del 50% de los adultos aceptan que vemos porque emitimos rayos por los ojos.

En alguna de las encuestas de este grupo, presentan a los voluntarios un dibujo esquemático con una persona y un balón unidos por unas líneas rectas y les piden que dibujen puntas de flecha en las líneas para indicar la dirección de los rayos que permiten la visión. El 86% dibujan que los rayos salen de los ojos hacia el balón y, si los investigadores insisten para que precisen su concepto de visión, algunos se lo piensan y el porcentaje desciende al 69%.

Ni siquiera con una mejor educación, en concreto, con charlas previas a las encuestas se atenúa la creencia en los rayos emitidos por los ojos. Siempre queda un 30%, más o menos, que lo sigue aceptando. Hay autores que lo relacionan con las conductas de nuestra especie, no al ver, sino al mirar. Dirigimos los ojos en una dirección determinada, lo que parece apoyar la emisión de rayos aunque, en realidad, sirve para captar la luz que llega a nuestros ojos. Es lo que se denomina un error primitivo basado en un fenómeno, en una conducta.

Volvamos a la extendida, y desasosegante, sensación de que alguien nos mira por la espalda, quien sabe con qué intenciones.

El primer estudio científico sobre la sensación de que alguien nos mira lo publicó, en Science y en 1898, E.B. Titchener, de la Universidad Cornell. Decía que

cada año encuentro un cierto porcentaje de mis alumnos que están firmemente convencidos de que pueden sentir que alguien les mira por detrás, y un pequeño número de ellos cree que, con una mirada persistente a la nuca de alguien, tienen el poder de conseguir que la persona que está sentada se vuelva y les mire a la cara.”

Unos años después, en 1013, J.E. Coover, de la Universidad Leland Stanford, Jr., publicó los primeros resultados cuantitativos sobre la sensación de ser mirado por detrás. En primer lugar, del 68% al 86% de los grupos de voluntarios que entrevista creen sentir cuando alguien les mira. De los 1000 voluntarios que participan, el 50.2% acierta en el experimento de Coover, pero es el 47.3% los que aciertan que no les mira nadie y el 53.3% aciertan cuando alguien les mira. Un porcentaje asombrosamente cercano al 50% que significaría que se acierta por azar.

Y en un asunto como este no podía faltar Rupert Sheldrake, el conocido escritor, biólogo y pseudocientífico británico. Ha publicado los resultados de sus experimentos e, incluso, un libro de gran éxito sobre la sensación de ser mirado.

Algunos de sus resultados son curiosos. En general, hay personas con una capacidad débil para detectar que le miran por detrás pero no aciertan a saber cuando no las miran. Dos de sus voluntarios consiguen un acierto porcentaje de acierto del 53.1%.

De nuevo es un porcentaje de acierto cercano al 50%, o sea, al azar, como ya encontraba Coover en 1913.

Sheldrake escribe que, en Europa y Norteamérica, entre el 70% y el 97% de los encuestados afirma que ha tenido experiencias personales de la sensación de que alguien te mira. Ocurre más en las mujeres, con el 81%, que en los hombres, con el 74%. Es más habitual en los extranjeros cuando se encuentran en lugares públicos como calles o bares. Además, el 88% de las mujeres y el 71% de los hombres aseguran que pueden mirar a otras personas por la espalda y conseguir que se vuelvan hacia ellos.

Por otra parte, Sheldrake asegura que esta habilidad de detectar que te miran por la espalda es valiosa para muchos profesionales como, por ejemplo, expertos en supervivencia o seguridad, militares, paparazzis, practicantes de artes marciales y cazadores.

Sin entrar en detalles, pues está publicado, varios autores han mencionado fallos metodológicos y de interpretación de resultados en los estudios de Sheldrake.

Para terminar, es interesante el estudio del grupo de Isabelle Mareschal, del Centro de Visión de la Universidad de Sydney, en Australia. Los encuestados en este trabajo tienden a aceptar que tienen la sensación de que miran por detrás, aunque no ocurra, como una ventaja evolutiva seleccionada, en nuestra especie, como defensa ante posibles riesgos y, sobre todo, ante ataques de depredadores. Incluso declaran que sienten que alguien les mira aunque no le vean, porque es de noche o porque el observador se tapa los ojos con unas gafas oscuras.

En conclusión, la especie humana tiene, como una expectativa importante y primitiva, sentir que le miran, incluso cuando no puede ver si alguien lo hace. Solo hay que recordar el miedo que provoca en el espectador de cine la escena, tan utilizada por los directores de películas de suspense y terror, del protagonista andando delante de la cámara y dando la espalda al espectador. Todos sentimos que alguien le mira por detrás y, antes o después, le va a atacar.

Referencias:

Coover, J.E. 1913. “The feeling of being stared at” – Experimental. Journal of Psychology 24: 570-575.

Gross, C.G. 1999. The fire that comes from the eye. The Neuroscientist 5: 58-64.

Jarrett, C. 2016. 10 of the most widely believed myths in physiology. BPS Research Digest. July 29.

Mareschal, I. et al. 2013. Humans have an expectation that gaze is directed toward them. Current Biology 23: 717-721.

Sheldrake, R. 1995. Siete experimentos que pueden cambiar el mundo. Una guía para revolucionar la ciencia. Ed. Paidós. Barcelona. 274 pp.

Sheldrake, R. 2005. The sense of being stared at. Part 1: Is it real or illusory. Journal of Consciousness 12: 10-31.

Titchener, E.B. 1898. The “feeling of being stared at”. Science 8: 895-897.

Wikipedia. 2017. Psychic staring effect. 26 June.

Winer, G.A. et al. 2002. Fundamentally misunderstanding visual perception. Adults’ belief in visual emissions. American Psychologists 57: 417-424.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Desmitificando: Alguien me está mirando… se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Mirando dentro de una molécula
  2. ¿Puede ser culto alguien de Letras?
  3. ¡Esta mierda es buena!
Kategoriak: Zientzia

Por qué los antipsicóticos atípicos causan deterioro cognitivo

Al, 2017-09-11 11:59

Investigadores del Centro de Investigación Biomédica en Red Salud Mental (CIBERSAM), pertenecientes al grupo de Neuropsicofarmacología de la Universidad del País Vasco (UPV/EHU), junto a otros grupos internacionales, han desentrañado los mecanismos celulares que explicarían el deterioro cognitivo tras el uso continuado, especialmente a dosis elevadas, de antipsicóticos atípicos en personas con esquizofrenia.

En el estudio se demuestra que el bloqueo del receptor de serotonina 5HT2A provocado por los fármacos antipsicóticos activa una importante vía inflamatoria en el cerebro alterando la morfología y función de las sinapsis encargadas de mantener una actividad cognitiva dinámica, fenómeno conocido como plasticidad sináptica.

Mediante ensayos realizados en modelos celulares, tejido cerebral de fallecidos con esquizofrenia y animales modificados genéticamente y sometidos a tratamientos con fármacos, se han detectado anomalías sinápticas que inducen alteraciones de tipo cognitivo tales como dificultades en la memoria de trabajo y capacidad para distinguir entre objetos conocidos y novedosos.
El estudio, además, ha evidenciado que estos déficits cognitivos se deben a una remodelación de la expresión cerebral de diferentes genes motivada por cambios en la actividad de las proteínas HDAC2, represoras de la expresión del ADN. Según explica el investigador de la UPV/EHU Javier Meana, “este hallazgo nos abre el camino para avanzar en el diseño de fármacos, aún en fase experimental, que logren inhibir a estas proteínas y bloquear de esta manera los daños cognitivos provocados por los tratamientos antipsicóticos”.

Un consorcio formado por investigadores de diferentes centros internacionales, entre los que figuran el CIBERSAM y la UPV/EHU, han desentrañado de esta manera los mecanismos celulares asociados a los efectos adversos del tratamiento con fármacos antipsicóticos atípicos, especialmente cuando se administran en dosis elevadas. Entre los problemas cognitivos asociados a los tratamientos para la esquizofrenia, y que podrían contribuir a la cronificación de la esquizofrenia, figurarían los problemas de atención sostenida, la falta de flexibilidad mental en la realización de tareas y las dificultades para planificar tareas futuras.

El tratamiento con fármacos antipsicóticos atípicos, más modernos que los denominados típicos, ha supuesto la desaparición de problemas en la actividad locomotriz de los enfermos, pero también parecen generar, además de problemas cognitivos, un mayor riesgo de enfermedades metabólicas como la obesidad y diabetes tipo 2, incrementando así el riesgo cardiovascular. Sin embargo, explica Javier Meana, “estos tratamientos no pueden ser retirados precozmente porque facilitan la reaparición de alucinaciones y delirios. El reto es evitar los efectos adversos manteniendo la importante eficacia antipsicótica que presentan”.

Referencia:

Daisuke Ibi et al (2017) Antipsychotic-induced Hdac2 transcription via NF-κB leads to synaptic and cognitive side effects. Nature Neuroscience. doi: 10.1038/nn.4616

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Por qué los antipsicóticos atípicos causan deterioro cognitivo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un simple análisis de sangre permite detectar el deterioro cognitivo tras un ictus
  2. Un nuevo fármaco revierte el déficit cognitivo asociado a esquizofrenia
  3. El deterioro de la memoria con la edad es selectivo
Kategoriak: Zientzia

Temas emergentes: Nosotros y la caca de perro

Ig, 2017-09-10 11:59

Vamos a tratar uno de los temas que se han calificado como tema emergente en sociología ambiental. Así lo ha llamado Stewart Locke, de la Universidad James Cook de Townsville, en Australia, y editor de la revista Environmental Sociology. Escribe que

es sorprendente cuantos artículos han abordado experiencias personales de interacción con nuestro ambiente más cercano y, en concreto, con el entorno urbano, el clima cambiante y caprichoso, los insectos y las mascotas.”

Pero añade, para terminar su exposición, que

¿Podríamos estar viendo una mayor atención de los sociólogos ambientales a las interacciones a una escala mínima y a su dimensión afectiva, profundamente sentida y emocional, de la experiencia humana? Tal vez. Por supuesto, es demasiado pronto para decirlo.”

Ahora vamos al estudio que cita Lockey, y espero que al final de este texto, lo tengan en cuenta como uno de los “temas emergentes” en sociología ambiental.

El autor se llama Matthias Gross, trabaja en el Centro Helmholtz de Investigación Ambiental de Leipzig y en la Universidad de Jena, en Alemania, y lleva 10 años, desde 2003, observando por parques y jardines lo que los dueños hacen con la caca de sus perros. Para Gross, la humanidad se divide entre quienes tienen perro y quienes no lo tienen. Y los que tienen perro entre los que recogen sus cacas y los que no lo hacen. Acaba de publicar un artículo con el resumen de sus observaciones. Veamos de qué va; cuidado, solo ver, ni oler, ni pisar.

Hace unos siglos, defecar no era un acto estrictamente privado como ahora lo conocemos. Ni siquiera había un lugar especial para hacerlo; la necesidad se aliviaba allí mismo donde aparecía. Pero ahora, y sobre todo en urbanitas, lo hacemos en privado, por cultura y por higiene, y nos retiramos todo lo que podemos de la vista de los otros y de sus olores. Para nosotros, los productos de la defecación casi ni existen para los otros; es un acto muy privado. Excepto para los perros y, en parte, para las aves. Así, los perros son los únicos defecadores públicos de nuestras ciudades. Casi se puede afirmar que las heces de los perros, junto a las de algunas aves, son las únicas visibles en nuestras muy limpias y “sanitarias” ciudades. Es más, para hacerlo, los perros, son mucho más libres que nosotros que, estrictamente hablando, lo tenemos prohibido a pesar de que somos sus dueños.

Y es un problema de peso, olor y suciedad pues, veamos algunas cifras. Por ejemplo, en Berlín los perros producen unas 55 toneladas de caca al día, o, en Estados Unidos, 10 millones de toneladas al año. En París y en el año 2000, limpiar la caca de perro suponía cerca de 6 millones de dólares al presupuesto municipal de mantenimiento de parques y jardines. En Estados Unidos hay un perro por cada tres habitantes, en Alemania uno por cada diez hogares, en Francia casi uno en cada dos hogares, y en Holanda hay millón y medio de perros. Los países del mundo con más perros son Estados Unidos, Brasil y China. En España y en 2015, había unos cinco millones de perros y casi cuatro millones de hogares con perro. Y así podría seguir, cifra tras cifra, pues, para nuestra especie, los perros son importantes y, en consecuencia, muy numerosos.

Hasta hace unos años ni se recogía su caca de allí donde la dejaba el can. Y no era raro ver a alguien jurando y frotando la suela de su zapato en la acera por haber pisado caca de perro. Ahora se recoge en bolsitas de plástico ad hoc y se tira a la papelera. Esta cívica conducta es la que ha estudiado con detalle Matthias Gross durante 10 años.

Ya he contado que sus observaciones comenzaron en 2003 cuando, al atardecer, paseaba a sus tres hijos, por el parque cercano a su casa, antes de cenar e ir a la cama. También, durante seis meses salía de casa 15 minutos antes de lo necesario para coger el tren e ir al trabajo. Aprovechaba ese cuarto de hora para pasear por el parque tomando notas de la conducta de amos y perros. Y repetía a la tarde, a la vuelta del trabajo. Además, reunía la escasa bibliografía publicada sobre este asunto.

Así se enteró de que había zonas de la antigua Alemania Oriental y de Polonia en las que daban a los niños banderitas del país para que las plantaran en las cacas de los perros y evitar que los paseantes las pisaran. Junto a sus propias observaciones, detectó que la invención de las bolsitas para la caca del perro había cambiado la conducta de sus amos, aunque no la de los perros que siguen haciendo sus cosas donde se les ocurre, con total libertad, mientras no sea en la casa del dueño. Y que hay dueños que, hartos de buscar una papelera que no encuentran para tirar la bolsita, acaban pinchándola en lo alto de la verja del parque por el que pasean.

En fin, y como resumen de sus observaciones, Gross propone tres estrategias de los dueños en relación con la defecación de sus perros. Son, las llama así, la tradicional, la responsable y la furtiva. La tradicional implica conocer el camino hasta el parque, llevar al perro y que este lo haga donde quiera y allí se queda. La responsable es lo mismo pero, además, el dueño recoge la caca con la bolsita y la deposita en una papelera. Y la furtiva es igual que la responsable, mientras haya testigos, y, cuando no los hay, el dueño busca la protección de un árbol, vacía la bolsa y se la guarda, quizá para reutilizarla. A estos árboles donde se vacían las bolsitas Gross los llama “árboles de mierda”.

Para Gross casi todos los dueños eran tradicionales hasta que apareció la bolsita y, entonces, casi todos son responsables y nos queda un raro 10% para los furtivos con su extraña conducta. Además, Gross añade que los dueños utilizan más la bolsa en los paseos por la tarde, cuando hay más testigos, que por la mañana, con menos gente paseado al perro. Así, hay dueños que limpian por la tarde pero no lo hacen por la mañana.

Para terminar con el “tema emergente”, hemos visto el problema para nuestras ciudades que supone la caca de perro, y hemos visto las cifras del número de perros y de la cantidad ingente de caca que producen. Es un factor a tener en cuenta para la planificación y uso futuro de los espacios públicos de nuestras ciudades.

Referencias:

Gross, M. 2015. Natural waste: canine companions and the lure of inattentively pooping in public. Environmental Sociology 1: 38-47.

Locke, S. 2015. Emergent themes? A year in the life of Environmental Sociology. Environmental Sociology 1: 237-240.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Temas emergentes: Nosotros y la caca de perro se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las drogas, el café, y el perro de Pavlov
  2. #Naukas14: Knockouts entre nosotros
  3. Reduccionismo vs. emergencia (II): las propiedades emergentes
Kategoriak: Zientzia

Ciencia a presión: Ciencia abierta vs. ciencia cerrada

La, 2017-09-09 11:59

La expresión publish or perish (publica o perece) es de sobra conocida en el ámbito científico. Quiere expresar la importancia que tienen las publicaciones en los currículos del personal investigador. En ciencia no basta con hacer observaciones, obtener unos resultados y derivar conclusiones. Hay, además, que hacerlo público y, a poder ser, en medios de la máxima difusión internacional. La ciencia que no se da a conocer, que no se publica, no existe. El problema es que de eso, precisamente, depende el éxito profesional de los investigadores, sus posibilidades de estabilización y de promoción. De ahí la conocida expresión del principio.

El mundo de la comunicación tiene también sus normas. En comunicación se trata de que lo que se publica sea consumido. De la misma forma que la ciencia que no se publica no existe, en comunicación tampoco existen los contenidos que no se consumen: o sea, no existen los artículos que no se leen, los programas de radio que no se oyen, los de televisión que no se ven o los sitios web que no se visitan. En comunicación valdría decir “sé visto, oído o leído, o perece”.

Ambas esferas tienen ahí un interesante punto en común. Y por supuesto, en comunicación o difusión científica el ámbito de confluencia se aprecia en mayor medida aún. Confluyen aquí ambas necesidades, la de hacer públicos los resultados de investigación y, además, conseguir que lleguen a cuantas más personas mejor.

El problema es que la presión por publicar y por tener impacto comunicativo puede conducir tanto a unos como a otros profesionales, a adoptar comportamientos deshonestos, contrarios a la ética profesional e, incluso, a desvirtuar completamente el fin de la ciencia y de su traslación al conjunto del cuerpo social. Y también puede conducir, y de hecho ha conducido, a que se haya configurado un sistema de publicaciones científicas con patologías.

De todo esto se trató el pasado 31 de marzo en “Producir o perecer: ciencia a presión”, el seminario que organizarono conjuntamente la Asociación Española de Comunicación Científica y la Cátedra de Cultura Científica de la UPV/EHU.

4ª Conferencia:

Eva Méndez, profesora de la Universidad Carlos III: Ciencia abierta vs. ciencia cerrada

Ciencia abierta vs. Ciencia cerrada

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Ciencia a presión: Ciencia abierta vs. ciencia cerrada se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia a presión: Ciencia patológica y patología editorial
  2. Ciencia a presión: Científicos que avalan patrañas
  3. Ciencia a presión: Periodistas que avalan patrañas
Kategoriak: Zientzia

Kim Jong-un, Donald Trump y la geología de la aniquilación

Or, 2017-09-08 12:00

Es posible que nunca en la historia hayan existido dos mandatarios más antagónicos pero a la vez tan complementarios como son Donald Trump y Kim Jong-un. Y es que mientras uno fabrica sus primeras armas nucleares para decirle al mundo “aquí estoy”, el otro se toma cual chirigota las pruebas del avance inexorable del cambio climático. En cualquier caso, parece que los dos estén dándole cuerda al reloj del apocalipsis y que, en ese sentido, tengan muy buena sintonía.

Dejando los chascarrillos aparte, es cierto que estando tan cerca de Japón, muchas personas se hayan preguntado por la posibilidad de que Corea del Norte llegase a detonar un artefacto de estas características en algún volcán del archipiélago japonés y por los posibles efectos que esto podría tener.

Así escuchan los sismógrafos las pruebas nucleares de Corea del Norte.

En realidad, la idea de usar una explosión para dar el pistoletazo de salida a una erupción volcánica no es para nada innovadora. En 2015, el presidente de la Academia de Problemas Geopolíticos de Rusia, Konstantin Sivkov mencionó la posibilidad de usar armas de varios megatones sobre el “supervolcán” de Yellowstone para adelantar una erupción volcánica y hacer desaparecer a los Estados Unidos.

Pero pongámonos por una vez en el lado del mal y pensemos, ¿Dónde tendría mayor efectividad el lanzamiento de un arma nuclear sobre un volcán? Empecemos por el caso fácil. Imaginemos que somos capaces de lanzar y dirigir un cohete con cabeza nuclear hacia un volcán. Vamos a elegir uno que está cerca de Pyongang y que además sea un icono: El monte Fuji.

Una vez que la dejásemos caer sobre la cima, solo tendríamos una posibilidad de desencadenar la erupción: Si el magma estuviese ya muy cerca del cráter del volcán, cosa que ocurre justo antes de una erupción natural.

Los científicos ya sabrían que hay una erupción inminente, puesto que los volcanes emiten señales de alerta cuando el magma, los fluidos y los gases comienzan a moverse por sus conductos, a ascender por la corteza y a fracturar las rocas a su paso. El mayor efecto de la explosión sería “cosmético”, que podría llegar a reducir varios cientos de metros la estatura del volcán, y provocar deslizamientos que cambiasen su forma.

Imagen del monte Fuji tomada desde la Estación Espacial Internacional. Su figura ha sido un icono a lo largo de la historia. NASA.

Pero, ¿Y si a alguien se le ocurriese desencadenar una erupción en Yellowstone?. Seguramente, lanzando una bomba sobre algún lugar del parque, la cámara magmática (estas son grandes reservas de magma que existen bajo la superficie de la Tierra) del supervolcán de Yellowstone que mide en la horizontal más de 100 kilómetros ni se enteraría y solo conseguiríamos formar un bonito cráter, ya que actualmente Yellowstone no muestra signos de una erupción inminente.

Cosa muy diferente ocurría si fuésemos capaces de transportar mágicamente un dispositivo nuclear de varios megatones al interior de las cámaras magmáticas que alimentan el volcán (y otros fenómenos como los géiseres o los lagos de aguas termales) de Yellowstone. Para hacernos una idea del tamaño del sistema de cámaras magmáticas, estas albergan aproximadamente 50.000 kilómetros cúbicos de roca fundida.

He dicho mágicamente porque los problemas logísticos de transportar un arma nuclear no solo a otro país, sino a introducirla en un lugar donde las presiones y las temperaturas son altísimas sin que ocurra un accidente o te pillen por el camino es ahora mismo una idea muy, pero que muy complicada.

Una vez conseguida la misión de colocar y hacer explotar esta arma en el interior de la cámara magmática, pensemos en los efectos: Si a la temperatura del magma le añadimos la que provoca la propia explosión, generaríamos en el interior un gran aumento de presión al convertir el magma en vapor de roca, probablemente haciendo saltar la cámara magmática por los aires, provocando una lluvia de lava incandescente a varios kilómetros a la redonda.

Pero en este caso, la lava no sería nuestro mayor problema si no estamos muy cerca, aunque si sería muy radioactiva. El problema es brutal cantidad de ceniza que se generaría en la explosión y que también tendría una radioactividad muy alta. Si pensamos en erupciones como la del Eyjafjalla, un volcán relativamente modesto, que fue capaz de poner en jaque a toda la aviación europea por la ceniza lanzada a la atmósfera, imaginemos una erupción capaz de generar varios ordenes de magnitud más ceniza, y además radioactiva. Todo un episodio apocalíptico que tendría repercusiones globales y probablemente muy duraderas gracias al eficiente transporte de esta que es capaz de realizar nuestra atmósfera.

Imagen tomada por el satélite Aqua donde se ve la columna de cenizas que lanzó el Eyjafjalla el día 17 de Abril de 2010. Una erupción de Yellowstone llegaría a cubrir 2/3 partes del Estados Unidos Continental con varios centímetros de ceniza. En un radio de 500 kilómetros, la ceniza podría cubrir hasta un metro de altura. Nada que ver con lo que hayamos conocido hasta ahora. NASA.

Como hemos visto, provocar una erupción volcánica así no es tarea fácil… ¿Pero y si pudiéramos hacerlo entrar en erupción de una manera más discreta perforando hacia la cámara magmática como quien no quiere la cosa y dejando que el magma saliese violentamente a la superficie por un agujero hecho a conveniencia?

En los últimos años se han realizado distintas perforaciones hacia las cámaras magmáticas de distintos volcanes para poder conocer mejor estos sistemas y ayudarnos a predecir futuras erupciones, aunque también se hacen de una manera más o menos rutinaria para la extracción de energía geotérmica. Si bien puede resultar peligroso porque perforando podemos encontrar bolsas que contengan vapor y gases a alta presión y temperatura que puedan provocar explosiones al pincharlas como ha ocurrido en ocasiones, llegar hasta la cámara magmática no tiene ningún efecto. Es como si una pulga intentara pinchar un globo aerostático.

Y aunque la cámara magmática se encuentre en ese momento próxima a una erupción, al perforarla ocurriría lo siguiente: El agujero es tan pequeño que el magma comenzaría a ascender a través de él, enfriándose rápidamente y cerrando de nuevo el agujero como un tapón. Esto no es un caso hipotético, y ha ocurrido en países como Islandia o Japón durante distintas campañas de sondeo, con la consiguiente pérdida de parte del material usado en la perforación.

Pero siempre hay una excepción, y es cuando las cosas salen mal, realmente mal. Volvamos a Yellowstone. Este gigantesco sistema volcánico volverá a entrar en erupción en algún momento del futuro, provocando de manera natural consecuencias a escala planetaria, como un descenso brusco en la temperatura planetaria por efecto de la ceniza expulsada a la atmósfera y que probablemente dure varios años.

A finales de Agosto, salió a la palestra un antiguo miembro del Consejo Asesor de Defensa Planetaria de la NASA presentando un plan precisamente para evitar una erupción natural: Inyectar a través de una pequeña perforación agua para ir enfriando el magma que hay bajo Yellowstone, al mismo tiempo que recuperamos el vapor para generar energía eléctrica en turbinas… ¡Un plan redondo!

Pero esta idea tiene un fallo. Imaginemos por un momento que parte del vapor no consigue escapar y se comienza a acumuar en las rocas que rodean la cámara magmática, creando un aumento de la presión, convirtiendo el sistema volcánico en una gigantesca olla a presión, que superada la resistencia de las rocas que lo contienen, acabe saltando por los aires, en un fenómeno muy parecido al que pudo ocurrir en la erupción del Karakatoa de 1883 y que hizo desaparecer prácticamente la totalidad de esta isla. Es decir, que intentando evitar una erupción en realidad podemos provocar una mucho mayor y más devastadora.

Pero el bonus track, y el verdadero gordo de esta lista de maldades se lo lleva Donald Trump quién podría estar provocando, sin saberlo, un cambio en la actividad volcánica de nuestro planeta. En un acto de “soberanía nacional”, el actual presidente de los Estados Unidos sacó a su país del Acuerdo de París para luchar contra el calentamiento global. Si, el calentamiento global es un problema más poliédrico de lo que habíamos imaginado.

Un tweet maravilloso de Donald Trump donde nos deja claro que si hace frío en Nueva York, es que no hay cambio climático.

Bueno, si la lava de los volcanes ya está caliente, ¿Qué puede ir a peor con el calentamiento global?. Pues un estudio publicado en 2015 afirma que el deshielo de los casquetes de hielo y glaciares que cubren Islandia están provocando que la isla se eleve en algunas zonas hasta 3.5 centímetros al año por la descarga del peso de este hielo que cubría antes distintas partes de la isla.

Esto significa que los volcanes islandeses están sufriendo una gran disminución de presión sobre ellos que antes ayudaba a mantener confinadas las cámaras magmáticas, lo que podría incrementar el ritmo de las erupciones en esta isla. En el último periodo interglacial, hace unos 12000 años, la actividad volcánica de Islandia se multiplicó por 30, muy probablemente debido a la descarga del peso del hielo que había sobre los volcanes.

Pero esto no es todo, y es que este año se han descubierto 91 nuevos volcanes bajo el hielo de la Antártida. Si comenzara a sufrir un deshielo en cantidades importantes podría suponer un problema mucho más importante del que imaginábamos solo con el deshielo ya que tendríamos un caso parecido al de Islandia, pero agravando la cuestión, porque estas erupciones subglaciales podrían desestabilizar todavía más el casquete Antártico y acelerar su pérdida. Un ciclo que se retroalimenta (y no hablamos de las emisiones de gases de efecto invernadero, ni tampoco de la pérdida de la capa de ozono que esto podría significar) y que podría ser catastrófico para la humanidad.

Como habéis podido comprobar, hacer entrar en erupción un volcán no es tarea sencilla, y que a veces lo más efectivo para hacer el mal es simplemente no hacer nada.

Este artículo lo ha escrito Nahum Méndez Chazarra y es una colaboración deNaukas.com con la Cátedra de Cultura Científica de la UPV/EHU

Referencias científicas y más información:

Russian analyst urges nuclear attack on Yellowstone National Park and San Andreas fault line

NASA wants to prevent the Yellowstone super volcano from destroying the US

Kim Jong-un’s North Korea nuclear test mountain may collapse, let out ‘many bad things’

NASA’s ambitious plan to save Earth from a supervolcano

Scientists discover 91 volcanoes below Antarctic ice sheet

El artículo Kim Jong-un, Donald Trump y la geología de la aniquilación se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las cartas de Darwin: ¡La geología por encima de todo!
  2. ¿Demuestran el Brexit y Trump que vivimos en una simulación por ordenador?
  3. Zientziateka: “Una visión del ‘fracking’ desde la geología”
Kategoriak: Zientzia

El microondas es seguro, lo que hace es calentar

Og, 2017-09-07 11:59

En Europa empezamos a comprar hornos microondas a finales de los años 80. En la actualidad es un electrodoméstico que encontramos en casi todos los hogares. Sin embargo, alrededor de este aparato circulan ciertas creencias, como que hace perder valor nutricional a los alimentos o que funciona con un tipo de radiación peligrosa para la salud.

El origen del horno microondas

En 1945 el ingeniero Percy Spencer descubrió, mientras investigaba sobre radares, que la radiación de microondas también servía para cocinar. En 1947 patentó su idea. Al principio eran aparatos grandes y costosos que necesitaban conectarse al agua. En los años 70 perfeccionó el diseño. Se cambió el sistema de agua por un sistema de ventilación con aire. Hasta que no mejoraron en funcionalidad y precio, no empezaron a formar parte de los electrodomésticos habituales.

Cómo funciona el microondas

Dentro del microondas hay un dispositivo llamado magnetrón que convierte la electricidad en radiación de microondas. Las microondas son un tipo de radiación de baja energía, similar a las ondas de radio. Las microondas se dirigen hacia el interior del horno a través de una abertura que es transparente a esta radiación y rebotan en las paredes metálicas, reflejándose hacia el alimento.

En los métodos de calentamiento convencionales el calor se aplica al exterior del alimento y se transfiere al interior por conducción, principalmente. Sin embargo, las microondas calientan a través de dos mecanismos llamados rotación dipolar y polarización iónica. La rotación dipolar se produce porque las moléculas polares (agua, proteínas, carbohidratos) intentan alinearse con la radiación de microondas. Para alinearse, las moléculas rotan con respecto a su posición original y se rozan unas con otras. Esa fricción es la que produce calor. Por su parte, la polarización iónica tiene lugar en alimentos con iones, como por ejemplo las sales. Los iones pueden ser positivos o negativos, y unos y otros se moverán en sentidos diferentes con respecto a la radiación microondas. Durante este desplazamiento colisionan con otras moléculas e iones y esto también genera calor.

Ambos procesos se producen muy rápido y es por eso por lo que los alimentos se calientan rápidamente. La desventaja es que se calientan de forma más heterogénea que con el calentamiento convencional y no alcanzan temperaturas suficientemente elevadas como para dorar la comida.

¿Afecta el uso del microondas a la calidad nutricional de los alimentos?

A lo largo del tiempo se han hecho multitud de estudios para comparar las diferentes formas de cocinar los alimentos y cómo influyen en su calidad nutricional. Los principales factores que afectan a la integridad de los nutrientes son: uso de agua de cocción, tiempo de cocinado y temperatura alcanzada.

Usar agua para cocer los alimentos afecta a su calidad nutricional porque algunos de sus nutrientes pasan al caldo de cocción. Cuanto más tiempo se cuezan, más cantidad de nutrientes perderemos. Por ejemplo, las vitaminas hidrosolubles como la B6 y la B12, son más vulnerables porque son solubles en agua, con lo que se pierden en una cocción en agua. Si hervimos espinacas al fuego, estas podrían perder hasta el 70% de su ácido fólico (vitamina B9). Si las cocinamos en el microondas con tan solo un poco de agua, estas retendrán casi todo su ácido fólico.

El tiempo de cocinado y la temperatura alcanzada producen que las proteínas se desnaturalicen, que algunos carbohidratos se caramelicen o que algunas vitaminas se echen a perder. Por ejemplo, la vitamina C de los tomates se pierde cuando lo freímos o lo asamos. Tostar en exceso los alimentos produce algunos compuestos que pueden resultar tóxicos. Por ese motivo se aconseja reducir los tiempos de cocinado y utilizar la temperatura mínima para conseguir el resultado deseado. En este sentido el microondas cumple con los dos requisitos, ya que los alimentos se cocinan más rápido y es infrecuente alcanzar temperaturas superiores a los 100oC.

La conclusión que podemos extraer de los estudios y metaestudios publicados sobre este tema es que las diferencias entre cocinar con el horno convencional, con la cocina de gas, eléctrica, de inducción o con el microondas, no produce diferencias significativas con respecto a la calidad y cantidad de los nutrientes. Al fin y al cabo, todas estas técnicas de cocina se fundamentan en lo mismo: calentar alimentos.

¿Puede la radiación de microondas afectar de algún modo a mi salud?

Con respecto a los alimentos que calentamos o cocinamos en el horno microondas, la respuesta es no, no afecta ni al valor nutricional del alimento si a su salubridad. Lo único que hace el microondas es calentar, igual que un horno convencional. Es igual que cuando calentamos al horno, debemos utilizar recipientes adecuados para cada técnica.

Con respecto a la radiación y a cómo ésta actúa sobre nuestro cuerpo hay que tener en cuenta dos consideraciones. La primera es que los hornos microondas sólo emiten radiación hacia el interior y están diseñados para que esta radiación no se escape. Tanto la puerta del horno como las paredes son de materiales que reflejan toda radiación hacia el interior. La segunda consideración es que, aunque la radiación escapase porque hay un agujero o la puerta no cierra correctamente, la radiación microondas haría sobre nuestro cuerpo lo mismo que sobre cualquier alimento: calentar.

Fuente: ALMA Kids

La radiación de microondas es una radiación de baja energía. Si nos fijamos en el espectro electromagnético, que es una forma de organizar la radiación en función de su energía y de sus usos, veremos que la radiación de microondas es una radiación de muy baja energía, cercana a las ondas de radio, y del tipo no ionizante. Esto quiere decir que es un tipo de radiación demasiado débil como para ocasionar daños en las moléculas que forman nuestras células, por mucho tiempo que estuviésemos expuestos. En consecuencia, y en contra de lo que algunas voces alarmistas se empeñan en difundir, la radiación de microondas no puede producir cáncer.

El peligro del horno microondas es el mismo que el de un horno convencional: producir quemaduras.

Conclusión

Todos los hornos microondas sirven para calentar y solo para calentar. Con lo cual, afectan a la calidad de los alimentos o a nuestra salud de la misma manera que afecta un horno convencional. Es decir, no hay motivo para la preocupación.

Mientras para algunos siga resultando algo nuevo —por mucho que hayan pasado más de treinta años desde su comercialización en España— y su tecnología les siga pareciendo algo incomprensible, seguirán surgiendo voces que lo aprovechen para generar desconfianza e incluso negocios basados en ella. Ante la desinformación, y ante quien se aprovecha de ella, información y conocimiento.

Fuentes:

Efectos del tratamiento térmico de fórmulas infantiles y leche de vaca sobre la biodisponibilidad mineral y proteica. Instituto de nutrición y bromatología. Beatriz Sarria Ruiz. Centro mixto CSIC-UCM. Facultad de Biología. Universidad Complutense de Madrid. Madrid, 1998.

The effect of microwaves on nutrient value of foods. Gwendolyn A. Cross, Daniel Y. C. Fung & Robert V. Decareau. JournalC R C Critical Reviews in Food Science and Nutrition, 2009.

Campos magnéticos y cáncer: preguntas y respuestas. Asociación Española Contra el Cáncer, 2004.

Campos electromagnéticos y salud pública: hornos microondas. Hoja informativa. Organización Mundial de la Salud, 2005.

Microondas: verdades y mentiras. Pedro Gómez-Esteban González. Publicado en El Tamiz, 2008.

Mecanismos de transferencia de calor que ocurren en tratamientos térmicos de alimentos. M.E. Pérez y M. E. Sosa Morales. Departamento de Ingeniería Química, Alimentos y Ambiental. Universidad de las Américas Puebla, 2013.

El microondas, ¿perjudica a los alimentos? Julio Basulto. Publicado en Eroski Consumer, 2014

¿Quién inventó el microondas? Aurora Ferrer. Publicado en Quo, 2015.

Teléfono al microondas. Claudi Mans Teixidó. Publicado en Investigación y Ciencia, 2011

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo El microondas es seguro, lo que hace es calentar se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La teoría de bandas de los sólidos se hace topológica
  2. Microondas e infrarrojo
  3. El fondo cósmico de microondas y el espejo de feria
Kategoriak: Zientzia

Escaneando la Tierra con neutrinos solares

Az, 2017-09-06 17:00

Esquema del experimento DUNE

El Sol bombardea la Tierra con neutrinos, un bombardeo que no desaparece para los detectores en la superficie del planeta (en este caso superficie incluye unos pocos kilómetros de profundidad) cuando se oculta a la vista. Por la noche, los neutrinos solares atraviesan la Tierra, impactando en los detectores desde abajo. Al igual que los rayos X en un escáner médico, estos neutrinos que atraviesan el planeta podrían ofrecer información sobre el material por el que pasan. Nuevos cálculos teóricos indican que futuras instalaciones, como el Deep Underground Neutrino Experiment (DUNE), podrían caracterizar las diferentes capas existentes en el interior de la Tierra con la tomografía basada en neutrinos.

Los neutrinos son unas partículas subatómicas que, como su nombre indica, son neutras y tienen una masa inconcebiblemente pequeña, pero no cero. Al no tener carga no interaccionan con los campos electromagnéticos, pero sí con la fuerza nuclear débil, que es de cortísimo alcance, y con la gravedad, que tiene unos efectos muy pequeños a escala subatómica. Por estos dos motivos los neutrinos son capaces de atravesar la materia sin ser perturbados ni perturbarla (casi nunca): en estos momentos, apreciado lector, tu cuerpo está siendo atravesado por millones de ellos.

Los neutrinos habituales pueden tener tres “sabores” (electrónico, muónico y tauónico) definidos en el momento de ser creados o detectados, pero durante su propagación por el espacio pueden oscilar entre los tres sabores.

Los primeros experimentos con neutrinos solares, que datan de los años sesenta, descubrieron un déficit de la tasa de detección que más tarde se atribuyó a los neutrinos que se convertían de un sabor a otro. Estos estudios también encontraron pruebas de una asimetría día-noche, en la que la tasa de neutrinos de alta energía era un poco más alta durante la noche. La explicación es que los neutrinos nocturnos interactúan débilmente con la materia a medida que pasan a través de la Tierra, y esto hace que algunos de ellos se conviertan en neutrinos electrónicos, que es el sabor al que los detectores son más sensibles.

La estructura interna de la Tierra podría tener ocho capas.

Las interacciones neutrino-materia dependen de la densidad del material, por lo que ciertas trayectorias a través de la Tierra deben producir un mayor exceso nocturno que otras. Ara Ioannisian, del Instituto de Física de Yerevan (Armenia), y sus colegas han calculado la tasa de neutrinos de alta energía utilizando un modelo de ocho capas de la Tierra en el que la densidad aumenta abruptamente en los límites entre capas. Estos “saltos” de densidad, especialmente los próximos a la superficie, tienen un efecto significativo sobre la señal nocturna. Los investigadores muestran, por ejemplo, que el exceso nocturno debe disminuir ligeramente cada vez que el Sol se encuentra a 10 grados bajo el horizonte (es decir, después del atardecer y antes del amanecer). Esta señal de inmersión, que ofrecería confirmación del modelo de capas, podría ser detectada por el proyecto DUNE, que planea instalar un detector de 40 kilotones en Dakota del Sur para 2027.

De confirmarse el modelo experimentalmente, tendríamos una forma de caracterizar el interior de nuestro planeta que complementaría los estudios con ondas sísmicas, proporcionando así un conocimiento sin precedentes no ya de su estructura sino de su evolución y de la del propio Sistema Solar.

Referencia:

A. N. Ioannisian, A. Yu. Smirnov, and D. Wyler (2017) Scanning the Earth with solar neutrinos and DUNE Physical Review D doi: 10.1103/PhysRevD.96.036005

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Escaneando la Tierra con neutrinos solares se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Nuevo límite superior a la masa de los neutrinos de Majorana
  2. Paisaje con neutrinos, por Juan José Gómez Cadenas
  3. Terraformando la Tierra
Kategoriak: Zientzia

Un kilogramo de novelas y matemáticas

Az, 2017-09-06 11:59

Las vacaciones de verano se han terminado y se inicia el nuevo curso escolar. Esto no quiere decir que debamos de guardar nuestras novelas, nuestros libros, y abandonar la lectura hasta las siguientes vacaciones. Leer es una actividad para todo el año.

En esta entrada del Cuaderno de Cultura Científica, en una mezcla de recomendaciones literarias y de búsqueda de nuevas lecturas para el otoño, vamos a traer algunas citas literarias relacionadas con las matemáticas.

Empezaremos con una recomendación para iniciar el curso escolar con una sonrisa, la novela que no os podéis perder, Los humanos, de Matt Haig (Roca Editorial, 2014).

Un matemático de la Universidad de Cambridge ha demostrado uno de los grandes problemas de las matemáticas, la hipótesis de Riemann, que está relacionada con la distribución de los números primos. Sin embargo, una civilización extraterrestre mucho más evolucionada que los humanos, los vonadorianos, piensan que este conocimiento es muy peligroso para el universo en manos de una especie tan violenta y primitiva como los humanos. Por esta razón, envían a un “agente extraterrestre” a eliminar todo rastro de dicha demostración de la hipótesis de Riemann, lo cual significa eliminar todos los papeles en los que pueda haber alguna pista de la prueba, así como a las personas que puedan tener algún conocimiento de la misma.

El extraterrestre hace desaparecer al matemático de la Universidad de Cambridge e inicia su misión disfrazado con su cuerpo, haciéndose pasar por él, tanto en la universidad, como en su casa, junto a su mujer y su hijo adolescente. Durante su misión acabará conociendo mejor a los humanos… pero ¿será capaz este agente extraterrestre de cumplir con su misión?

Portada de la novela “Los Humanos”, de Matt Haig (Roca Editorial, 2014)

La primera cita se corresponde con el momento en el que el extraterrestre con el cuerpo del matemático de Cambridge le cuenta al hijo adolescente quien es él realmente y de dónde viene.

“–¿Cómo son las cosas allí?

Muy distintas. Es todo distinto.

Pero ¿en qué sentido?

Pues… solo existir ya es distinto. Nadie muere, no hay dolor, todo es bonito y la única religión son las matemáticas. No hay familias: están los anfitriones (que son los que dan las órdenes) y todos los demás. El progreso de las matemáticas y la protección del universo son nuestras dos preocupaciones principales. No hay odio. No hay padres, ni hijos. No hay una línea divisoria clara entre la biología y la tecnología. Y todo es violeta.

Suena estupendamente.

Es aburrido. Es la vida más aburrida que puedas imaginarte. Aquí tenéis dolor y muerte, es el precio que debéis pagar, pero las recompensas pueden ser maravillosas.

La segunda cita está hacia el final del libro, cuando el agente extraterrestre empieza a apreciar a la raza humana. Entonces, escribe una serie de “Consejos para los humanos”, que realmente son consejos para “su” hijo adolescente, exactamente 97 consejos, que empiezan así:

1. La vergüenza son unos grilletes. ¡Libérate!

2. No te preocupes por tus habilidades: tienes la de amar, y con esa te basta y te sobra.

3. Sé amable con los demás: a escala universal, ellos son tú.

4. La tecnología no salvará a la humanidad: la salvarán los propios humanos.

5. Ríe, estás más guapo.

6. Sé curioso, cuestiónatelo todo: una realidad presente es una ficción futura.

7. La ironía está bien, pero no tanto como los sentimientos.

8. Los bocadillos de mantequilla de cacahuete ligan de maravilla con el vino blanco. Que nadie te diga lo contrario.

9. A veces, para ser tú mismo, tienes que olvidarte de ti y convertirte en otra persona. Tu personalidad no es algo inmutable. En ocasiones tienes que avanzar para no perder el paso.

10. La historia es una rama de las matemáticas, al igual que la literatura. La economía es una rama de la religión.

11. El sexo puede dañar al amor pero el amor no puede dañar al sexo

12. Los telediarios deberían abrir con noticias de matemáticas y seguir con poesía, y a partir de ahí, que hagan lo que quieran.

Bueno, mencionemos un consejo más:

59. Los números son bonitos. Los primos son bonitos. Ya lo entenderás.

La segunda recomendación es Cásate conmigo, de Dan Rhodes (Alfaguara, 2014). Son una serie de pequeñas piezas narrativas, pequeñas historias, en clave de humor, sobre las relaciones de pareja, y más concretamente alrededor del matrimonio. En esta entrada traigo dos de esas piezas que de alguna manera están relacionadas con las matemáticas.

La primera de las micro-historias lleva el título “Porcentaje”:

Mi mujer empezó a presentarme a la gente como “su actual marido”.

Cielo –le dije sonriendo al ver que me llamaba así–, ¿a qué viene eso de “actual”? La gente pensará que estás deseando pasar página.

No me lo había planteado –dijo–. Sí, supongo que podrían pensarlo… Aunque estarían al cien por cien equivocados.

Sentí que perdía el equilibrio.

Y dime, ¿en qué porcentaje se equivocarían?

Se puso seria y se mordió el labio, hasta que su expresión se relajó.

En un cero por ciento –dijo.

Portada del libro de “Cásate conmigo”, de Dan Rhodes (Alfaguara, 2014)

El segundo pequeño relato que traemos a esta entrada se titula “Datos” y dice así:

En la cena de ensayo de nuestra boda me levanté y pedí silencio en el salón haciendo tintinear mi copa. Les conté a los invitados que nada más conocer a Arnemetia supe que quería pasar el resto de mi vida con ella. Todos suspiraron al unísono y mi futura esposa se enjugó una lágrima de felicidad. Continué explicando que mi amor era tan fuerte que enseguida quise saberlo todo sobre ella. En ese punto empecé a proyectar algunos de mis hallazgos en una gran pantalla. Había un gráfico lineal donde se representaba la longitud de su pelo en el curso del tiempo; una serie de diagramas que mostraba los colores predilectos de su armario mes a mes, y un elaborado gráfico de conjuntos que documentaba la complejidad de sus cambios de humor. Ella no tenía ni idea de que yo había estado recabando esos datos, pero lamentablemente la sorpresa no le hizo mucha gracia.

No sé si todo esto me parece romántico o repulsivo –dijo.

Les pidió a nuestros amigos y familiares que la ayudaran a decidir, y todos levantaron la mano para dar sus opiniones. Por desgracia, el ochenta y cuatro por ciento pensó que era repulsivo, mientras que sólo a un decepcionante dieciséis por ciento le pareció romántico. Un nuevo sondeo reveló que una mayoría comparable entendería perfectamente que la boda no siguiera adelante.

Y la tercera recomendación es la novela Suma y sigue, de Toni Jordan (Maeva, 2010).

Esta novela se presenta como una comedia romántica sobre una mujer obsesionada por los números, y eso es decir poco, su protagonista cuenta o etiqueta con números absolutamente todo, los pasos a diferentes lugares, las letras de los nombres, las palabras, las cerdas de un cepillo, las veces que tiene que cepillarse los dientes o frotarse con jabón, las cucharadas para comer una tarta, las medidas de objetos o de su cuerpo,… absolutamente todo, pero Grace no habla de ello en un sentido negativo, sino que se refiere a su amor por los números. Vive bajo esa obsesión numérica y apoyada en el orden y en rutinas que no puede modificar, lo cual explica que dejara su trabajo y no se relacione prácticamente con nadie. Es una persona que padece una enfermedad, un trastorno obsesivo compulsivo (TOC), como consecuencia de un trauma de la infancia, como se irá descubriendo a lo largo de la novela. Pero esa obsesión está tratada con cariño, provocando en el lector muchas sonrisas mientras lee sus peripecias numéricas. El héroe de la protagonista es el inventor Nikola Tesla, a quien debemos la electricidad comercial y que también padecía TOC.

Portada de la novela “Suma y sigue”, de Toni Jordan (Maeva, 2010)

La cita que he elegido de este libro tiene que ver con una anécdota real del matemático británico Charles Babbage (1791-1871).

El matemático e ingeniero Charles Babbage, inventor de la primera computadora, lo entendió. Y la lectura del poema de Tennyson, “La visión del pecado”, lo dejó muy contrariado.

Tan contrariado que le envió una carta a Tennyson, en la que decía:

Cada minuto muere un hombre. Cada minuto nace otro”; no necesito recordarle que este cálculo implica que la suma total de la población del mundo se mantiene en estado de perpetuo equilibrio, mientras que es un hecho bien sabido que dicha suma está en constante incremento. Por tanto, me tomaré la libertad de sugerirle que, en la siguiente edición de su excelente poema, el cálculo erróneo al cual me refiero aparezca corregido de la siguiente forma: “Cada minuto muere un hombre y nace uno y un dieciseisavo”. Me permito añadir que la cifra exacta es 1,167, pero alguna concesión habrá que hacer, naturalmente, a las leyes de la métrica.

Me sé la carta de memoria y, mientras salgo del supermercado con Seamus, acompaño cada sílaba con los pasos que doy, aunque no los voy contando. No cuento durante todo el camino a casa. […]

Ciertamente Charles Babbage lo entendió. La mayoría de la gente no lo entiende. No entienden que los números mandan, y no solo en el macromundo, sino también en su pequeño mundo, en su mundo propio, en sus vidas.

Los siguientes tres libros que vamos a mencionar en esta entrada del Cuaderno de Cultura Científica son fruto de una búsqueda de posibles libros interesantes y candidatos a convertirse en lecturas para el próximo otoño.

El primero es la novela La novia de papa, de Paloma Bravo (Plaza & Janés, 2010), que fue llevada al teatro en el año 2015. La protagonista y narradora de la novela es Sol, la directora creativa de una agencia publicitaria, una mujer libre e independiente, que se enamora y se va a vivir con Pablo, quien tiene dos hijas de 8 y 11 años, y por supuesto, una ex-esposa. Su vida cambiará radicalmente y la relación con las hijas de su pareja estará en el centro de la misma.

Portada de la novela “La novia de papa”, de Paloma Bravo (Plaza & Janés, 2010)

Traemos a esta entrada un par de citas que nos muestran el uso, quizás un poco a la ligera, pero sobre todo como una herramienta literaria, de la palabra “matemáticas” dentro de la novela. La primera aparición de este térmico es para darle un cierto dramatismo a una simple operación aritmética.

Pablo tiene muchos hermanos. Dicho así, parece que son incontables: lo son. Unos ocho, todos con pareja, todos con hijos. Todos (o casi) cumplen años en primavera. Así que mayo y junio son meses de fiestas y tartas, tartas y fiestas. A mí me gusta la familia de Pablo, me gusta mucho, no es ése el problema: el problema son las matemáticas.

Ocho hermanos con pareja son dieciséis, más una media de tres hijos por familia, veinticuatro, más dieciséis, cuarenta, más los padres, cuarenta y dos. Ése es el número, cercan a cincuenta, de gente que saludo, beso y hablo durante cada día de cada fin de semana de esos dos meses. Ése, más “ene”, es cada una de esas tardes de celebración.

Cartel de la adaptación teatral de la novela “La novia de papa”, de Paloma Bravo

Mientras que en la segunda cita se mencionan las matemáticas para referirse a las permutaciones/combinaciones de un número finito de elementos, en el texto cuatro elementos, los miembros de la nueva familia.

“–Mmmmmm.

En serio, Pablo. Creo que en el tema de la depilación hice lo que tenía que hacer: abstenerme. Igual que otras veces intervengo porque no es una decisión de vida o muerte y no pasa nada, en este caso respeté a su madre. Pero, tío, entiende a Eva: tu nunca te has depilado y su madre es su madre, su eterna enemiga. ¿Quién le queda a Eva para consultar?

Mmmmmm.

Conozco a Pablo; si sigo hablando, si mi retórica es demasiado elocuente, si insisto, si intento ganarle por goleada, perderé el partido y la guerra. Lo dejo estar. Le digo que aún llegamos al cine. Vamos cogidos de la mano. Volvemos besándonos. Y, al abrir la puerta de casa, concede:

¿Sabes qué? Puede que tengas razón. Me encanta ver que gustas a mis hijas, que les das cosas que yo no puedo darles, que tenéis una relación sólida e independiente de mi. Y también me está doliendo perderlas. Entiéndeme, Sol, ¿me jode que hagas felices a las niñas! –Y ahora ya se ríe abiertamente de sí mismo.

Son permutaciones.

¿Qué?

Sí, como en matemáticas: permutaciones de cuatro elementos tomados de dos en dos. Somos cuatro en casa y la relación de cada pareja quita tiempo a las otras posibles combinaciones. Somos una cantera inagotable para las combinaciones de celos.

O sea, que dejando a un lado tus absurdas metáforas científicas, lo que quieres decir es que somos una familia.

Más o menos.

En realidad no se está refiriendo a las permutaciones de cuatro elementos, sino al número de formas de escoger dos elementos, una pareja, dentro de un grupo de cuatro, es decir, el número combinatorio “cuatro sobre dos”. Por cierto, ese número combinatorio es seis, es decir, hay seis formas de elegir dos elementos, o de formar parejas, en un grupo de cuatro.

El siguiente libro que traemos a esta entrada es Yosotros, de Raúl Quinto (Caballo de Troya, 2015). Este es un libro muy particular, formado por pequeñas historias que se entrelazan en una especie de particular novela coral, que a su vez son una reflexión del autor sobre el individuo.

Portada del libro “Yosotros”, de Raúl Quinto (Caballo de Troya, 2015)

En uno de los fragmentos de este curioso, e interesante, libro se utiliza la paradoja de Banach-Tarski para hablar de Dios y del ser humano. Para quienes estén interesados en conocer más sobre la paradoja de Banach-Tarski pueden leer el interesante artículo La paradoja de Banach-Tarski: como construir el sol a partir de un guisante, de Marta Macho. Esta es la cita:

2. (La paradoja de Banach-Tarski)

El Uno es Dios, frente al resto que el lo múltiple que emana del Uno. Eso ha sido así siempre. Y sin embargo el dogma cristiano también dice que Dios es uno y trino, y que lo múltiple se puede dar dentro de la unidad absoluta e indivisible. Que ambas cosas puedan ser ciertas genera dudas, desconcierto y desasosiego racional. Una paradoja irresoluble. Y sin embargo las matemáticas, que están por encima de las arbitrariedades religiosas y se presentan como el dogma de la exactitud, ofrecen su propia versión en forma de otra paradoja, la de Banach-Tarski, según la cual una esfera se puede dividir en un rompecabezas de ocho piezas, y esas piezas combinadas de un modo preciso acaban produciendo inexorablemente dos esferas idénticas a la primera matriz. Podemos pensar que también esto es cuestión de fe, o hacer los cálculos necesarios.

Lo Uno Absoluto es divisible y múltiple en sí mismo.

Y si sucede esto con Dios y con la Esfera, que igualmente es Dios, qué no pensar de las formas secundarias, o qué acerca del ser humano. El hombre. Su continua indefinición entre sus propios límites y los límites del resto de los hombres. Entre el singular y el plural, o el estado intermedio. Acariciar los límites, o que se deshagan. Eso ha sido así siempre.

El último libro es El hombre vacío, de Dan Simmons (Ediciones B, 2015). Su protagonista es un profesor de matemáticas que tiene la “capacidad” de leer la mente. Como dice en la sinopsis “conoce los pensamientos más secretos, los miedos y los deseos de los demás como si fueran los suyos propios”.

Portada del libro “El hombre vacío”, de Dan Simmons (Ediciones B, 2015)

En la cita que hemos elegido de esta novela se comparan el amor y las matemáticas.

De todos los conceptos nuevos que Jeremy me ha proporcionado, los dos más intrigantes son el amor y las matemáticas.

Estos dos conjuntos parece que tienen pocos elementos comunes, pero, en realidad, las similitudes saltan a la vista para alguien que no ha experimentado ninguna de las dos cosas. Tanto las matemáticas puras como el amor puro dependen por completo del observador (podemos decir que es el observador quien los genera), y aunque veo en la memoria de Jeremy la afirmación de unos pocos matemáticos como Kurt Gödel de que las entidades matemáticas existen independientemente de la mente humana, como las estrellas que siguen brillando aunque no haya astrónomos que las estudien, prefiero rechazar el platonismo de Gödel en favor del formalismo de Jeremy: es decir, los números y sus relaciones matemáticas son meramente un conjunto de abstracciones generadas por los humanos y las reglas con las que manipular esos símbolos. El amor me parece un conjunto similar de abstracciones y relaciones entre abstracciones, a pesar de su frecuente relación con cosas del mundo real (dos manzanas más dos manzanas son en efecto cuatro manzanas, pero las manzanas no son necesarias para que la suma sea cierta). Del mismo modo, el complejo conjunto de ecuaciones que gobierna el flujo del amor no parece depender de quien da o recibe dicho amor. En realidad he rechazado la idea platónica del amor, en su sentido original, en favor de un acercamiento formalista al tema.

Feliz lectura…

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Un kilogramo de novelas y matemáticas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Artistas que miran a las matemáticas
  2. El rostro humano de las matemáticas
  3. Matemáticas experimentales
Kategoriak: Zientzia

Sistemas nerviosos: las áreas asociativas

Ar, 2017-09-05 17:00

Las áreas sensoriales y motoras ocupan menos de la mitad de la corteza cerebral humana. El resto de la corteza está ocupada por las áreas asociativas. Llamamos así a las regiones que, en primer lugar, procesan la información que reciben de las diferentes áreas sensoriales. Ese procesamiento consiste en la organización, identificación en interpretación de la información sensorial, generando, de esa forma, las percepciones, o sea, las representaciones que el encéfalo produce del entorno en el que se desenvuelve. La primera fase de toda esa panoplia de tareas consiste en la percepción, que es un proceso más activo que la recepción (que no es, por cierto, puramente pasiva, como suele creerse) pues en ella interviene la atención, las expectativas, la memoria y las emociones. Esos elementos contribuyen a dotar de significado a la información recibida. Y a partir de las percepciones, las áreas asociativas planifican, toman decisiones y adquieren habilidades motoras; también desarrollan capacidades cognitivas (pensamiento abstracto, lenguaje); y producen la mente consciente.

Los esfuerzos por entender los mecanismos neurológicos de las consideradas funciones superiores comenzaron hacia el final del siglo XIX, cuando el neuroanatomista alemán Franz Joseph Gall propuso que cada función mental concreta tenía una localización determinada en el cerebro. Antes se había empezado a tener constancia sistemática de los efectos que sobre determinadas funciones tenían los daños producidos en unas u otras regiones encefálicas. Es así como Pierre Paul Broca identificó el área que lleva su nombre, a la que nos referiremos más adelante. Ese mismo procedimiento se ha podido seguir utilizando, pero en la actualidad es posible recurrir además a la manipulación genética de animales modelo y estudiar cómo se ven modificadas determinadas habilidades (aprendizaje, memoria, y otras), y a técnicas de neuroimagen para las que se requiere un aparataje muy sofisticado.

Los lóbulos parietal, temporal y occipital -todos ellos ubicados en la zona posterior de la corteza- integran la información sensorial y la almacenada en la memoria. El lóbulo frontal o complejo de asociación prefrontal está implicado en la planificación de acciones, así como en el pensamiento abstracto. No obstante, por diferentes razones –de índole metodológica, epistemológica o simplemente por falta de conocimiento- no es posible delimitar con precisión el ámbito conceptual de tales fenómenos ni, por lo mismo, su sede en el cerebro. Además, los fenómenos asociativos reclutan fuentes encefálicas muy diversas, lo que quiere decir que intervienen muy diversos circuitos, no solo corticales. Baste recordar que los recuerdos (memoria) y las emociones intervienen de forma determinante en la generación de percepciones y en las elaboraciones posteriores a partir de ellas, como la toma de decisiones, la adquisición de creencias o la producción de ideas o e arte, en cualquiera de sus modalidades.

Las áreas asociativas se organizan en redes distribuidas. Cada red conecta áreas que se encuentran en zonas muy diversas de la corteza. Las redes pueden encontrarse en posiciones próximas o adyacentes unas a las otras, de manera que generan una serie compleja de redes entrelazadas entre sí. La organización específica de las redes asociativas se caracteriza en términos de interacciones, relaciones jerárquicas y competencia entre ellas.

El lenguaje es uno de los fenómenos asociativos que más atención ha recibido y por esa razón nos referiremos aquí a él a modo de ejemplo. Hay dos áreas -de Broca, antes citada, y de Wernicke, de las que sabemos desde el siglo XIX que intervienen en el procesamiento del lenguaje. El área de Broca se encuentra en el lóbulo frontal del hemisferio dominante (el izquierdo, normalmente) y ocupa las áreas de Bordmann 44 y 45; interviene en la producción del lenguaje. El área de Wernicke interviene en la comprensión del lenguaje hablado y escrito. Se encuentra en el área de Brodmann 22, que se localiza en la sección posterior del giro temporal superior del hemisferio dominante. Sin embargo, aunque las áreas citadas cumplen funciones esenciales en su producción y comprensión, el lenguaje es una capacidad de gran complejidad y no es posible circunscribir su procesamiento a esas dos áreas. Hoy sabemos que en los procesos citados intervienen otras áreas, incluyendo el lóbulo frontal, los ganglios basales, el cerebelo y el puente.

En definitiva, como se ha señalado antes, los procesos en los que intervienen las áreas asociativas son muy complejos. Además de lo intrincada que es la propia estructura de esas áreas a base de redes adyacentes y circuitos entrelazados, además, reclutan regiones encefálicas distintas de las corticales, por lo que su análisis y compresión son de suma dificultad.

Fuentes:

Eric R. Kandel, James H. Schwartz, Thomas M. Jessell, Steven A. Siegelbaum & A. J. Hudspeth (2012): Principles of Neural Science, Mc Graw Hill, New York

Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sistemas nerviosos: las áreas asociativas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas nerviosos: las áreas sensoriales
  2. Sistemas nerviosos: las áreas motoras
  3. Sistemas nerviosos: el sistema límbico
Kategoriak: Zientzia

Los antecedentes de la teoría cinética

Ar, 2017-09-05 11:59

Recordemos brevemente dónde estamos. Hasta ahora la termodinámica que hemos visto se basa en la observación de máquinas térmicas, algunas gigantescas. En este estudio no nos ha importado, porque es irrelevante, que existan las moléculas o no. Pero ahora estamos intentando desarrollar esas mismas leyes termodinámicas precisamente suponiendo que existen las moléculas. Para ello hemos elegido el sistema más simple, un gas, para el que hemos descrito un modelo también muy simple y nos disponemos a ver qué podemos deducir de la hipótesis de que los moléculas no solo existen, sino que se mueven. Y todo con matemáticas de primaria, para centrarnos en los conceptos.

La idea básica de la teoría cinética de la materia es que la energía térmica está relacionada con la energía cinética de las moléculas en movimiento. Como veremos, esto es correcto. Esta idea se había sugerido frecuentemente antes de que resurgiera con fuerza a finales del siglo XIX. Sin embargo, hubo muchas dificultades que obstaculizaron su aceptación general. Algunas de estas dificultades merecen que las mencionemos brevemente. La teoría cinética es un ejemplo de una buena idea que no se acepta fácilmente por la comunidad científica o, si se prefiere, de sociología de la ciencia.

Daniel Bernoulli

En 1738 Daniel Bernoulli demostró (era matemático y se lo podía permitir) que un modelo cinético podría explicar una propiedad de los gases muy conocida. Esta propiedad se describe como una variente de la ley de Boyle: siempre y cuando la temperatura no cambie, la presion del gas es proporcional a su densidad.

P D, si T es constante

Definimos la densidad, D, como la cantidad de masa (m) por unidad de volumen (V), D = m/V. Y, efectivamente, como habíamos expresado la ley de Boyle como P = a/V, si T es constante, entonces P = a D /m.

Bernoulli asumió que la presión de un gas es simplemente el resultado de los impactos de las moléculas individuales en la pared del contenedor. Si la densidad del gas fuera dos veces mayor, habría dos veces más moléculas por centímetro cúbico. Así, deducía Bernoulli, habría dos veces más moléculas golpeando la pared por segundo y por lo tanto la presión sería doble.

Isaac Newton en un grabado de 1748, que reproduce el retrato de G. Kneller de 1702.

La propuesta de Bernoulli podría haber sido el primer paso hacia la moderna teoría cinética de los gases. Sin embargo, la idea fue ignorada (por no decir despreciada) por la comunidad científica en el siglo XVIII. Una razón no menor para ello fue que Newton había propuesto una teoría diferente en sus Principia (1687). Newton mostró que la ley de Boyle podría explicarse por un modelo en el cual las partículas en reposo ejercen fuerzas que repelen a las partículas vecinas. Newton no decía, en absoluto, que hubiese demostrado que los gases realmente están compuestos de esas partículas fijas mutuamente repulsivas. Pero eso daba igual. La mayoría de los científicos, impresionados por los descubrimientos de Newton, simplemente asumieron que su tratamiento de la presión del gas también era correcto.

Pero la idea era demasiado buena como para desaparecer así como así. La teoría cinética de los gases fue propuesta de nuevo en 1820 por el físico inglés John Herapath. Herapath, por su cuenta, redescubrió las conclusiones de Bernoulli sobre las relaciones entre la presión y la densidad, o el volumen, de un gas y las velocidades de las partículas. De nuevo, el trabajo de Herapath también fue ignorado por la mayoría de científicos.

La mayoría no son todos. James Prescott Joule vio el valor de la obra de Herapath. En 1848, leyó un artículo en la Sociedad Literaria y Filosófica de Manchester en el que trataba de revivir la teoría cinética. Este artículo, también, fue ignorado por otros científicos. Quizás a ello contribuyó el hecho de que los físicos no suelen buscar documentos científicamente relevantes en las publicaciones de una “sociedad literaria y filosófica”.

Sin embargo, las pruebas a favor de la equivalencia de calor y energía mecánica continuaban acumulándose. Como consecuencia varios otros físicos calcularon independientemente las consecuencias de la hipótesis de que la energía calorífica en un gas es explicada y dada por la energía cinética de sus moléculas.

Rudolf Clauisus

Rudolf Clausius,a la sazón profesor en el Politécnico de Zúrich, publicó un artículo en 1857 en Annalen der Physik titulado “La naturaleza del movimiento que llamamos calor”, en el que desarrollaba un modelo cinético simple propuesto por Arthur Krönig. Este artículo estableció los principios básicos de la teoría cinética esencialmente en la forma aceptada hoy y lo cambió todo. Poco después, James Clerk Maxwell en Gran Bretaña y Ludwig Boltzmann en Austria desarrollarían los detalles matemáticos completos de la teoría.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los antecedentes de la teoría cinética se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una cuestión de movimiento
  2. La teoría de bandas de los sólidos se hace topológica
  3. Un modelo simple de gas
Kategoriak: Zientzia

Historias de la malaria: El mosquito

Al, 2017-09-04 17:00

Ahora lo sabemos y, entonces, hace más de un siglo, se sospechaba. Hasta Laveran mencionó, casi como una curiosidad, en sus escritos, que malaria y mosquitos coincidían a menudo. Conocemos ya las fiebres y lo que las alivia, aunque no cura del todo, la quinina. Y se ha descubierto el parásito que las provoca: especies del protozoo Plasmodium según los estudios de Laveran y otros. El protozoo está en la sangre de los enfermos, sobre todo en sus glóbulos rojos. Pero, en aquellos años, se desconocía por completo cómo el Plasmodium pasaba de persona a persona y contagiaba la enfermedad.

Como escribe Wilhelm von Drigalski, el enfermo no contagiaba nunca a nadie con sus esputos, ni por contacto, ni al besar o con sus deposiciones, ni al frotar la piel de otra persona. Se sospechó del aire y del agua. Nadie pensó en los mosquitos, aunque algunos, como Laveran, lo sospechaban pero no se atrevían a plantearlo como hipótesis de trabajo. François Pagès definió la malaria como enfermedad “cerrada”, pues, de alguna manera, el parásito quedaba encerrado en el cuerpo del enfermo.

El primero que estudió la transmisión de enfermedades por picaduras de insectos fue Patrick Manson en China. Demostró que la filaria, el nematodo causante de la filariasis, se contagiaba por mosquitos, todo ello después de numerosas, difíciles y tediosas disecciones de mosquitos en busca del parásito. Publicó sus resultados en 1877 y 1878. Unos años más tarde, en 1893, y en Estados Unidos, Theobald Smith demostró que la fiebre de Texas del ganado se transmitía por picaduras de garrapatas.

En esos años, Patrick Manson convenció al médico militar inglés Ronald Ross de que el plasmodio descubierto por Laveran como causante de la malaria estaba confirmado. Le enseñó a encontrar el protozoo, a través del microscopio, en sangre fresca de enfermos. Ross, destinado en la India, un subcontinente maltratado por la malaria y, sobre todo, lo más importante para Manson, Ross y sus mandos en el ejército, la enfermedad afectaba a los soldados ingleses y a los miembros de la administración colonial. Ross comenzó a diseccionar, como había hecho Manson con la filariasis, mosquitos que habían picado a enfermos de malaria. El cuerpo de esos mosquitos, que Ross diseccionaba al microscopio, medía 6-7 milímetros de longitud y 2 milímetros de anchura, y buscaba en ellos un protozoo de 0.001-0.01 milímetros de diámetro.

Página del cuaderno de notas de Ross en la que identifica en parásito de la malaria

En 1897 localizó los gránulos de pigmento negro típicos de la malaria en el estómago de un mosquito del género Anopheles. Fue el 20 de agosto cuando Ross encontró el protozoo en el estómago de la hembra del mosquito. Desde entonces, cada 20 de agosto se celebra el Día del Mosquito. Constató que, del estómago, los protozoos desaparecían en unas horas y, finalmente, los localizó en las glándulas salivares el 4 de julio de 1898. Solo las hembras pican y tienen glándulas salivares con anticoagulantes; los machos comen frutas y tienen glándulas salivares totalmente distintas. Así entendió cómo los mosquitos transmitían la malaria con la picadura.

El mismo año, 1897, demostró que los mosquitos del género Culex transmitían el Plasmodium en aves. Ross describió el ciclo vital del protozoo y telegrafió el descubrimiento a Manson en 1898 que, a su vez, lo comunicó a la British Medical Association en Edimburgo. También contactó con Laveran para explicarle su hallazgo.

Una de las dificultades que encontró Ross en su trabajo fue que entonces no se sabía que solo especies del género Anopheles transmitían la malaria. Además, desconocía por completo la taxonomía de los mosquitos y solo los distinguía con descripciones muy breves e imprecisas. Y, también, la región de la India donde investigó la intervención de los mosquitos en la malaria tenía pocas especies de Anopheles y la mayoría de ellos eran de los géneros Culex y Aedes.

Giovanni Battista Grassi

La escuela italiana de estudio de la malaria, con el trabajo de Gian Battista Grassi, Amico Bignami y Giuseppe Bastianelli, demostró el ciclo vital del Plasmodium en las especies de mosquito del género Anopheles que transmiten la malaria humana. Grassi planteó que no todos los mosquitos transmitían la malaria y que uno de ellos sería el vector específico. Como era zoólogo, organizó la búsqueda de evidencias sobre ese vector desde su experiencia profesional: recorrió el país muestreando mosquitos en las zonas endémicas con malaria y en las regiones que no padecían la enfermedad. Para Grassi, las herramientas del zoólogo para resolver el enigma del vector de la malaria eran los habituales: la sistemática del grupo, es decir, de los mosquitos; y la distribución geográfica de las especies implicadas, o sea, del protozoo, de los enfermos de malaria y, por supuesto, de los mosquitos.

Después del estudio de los ejemplares recogidos y clasificados y de su relación con la malaria, concluyó que la especie que aparecía en todas las áreas con malaria era el Anopheles claviger. Recurrió a dos médicos del Hospital Santo Spirito de Roma, los doctores Bignami y Bastianelli, para probar su hipótesis.

El 28 de junio de 1898, soltaron sus Anopheles sobre algunos enfermos internados en el hospital y, uno de ellos contrajo la malaria, que curaron con quinina. Por tanto, Anopheles claviger puede contagiar la malaria. La comunicación de este experimento a la Academia del Lincei termina con la descripción del ciclo del Plasmodium en el cuerpo del Anopheles.

La contraprueba que propuso Grassi era para demostrar que, evitando las picaduras del Anopheles, no se enfermaba de malaria. Eligió Capaccio, en la provincia de Salerno, una zona con una peligrosa malaria endémica. Los voluntarios eran trabajadores del ferrocarril que vivían en diferentes estaciones con sus familias. La prueba se organizó para los meses entre junio y octubre, la época del año con más malaria.

Aisló con rejillas metálicas las casas y habitaciones donde dormían 112 trabajadores y sus familias, incluido el propio Grassi, para impedir que llegaran los mosquitos hasta ellos. Otros 415 trabajadores, que serían el control, siguieron con su conducta normal y sin aislamiento. Entre los voluntarios aislados, solo hubo cinco casos de malaria, además leve y, quizá, más bien recaídas de fiebres anteriores. Los 415 trabajadores sin aislamiento enfermaron.

Grassi culminó su investigación con su lema de que hay mosquitos sin paludismo, pero no hay paludismo sin mosquitos.

La prueba más contundente la presentaron Ross y Manson. Uno grupo de mosquitos Anopheles criados en el laboratorio picaron a un enfermo de malaria en Italia. Ross envió los mosquitos a Londres, dirigidos a Manson. Cuando recibió los mosquitos, expuso a su hijo a las picaduras. Así se contagió con la malaria, la alivió con quinina e, incluso, tuvo hasta tres recaídas. En 1902, Ronald Ross recibió el Premio Nobel.

En el ciclo vital del Plasmodium hay dos etapas esenciales y consecutivas. En primer lugar, el mosquito debe picar al enfermo de malaria cuando su sangre está cargada de gametocitos, por tanto, cuando el protozoo se ha multiplicado en los glóbulos rojos, los ha destruido y se ha liberado a la sangre. Es, entonces, cuando el acceso de fiebre ataca al enfermo. Y, en segundo lugar, el mosquito infectado debe picar a otra persona en algo más de 10 días, como mucho 13 días, que es el tiempo máximo que el Plasmodium permanece vivo en el cuerpo del mosquito.

Por otra parte, el enfermo de malaria tiene ciclos de fiebre, o de tener la sangre llena de gametocitos, cada 24 horas, y los mosquitos Anopheles pican de noche. Deben coincidir fiebre y noche, y se consigue con los ciclos de fiebre de 24 horas. Así el mosquito pica, se alimenta de la sangre del enfermo, culmina el ciclo vital del protozoo y, con nuevas picaduras, extiende la enfermedad.

Hay censadas 465 especies del género Anopheles y más de 50 todavía sin catalogar. De ellas, unas 70 pueden transmitir la malaria en la especie humana, y 41 de ellas con gran eficacia. Son las consideradas un problema de salud pública y se intentan controlar. Con datos de 2008 y 2009 se ha elaborado una mapa global de estas especies de Anopheles. Sin entrar en detalles, hay que destacar que ninguna de ellas tiene una distribución planetaria y que cada continente, subcontinente e, incluso, regiones geográficas menores, tienen unas especies concretas. Por ejemplo, en la Península Ibérica destaca Anopheles atroparvus, con A. labranchiae en la costa mediterránea. Son las especies que destacan pero hay más, casi siempre con una distribución más localizada o fragmentada. De hecho, en la Península hay citadas 15 especies, aunque su taxonomía está todavía en discusión.

Ahora Mathieu Nacher, de la Facultad de Medicina de Cayena, en la Guayana Francesa, se pregunta si los síntomas que la fiebre provoca en el enfermo atraen a los mosquitos a picar. La fiebre atrae al mosquito con el aumento de la temperatura de la piel, la secreción de lactato que provoca la temperatura y los temblores, la producción de dióxido de carbono con la hiperventilación del enfermo, la sudoración, además del cansancio y agotamiento del enfermo que impide la conducta instintiva de espantar a los mosquitos cuando se les oye su característico zumbido. Como ejemplo sirve que el aumento de dióxido de carbono en la respiración llega al mosquito hasta unos 20 metros, y atrae al doble de ejemplares de Anopheles gambiae si, a la vez, le llega el olor del cuerpo humano. Y la fiebre, la mayor temperatura de la piel y la secreción de sudor aumentan el flujo de sangre en la superficie del cuerpo y, así, hay más sangre para los mosquitos en sus picaduras.

Desde siempre, y es un saber popular, los mosquitos pican más a unas personas que a otras. Ignoramos cuál es la causa de estas preferencias. R.H Wright sugirió que era una combinación de humedad y temperatura adecuadas en la piel. Es la mayor temperatura y una gran humedad lo que atrae al mosquito y, de nuevo, es lo típico de una persona con fiebre. Y, de nuevo según Wright, hay algo más pues los mosquitos distinguen un cilindro metálico y el brazo de una persona aunque ambos tengan igual temperatura y humedad.

Un trabajo interesante para conocer esta característica de la piel que atrae al mosquito es el de Bart Knols, del Centro Internacional de Fisiología y Ecología de Insectos de Nairobi, en Kenia. Primero observa que, a una persona tumbada, durmiendo, con temperatura tropical, los mosquitos pican la piel que tiene al descubierto, sobre todo el rostro, pero si está sentada pican los pies y piernas. Knols conoce el famoso queso Limburger, originario de Bélgica, y nos recuerda que este queso huele parecido a los pies de algunas personas. Se pregunta si las bacterias de la piel tienen algo que ver. Es más, detecta que a los mosquitos les va este queso.

Cuando analiza las bacterias de los pies encuentra una especie Brevibacterium epidermis, que crece entre los dedos de los pies. Y, en el queso, encuentra la Brevibacterium linis, distinta especie, el mismo género y, por lo que sabemos, el mismo hedor. Así que pies y queso Limburger atraen por igual a los mosquitos. Por esta interesante investigación, Bart Knols recibió el Premio IgNobel de 2006.

Referencias:

Capanna, E. 2006. Grassi versus Ross: who solved the middle of malaria? International Microbiology 9: 69-74.

Coleman-Jones, E. 1999. Ronald Ross and the great malaria problem: historical reference in the biological sciences. Journal of Biological Education 33: 181-184.

Constantini, C. et al. 1996. Mosquito responses to carbon dioxide in a West African Sudan Savannah village. Medical and Veterinary Entomology 10: 220-227.

Dekker, T. et al. 1998. Selection of biting sites on a human host by Anopheles gambia s.s., An. arabiensis and An. quadriannulatus. Entomologia Experimentalis et Applicata 87: 295-300.

Dworking, J. & S.Y. Tan. 2011. Ronald Ross (1857-1932): Discoverer of malaria’s life cycle. Singapore Medical Journal 52: 466-467.

Earle, D.P. 1979. A history of malaria and its ironies. Transactions of the American Clinical and Climatological Association 90: 1-26.

Eldridge, B.F. 1992. Patrick Manson and the discovery age of vector biology. Journal of the American Mosquito Control Association 8: 215-220.

Enserink, M. 2002. What mosquito want: secrets of host attraction. Science 298: 90-92.

Knols, B.G.J. 1996. On human odour, malaria mosquitoes, and Limburger cheese. Lancet 348: 1322.

Laverdant, C. 2007. Le context scientifique contemporain de la découverte de Laveran. Bulletin de l’Academie nationale de medicine 191: 1227-1234.

Ledermann, W. & G. Valle. 2009. Ética e investigación en la historia de la malaria. Revista Chilena de Infectología 26: 466-471.

Martín Sierra, F. 1998. El papel de la sanidad militar en el descubrimiento del mosquito como agente transmisor del paludismo y de la fiebre amarilla. Sanidad Militar 54: 286-296.

Nacher, M. 2004. Charming the mosquito: do malaria symptons increase the attractiveness o the hosto for the vector? Medical Hypotheses doi: 10.1016/j.mehy.2004.08.030

Pagés, F. 1953. Le paludisme. Presses Universitaires de France. Paris. 113 pp.

Sinka, M.E. et al. 2012. A global map of dominant malaria vectors. Parasites & Vectors 5: 69.

Snowden, F.M. 2006. The conquest of malaria. Italy, 1900-1962. Yale University Press. New Haven and London.

Takken, W. & B.G.J. Knols. 1999. Odor-mediated behavior of Afrotropical malaria mosquitoes. Annual Review of E ntomology 44: 131-157.

Villanueva-Meyer, M. 2015. Ronald Ross (1857-1932): Descubridor de la causa de la malaria y pionero en enfermedades tropicales. Galenus 52: 56-57.

von Drigalski, W. 1954. Hombres contra microbios. La victoria de la Humanidad sobre las grandes epidemias. Ed. Labor. Barcelona. 368 pp.

White, G.B. 1983. Malaria vector ecology and genetics. British Medical Bulletin 38: 207-212.

Wright, R.H. 1975. Why mosquito repellents repell. Scientific American July: 104-111.

Yoeli, M. 1973. Sir Ronald Ross and the evolution of malaria research. Bulletin of the New York Academy of Medicine 49: 722-735.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Historias de la malaria: El mosquito se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Historias de la malaria: Charles Louis Alphonse Laveran y el protozoo
  2. Historias de la malaria: El parásito
  3. Historias de la malaria: El charlatán y caballero Sir Robert Talbor
Kategoriak: Zientzia

FINGER: estratificar a la población para optimizar el funcionamiento de los servicios sanitarios

Al, 2017-09-04 11:59

Una investigación del departamento de Medicina Preventiva y Salud Pública de la Universidad del País Vasco/Euskal Herriko Unibertsitatea propone un programa de estratificación de la población con el objetivo de optimizar el funcionamiento de los servicios sanitarios durante los 12 meses siguientes.

Durante los últimos años, el número de pacientes con enfermedades crónicas ha aumentado, debido, entre otros factores, al envejecimiento poblacional. Además, muchos enfermos crónicos tienen más de un problema de salud. Algunos de estos pacientes tienen que acudir varias veces al año a su centro de salud y a consultas de especialistas, visitan reiteradamente los servicios de urgencias y son ingresados de manera repetida en hospitales. “Con frecuencia, se observan situaciones de falta de coordinación: se duplican algunas pruebas y se omiten otras, se producen interacciones entre los medicamentos que se les recetan y se les proponen planes de cuidados muy complicados, difíciles de comprender para el paciente. Todos conocemos situaciones de parientes a los que ven muchos especialistas al cabo del año y, a veces, es imposible seguir las recomendaciones de todos” afirma Jon Orueta, autor del estudio realizado en el Departamento de Medicina Preventiva y Salud Pública de la UPV/EHU. “Existe una opinión generalizada de que la organización de los sistemas de salud ha quedado obsoleta y son necesarios cambios profundos. La estructura de la pirámide de población actual nos lleva a pensar que en los próximos años vamos a atender a una población envejecida, que requerirá cuidados sanitarios complejos y que puede llegar a colapsar el sistema sanitario. Sin embargo, el sistema actual funciona bien para muchos de los pacientes. Por lo tanto, es necesario decidir a qué pacientes podemos seguir atendiendo con el modelo tradicional y para cuáles tenemos que buscar nuevas formas de atención sanitaria”, añade.

Jon Orueta ha desarrollado un sistema de estratificación que plantea la división de la población en estratos, es decir, grupos de personas con necesidades similares, para diseñar la atención sanitaria que, según las previsiones realizadas, requerirá cada estrato durante los 12 meses siguientes. De este modo, el sistema sanitario no se queda a la espera de que el paciente crónico empeore y tenga que acudir a las consultas o los hospitales, sino que se pueden planificar sus cuidados de manera anticipada e intervenir antes de que se produzcan descompensaciones.

Los sistemas de estratificación más conocidos fueron creados en Estados Unidos, y a pesar de las diferencias entre su sistema sanitario y nuestros servicios de salud, varias investigaciones han confirmado su validez. Orueta, que actualmente trabaja en la OSI Uribe de Osakidetza, dirigió el Programa de Estratificación Poblacional de la CAV durante cuatro años, y conoce de primera mano las dificultades para emplear estos sistemas. “Al intentar aplicarlos al mundo real, lo que hemos visto es que son modelos estadísticos muy complejos, que manejan muchas variables, y que a veces resultan difíciles de comprender para los médicos o para los gestores. Además, se trata de programas informáticos que requieren la compra de licencias anuales de uso. Por eso, hemos desarrollado un instrumento más fácil de entender, intuitivo, y que a pesar de su simplicidad no pierde demasiada capacidad explicativa respecto a los modelos americanos. Además, dado que se ha desarrollado aquí, no tendría costes de licencia”.

El sistema FINGER (Formación e Identificación de Nuevos Grupos de Estratificación de Riesgo) se basa en los diagnósticos de todos los problemas de salud por los que el paciente ha tenido contacto con los servicios de salud. Es claro y sencillo, pero “consigue identificar correctamente a una proporción importante de los pacientes que requerirán gran cantidad de recursos, necesitarán hospitalizaciones no programadas o que presentarán mayor riesgo de fallecimiento durante el año siguiente. De esa forma, cada paciente es asignado en el estrato más acorde a su situación futura, y recibe una mejor atención”.

Los modelos predictivos, por sí solos, “no mejoran la salud de las personas, ni evitan hospitalizaciones, ni disminuyen los costes, a menos que se acompañen de planes de intervención”, afirma Orueta. La aplicación de un sistema como FINGER y los subsiguientes planes de intervención podría proporcionar “una mejor atención, mejores cuidados, menos hospitalizaciones y menos descompensaciones. Y, lógicamente, si se utilizan menos los hospitales y las unidades de cuidados muy complejos, el coste se reducirá”. Pero el objetivo del sistema es proporcionar una mejor atención, “la reducción del gasto sanitario es una consecuencia de dicha aplicación” subraya Orueta.

Referencia:

Millán E, Lopez Arbeloa G, Samper R, Carneiro M, Pocheville E, Aurrekoetxea J, de Pablos I, Orueta J. (2015) Assessment of a Predictive Risk Model for Classifying Patients with Multimorbidity in the Basque Country Value Health. 18(7):A374. doi: 10.1016/j.jval.2015.09.773.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo FINGER: estratificar a la población para optimizar el funcionamiento de los servicios sanitarios se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Algoritmos de triaje para readmitidos en urgencias
  2. Una red electrica global basada en corriente continua para optimizar el uso de energías renovables
  3. Posibles biomarcadores para el ictus
Kategoriak: Zientzia

El Sol

Ig, 2017-09-03 11:59

El sistema solar se formó hace unos 4.600 millones de años a partir de una pequeña parte (alrededor de un 5%) de una gigantesca nube molecular formada principalmente por hidrógeno. La mayor fracción de ese 5% de materia –el 99,85%- colapsó formando el Sol, y el resto formó un disco protoplanetario que acabría dando lugar a los demás cuerpos del sistema (planetas, satélites, asteroides y demás).

El Sol es una esfera casi perfecta de plasma caliente cuyo diámetro es 109 veces el de la Tierra, y su masa, 330.000 veces la de nuestro planeta. Un 73% de la materia solar es hidrógeno y un 25%, helio; el 2% restante se lo reparten otros elementos. Tras su formación, la temperatura y la densidad de la masa central alcanzaron valores altísimos. El núcleo del sol -correspondiente a una esfera cuyo radio es la cuarta parte del total- se encuentra a una densidad que es 150 veces superior a la del agua y a una temperatura de 15,7 millones de kelvins. Bajo esas condiciones en su interior se producen de forma permanente reacciones nucleares de fusión, la inmensa mayoría consistentes en la conversión de hidrógeno en helio. Esas reacciones emiten rayos gamma -fotones de muy alta energía- que son absorbidos de manera inmediata por el plasma solar y liberados a continuación de nuevo, aunque con algo menos de energía. Ese proceso doble de absorción y reemisión se produce infinidad de veces antes de que los fotones lleguen a la superficie solar. Por ello, transcurren miles de años desde su emisión inicial hasta que alcanzan la superficie y salen al exterior: según estimaciones teóricas ese tiempo puede ir de 10.000 a 170.000 años. Y sin embargo, desde que un fotón sale del Sol hasta que excita una molécula fotorreceptora en una célula de nuestra retina, tan solo transcurren algo más de ocho minutos (aunque, lógicamente, para el fotón no ha pasado el tiempo).

Cada metro cuadrado de la superficie de la Tierra recibe de su estrella, en promedio, 1 kilovatio de potencia cuando se encuentra en su cénit en días despejados. A la superficie no llega toda la que penetra en la atmósfera, puesto que esta filtra e impide la llegada de radiaciones de ciertas longitudes de onda. Si no fuera por ese filtro, serían 1,37 kilovatios por metro cuadrado. El 50% de la energía que llega al exterior de la atmósfera lo hace en forma de radiación infrarroja, un 40% es luz visible y un 10%, radiación ultravioleta. Un 70% de esta última, en mayor proporción cuanto menor es la longitud de onda, no llega a la superficie terrestre.

El Sol no permanece estático. Da vueltas sobre sí mismo de manera que su ecuador completa una vuelta en 25,6 días, aunque ese tiempo es algo más prolongado en los polos (33,5 días), pues la velocidad de rotación no es homogénea, disminuye del ecuador hacia los polos. Y además de rotar, también describe un movimiento, prácticamente elíptico, de traslación alrededor del centro de la Vía Láctea. Tarda entre 225 y 250 millones de años en describir una órbita completa; o sea, eso es lo que dura nuestro año galáctico. Ese desplazamiento se produce a la increíble velocidad de 251 kilómetros por segundo. Viajamos, pues, por el espacio a lomos de un planeta que gira enloquecido alrededor de una estrella que, a su vez, se desplaza a una velocidad imposible de asimilar a nuestra escala, en torno al centro de la galaxia. Y esta, por su parte, tampoco se está quieta. No somos conscientes de ello, pero vivimos en un gigantesco torbellino cósmico.

—————————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

Una versión anterior de este artículo fue publicada en el diario Deia el 27 de agosto de 2017.

El artículo El Sol se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La gran erupción
  2. Una ventana llamada Rosetta
  3. El calor no es un fluido
Kategoriak: Zientzia

Ciencia a presión: Ciencia patológica y patología editorial

La, 2017-09-02 11:59

La expresión publish or perish (publica o perece) es de sobra conocida en el ámbito científico. Quiere expresar la importancia que tienen las publicaciones en los currículos del personal investigador. En ciencia no basta con hacer observaciones, obtener unos resultados y derivar conclusiones. Hay, además, que hacerlo público y, a poder ser, en medios de la máxima difusión internacional. La ciencia que no se da a conocer, que no se publica, no existe. El problema es que de eso, precisamente, depende el éxito profesional de los investigadores, sus posibilidades de estabilización y de promoción. De ahí la conocida expresión del principio.

El mundo de la comunicación tiene también sus normas. En comunicación se trata de que lo que se publica sea consumido. De la misma forma que la ciencia que no se publica no existe, en comunicación tampoco existen los contenidos que no se consumen: o sea, no existen los artículos que no se leen, los programas de radio que no se oyen, los de televisión que no se ven o los sitios web que no se visitan. En comunicación valdría decir “sé visto, oído o leído, o perece”.

Ambas esferas tienen ahí un interesante punto en común. Y por supuesto, en comunicación o difusión científica el ámbito de confluencia se aprecia en mayor medida aún. Confluyen aquí ambas necesidades, la de hacer públicos los resultados de investigación y, además, conseguir que lleguen a cuantas más personas mejor.

El problema es que la presión por publicar y por tener impacto comunicativo puede conducir tanto a unos como a otros profesionales, a adoptar comportamientos deshonestos, contrarios a la ética profesional e, incluso, a desvirtuar completamente el fin de la ciencia y de su traslación al conjunto del cuerpo social. Y también puede conducir, y de hecho ha conducido, a que se haya configurado un sistema de publicaciones científicas con patologías.

De todo esto se trató el pasado 31 de marzo en “Producir o perecer: ciencia a presión”, el seminario que organizaron conjuntamente la Asociación Española de Comunicación Científica y la Cátedra de Cultura Científica de la UPV/EHU.

3ª Conferencia

Joaquín Sevilla, profesor y responsable de divulgación del conocimiento de la Universidad Pública de Navarra: Ciencia patológica y patología editorial

Ciencia patológica y patología editorial

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Ciencia a presión: Ciencia patológica y patología editorial se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia a presión: Científicos que avalan patrañas
  2. Ciencia a presión: Periodistas que avalan patrañas
  3. Ni ciencia, ni pseudociencia, ciencia patológica.
Kategoriak: Zientzia

Una búsqueda celestial que ha durado 580 años

Or, 2017-09-01 12:00

La astronomía en el Antiguo Oriente ha sido una cuestión importante durante miles de años. En Corea del Sur aún se conservan estructuras denominadas Cheomseongdae, que significa literalmente torre para observar estrellas. La construcción que veis en la imagen inferior se edificó a mediados del siglo VI después de Cristo, entre los años 632 y 637, y durante los siguientes siglos las diferentes dinastías que gobernaron la región se preocuparon de hacerse con un notable cuerpo de astrólogos que se encargaron de registrar lo que ocurría en el cielo. Esta temprana afición por anotar y describir lo que veían nos resultará muy útil en nuestro artículo de hoy.

Cheomseongdae en la ciudad coreana de Gyeongju | Jinho Jung Flickr CC

Cuentan los documentos que se conservan que, en marzo de 1437, los astrólogos imperiales de la incipiente dinastía Joseon vieron aparecer una nueva estrella en el cielo, desde su “torre de las estrellas” en el palacio de Hanyang, la actual Seúl. Aquella nueva luz fue visible durante catorce días antes de desaparecer gradualmente del firmamento, mientras los sabios coreanos se afanaban por anotar su posición en algún lugar de “la cola” de la constelación de Escorpio.

De aquel fugaz resplandor, documentado hace ya 580 años, no se volvió a saber nada hasta hace tan solo unos días. La revista Nature publicó ayer mismo un artículo anunciando que, desde sus modernas atalayas, otro equipo de astrónomos ha localizado la luz que iluminó el cielo coreano en el siglo XV.

Por supuesto, por las descripciones del fenómeno que se conservan, los astrofísicos sabían desde hace tiempo que aquella luz observada en 1437 debía pertenecer a una nova, la cuestión era encontrarla… y no ha resultado fácil, de hecho, el autor principal del estudio Michael Shara, conservador del Departamento de Astrofísica del Museo Americano de Historia Natural, señalaba en un comunicado de prensa que “es la primera nova que se ha podido detectar con certeza basándose en los registros chinos, coreanos y japoneses de los últimos 2.500 años“.

Infografía de la formación de una nova clásica | Imagen NASA/CXC/M.Weiss

Explicar con palabras sencillas qué es una nova en un sistema binario no es muy difícil. Tenemos dos estrellas en una combinación que resulta bastante habitual en el Universo: una enana blanca y una gigante roja, girando una alrededor de la otra. Como veis en la infografía en esa relación estelar se produce un traspaso de material, principalmente helio e hidrógeno, de la roja a la blanca… A medida que acumula material la temperatura también aumenta y, cuando la enana blanca alcanza el punto de fusión nuclear, explota violentamente dejando una brillo, bastante más tenue que una supernova, pero aún así visible incluso para los astrólogos coreanos del siglo XV.

El proceso de formación de una nova puede durar docenas de miles de años, mientras la enana blanca acumula material “robado” de su compañera, sin embargo, el desenlace final es visible en el cielo durante unas pocas semanas o meses… después de eso, se desvanece poco a poco dejando apenas una tenue “concha” como vago recordatorio de lo que fue y a ver quién es el guapo que la encuentra de nuevo.

La búsqueda de esa nova ha interesado durante años al autor principal del trabajo, Michael Shara que, junto con otros astrofísicos como Mike Bode, de la Universidad John Moores de Liverpool, han estado buscando material y documentación hasta llegar a una placa fotográfica realizada hace ya casi un siglo.

Placa fotográfica, realizada en 1923, de la región estelar donde se encuentra la nova | DASCH Digital Access to a Sky Century, Harvard University

La placa (imagen superior) fue capturada desde la estación Boyden del Observatorio de Harvard, en Arequipa (Perú), en el año 1923, utilizando el telescopio Bruce Doublet de 24 pulgadas y con una exposición de 300 minutos. Se encontraba catalogada como “A12425” dentro del inmenso catálogo DASCH de la Universidad de Harvard, que recopila aproximadamente 200.000 placas fotográficas capturadas durante todo el siglo XX.

A esta primera placa de 1923, siguieron otras tantas del archivo DASCH, obtenidas ya en la década de 1940, con las que los investigadores por fin se encontraban en disposición para seguir la trayectoria de la nova. Ahora tan solo hacía falta apuntar uno de los modernos telescopios con los que contamos en la actualidad y… ¡voilá!

Imagen capturada en junio de 2016 por el telescopio Carnegie SWOPE de Chile | M.Shara et al. ArXiv

Llegamos finalmente a la imagen más clara de la nova observada en Seúl el 11 de marzo de 1437, (a la que me he permitido añadir las fechas). Lo que vemos corresponde a la concha expulsada en la explosión y fue tomada en junio del pasado 2016, por el telescopio Carnegie SWOPE de 1 metro en Chile usando un filtro que destaca el gas hidrógeno caliente de la concha. La estrella que produjo la concha nova está indicada con marcas rojas. Hoy está lejos del centro de la cáscara donde estalló. Sin embargo, su movimiento medido a través del cielo lo coloca en el “+” rojo en 1437. La posición del centro de la cáscara en 1437 está en el signo “+” verde.

Han sido necesarios casi seiscientos años desde la observación de aquellos atónitos ojos de los astrólogos coreanos que contemplaron un resplandor en el cielo, hasta llegar a la detección moderna de la nova y su evolución durante todo este tiempo. De las torres de piedra para mirar a las estrellas a los telescopios modernos, seis siglos en la Historia de la Humanidad… un suspiro en la vida del Universo.

Este post ha sido realizado por Javier Peláez (@irreductible) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Referencias científicas y más información:

M. Shara, K. Iłkiewicz, J. Mikołajewska, A. Pagnotta, D. Zurek, et al. “Proper-motion age dating of the progeny of Nova Scorpii AD 1437” Nature 548, 558–560 (31 August 2017) doi:10.1038/nature23644

M. Shara, K. Iłkiewicz, J. Mikołajewska, A. Pagnotta, D. Zurek, et al. “Nova Scorpius 1437 A.D. is now a dwarf nova, age-dated by its proper motion” Solar and Stellar Astrophysics (astro-ph.SR) | arXiv:1704.00086 [astro-ph.SR]

American Museum of Natural History “Scientists Recover Nova First Spotted 600 Years Ago by Korean Astrologers” Comunicado de prensa

El artículo Una búsqueda celestial que ha durado 580 años se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La historia de la insulina, 90 años salvando vidas
  2. 500 años de matrimonio no tan bien avenido
  3. 25 años de planetas extrasolares
Kategoriak: Zientzia

La ciencia y el ‘establishment’

Og, 2017-08-31 11:59

Una de las más peculiares justificaciones que se dan para rechazar los datos científicos en campos como las terapias alternativas o la eficacia y seguridad de las vacunas es la acusación de que la ciencia pertenece al ‘establishment’, esa palabra contenedor que agrupa a los segmentos sociales de poder. En estos tiempos de rechazo a cualquier cosa que esté cerca del poder, sea político o económico, ser asociado con las estructuras que dominan el mundo es el beso de la muerte y una pérdida automática de credibilidad: si formas parte de ‘los de arriba’ cualquier cosa que digas es automáticamente sospechosa de servir tan sólo para mantener la injusticia. Este rechazo y desconfianza a todo lo que represente poder forma parte de las revoluciones populistas que nos han dado fenómenos como el Brexit o la presidencia Trump, y sin duda tiene su parte de razón: la propaganda y la mentira son herramientas de los poderosos para conseguir sus intereses y mantener sus privilegios. Lo que resulta poco menos que hilarante es acusar a la ciencia, como conocimiento o como actividad, de estar en ese grupo. Porque los científicos nunca han tenido poder.

Hasta tal punto es así que cuando algún científico profesional se dedica a la política a todos los efectos deja de ser científico, o no actúa en público como tal: Alfredo Pérez Rubalcaba es profesor universitario de Química, pero es una anécdota en su carrera política, al igual que Angela Merkel es doctora en físicoquímica sin que ello haya parecido afectar demasiado a su presencia pública. Mientras la mayoría de los políticos son o abogados o especialistas en política, como es razonable, y actúan como tales, los científicos que llegan a la política aparentemente se olvidan de su pasado. Lo cual nos dice mucho sobre la realidad de la ciencia en los círculos de poder: si fuese una característica positiva quienes la poseen presumirían de ella.

De hecho la ciencia como metodología y el poder son bastante incompatibles, dado que la una trabaja para superar constantemente el ‘statu quo’ mientras que una característica permanente de cualquier poder es la tendencia a mantener la estructura que lo soporta. Mientras que el sueño del ‘establishment’ es que las cosas permanezcan como están, con ellos mandando, el objetivo de la ciencia es siempre superar los conocimientos anteriores. Por eso en múltiples ocasiones a lo largo de la historia poderes de diferentes tipos, desde gobiernos autoritarios a regímenes religiosos, han intentado e intentan hoy en día limitar, coartar y controlar el avance científico. Y por eso es tan complicado conseguir que los científicos ejerzan ningún tipo de acción conjunta o se organicen en estructuras de cualquier tipo: entrenados como escépticos y críticos profesionales resulta casi imposible usar con ellos las técnicas habituales de microgestión política, como sabe bien quien haya sobrevivido alguna vez a una reunión de departamento universitario.

La vida cotidiana de los científicos profesionales también respalda esta falta de poder real: sometidos a burocracias aplastantes y limitados en sus fuentes de financiación y recursos sus sueldos no son particularmente elevados ni gozan de privilegios sociales. Si la ciencia de verdad formase parte del poder sus practicantes recibirían las prebendas asociadas con esa exaltada posición. La realidad del día a día del científico desmiente categóricamente esta idea.

Es cierto que las empresas usan, y abusan, de la ciencia para aumentar sus beneficios; y es cierto que lo gobiernos y las naciones aprovechan las ventajas en riqueza y poder militar que la ciencia les ofrece. En el proceso a veces la ciencia es retorcida, abusada y masacrada, a veces hasta convertirla en caricatura de sí misma como cuando se utilizó para justificar principios político-morales en contra de la evidencia como el llamado ‘racismo científico’ o el darwinismo social. Pero esto es tan culpa de la ciencia como pueda serlo de la religión o de la nación cuando se convierten estos conceptos en justificaciones de políticas absurdas: la idea que una ideología retuerce para justificarse no es culpable de esa manipulación. Ni los descubrimientos realizados por la actividad científica quedan invalidados por el hecho de que haya quien abuse del nombre y prestigio de la ciencia para hacer propaganda o llevar a cabo manipulaciones políticas.

No, la ciencia no forma parte del ‘establishment’, y jamás lo hará. La acusación es injusta y extraña, al menos hasta que no veamos a los científicos en activo cobrando sueldos millonarios, presumiendo de sus artículos en la tribuna del Congreso, dirigiendo programas de televisión e horario de máxima audiencia y volando en aviones del estado a sus congresos. Cuando el fichaje de un científico por una institución ocupe en los medios tanto espacio como las opiniones de un político o como la llegada de un futbolista podremos revisar esta idea. De momento estamos muy, muy lejos de ello.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo La ciencia y el ‘establishment’ se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia, poder y comercio
  2. La ciencia y la competencia
  3. La ciencia y la duda
Kategoriak: Zientzia

Orriak