El sistema de la difusión social de la ciencia: 2. Motivaciones y agentes
Motivaciones de los agentes
Los motivos por los que diferentes agentes desarrollan actividades de comunicación científica se pueden resumir en tres grandes epígrafes. Ciertos agentes las realizan por los beneficios que reportan, que pueden ser materiales (económicos) o inmateriales (prestigio). La comunicación científica es una actividad económica como cualquier otra ya que hay personas dispuestas a comprar –en formato divulgativo o informativo- contenidos de ciencia. El prestigio, como bien inmaterial, se identifica en muchos casos con una buena imagen y ésta puede conseguirse como consecuencia del desempeño de las actividades de difusión social de la ciencia. Otros agentes actúan por responsabilidad social, por los beneficios sociales que se le atribuyen. Y otros por placer (o afición), porque hay personas que disfrutan desarrollando esa labor. No hay fronteras absolutas entre esas motivaciones. Un agente puede disfrutar con una actividad que la empezó a desarrollar por responsabilidad social y que, además, le reporta un beneficio económico. Y no es extraño que quienes empiezan haciendo divulgación científica por afición acaben haciendo de ello un modo de vida.
Los agentes
Cada uno de los agentes que se señalan a continuación desarrollan su labor en el ámbito de la comunicación científica. Por regla general no actúa de forma aislada, sino que se benefician mutuamente de la colaboración de otros. Y cada uno de ellos desarrolla esa labor debido a un motivo o a un conjunto de ellos.
Medios de comunicación
Dependiendo de su carácter público o privado, la motivación para comunicar ciencia es o puede ser diferente. Los medios privados –normalmente prensa, pero también radio, principalmente- informan sobre ciencia porque interesa a cierto público y son consumidores de información científica (receptores). Para los medios se trata de lograr un rendimiento económico a esa actividad. En el caso de los medios públicos, aparte de satisfacer el interés de una parte de su audiencia, también opera la responsabilidad social. Los medios de comunicación de titularidad pública tienen una función social que cumplir como agentes al servicio de la transmisión de cultura, y la cultura científica es parte inseparable de la cultura humana.
Periodistas independientes
Los periodistas independientes actúan en el sistema de la comunicación científica por razones económicas, con independencia de que, además, consideren que se trata de una actividad socialmente necesaria y gratificante. Los diferenciamos de los medios de comunicación porque aunque su motivación es también económica, las condiciones en que desarrollan su actividad son muy diferentes. Suelen ser periodistas freelance que en ocasiones trabajan para más de un medio de comunicación.
Divulgadores profesionales
Aunque pocos, existen divulgadores científicos profesionales que trabajan de forma independiente. Son autores de libros, mantienen blogs, participan en proyectos de comunicación de empresas del sector, dictan conferencias, etc.
Museos
Hay una gran diversidad de museos e infraestructuras equivalentes. También los hay de concepciones muy distintas, variando desde planteamientos expositivos tradicionales hasta centros concebidos para interactuar con el público visitante. [Ejemplos: MUNCYT, Eureka Zientzia, Planetario, Laboratorium]
Los museos también están dirigidos a públicos amplios y, como ocurre con las exposiciones especiales, también reciben la visita de grupos de estudiantes.
Editoriales
Numerosas editoriales mantienen una colección de libros de divulgación, en ocasiones no sólo del ámbito científico, pero sí principalmente. Al igual que los medios privados de comunicación, su motivación es económica, aunque también puede serlo la búsqueda de prestigio.
Organismos públicos
Dentro de este apartado se incluyen universidades, centros de investigación y otras entidades relacionadas con el mundo de la ciencia o, en general, del conocimiento. La motivación principal es la responsabilidad social, motivación que tiene, a su vez, dos componentes. Una tiene que ver con el interés que se atribuye a la alfabetización científica de la sociedad. Y la otra es un ejercicio de transparencia, pues se entiende que la ciudadanía tiene derecho a conocer el destino que esos organismos dan a los recursos públicos que se destinan a la investigación.
Y a la responsabilidad social habría que añadir el prestigio o, quizás en el caso de estas instituciones, la imagen, que al fin y al cabo es una forma de prestigio o reputación. En la medida en que las actividades de difusión social de la ciencia tienen un alcance importante y llegan a amplios sectores de la sociedad, ello genera una buena imagen de la institución, pues para el público, el correcto desempeño de esa función es un indicador de competencia y de responsabilidad social.
Agencias de comunicación
Numerosas instituciones públicas del ámbito del conocimiento y de la ciencia -universidades y centros de investigación, principalmente- disponen de sus propios gabinetes de comunicación. Además, tanto si disponen de su propio servicio y requieren apoyo adicional como si carecen del mismo, cada vez son más las entidades que recurren a los servicios de agencias especializadas de comunicación. Aunque una agencia generalista puede ofrecer servicios de difusión científica, cada vez es más frecuente encontrarnos con agencias especializadas en materias científicas y tecnológicas.
Empresas de divulgación
Al igual que ocurre con la comunicación, y si bien por el momento se trata de un sector de escasa entidad, también en el terreno de la divulgación científica hay empresas. En algunos casos se trata de compañías especializadas en la organización de eventos; en otros, ofrecen productos de divulgación dirigidos a sectores o segmentos determinados (infancia, por ejemplo), y en otros realizan tareas de producción audiovisual, de edición de medios digitales, etc.
Asociaciones
Existen numerosas asociaciones que desarrollan tareas de difusión social de la ciencia. Unas son asociaciones culturales de carácter general [ejemplo], otras se dedican a la difusión de las ciencias experimentales [ejemplo] y otras, incluso, trabajan campos muy especializados [ejemplo]. Son asociaciones de particulares cuya principal motivación es la afición o, también, la responsabilidad social. Ejemplos especiales de asociaciones con una clara motivación de responsabilidad social son las asociaciones de escépticos, como Círculo Escéptico y ARP Sociedad para el Avance del Pensamiento Crítico.
Investigadores y docentes
Un buen número de investigadores, así como docentes de diferentes niveles formativos (universitarios y de bachillerato, principalmente) realizan actividades de divulgación científica. Para algunas de estas personas la actividad divulgadora ocupa una parte significativa de su tiempo y otras lo hacen de forma muy esporádica. La motivación de estas personas es la responsabilidad social, el prestigio social y el placer. Raramente se trata de una actividad remunerada. En muchas ocasiones esta tarea se enmarca en la actividad de otros agentes, como organismos públicos o medios de comunicación.
Divulgadores aficionados
Aunque no es el caso más habitual, también hay personas ajenas a las instituciones académicas u organismos de investigación que desarrollan, por placer y también por responsabilidad social, una cierta actividad de divulgación científica. Un buen número de investigadores, docentes y divulgadores aficionados engrosan las filas de las asociaciones a que se ha hecho referencia antes.
————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El sistema de la difusión social de la ciencia: 2. Motivaciones y agentes se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La sinergia prebiótica de aminoácidos y ácidos grasos
El ADN, el ARN, las proteínas, las membranas, los azúcares… las células están compuestas por diversidad de componentes. En biología, y, concretamente, en los estudios sobre el origen de la vida, es muy común centrarse en una de esas moléculas, y postular hipótesis sobre cómo se originó la vida mediante el análisis de los mecanismos específicos relacionados con ella. “Estos estudios, básicamente, buscan “la molécula de la vida”, es decir, establecer cuál fue la molécula más importante para que fuera posible este hito, comenta Kepa Ruiz-Mirazo, investigador de la Unidad de Biofísica y del departamento de Lógica y Filosofía de la Ciencia de la UPV/EHU. No obstante, teniendo en cuenta que “la vida es un juego entre una gran variedad de moléculas y componentes, en los últimos años está habiendo un cambio de planteamiento, y están tomando fuerza las investigaciones que tienen en cuenta diferentes moléculas al mismo tiempo”, añade.
Además de mostrarse a favor de este nuevo planteamiento, el grupo de Ruiz-Mirazo, en colaboración con la Universidad de Montpellier, mediante la estancia de la doctoranda de la UPV/EHU Sara Murillo-Sánchez, ha podido demostrar que existe interacción entre unas moléculas y otras. “Nuestro grupo es experto en la investigación de las membranas que se crearon en los entornos prebióticos, es decir, en el estudio de las dinámicas que pudieron haber tenido los ácidos grasos, los precursores de los lípidos actuales. El grupo de Montpellier, por su parte, está especializado en la síntesis de los primeros péptidos. Así, al juntar el conocimiento de unos y otros, y cuando experimentalmente mezclamos los ácidos grasos y los aminoácidos, pudimos ver que se da una fuerte sinergia entre ambos”.
Según pudieron observar, la catálisis de la reacción se produjo cuando los ácidos grasos formaron compartimentos. Al estar en un medio acuoso, y debido al carácter hidrófobo de los lípidos, estos tienden a unirse entre sí y formar compartimentos cerrados; es decir, toman la función de membrana; “en aquella época, obviamente, las membranas no eran biológicas, sino químicas”, aclara Ruiz-Mirazo. En sus experimentos pudieron ver que las condiciones que ofrecen estas membranas son favorables para los aminoácidos: “El grupo de Montpellier tenía muy bien caracterizadas las reacciones prebióticas de formación de dipeptidos; así, pudieron ver que en presencia de los ácidos grasos, esta reacción se daba con una eficiencia mayor”, añade.
Además de demostrar la sinergia entre los ácidos grasos y aminoácidos, Ruiz-Mirazo considera muy importante haber realizado el estudio partiendo de componentes químicos básicos, es decir, con precursores moleculares: “La vida surgió a partir de esas moléculas básicas; por tanto, para estudiar su origen no podemos partir de los fosfolípidos complejos que se encuentran en las membranas de hoy en día. Hemos demostrado la formación de las primeras uniones y cadenas partiendo de precursores moleculares. O dicho de otro modo, hemos demostrado que es posible llegar a la diversidad y complejidad de la biología, partiendo de la química”.
En sus estudios, además del trabajo experimental, Ruiz-Mirazo trabaja en otros dos ámbitos, por lo que al final estudia el origen de la vida desde tres pilares o perspectivas: “por un lado, está el campo experimental; otro, está basado en modelos teóricos y simulaciones computacionales, que utilizamos para analizar los resultados obtenidos en los experimentos, y el tercero es un poco más amplio, ya que estudiamos desde el punto de vista filosófico qué es la vida, la influencia que tiene en el campo experimental la concepción que se tiene de la vida, ya que cada concepción te lleva a realizar un tipo de experimentos —aclara—. Estas tres metodologías se alimentan mutuamente: una idea que pueda surgir en el análisis filosófico te lleva a realizar una nueva simulación, y los resultados de esas simulaciones marcan el camino para diseñar los experimentos. O al revés. Seguramente, nunca llegaremos a resolver el inicio de la vida, pero trabajamos en ello: todos los seres vivos de la Tierra tenemos el mismo origen, y queremos conocer cómo sucedió”.
Referencia:
Murillo-Sánchez, S., Beaufils, D., González Mañas, J. M., Pascal, R. & Ruiz-Mirazo, K. (2016): Fatty acids’ double role in the prebiotic formation of a hydrophobic dipeptide. Chemical Science 7: 3406-3414 DOI 10.1039/C5SC04796J.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La sinergia prebiótica de aminoácidos y ácidos grasos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El sistema de la difusión social de la ciencia: 1. Introducción
La difusión social de la ciencia, objeto de debate
Empieza con esta anotación una serie de siete entregas en las que se presentará la noción de “sistema de la difusión social de la ciencia” y se describirán los elementos que lo conforman, así como las relaciones funcionales que se establecen entre ellos.
Como seguramente ocurre con otros, el mundo de la difusión científica y aledaños es pródigo en debates. Sus términos y las materias objeto del mismo son, a la vez, variados y recurrentes, surgen una y otra vez. Muestra del interés que suscitan en la comunidad que conforman quienes se dedican, como profesionales o como aficionados, a este tipo de actividades son los artículos que se publican al respecto, principalmente en medios digitales. A continuación recojo unas muestras de lo mucho que se ha publicado, con el único propósito de proporcionar algunas referencias e ilustrar la amplitud de las reflexiones pero –quede claro- sin ninguna intención de ser exhaustivo.
Sobre la relación entre el mundo del periodismo y el de la ciencia han escrito Ana Ribera. Pampa García Molina, Francis Villatoro, Lourdes López y Pere Estupinyá lo han hecho sobre el periodismo científico (y sus limitaciones y problemas). Francis también se ha referido al dilema entre periodistas científicos y científicos divulgadores, a la divulgación como actividad propia e irrenunciable del personal científico y a ciertas licencias que se permiten los divulgadores científicos.
Pere Estupinya se muestra crítico con algunas facetas de la divulgación, tanto en lo concerniente a sus aspectos formales, como a la virtual ausencia de evaluación del impacto de las actividades de divulgación (un punto de vista diferente, aquí).
Manuel Herman ha reflexionado acerca de la importancia creciente de internet en la divulgación científica. José Manuel López Nicolás ha tratado sobre la gran potencialidad de los blogs universitarios como herramientas de divulgación. El papel de las universidades y de sus unidades de cultura científica e innovación en la comunicación científica ha sido motivo de reflexión por parte de Elena Lázaro. Y José Luís Vicente también ha escrito acerca de la importancia de difundir los resultados de la investigación que se realiza en universidades y centros de investigación.
La noción de sistema
Hace tres años publiqué aquí el que podría considerarse primer intento por mi parte de sistematización de las actividades de difusión social de la ciencia. Aquella primera aproximación sirvió para iniciar una línea de reflexión que ha dado lugar a diferentes presentaciones públicas en cursos y seminarios (UEU, UPV/EHU, UPNA-Planetario y Universitat de Vic). Y han sido esas presentaciones y el contraste con puntos de vista diferentes las que han conducido a la preparación del texto cuya primera entrega es esta anotación. Aunque quizás no resulte evidente en primera instancia, creo que la sistematización a que he aludido y que considero útil –no me atrevo a calificarla de necesaria- será de ayuda a la hora de clarificar los debates a que he aludido antes. Con esa confianza me he animado a redactar este texto.
La difusión social de la ciencia se produce mediante flujos de información y conocimiento (contenidos científicos) que ocurren en un determinado ámbito (geográfico, cultural, administrativo, etc.) y en un tiempo determinado. A tal ámbito puede dársele la consideración de sistema, en el sentido que se utiliza esa palabra en ecología, por ejemplo. El sistema lo forman dos tipos de elementos, los agentes (o emisores) y los receptores. Los agentes actúan en virtud de unas motivaciones y, haciendo uso de los medios de los que disponen, transmiten unos contenidos (información y conocimiento) al público receptor. La transmisión de esos contenidos ejerce unos efectos que no tienen por qué corresponder a las motivaciones que impulsan estas actividades.
————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El sistema de la difusión social de la ciencia: 1. Introducción se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El futuro ya no es lo que era
A estas alturas desconozco si fue Niels Bohr, Enrico Fermi o el mismísimo Yogi Berra quien dijo que “hacer predicciones es muy difícil, sobre todo las del futuro”. Pero fuese quien fuese, acertó de pleno.
Son especialmente conocidas las predicciones negativas que resultaron fallidas. El británico Sir John Eric Ericson, cirujano de la Reina, dijo en 1873 que “el abdomen, el pecho y el cerebro estarían para siempre vedados a la intrusión del cirujano sabio y humano”. De ser ciertas todas las que se le atribuyen, el físico británico William Thomson (Lord Kelvin) se lleva la palma de predicciones incumplidas: sostuvo que la radio no tenía futuro, que era imposible que volaran máquinas más pesadas que el aire, y que se acabaría demostrando que los rayos X eran falsos. Einstein dijo en 1932 que “no hay el más mínimo indicio de que pueda llegar a obtenerse energía atómica; significaría que podría desmenuzarse el átomo a voluntad”. Y sir Harold Spencer Jones, Astrónomo Real del Reino Unido afirmó, en 1957 que “los viajes espaciales eran un disparate”; dos semanas después el Sputnik orbitaba la Tierra.
Lo anterior viene a cuento de las listas que han publicado los primeros días de enero numerosos medios de comunicación con lo que será noticia en ciencia y tecnología en 2017. No deja de sorprenderme, porque aunque es cierto que hay temas –tecnológicos, sobre todo- acerca de los cuales es posible aventurar logros, no es raro que surjan imponderables que impidan que se cumplan las expectativas. Antes hemos visto algunas predicciones negativas incumplidas. También se hacen predicciones positivas que acaban resultando fallidas; al contrario que con las anteriores, rara vez se comprueba su cumplimiento, por lo que no solemos tener constancia de ellas.
En realidad, el mismo hecho de hacer predicciones en estos ámbitos es contradictorio con la naturaleza del progreso científico. El motor de la ciencia es la ignorancia. Cuando se aborda una investigación y tras las observaciones o experimentos se obtiene lo que se esperaba, el conocimiento experimenta un pequeño avance. El físico Enrico Fermi decía a sus estudiantes que un experimento que verifica una hipótesis es una medida, y el que no la verifica, un descubrimiento. Así es: un des-cubrimiento de nueva ignorancia. Es cuando se obtienen resultados inesperados cuando realmente se abren nuevos caminos para el progreso del saber. Porque los resultados inesperados iluminan el límite que separa lo que conocemos y lo que ignoramos, y por lo tanto, muestran áreas desconocidas en las que podemos aventurarnos en busca de aspectos ignotos de la realidad.
Cuando los medios informan de “grandes descubrimientos científicos”, lo que hacen normalmente es dar cuenta de la verificación de hipótesis célebres o de algún desarrollo tecnológico de consecuencias espectaculares. En alguna ocasión han informado de resultados que cuestionan nociones sólidamente establecidas (neutrinos supuestamente superlumínicos, por ejemplo). Y rara vez lo harán de alguna conjetura revolucionaria, cuya comprobación, quizás años más tarde, abra nuevos caminos. Sospecho que ningún medio informó en 1928 de que Paul Dirac había desarrollado una ecuación que describía la dinámica del electrón en términos de la mecánica cuántica, incluyendo también los efectos relativistas. La ecuación predecía además la existencia de antielectrones (positrones), o sea, de antimateria. Y desde luego, a nadie se le ocurrió entonces que aquella ecuación, aparte de iluminar una nueva frontera del conocimiento, acabaría siendo el origen de una técnica de diagnóstico médico tan útil como la tomografía por emisión de positrones (PET). Y es que, como dijo Yogi Berra, “el futuro ya no es lo que era”. De hecho, nunca lo fue.
—————————————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————————————–
Este artículo fue publicado en la sección #con_ciencia del diario Deia el 15 de enero de 2017.
El artículo El futuro ya no es lo que era se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 Drogas y falsas promesas
Escuchar a Ohiana Iturbide hablar de adicción a la droga impresiona. No importa el número de veces que lo hayas hecho. En los diez minutos de esta charla el público presente no rio, no aplaudió, no tuiteó, no se movió. Solo guardó un atentísimo silencio.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Drogas y falsas promesas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El hidrógeno en el Universo (I): La emisión del hidrógeno neutro a 21 cm.
El hidrógeno es, con diferencia, el elemento químico más abundante del Universo. Creado durante los procesos que sucedieron al Big Bang, particularmente durante la recombinación de los núcleos atómicos (protones en su mayoría) con los electrones unos 380 mil años después del inicio del Cosmos, el hidrógeno es el “padre” del que provienen el resto de elementos químicos. La transformación del hidrógeno en otros elementos ocurre sobre todo dentro de las estrellas (por fusión termonuclear, por ejemplo formando núcleos de helio a partir del hidrógeno, que luego se fusiona en núcleos de oxígeno, silicio, azufre o hierro en las estrellas más masivas) o por la acción de éstas en sus alrededores (explosiones de supernova, que típicamente producen los elementos químicos más pesados que el hierro). Así, deberíamos esperar que los astrofísicos invirtieran gran parte de su esfuerzo en conocer dónde se encuentran las nubes de hidrógeno dentro de las galaxias y dentro de la estructura a gran escala del Cosmos, y qué características tienen.
Pero la cosa no es sencilla. Desgraciadamente los telescopios convencionales no pueden detectar el hidrógeno neutro y frío. Los átomos de hidrógeno sólo pueden emitir luz en los colores “visibles” cuando son excitados por radiación energética (particularmente emisión ultravioleta emitida por estrellas masivas, enanas blancas, y otros procesos violentos). Es así como “vemos” las nebulosas difusas de emisión, nubes gigantescas constituidas sobre todo de hidrógeno, como la Gran Nebulosa de Orión (Figura 1). El color rojizo que típicamente domina estas nubes de gas proviene de la emisión del hidrógeno ionizado (línea H-alpha). Pero, obviamente, este tipo de excitación del hidrógeno no ocurre en las frías profundidades del espacio, particularmente en el casi vacío espacio extragaláctico.
Sin embargo, se da la peculiaridad de que el hidrógeno neutro sí emite cierto tipo de luz. Esta radiación no ocurre en los “colores” que nosotros vemos sino en el dominio de las ondas de radio. La emisión del hidrógeno neutro en radio sucede como consecuencia de la transición atómica entre los dos niveles hiperfinos del estado fundamental del hidrógeno.
¿Qué quiere decir esto? La energía del átomo de hidrógeno, que consta de un protón y un electrón, es ligeramente diferente dependiendo si el espín (análogo al “giro”) del protón y del electrón están en la misma dirección (un poco más de energía) que en direcciones opuestas (un poco menos de energía). Un átomo de hidrógeno en el que el protón y el electrón tengan sus espines paralelos puede emitir un fotón (liberar energía) para pasar al estado en el que ambos espines apuntan en direcciones opuestas (Figura 2). Como la diferencia de energía es muy pequeña (5.9 x 10-6 eV), el fotón emitido tiene una frecuencia baja (1420.4 MHz) y, por tanto, una longitud de onda relativamente larga (21.1 cm).
A esta emisión en radio se la designa como “H I”, la emisión del hidrógeno atómico a 21 cm. No obstante es muy raro que ocurra en un átomo en concreto: la vida media del estado excitado es de unos 10 millones de años. Así, cuando en 1944 el astrónomo holandés Hendrik van de Hultz propuso por primera vez que se usaran radiotelescopios para captar la emisión del H I a 21 cm y así detectar nubes de gas hidrógeno en la Vía Láctea no muchos le hicieron caso. Pero, en realidad, como hay tal enorme cantidad de hidrógeno aún disponible en el Cosmos, la emisión a 21 cm del hidrógeno atómico es, en efecto, no sólo observable, sino fundamental para la Astrofísica contemporánea.
No fue hasta 1951 cuando los astrónomos Harold Ewen y Edward Purcell de la Universidad de Harvard (EE.UU.) detectaron por primera vez la emisión a 21 cm del hidrógeno atómico, que fue rápidamente corroborada por observaciones independientes desde Europa y Australia. En la actualidad, este tipo de observaciones son rutinarias y otorgan a los astrofísicos piezas claves a la hora de entender nuestro Universo.
Precisamente, una de las grandes ventajas que propiciaban las observaciones en la línea de 21 centímetros del hidrógeno atómico es que, al estar en el rango de las ondas de radio, la extinción de la luz por el polvo y gas interestelar es completamente despreciable. Esto no ocurre en “los colores que nosotros vemos” (el rango óptico del espectro electromagnético), que son fuertemente absorbidos por el polvo y el gas difuso. Así, las observaciones en HI a 21 centímetros permitieron por primera vez “ver” la Vía Láctea en su totalidad.
Fue así como, en 1952 y tras conseguir los primeros mapas de la Galaxia, se encontró que la Vía Láctea tiene una estructura espiral. En este punto hay que insistir en que las observaciones radioastronómicas en la línea de 21 cm no son imágenes, sino espectros. Es una línea de emisión más, y como tal no sólo su intensidad máxima (su brillo) sino también otras propiedades, como la anchura, la velocidad o un análisis de componentes, pueden estudiarse en detalle.
Las observaciones en H I permiten, por efecto Doppler, calcular las distancias a las galaxias o inferir a qué velocidad relativa se mueve el gas dentro de una galaxia. Y, en efecto, ha sido usando observaciones H I a 21 cm de otras galaxias (normalmente el gas es mucho más fácil de observar en las partes externas de las galaxias que las estrellas) como se confirmó definitivamente que las partes externas se movían extremadamente rápido contabilizando la cantidad de masa (estrellas, polvo y gas difuso incluyendo hidrógeno atómico) que contenían, necesitando la componente extra de un amplio pero homogéneo halo de materia oscura para poder mantener las galaxias como entidades estables.
El mapa más profundo de la Vía Láctea usando la emisión del hidrógeno atómico a 21 centímetros fue obtenido recientemente mediante la colaboración “HI4PI” (acrónimo de “H I 4π”), que usa datos obtenidos por dos de los radiotelescopios más potentes de la Tierra: el radiotelescopio Effelsberg (Alemania), de 100 metros de tamaño, y el famoso radiotelescopio de Parkes, ”The Dish”, (Australia), de 64 metros de tamaño (Figura 3). En esta proyección de todo el cielo, el plano de la Vía Láctea se encuentra en el ecuador, mientras que el centro de nuestra Galaxia corresponde al amasijo de gas brillante hacia la derecha.
La espectacular imagen del hidrógeno atómico de la Vía Láctea obtenida por la colaboración HI4PI (Figura 4) no sólo muestra la distribución de gas difuso (muy asimétrica) sino que codifica en colores la velocidad a la que se mueve dicho gas. Colores azules indican gas que se acerca al observador, mientras que los colores verdosos corresponden a gas que se aleja. Así se puede apreciar la misma rotación de la Vía Láctea, pero aparecen estructuras más complicadas: filamentos, burbujas, grumos, huecos, capas de gas, que narran la dinámica evolución de nuestra Galaxia. Muchos de los huecos, por ejemplo, corresponden a zonas liberadas de gas por explosiones de supernova. El mismo Sol se encuentra cerca de una de estas zonas irregulares, la Burbuja Local, que brilla particularmente en rayos X. La Burbuja Local, de al menos 300 años luz de tamaño. se originó hace poco tiempo (pocos millones de años, algunos estudios apuntan que incluso menos).
Por otro lado, la mayor densidad de gas corresponde precisamente a las regiones donde se están formando las estrellas. Las nebulosas de emisión aparecen justo en estas zonas donde el gas difuso está condensando para crear nuevos soles. Estas regiones de formación estelar se localizan sobre todo si se mira cerca del centro galáctico
Los colores de la imagen también muestran algo muy interesante: aparecen nubes de gas difusas en colores violetas y amarillos (altas velocidades). Estas “nubes de alta velocidad” corresponden a gas que está cayendo sobre la Vía Láctea (quizá por acreción de alguna galaxia enana) o es gas que ha sido expulsado del disco de nuestra Galaxia por las explosiones de supernovas. La más evidente de estas nubes de alta velocidad es la que corresponde a las galaxias enanas satélite de la Vía Láctea, las Nubes de Magallanes (abajo derecha, en colores naranjas). La imagen de la colaboración “HI4PI” permite distinguir que ambas galaxias enanas se encuentran dentro de esta gigantesca nube de hidrógeno neutro. Es más, permite apreciar su estructura alargada apuntando al centro de la Vía Láctea, además de muchas otras de sus características.
Las observaciones tanto de la Vía Láctea como de otras galaxias usando radioastronomía para “ver” la línea de 21 cm del hidrógeno atómico está proporcionando enorme información a los astrofísicos a la hora de entender la formación de las estrellas, la estructura de las galaxias, la interacción con su entorno, la evolución de las galaxias y la propia evolución del Universo. Sin embargo, quizá porque las imágenes en radioastronomía muchas veces no son atractivas para nuestros ojos (o, pensando mal, que la radioastronomía es el único rango espectral que la Agencia Espacial Estadounidense, NASA, no lidera), muchos de estos detalles no suelen conocerse por el público. En próximas entregas indagaremos en algunos de los sorprendentes detalles que, gracias a la radioastronomía y a la línea de H I a 21 cm, hemos conseguido arrancar al Universo.
Este post ha sido realizado por Ángel López-Sánchez (@El_lobo_rayado) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo El hidrógeno en el Universo (I): La emisión del hidrógeno neutro a 21 cm. se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 La fiesta de las moléculas
Los químicos, algunos, son frikis, pero muy frikis. Daniel Torregrosa es de estos últimos y nos trae una colección de moléculas bautizadas o sintetizadas por químicos frikis.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 La fiesta de las moléculas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ciencia y tecnología
Aunque se las suele confundir o al menos tratar por igual el objetivo de las ciencias y el de las tecnologías no es el mismo, y eso hace a la verdadera ciencia más resistente a interferencias de poderes externos de lo que pudiera parecer. Buena parte de los ataques a las ciencias en realidad lo que están rechazando es alguna determinada tecnología, o incluso decisiones que no son técnicas sino políticas y económicas. Por eso quizá convenga separar con claridad conceptos y campos de actuación, para delimitar las responsabilidades.
Las ciencias y las tecnologías se diferencian en su objetivo final, que es clara y contundentemente diferente. Las ciencias buscan comprender el universo y su funcionamiento; dilucidar las reglas, los procedimientos y sistemas que hacen que el cosmos exista tal y como es. Son descriptivas en el sentido de que contemplan los fenómenos existentes e intentan explicar sus mecanismos; todas sus intervenciones (experimentos) tienen por objeto ayudar al entendimiento, y por tanto en condiciones ideales las modificaciones que se introducen en el funcionamiento natural están reguladas y son mínimas. El resultado final de las ciencias son las teorías que explican qué hay ahí fuera y de qué manera funciona.
Las tecnologías, sin embargo, no describen el mundo, sino que lo modifican para adaptarlo a las necesidades humanas. Su objetivo no es entender el universo, sino moldearlo para hacerlo mejor para nosotros; el conocimiento que buscan y emplean tiene como objetivo su aplicación en este empeño, no el conocimiento mismo. Las tecnologías siempre son ‘para’ algo: crear vías de comunicación u otras obras públicas, curar enfermedades, extraer minerales, fabricar objetos. La finalidad es utilitaria, y la razón de su existencia es en última instancia mejorar la existencia de la Humanidad.
La relación entre ambos campos es íntima, retorcida y a veces mal entendida; la extensión de conceptos como ‘ciencia aplicada’ no hace más que complicarla todavía más. Las tecnologías emplean el conocimiento del universo generado por las ciencias para mejorar sus técnicas, mientras que la ciencia precisa echar mano de la tecnología más avanzada (y a veces impulsarla más allá de sus límites) para poder llevar a cabo sus experimentos. Hay veces que la investigación científica en una dirección concreta o en un campo específico es dirigida y favorecida para ayudar a resolver una cuestión tecnológica, como ocurre con la biología celular y la cura del cáncer. Otras veces nuevas tecnologías aparecen de pronto surgidas de avances científicos relativamente recónditos o incluso inesperados, como acaba de ocurrir con la ingeniería genética y el sistema CRISPR-Cas. Cuando se habla de ‘ciencia aplicada’ se mezclan conceptos y se diseñan actividades que están a medio camino entre ambas orillas.
Pero se trata de empeños diferentes con objetivos distintos, y mezclarlos conceptualmente tiene consecuencias que pueden ser graves. Porque si en la tecnología entra, por definición, la economía y por tanto la política, en ciencia no es así. Un chiste de ingenieros dice que a la pregunta ‘¿Esto se puede hacer?’ la respuesta siempre es: ‘Depende del presupuesto’, porque en cualquier ámbito tecnológico la clave para la toma de decisiones es la rentabilidad y el acceso a los recursos. En muchas ocasiones las discusiones sobre temas de tecnología no analizan la posibilidad de hacer algo, sino si la solución elegida es la mas conveniente, económica, interesante, rentable: no se discute si es o no posible, sino la conveniencia de hacerlo. No es una decisión sobre hechos, sino sobre política, y así es como debe ser.
El problema surge cuando las cuestiones políticas saltan desde las tecnologías a las ciencias y se intenta doblegar el conocimiento para adaptarlo a las necesidades de la conveniencia social. Se puede (se debe) discutir cuál es la mejor manera de poner límites al cambio climático, si una determinada decisión política será suficiente, o si no habrá otras tecnologías que puedan resolver el problema de modo más económico, ya que hablamos de una cuestión tecnológica (cambiar la realidad). Lo que no es razonable es negar la existencia del calentamiento global medido por la ciencia (describir la realidad). Es posible analizar si los actuales calendarios y sistemas de vacunación son los más eficientes para mantener a raya a las enfermedades contagiosas, pero para ello es absurdo afirmar que las vacunas tienen efectos secundarios que no se han descrito. La decisión política de usar o no usar Organismos Modificados Genéticamente para mejorar el rendimiento de la agricultura debe ser discutida en público para determinar si es la más conveniente o qué sacrificios y de quién estamos dispuestos a hacer para emplearla o no, pero sin usar en la discusión acusaciones infundadas y hechos falsos. La tecnología y en especial sus componentes económico y político siempre puede, y deben, discutirse con pasión, porque todas las decisiones de actuar sobre la naturaleza tienen costes además de beneficios y contrapesarlos es derecho y deber de una sociedad libre.
Lo que no quiere decir que los hechos, los datos, los conocimientos de la ciencia sobre el funcionamiento del universo sean maleables: la ciencia no cambia porque sus resultados sean inconvenientes para una postura política u otra. El planeta se calentará o no; las vacunas causarán autismo o no, y los OMGs serán dañinos o no, y a esa pregunta debe contestar la ciencia y su respuesta debe ser respetada. Después la tecnología determinará si podemos hacer algo para reducir las emisiones de CO2 y cómo, si es mejor vacunar a una edad u otra o si el mejor modo de acabar de una vez con el hambre en el mundo es usar OMGs o no, y la política asignar recursos económicos a la decisión que la sociedad tome. Pero partiendo de una descripción lo más certera posible de la realidad, es decir, de la mejor ciencia disponible. Porque si permitimos que la ideología o la rentabilidad determinen los hechos a partir de los cuales tomamos decisiones nos estaremos haciendo trampas al solitario, que es el modo más estúpido de autoengañarse que existe. Si confundimos la ciencia con la tecnología y ésta con la política no sólo nos irá mal en el futuro, sino que nos habremos merecido que nos pase.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo Ciencia y tecnología se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La fascinación del oro
Desde comienzos del año el oro está subiendo de precio forma sostenida. Eso es indicio de que la incertidumbre aumenta y los inversores buscan refugio en el metal amarillo. Increíblemente es su mera posesión lo que da tranquilidad financiera, aunque el oro no produzca intereses, ni dé nada que se pueda comer, su uso industrial sea limitado, y solo aparezca espectacularmente en naves y sondas espaciales como recubrimiento capaz de reflejar la radiación infrarroja. El oro fundamentalmente encarna la importancia que los humanos damos a los simbólico.
Y es que el oro es un metal raro. De entrada se puede encontrar en estado puro en la naturaleza, ya que hoy sabemos que no se combina con el oxígeno, por lo que es más difícil que entre a formar parte de compuestos como los que forman las rocas. No solo eso, encima es amarillo, brilla y mantiene ese brillo con el tiempo, coloración que no ocurre con ningún otro metal; el cobre es rojo, pero se oxida fácilmente. Por si esto fuese poco, el oro es maleable, por lo que se pueden hacer adornos complejos y fundirlo para hacer monedas. No es de extrañar la fascinación de los humanos con el metal noble desde tiempos inmemoriales.
Pero las maravillas del oro solo aumentan cuando intentamos comprender sus características.
De entrada, su color amarillo está íntimamente relacionado con la teoría de la relatividad de Einstein; son los llamados efectos relativistas debidos a las altísimas energías de los electrones en estos átomos. Estos mismos efectos son los que complican los cálculos teóricos de las propiedades electrónicas del oro. De hecho, los teóricos que se han dedicado durante décadas a intentar describir las características del metal desde primeros principios han encontrado muy difícil explicar las discrepancia entre sus predicciones y las observaciones experimentales. Ahora, un equipo de investigadores ha conseguido resolverlas con un nivel de precisión desconocido incorporando la existencia de interacciones “quíntuples” entre 5 electrones.
Calcular las propiedades electrónicas de un átomo nunca es fácil, especialmente para los átomos pesados en los que el elevado potencial de Coulomb implica que existen niveles de energías de los electrones para los que la teoría de la relatividad es de aplicación. En el caso del oro, los efectos relativistas son la causa de que exista un salto de energía más pequeño entre los orbitales (regiones en las que puede encontrarse un electrón en un átomo) 6s y 5d, lo que explica que el oro absorba las frecuencias más azules del espectro, y el resultado sea que refleje los tonos amarillo-rojizos.
Pero no todo es tan fácil de explicar. Los cálculos de la energía de ionización (la energía necesaria para arrancar un electrón del átomo) y la afinidad electrónica (la energía necesaria para incorporar un electrón) han resultado siempre en valores inferiores a los experimentales en decenas de mili-electrón-voltios, una discrepancia significativa, aunque no escandalosa.
El equipo que encabeza Lukas Pašteka, de la Universidad Massey (Nueva Zelanda), han conseguido realizar los cálculos más precisos conocidos hasta la fecha para el oro. Su modelo incorpora los efectos relativistas, las correlaciones entre electrones y la electrodinámica cuántica. Las correlaciones entre electrones incluyen todas las interacciones electrón-electrón que tienen lugar en un átomo que tiene 79 electrones.
Una de las principales novedades de este estudio está precisamente en que, a la hora de estudiar estas correlaciones se asumía que un electrón interaccionaba con otros 2, interacciones triples. Pašteka y sus colaboradores lo han ampliado a cuádruples y quíntuples. Al hacerlo así han reducido la discrepancia en las energías de ionización y la afinidad electrónica a tan solo unos pocos de milielectronvoltios, mejorando los resultados anteriores en 10 veces.
Esta metodología, que puede aplicarse a otros átomos pesados, es un indicio de hasta qué punto una creciente capacidad de cálculo nos puede permitir comprender mucho mejor el funcionamiento de la materia y poder predecir características en materiales que ahora son inimaginables.
Referencia:
L. F. Pašteka, E. Eliav, A. Borschevsky, U. Kaldor, and P. Schwerdtfeger (2017) Relativistic Coupled Cluster Calculations with Variational Quantum Electrodynamics Resolve the Discrepancy between Experiment and Theory Concerning the Electron Affinity and Ionization Potential of Gold Phys. Rev. Lett. doi: 10.1103/PhysRevLett.118.023002
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La fascinación del oro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Círculo vicioso
“Tomen un círculo, acarícienlo, y se hará un círculo vicioso.”
Eugène Ionesco, La cantante calva
Etienne Lécroart es un artista del cómic. Ya hablamos de uno de sus magníficos trabajos en Interpretando mensajes cifrados.
Es miembro, y uno de los pilares, del grupo OuBaPo (Ouvroir de Bande dessinée Potentielle, Obrador del Tebeo Potencial), que crea sus cómics obedeciendo determinadas trabas formales (muchas de ellas matemáticas), al igual que hace con sus textos el grupo OuLiPo.
Lécroart es un maestro del tebeo; basta con recorrer su trabajada página web para observar sus dotes creativas, sus grandes dosis de humor y sus sorprendentes juegos. Destacan los cómics en los que la lectura puede realizarse en horizontal, en vertical y oblicuamente, o en los que se puede progresar según la numeración de la página o en sentido inverso.
En mi opinión, Cercle Vicieux (Círculo vicioso) es una joya dentro de esta familia de tebeos. Es un enorme palíndromo, es decir, Cercle Vicieux puede leerse desde la primera viñeta hasta la última, o viceversa… y la historia narrada es exactamente la misma en cualquiera de los dos sentidos.
El tebeo tiene treinta páginas, con seis viñetas en cada una de ellas. La última viñeta de la página 15 (la número 90) es la que marca el punto de inflexión de este magnífico palíndromo: la imagen que aparece es simétrica respecto al eje vertical, y marca el centro de este enorme palíndromo.
A partir de esta viñeta central se observa que la casilla 91 (página 16) es la misma que la 89 (página 15), y se van comprobado sucesivamente estas identificaciones entre viñetas: 92 (página 16) = 88 (página 15), 93 (página 16) = 87 (página 15), …, 100 (página 17) = 80 (página 14),…, 179 (página 30) = 1 (página 1), hasta llegar a la casilla final, la 180 (página 30), que se reserva para la palabra FIN ¿o es el principio?
He puesto el signo de igualdad entre los números de las viñetas, para insistir en que son idénticas, tanto la imagen como el texto sobre ellas.
La historia trata de un sabio un tanto excéntrico y nervioso que trabaja en su laboratorio diseñando una máquina del tiempo. Le acompañan su paranoico asistente y su ingenua secretaria.
En las quince primeras páginas de Cercle Vicieux se habla de la máquina del tiempo, que el profesor y su ayudante no consiguen poner en marcha; quieren invertir el tiempo para salvar a la secretaria que ha sufrido un colapso. El nerviosismo y la desesperación son las claves en esta primera mitad del tebeo. Los mandos de la máquina envían mensajes extraños, uno de los interruptores de la máquina está apagado… Pero algo sucede de repente –exactamente en la viñeta 90, de las 180 de las que consta el tebeo–, algo que hace cambiar el ritmo y el tema de la trama.
En efecto, la acción de la viñeta central tiene lugar en una hora capicúa, son exactamente las 12h21…, y como se ha indicado, el cómic empieza a escribirse en sentido inverso. La desesperación lleva a la calma, la secretaria ‘resucita’, aparece la atracción entre el sabio y la mujer…
Insistimos en que Lécroart narra la segunda parte de la historia invirtiendo el sentido de las viñetas, pero sin ningún otro cambio, ni en las imágenes ni en los diálogos. El autor consigue crear una historia coherente, tanto en la primera parte como en la segunda, como en su conjunto: a partir de la página central se construye una trama diferente, ‘deshaciendo’ el camino trazado al ir recorriendo las viñetas en sentido inverso…
Si leyéramos la historia desde el final –casillas 179, 178, 177, etc.– comenzaríamos de nuevo la historia del sabio que dice desesperado a su secretaria que no consigue poner en marcha su máquina del tiempo… se trata, sin duda, de un auténtico Círculo Vicioso…
Referencias
- Etienne Lécroart, Cercle Vicieux, l’Association, 2000
-
Marta Macho Stadler, Cercle Vicieux, de Etienne Lécroart, DivulgaMAT, Literatura y Matemáticas, 2012
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Círculo vicioso se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 Tiene bigote, carga eléctrica y no lleva gafas
Mario Herrero Valea nos explica cómo se juega a un quién es quién muy particular.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Tiene bigote, carga eléctrica y no lleva gafas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El oscurecimiento de la alquimia
Todo hacía presagiar que Europa estaba lista para progresar rápidamente, pero no sería así para la química. El comienzo del siglo XIV supuso un estancamiento de 200 años en la alquimia europea, no así fuera del continente. ¿Por qué?
El siglo XIV comenzó con una serie de hambrunas que se llevaron por delante muchas vidas, pero lo realmente grave empezó en los años cuarenta del siglo: la peste bubónica, la muerte negra. En unas pocas décadas casi la mitad de la población de Europa murió. Las ciudades, especialmente vulnerables a la enfermedad contagiosa, fueron abandonadas. Los nuevos centros del saber y nuevas ideas tuvieron que cerrar sus puertas. El progreso se detuvo.
Como si esta locura no fuese suficiente, los gobernantes añadieron la suya propia: la guerra fue continua en el continente entre 1337 y 1453. Los principales protagonistas fueron los Plantegenet ingleses y los Valois franceses y la excusa la sucesión en el trono de Francia, pero los reinos cristianos de la península ibérica también se vieron involucrados en uno y otro bando. En esta llamada Guerra de los Cien Años, bandas de ingleses se dedicaron a rapiñar la campiña francesa, matando y violando, hasta que una muchacha iletrada, Juana de Arco, empujada por su misticismo, consiguió revitalizar el bando francés.
Esta guerra continental terminó derivando en Inglaterra en una guerra interna, la Guerra de las Rosas, entre 1455 y 1487. En la península ibérica la guerra continuó contra los moros hasta 1492.
Pero todos estos males y penurias no podían dejarse pasar sin explicación. La mente racionalizadora de los humanos, que no racional, echó mano de sus sesgos y encontró una base para tanto desastre: era el demonio y sus secuaces los que sembraban el mal y la destrucción en todos los territorios. Una población ya religiosa y supersticiosa se convirtió en aún más religiosa y supersticiosa en los siglos XIV y XV.
Formas extremas de penitencia, como la autoflagelación, se volvieron mucho más comunes. La Inquisición se estableció en Castilla para mantener a raya a herejes y conversos. La vida de un judío valía menos que la de una oveja y hubo estallidos de violencia generalizados. Especialmente relevante, quizás, sea el de 1391 en Castilla, Aragón y Navarra, consecuencia directa de la primera guerra civil castellana. El lema de uno de los grandes predicadores de la revuelta antijudía, Vicente Ferrer (santo de la Iglesia Católica), “bautismo o muerte”, se convertiría en la base de la política para con los no cristianos. El paroxismo llegó con la expulsión de los judíos de Castilla y Aragón en 1492.
La Europa cristiana se volcó en una guerra sin cuartel contra los paganos, las brujas, hechiceros, judíos, musulmanes y contra cualquiera que hiciese cualquier cosa fuera de las normas imperantes y las supersticiones anexas.
Fuera de los grupos étnicos, las mujeres fueron las que más sufrieron esta persecución. A las “brujas” se las cazó, torturó y ejecutó de las formas más salvajes, muchas veces durante campañas de limpieza. En muchas ocasiones las víctimas eran parteras y sanadoras, receptoras del conocimiento existente sobre medicina y química, pero se creía que aquellas personas con “poderes” para sanar tenían necesariamente que haber aprendido esos conocimientos de la boca del mismísimo Belcebú; y, si podían sanar, podían usar esos poderes para hacer daño.
El papa Juan XXII había prohibido la práctica alquímica fraudulenta en 1317 en el decreto Spondent Pariter. No es de extrañar que la alquimia optase por oscurecerse.
Los alquimistas europeos (serios, no los que se dedicaban a estafar) de esta época fueron extremadamente cautelosos, por tanto, y no muy dados ni a la imaginación ni a los experimentos espectaculares. Si bien se produjeron algunos manuscritos alquímicos, se dedicaron a recoger el conocimiento existente y, en todo caso, a adornar el lenguaje de tal manera que se volviese impenetrable salvo para el iniciado. El simbolismo y el misterio se convirtieron en un arma de defensa, más que una forma de guardar “el gran secreto”, que no era otra cosa que lo que ya circulaba libremente en siglos anteriores. Esta oscuridad servía también como cortina frente a las acusaciones de falta de ortodoxia. No te podían acusar de nada concreto si todo era interpretable…
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El oscurecimiento de la alquimia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Historias de la malaria: El árbol de la quina
Paludismo: Enfermedad febril producida por un protozoo, y trasmitida al hombre por la picadura de mosquitos anofeles. Del latín palus·, –adis “laguna”, “pantano” e –ismo.
Malaria: Del italiano “malaria”, de mal, malo, y aria, aire.
“Tomar una onza de la mejor corteza de los jesuitas, raíz de serpentaria de Virginia, corteza de naranja, de cada mitad una onza; agítelo todo junto, y guarde durante cinco o seis días en una botella de brandy, de ginebra de Holanda, o de cualquier otro licor; después separe el líquido limpio y tome un vaso de vino dos o tres veces al día.”
William Bucham en 1791, quizá la primera cita del gin-tonic.
En una revisión publicada en 2012, Christopher Murray y su equipo, de la Universidad de Washington, en Seattle, estudiaron la mortalidad global provocada por la malaria entre 1980 y 2010, o sea, en nuestra época. Fueron entre 1200000 y 2780000 al año los fallecidos por esta enfermedad, con un aumento de casi el 25% en tres décadas. Es una enfermedad, por tanto, de triste y apremiante actualidad. Pero el informe de la OMS para 2015 es más esperanzador y menciona 214 millones de enfermos y entre 236000 y 635000 fallecidos. Las cifras descienden un 48% entre 2000 y 2015.
El paludismo o malaria se ha definido como una enfermedad infecciosa provocada por protozoos del género Plasmodium que infectan los glóbulos rojos de la sangre y se transmiten por las picaduras de las hembras infectadas de varias especies de mosquitos del género Anopheles. La enfermedad se caracteriza por periodos intermitentes de fiebre alta provocados por la reproducción del protozoo. Además, la destrucción de los glóbulos rojos provoca anemia y debilidad general.
Según los últimos datos conocidos en la evolución de la malaria, la enfermedad apareció en África, en la región de Etiopía, en primates y pasó a nuestra especie y se desarrolló y extendió debido a la gran movilidad de nuestros antepasados. Desde el valle del Nilo llegó al Mediterráneo y, después, a Asia y, hacia el norte, a Europa. A América se cree que llegó con los españoles y, para principios del siglo XIX, ya estaba la malaria en todo el planeta.
Se describe en el papiro de Ebers, en el antiguo Egipto de hace casi 4000 años y también quedan pruebas documentales en China fechadas hace casi 6000 años, y en Mesopotamia y la India. Escriben y enseñan sobre la malaria Hipócrates, Herodoto y Homero en la Grecia clásica. Y en Roma era temida por las marismas y pantanos que rodeaban la ciudad imperial, estupendo criadero de mosquitos. Hace unas semanas se ha probado la presencia del plasmodio en los cadáveres de tres cementerios de las cercanías de Roma, enterrados entre los siglos I y III de nuestra era.
Entonces no conocían ni el protozoo que provoca la enfermedad ni sabían que los mosquitos la contagian, pero temían las miasmas, esos efluvios malignos que desprenden las aguas estancadas y que se consideraban la causa de las fiebres intermitentes y que, además, son la base del nombre en italiano para la enfermedad, “malaria”, compuesta de “mal” y “aria”, es decir, el “mal aire” que provoca las miasmas.
En los siglos XVII y XVIII era conocida y temida en todo el planeta. Por ejemplo, se escribió sobre ella en Gran Bretaña, con datos de fallecimientos, que ahora se han recuperado, en Escocia o en Inglaterra. También provocaba gran mortandad en países muy separados geográficamente como Holanda y España. En el resto de Europa, hasta los países escandinavos, la situación era la misma.
En nuestra Península solo en 1964 recibió España el certificado de la OMS de la erradicación del paludismo. Para ello se utilizaron todos los métodos conocidos: eliminación de los mosquitos, sobre todo desecando pantanos y con DDT, y eliminando el plasmodio de los portadores con la prescripción de la quinina y de drogas sintéticas anti-malaria.
Pero, como decía, en el siglo XVIII era una enfermedad muy extendida, sobre todo en Andalucía, Valencia, La Mancha, Cataluña, Baleares y Murcia. Hubo brotes fuertes en Aragón, Navarra y, sin confirmar, en las zonas orientales de Álava y Guipúzcoa. En toda la Península, la mortandad fue terrible en 1751, 1783 y 1802, en lo que ahora llamamos la Pequeña Edad del Hielo. No hay que olvidar que todos los lugares llamados “Fadura” o “Padura” vienen de “pantano” en latín y que también están en el origen del término “paludismo” para esta enfermedad. Todavía hace un siglo era un mal habitual y en el sur y el este de la península, con casi 2000 fallecidos en España por el paludismo en el año 1919, y con unos 200.000 enfermos en todo el país y por año.
En este ambiente, con las llamadas fiebres intermitentes sufridas desde siempre y sin tratamiento conocido, las buenas noticias llegaron desde América. Fue en 1635 cuando el jesuita Bernabé Cobo publicó su “Historia del Nuevo Mundo”, y allí escribía:
“En los términos de la ciudad de Loja, diócesis de Quito, nace cierta casta de árboles grandes que tienen la corteza como de canela, un poco más gruesa, y muy amarga, la cual, molida en polvo, se da a los que tienen calenturas y con sólo este remedio se quitan.”
Es la primera descripción escrita del árbol de la quina. Cobo añade que sus polvos ya son conocidos en Europa y que, incluso, se envían a Roma. Se conocían como el “polvo de los jesuitas”.
Unos años más tarde, en 1639, Felipe IV nombra al Conde de Chinchón, Luis Jerónimo Fernández de Bobadilla y Mendoza, Virrey del Perú. Dos meses después de la toma de posesión del Virrey en Lima, llegó su joven y bella esposa Doña Francisca Enríquez de Rivera. Pasaron los días y la joven Condesa cayó en unas fiebres intermitentes tercianas agotadoras.
El jesuita y confesor del Virrey, Diego Torres de Vásquez, le habló de los polvos que usaban los indios contra la fiebre. La Virreina, con unas pocas dosis de corteza de quina, curó rápidamente. Así, también se conocería a la quina como los “polvos de la condesa”. Hay que añadir que esta historia de la Condesa cada vez provoca más dudas entre los expertos en la historia del árbol de la quina.
Los primeros datos constatados de sus efectos sobre los enfermos de paludismo los escribió el médico sevillano Gaspar Caldera de Heredia en 1663. Se basa en los resultados que consiguió en enfermos sevillanos, hacia 1640, con la corteza que trajo del Perú Juan de la Vega, el médico del Virrey.
El primer informe científico sobre el árbol de la quina que llegó a Europa, con la descripción y los primeros esquemas, lo envió Charles-Marie de La Condamine. Se publicó en París en 1740. Recibió Linneo muestras y escritos de La Condamine y, con ellos, clasificó el árbol de la quina y le asignó el género Cinchona en 1742 y lo publicó en 1753, en honor de la bella y joven Condesa de Chinchón, con errata incluida y nunca corregida.
Durante años la única quina que llegaba a Europa la traían y distribuían los jesuitas según su criterio. Entraba por España y Roma y, poco después, llegó a Inglaterra y a Francia. Y ya en 1667, la quina estaba incluida en la farmacopea de Londres como medicamento oficial.
José Celestino Mutis nació en Cádiz en 1732 y murió al comienzo del siglo siguiente, en 1808, y en otro continente, en Santa Fé de Bogotá, en Colombia. Fue sacerdote, botánico, geógrafo, matemático, médico y profesor universitario. Ahora nos interesa como viajero, explorador y botánico por su relación con el árbol de la quina. Fue quien aclaró definitivamente la confusión entre varias especies de Cinchona y estableció cuales eran eficaces contra la malaria y cuales no la aliviaban.
La Real Expedición Botánica del Nuevo Reino de Granada, auspiciada por Carlos III y dirigida por Mutis, comenzó en 1783 y se prolongó por 30 años. El Herbario que se acumuló quedó depositado en el Real Jardín Botánico de Madrid. Como un resumen dedicado al árbol de la quina, Mutis escribió “El Arcano de la Quina”, que se publicó en 1828, después de la muerte del autor, aunque ya se conocía en Bogotá desde 1791.
En realidad, hasta que los botánicos europeos, como La Condamine, Linneo o Mutis, trabajaron en la clasificación de las especies del género Cinchona hubo mucha confusión con las muchas especies del árbol de la quina que, además, tenían en la corteza distintas concentraciones de quinina. Durante muchas décadas fue fácil engañar con lo que se conocía como “polvos de los jesuitas”.
De la corteza de quina se extrajo en 1820 el alcaloide quinina que era el compuesto que actuaba contra las fiebres. Lo consiguieron los químicos franceses Pierre Joseph Pelletier y Joseph Bienaimé Caventou. Este alcaloide fue durante más de un siglo el único alivio del paludismo.
A mediados del siglo XIX, y después de conspiraciones y aventuras, los holandeses consiguieron semillas del árbol de la quina y establecieron enormes plantaciones en sus colonias en Indonesia, sobre todo en la isla de Java.
Fueron naturalistas y exploradores, más bien espías industriales, como los ingleses Clements Markham y Charles Ledger o el holandés Justus Hasskarl, los que viajaron a los Andes en busca de ejemplares y semillas del árbol de la quina. Entre 1860 y 1870 consiguieron llevar las muestras a sus colonias y resembrar los árboles. Las consiguió el inglés Charles Ledger en Bolivia y las llevó a Londres. Ofreció su venta al gobierno inglés que no demostró gran interés en hacerse con ellas. Fue el cónsul de Holanda quien pagó por las plantas y las envió a su país. Fueron el origen de las plantaciones en Java a partir de 1852. En honor de Ledger, esta especie que crecía en Java se llamó Cinchona ledgeriana. De allí procedía la quina que las empresas farmacéuticas utilizaban para extraer la quinina que comercializaban en todo el mundo. El 90% del comercio mundial de la corteza y de la quinina, entre 1890 y 1940, venía de las colonias holandesas en Indonesia.
Con la quinina a su disposición, los médicos la recetaron y popularizaron en la lucha contra la malaria. Europa, entonces, pudo colonizar los países con malaria en Asia y África y construir sus imperios. En fin, que la toma de muestras para sembrar el árbol fuera de su área geográfica original fue, a medio plazo, una empresa colonial y, en definitiva, imperial. Se dio quinina en cantidades masivas a los ejércitos europeos en las colonias de África y en el sur y sudeste de Asia. Y, además, fue un gran negocio para las farmacéuticas.
La quinina no era agradable de tomar. Como la corteza original, era muy amarga y de un gusto muy desagradable. Desde que empezó a utilizarse se buscaron muchos trucos para hacer pasable aquel mejunje, por otra parte tan beneficioso y necesario. Estaba la mezcla de William Bucham, el bebedizo secreto del inglés Richard Talbor o, y ha llegado a nuestros días, la popular bebida victoriana, inventada en la India, y que conocemos como gin-tonic. La primera agua tónica, con quinina, se fabricó en 1858 y, ahora, tiene mucha menos quinina, más o menos una décima parte que la necesaria como dosis terapéutica para aliviar la enfermedad.
Así ocurrió hasta 1940, cuando comenzó la Segunda Guerra Mundial y los japoneses conquistaron Java y sus plantaciones de quina. De inmediato, los aliados se quedaron sin quinina y padeciendo la malaria en muchas de las zonas de combate. Desde siempre la malaria suponía uno de los mayores riesgos para los ejércitos en guerra. Por ello, su utilización en la medicina militar cambió el curso de la historia. Es lo que intentaron los japoneses en 1940. El uso más antiguo que se conoce del uso de la quina en guerra fue en el sitio de Belgrado en 1717.
Estados Unidos promovió plantaciones del árbol de la quina en Centro y Sudamérica pero fueron las compañías farmacéuticas las que fabricaron en cantidad suficiente drogas sintéticas anti-malaria. Para el ejército de Estados Unidos, solo el Proyecto Manhattan de desarrollo de la bomba atómica superó las prioridades de la investigación y fabricación de drogas sintéticas anti-malaria. Fueron la atebrina o la cloroquina los fármacos que sustituyeron, en parte pues se seguía y sigue utilizando, 400 años después de su descubrimiento por la ciencia europea, la quinina.
Solo ha aparecido una débil resistencia del protozoo a la quinina en áreas geográficas muy concretas. Se han propuesto tres hipótesis para explicar la eficacia de la quinina durante tanto tiempo. En primer lugar, que el blanco de la acción anti-plasmodio sea tan específico que la mutación que lo anula aparece muy raramente. O que las cepas actuales del plasmodio sean otras que las conocidas en los siglos anteriores y, quizá, la resistencia sea diferente. Y, finalmente, que la quinina no se haya utilizado en tanta cantidad y el tiempo suficiente como para crear resistencia en el plasmodio, todo ello a pesar de lo que nos pueda parecer después de cuatro siglos.
La quinina es uno de los mayores candidatos a ser el medicamento que ha aliviado de sus sufrimientos a más personas en la historia de nuestra especie. Sabemos que destruye al Plasmodium dentro de los glóbulos rojos pero, todavía, se desconoce el mecanismo.
Referencias:
Achan, J. et al. 2011. Quinine, an old anti-malarial drug in a modern world: role in the treatment of malaria. Malaria Journal 10: 144.
Amaya, J.A. 1986. Mutis. Ed. Debate. Madrid. 77 pp.
Balduque Álvarez, A. 2009. Los polvos de la condesa. Historia del paludismo en Madrid. Blog Escritores en Red. 2 septiembre.
Bayliss, J.H. 1985. Epidemiological considerations of the history of indigenous malaria in Britain. Endeavour 9: 191-194.
Bruce-Chwatt, L.J. 1988. Cinchona and its alcaloids: 350 years. New York State Journal of Medicine June: 318-322.
Castejón Porcel, G. 2015. Paludismo en España en los siglos XVIII-XIX: Distribución espacial y erradicación. En “Análisis espacial y representación geográfica: innovación y aplicación”, p. 69-78. Ed. por J. de la Riva et al. Universidad de Zaragoza.
De Buen, S. 1922. El paludismo en el campo. Calpe. Madrid. 32 pp.
Earle, D.P. 1979. A history of malaria and its ironies. Transactions of the American Clinical and Climatological Association 90: 1-26.
Goss, A. 2013. Building the world’s supply of quinine: Dutch colonialism and the origins of a global pharmaceutical industry. Endeavour 38: 8-18.
Granjel, L.S. 1978. La medicina española del siglo XVII. Universidad de Salamanca. 252 pp.
Greenwood, D. 1992. The quinine connection. Journal of Antimicrobial Chemotherapy 30: 417-427.
Klein, W. & T. Pieters. 2016. The hidden history of a famous drug: Tracing the medical and public acculturation of Peruvian bark in early modern western Europe (c. 1650-1720). Journal of the History of Medicine and Allied Sciences doi: 10.1093/jhmas/jrw004
La Condamine, C.M. de. 1738 (1740). Sur l’arbre du quinquina. Memoires de l’Academie Royale 226-243.
López Piñero, J.M. et al. 1976. Materiales para la historia de las ciencias en España: s. XVI-XVII. Pre-textos. Valencia. 314 pp.
Marciniak, S. et al. 2016. Plasmodium falciparum malaria in 1st-2nd century CE Southern Italy. Current Biology 26: R1220
Meshnick, S.R. 1997. Why does quinine still work after 350 years of use? Parasitology Today 13: 89-90.
Murray, C.J.L. et al. 2012. Global malaria mortality between 1980 and 2010: a systematic analysis. The Lancet 379: 413-431.
Neghina, R. et al. 2010. Malaria, a journey in time: In search of the lost myths and forgotten stories. American Journal of the Medical Sciences 340: 492-498.
OMS. 2016. Informe mundial 2015 sobre el paludismo. Resumen. Ginebra. 32 pp.
Ortiz Crespo, F.I: 1994. La Cinchona antes y después del Virreinato del Conde de Chinchón. Interciencia 19: 130-136.
Pagès, F. 1953. Le paludisme. P.U.F. Paris. 114 pp.
Philip, K. 1999. Global botanical networks, political economy, and environmentalist doscourses in Cinchona transplantation to British India. Revue française d’histoire d’outre-mer 86: 119-142.
Puente Veloso, S. 1985. Historia de las quinas de Nueva Granada. Anales de la Real Academia Nacional de Medicina 102: 305-335.
Riera, J. 1984. Fiebres y paludismo en la España ilustrada. Universidad de Valladolid. 75 pp.
Schlagenhauf, P. 2004. Malaria from prehistory to present. Infectous Disease Clinics of North America 18: 189-205.
Shanks, G.D. 2016. Historical review: Problematic malaria prophylaxis with quinina. American Journal of Tropical Medicine and Hygiene 95: 269-272.
Sorní Esteva, J. 1991. El quino, la quina y la quinina. Crónica Filatélica 79: 91-93.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Historias de la malaria: El árbol de la quina se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los bimbaches de Punta Azul (El Hierro)
El Hierro es el verdadero finis terrae de España, un territorio donde el aislamiento marca a sus habitantes desde hace siglos, incluso desde los tiempos de sus primeros pobladores, cuyo ADN sugiere que descienden de la primera oleada de bereberes que se aventuró a colonizar Canarias.
Las investigadoras Concepción de la Rua Vaca y Montse Hervella Afonso del Departamento de Genética, Antropología Física y Fisiología Animal de la Facultad de Ciencia y Tecnología de la UPV/EHU, junto con las investigadoras Alejandra C. Ordoñez, Rosa Irene Fregel, A. Trujillo-Mederos, y Matilde Arnay de la Rosa de la Universidad de la Laguna, han publicado en Journal of Archaeological Science un estudio genético de los antiguos bimbaches, a partir del análisis del ADN de 61 de las 127 personas enterradas en la cueva de Punta Azul, un yacimiento del siglo XII.
Sus conclusiones no solo corroboran los lazos genéticos que unen a los aborígenes canarios con las poblaciones bereberes del norte de África -algo ya apuntado por varios estudios-, sino que sugieren que El Hierro se pobló en tiempos antiguos de una sola vez, por un grupo humano que probablemente no volvió a tener contactos con el exterior casi hasta la llegada de los primeros conquistadores europeos.
El trabajo recuerda que Canarias es el único archipiélago de la Macaronesia (región que incluye también a Madeira, Azores y Cabo Verde) que fue habitado antes de la llegada de los colonos europeos, en tiempos que se remontan a mediados del primer milenio antes de Cristo en el caso de Tenerife (época a la que pertenece la datación de carbono 14 más antigua) y al siglo I de la era moderna para el resto de islas.
Los estudios genéticos que se han publicado hasta la fecha indican que Canarias fue poblada en al menos dos oleadas del norte de África que luego se quedaron aisladas del resto del mundo en buena parte de los casos hasta la llegada de los españoles, portugueses y normandos en el siglo XV, incluso sin apenas contacto entre islas, como relatan las crónicas europeas de la conquista.
Organización matriarcal de los aborígenes canarios
Los análisis de ADN realizados por los investigadores de la UPV/EHU y de La Laguna indican que todos los individuos enterrados en la cueva de Punta Azul (al menos los 61 analizados) comparten un mismo linaje en el ADN mitocondrial; o lo que es lo mismo, tienen un ancestro materno común, algo que los autores atribuyen a la organización matriarcal descrita entre los aborígenes canarios.
Y se trata de un linaje considerado “fundador”, ya que está presente en toda la población actual de Canarias (con una incidencia global del 1,8%) y se ha encontrado también en los aborígenes antiguos de Tenerife, La Palma y La Gomera.
El trabajo revela asimismo, esta vez a través del cromosoma Y, que la gran mayoría de esos individuos proceden de dos linajes paternos: uno autóctono del norte de África (halogrupo E-M81) y otro de raíces europeas, pero también presente desde hace siglos en el norte de África (R-M29), aunque también hay un individuo con marcadores originarios del África Subsahariana (E-M33).
Para ahondar más en el código genético de los bimbaches de Punta Azul, los investigadores también han analizado los marcadores STR (pequeñas secuencias que se repiten en el ADN y que permiten establecer parentescos), con un resultado que apunta en la misma línea: esas personas no tienen diferencias genéticas significativas con los antiguos bereberes.
Dificultad para llegar a la isla
“Probablemente, a El Hierro le alcanzó la primera oleada migratoria y luego se quedó aislada. Esta hipótesis concuerda con la dificultad que existe para llegar a la isla”, escriben los autores, que recuerdan que se trata de la isla más meridional de Canarias y la más alejada de la costa de África, con unas condiciones de vientos y corrientes que hacen complejo navegar hasta ella.
El artículo subraya que el aislamiento “ha marcado el comportamiento de los herreños durante toda su historia” y que los bimbaches tuvieron que enfrentarse al llegar a la isla a duras condiciones naturales que probablemente les llevaron “un cuello de botella”, aunque su ADN no muestra signos que indiquen que tuvieran problemas de endogamia.
Referencia:
A. C. Ordoñez, R. Fregel, A. Trujillo-Mederos, M. Hervella, C. de-la-Rúa, M. Arnay-de-la-Rosa, Genetic studies on the prehispanic population buried in Punta Azul cave (El Hierro, Canary Islands) Journal of Archaeological Science 78 (2017) 20e28. doi: 10.1016/j.jas.2016.11.004
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Los bimbaches de Punta Azul (El Hierro) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:“Laboratorium”, el museo del Real Seminario de Bergara
Tras largos años de investigar, clasificar, conservar y restaurar una antigua colección de objetos científicos, en septiembre de 2015 se inauguró el Museo Laboratorium, en Bergara (Gipuzkoa, País Vasco). El objetivo fundamental del museo es difundir la importancia de la innovación, la ciencia y la educación como base para el avance y el desarrollo. ¿Por qué este nuevo museo? Porque Bergara fue la sede del Real Seminario, una institución única en el País Vasco cuya excelente trayectoria histórico-científica y cuya colección científica constituyen la base del nuevo proyecto. ¿Conoces el Real Seminario? ¿Y sus colecciones?
El Real Seminario (en su origen Real Seminario Patriótico Bascongado) constituye la cuna de la ciencia en el País Vasco. Fundado en 1776 por la Real Sociedad Bascongada de Amigos del País, sus primeros años resultaron espectaculares. El químico francés L.J. Proust (uno de los fundadores de la química moderna, recordado por haber propuesto la ley de las proporciones definidas) fue profesor en el Seminario y montó el excelente Laboratorium chemicum del centro. En sus instalaciones, los hermanos Elhuyar descubrieron en 1783 un nuevo elemento químico, el wolframio; y aquí también se encontró el método para lograr la maleabilidad del platino, lo que permitió el uso del valioso metal. En el siglo XIX, aunque muy condicionado por las guerras, el centro mantuvo su importancia. Se convirtió en Escuela Industrial para la formación de ingenieros (primera en el País Vasco), y durante años fue el único instituto existente en Gipuzkoa. Su infraestructura científica seguía siendo de primer orden: laboratorios de Química, gabinetes de Física, jardín botánico, colecciones de zoología, observatorio meteorológico.
Los rectores del Real Seminario, en el período 1776-1892 sobre todo, acudieron a los principales productores y comercios europeos de equipamiento científico a adquirir el material necesario para equipar las instalaciones de Bergara. Reunieron gran cantidad de utensilios científicos modernos y de calidad, para hacer e impartir ciencia. Ese es el origen de los objetos científicos que constituyen la base de la colección del museo.
Se trata de una colección única en el País Vasco, tanto por la relevancia histórico-científica de la institución que la creó, como por la riqueza de las distintas secciones científicas que la componen, por su antigüedad, y por albergar piezas únicas y extraordinarias. La colección está compuesta hoy por tres mil objetos científicos, entre instrumental de Física, de Química, minerales, fósiles, modelos de anatomía humana y ejemplares de zoología; la mayoría de ellos del siglo XVIII y sobre todo del XIX.
Puedes conocer con mayor detalle la historia del Real Seminario y parte de sus colecciones en la sede del museo, en el palacio de Errekalde de Bergara. Este palacio está estrechamente vinculado a los inicios de la ciencia en el País Vasco, ya que a finales del siglo XVIII residió en él Xabier María Munibe, VIII Conde de Peñaflorida, quien fuera durante años director del Seminario en la época de la Ilustración. Te aseguramos que la visita merece la pena.
Pero la actividad del museo Laboratorium no se va a limitar solamente a la colección expuesta. Ni mucho menos. Actualmente está ya muy extendido el concepto de la “Nueva Museología”, corriente museológica en la que se incluye este museo. La clave de esta nueva museología está en ampliar los parámetros del museo tradicional, democratizándolo; es decir, cuando pasamos del museo tradicional al museo nuevo, sin limitarnos a las colecciones del museo, nos adentramos en el Mundo del Patrimonio (patrimonio cultural y natural); sin olvidar al público que acude al museo, tomamos como eje a la sociedad, a la comunidad; sin menosprecio del edificio del museo, nos expandimos hacia el territorio.
Y en esa expansión, surgió la generosa oferta de la Cátedra de Cultura Científica de la UPV/EHU para que este Cuaderno sea una de las ventanas del Laboratorium. A través de la misma, partiendo del Real Seminario de Bergara como eje, vamos a contar historias sobre la ciencia y la sociedad, historias que ocurrieron en los siglos XVIII y XIX, y que esperamos compartir contigo.
Autor: Equipo técnico del museo Laboratorium
Museo Laboratorium. Palacio Errekalde, Juan Irazabal s/n, 20570 Bergara
Contacto: 943 769 003; laboratorium@bergara.eus.
El artículo “Laboratorium”, el museo del Real Seminario de Bergara se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 Pianos, torpedos y lo inesperado
Beatriz Sevilla , aunque no lo parezca al comienzo, narra, cual moderna trobairitz, la historia sin par de Hedy Lamarr.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Pianos, torpedos y lo inesperado se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:25 años de planetas extrasolares
Esta semana se han cumplido 25 años de la publicación en la revista Nature del artículo A planetary system around the millisecond pulsar PSR1257 + 12 (Un sistema planetario alrededor del púlsar de milisegundo PSR1257 + 12) por A. Wolszczan y D. A. Frail. En su resumen decía esto:
Los púlsares de radio de milisegundo, que son viejas (~109 años) estrellas de neutrones en rápida rotación aceleradas por acrecimiento de materia de sus compañeras estelares, se encuentran por lo general en sistemas binarios junto con otras estrellas degeneradas.
Usando el radiotelescopio de Arecibo para hacer mediciones precisas de los pulsos del recientemente descubierto púlsar de 6,2 milisegundos PSR1257+12 demostramos que, en lugar de estar asociado con un objeto estelar, el púlsar es orbitado por dos o más cuerpos del tamaño de un planeta.
Los planetas detectados hasta el momento tienen masas de por lo menos 2,8 M☉ y 3,4 M☉, donde M☉ es la masa de la Tierra. Sus distancias respectivas al púlsar son de 0,47 ua y 0,36 ua, y se mueven en órbitas casi circulares con periodos de 98,2 y 66,6 días. Las observaciones indican que puede haber al menos otro planeta en este sistema.
La detección de un sistema planetario alrededor de una estrella vieja y cercana (~500 pc), junto con el reciente informe acerca de un compañero planetario del púlsar PSR1829–10 plantea la posibilidad de que una fracción no despreciable de las estrellas de neutrones observables como púlsares de radio puedan tener cuerpos similares a planetas en órbita alrededor de ellas.
Los planetas a los que se referían Wolszczan y Frail en su artículo, conocidos hoy como Phobetor y Poltergeist, son los dos primeros planetas extrasolares de cuya existencia tuvimos confirmación, aunque hacía cientos de años que sospechábamos que, dado lo enorme que es el universo, tenía que haber planetas más allá de nuestro sistema solar. La existencia del tercer planeta cuya existencia insinúan, recientemente bautizado como Draugr, fue confirmada en 1994.
La última frase del resumen del artículo, además, ha resultado ser profética, ya que desde la publicación de ese histórico trabajo hemos descubierto unos 3.500 planetas extrasolares más, aunque en órbita alrededor de todo tipo de estrellas, no sólo de púlsares, Alfa Centauri, la más próxima a nosotros, incluída. Y hay otros miles esperando observaciones adicionales que confirmen –o no– su existencia, ya que detectar exoplanetas es un proceso muy delicado. De hecho a Phobetor y Poltergeist les podía haber quitado el puesto HD 114762 b, un planeta extrasolar que fue descubierto en 1989, de no ser porque su existencia no fue confirmada hasta muy recientemente, ya que había serias dudas de que no se tratara de una enana marrón.
En cualquier caso lo que ha quedado claro una vez que hemos sido capaces de comprobar que en efecto hay planetas más allá del sistema solar, y es que hay un número enorme de estrellas con planetas. Hay estimaciones que hablan de la enorme cifra 160.000 millones de planetas extrasolares sin salir de nuestra galaxia. De ellos unos 17.000 millones son de tamaño similar al nuestro.
Muchos de los exoplanetas cuya existencia hemos podido confirmar son además mucho más extraños de lo que podíamos haber imaginado: desde planetas con tres soles a planetas en los que llueven rocas a planetas que son un gran diamante, por citar algunos casos. Y por si eso fuera poco algunos de ellos han venido a poner en duda muchas ideas que teníamos acerca de cómo se forman los sistemas planetarios… pero es que a fin de cuentas sólo conocíamos un sistema solar.
La más que aparente abundancia de planetas extrasolares hace además que sea inevitable plantearse la posibilidad de que haya vida más allá de nuestra pequeña esquina del universo, algo que apoya el hecho de que cada vez vamos encontrando más planetas extrasolares potencialmente habitables. Y eso que de nuevo sólo manejamos un ejemplo de lo que es la vida, así que no sería de extrañar que nos estuviéramos confundiendo a la hora de estimar qué planetas extrasolares son potencialmente habitables.
Pero en cualquier caso lo que parece claro es que si no existiera vida más allá de la Tierra, y parafraseando la doctora Ellie Arroway, la protagonista de Contact, el universo sería un enorme desperdicio de espacio.
De planetas extrasolares y del origen de la vida en la Tierra –o puede que más allá– hablaremos, entre otras cosas, en Naukas Coruña 2017, que se celebrará el próximo 25 de febrero bajo el título La vida, el universo y todo lo demás.
Este post ha sido realizado por Javier Pedreira (@Wicho) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo 25 años de planetas extrasolares se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 Alucinaciones lingüísticas: los engaños de tu lengua materna
Nuestra lengua materna nos hace alucinar. Literalmente. Idoia Ros nos los explica.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Alucinaciones lingüísticas: los engaños de tu lengua materna se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:NASA, ¿cuándo vas a llevarnos a Venus en un barco (o en lo que sea)?
Decía Mecano que nunca hemos ido a Venus en un barco, y tenía razón. Pero sí que fuimos varias veces vez a bordo de naves espaciales (no tripuladas, lo de “fuimos” es una forma de hablar). La última vez nos llevó la sonda Magallanes. La misión partió de la Tierra en 1989 y orbitó en torno a nuestro planeta vecino hasta 1994, cuando terminó su tarea y se precipitó hacia su superficie, desintegrándose parcialmente por el camino.
La semana pasada la NASA anunciaba cuáles serían sus próximas misiones de exploración del sistema solar: la sonda espacial Lucy será lanzada en octubre de 2021 y explorará seis asteroides de los alrededores de Júpiter de 2027 a 2033, mientras que Psyche, cuyo lanzamiento está programado para octubre de 2023, visitará en la misma zona un asteroide metálico llamado Psyche 16.
Los dos proyectos han sido seleccionados entre los cinco que pasaron el corte final en 2015. Entre los tres descartados había uno que proponía volver a Venus. Se llamaba Investigación de los Gases Nobles, la Química y las Imágenes de la Atmósfera Profunda de Venus (lo que en inglés daba como resultado el poético nombre DAVINCI porque a la NASA, a marketing, no le gana nadie), y su objetivo era justamente ese: estudiar la composición química de la atmósfera venusiana durante un descenso de 63 minutos para responder preguntas como si quedan volcanes activos en Venus o cómo interacciona la atmósfera con la superficie del planeta.
Otra vez será, queridos astrónomos especializados en Venus. Unos astrónomos, por cierto, que empiezan a mosquearse porque opinan que la NASA se ha olvidado de ‘su’ planeta. Ni una sola misión ni plan de exploración en casi 30 años, tres décadas en las que se ha intensificado el estudio del sistema solar, años en los que por visitar, hemos visitado hasta el lejanísimo Plutón. Y para Venus, ni una triste sonda, ni una pequeñita.
La sonda Messenger retrató así a Venus en su camnio hacia Mercurio¿Por qué deberíamos viajar a Venus?
Porque Venus es considerado por los científicos como un planeta hermano de la Tierra. Es el anterior en orden tras el nuestro partiendo desde el Sol, es rocoso y de tamaño similar. Además, se cree que se formó a partir de los mismos materiales y aproximadamente en el mismo momento que la Tierra.
Pero las similitudes terminan ahí, porque el ambiente en la superficie venusiana no tiene nada que ver con el que experimentamos en la Tierra: la presión es 90 veces superior, la temperatura media supera los 400 grados a causa de que la atmósfera está compuesta principalmente por gases de efecto invernadero, como el dióxido de carbono. A causa de la temperatura, no existe agua líquida en su superficie.
Para terminar de dibujar esta especie de Tierra extraña, en Venus el día dura 243 días terrestres, lo que lo convierte en el periodo de rotación más largo del sistema solar, y además gira en el sentido contrario al que lo hacen los demás planetas: en un día en Venus el sol sale por el Oeste y se esconde por el Este.
Por todos estos motivos, Venus se considera un lugar incompatible con cualquier forma de vida conocida… Y sin embargo, algunos astrónomos creen que una vez albergó océanos como los nuestros y ser habitable.
Imagen de la superficie de Venus compuesta a partir de las imágenes captadas por la sonda MagallanesPero en algún momento, su evolución y la de la Tierra siguieron caminos diferentes. Ambos planetas contienen la misma cantidad de dióxido de carbono, pero en la Tierra las placas tectónicas, los océanos y los seres vivos contribuyen a extraer la mayor parte de la atmósfera, dejando en ella solo una pequeña cantidad, suficiente para retener parte del calor del Sol.
En Venus, el calor que impide la presencia de agua líquida y la intensa actividad volcánica causaron que todo el CO2 fuese liberado a la atmósfera, aumentando la temperatura aún más, hasta dar forma al infierno tóxico que hoy conocemos.
¿Qué pasó exactamente para que dos planetas que en principio fueron similares hayan terminado teniendo características tan distintas? Es una pregunta que los científicos se hacen sin conocer todavía la respuesta. Obtenerla no solo aumentaría nuestro conocimiento sobre el sistema solar y su evolución, sino que nos ayudaría a entender cómo los cambios en la atmósfera afectan a la superficie y al revés. Y seamos sinceros, es algo que nos vendría muy bien saber.
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista en El Confidencial
El artículo NASA, ¿cuándo vas a llevarnos a Venus en un barco (o en lo que sea)? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La estructura 3D de la cota de malla invierte el efecto Hall
Estructura básica de la cota de malla
Inventada por los celtas probablemente en el siglo V antes de la era común, la cota de malla, una armadura metálica formada por anillos de hierro forjado unidos entre sí, fue usada por los romanos, durante toda la Edad Media y hasta entrado el siglo XVI como forma de protección contra los objetos punzantes. El patrón básico que la forma, donde un anillo está unido a cuatro, forma geometrías más complejas que dan lugar hoy a metamateriales con propiedades muy exóticas.
En 1879 Edwin Hall descubrió que en un conductor por el que circula una corriente eléctrica en presencia de un potente campo magnético perpendicular aparece otra corriente eléctrica perpendicular tanto a la corriente original como al campo magnético. La potencia de esta corriente es proporcional tanto a la densidad de la corriente original como a la del campo magnético. La constante de proporcionalidad se llama coeficiente de Hall.
Ahora, un equipo de investigadores del Instituto de Tecnología de Karlsruhe coordinado por Martin Wegener ha desarrollado un nuevo metamaterial con geometría de cota de malla en el que el hecho de adoptar esa geometría cambia el signo del coeficiente de Hall del material con el que está formada.
.
El efecto Hall es la base de los sensores magnéticos que emplean, por ejemplo, las brújulas de los teléfonos inteligentes. La mayoría de los sólidos, en los que la corriente la transportan los electrones, tienen un coeficiente de Hall negativo; el coeficiente es positivo solo en el caso de que la corriente fluya en forma de agujeros (lugares en los que no hay un electrón), como ocurre en los semiconductores del tipo p. En 2015 el grupo de Wegener propuso un diseño de metamaterial en el que el coeficiente sería positivo aunque los elementos estructurales tuviesen un coeficiente negativo. Cada punto en la celdilla unidad en la estructura de este material sería un toro (anillo) semiconductor hueco, y la celdilla unidad sería la misma que la de la cota de malla.
Lo que ahora han hecho los investigadores es llevar a cabo su idea fabricando un andamio polimérico en 3D al que han recubierto de óxido de zinc. Una vez construido han medido el coeficiente de Hall para estructuras con varias distancias entre los toros, demostrando que el signo del coeficiente depende de esta distancia.
Este metamaterial podría usarse para construir nuevos sensores magnéticos que contengan elementos con coeficientes de Hall tanto positivos como negativos y que podrían por tanto detectar gradientes o vórtices en un campo magnético.
Referencia:
Christian Kern, Muamer Kadic, and Martin Wegener (2017) Experimental Evidence for Sign Reversal of the Hall Coefficient in Three-Dimensional Metamaterials Phys. Rev. Lett. doi: 10.1103/PhysRevLett.118.016601
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La estructura 3D de la cota de malla invierte el efecto Hall se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: