Paracelso y los médicos espagiritas (3)
No está claro de dónde se sacó Paracelso el tratamiento para la sífilis a base de mercurio. Pudo haberlo aprendido en alguno de sus viajes; hay indicios, por ejemplo, de que en la India algunos iatroquímicos recomendaban mercurio para la enfermedad de los portugueses (sífilis). Pero perfectamente el descubrimiento pudo ser un caso de serendipia dado que Paracelso había extendido la dualidad mercurio-azufre tan habitual en los textos alquímicos musulmanes a la tria prima (la Santísima Trnidad), consistente en mercurio (alma), azufre (espíritu) y sal (cuerpo), y experimentaba con ella siempre que tenía ocasión.
Pero, si bien había tenido un éxito mayúsculo con el tratamiento de la sífilis, no se suele hacer mención de la cantidad considerable de gente a la que pudo perjudicar haciendo experimentos con pócimas y mezclas que, no solo no eran efectivas, sino manifiestamente tóxicas.
Con todo, Paracelso era un gran observador y algo aprendía siempre de todos los pacientes a los que trataba. Por ejemplo, describió la relación existente entre niños con cretinismo (una enfermedad congénita asociada a una deficiencia en la glándula tiroides) y padres con bocio (un aumento de tamaño de la glándula tiroides). De hecho, la mayor contribución de Paracelso a la medicina, sin duda, es la idea de que los médicos deben actuar sobre lo que observan más que seguir ciegamente lo que diga la autoridad.
Sus éxitos le dieron la confianza (algo de lo que, por otra parte, nunca anduvo escaso) para criticar abiertamente a los médicos de su época y señalar públicamente su ignorancia y codicia. Sin embargo, de los iatroquímicos (a los que él se refiere como médicos espagiritas, donde espagiria es un término inventado por él para referirse a la producción de medicamentos por métodos alquímicos) dice lo siguiente:
“Alabo a los […] médicos espagiritas, porque no se asocian con gandules o van por ahí majestuosos en su satenes, sedas y terciopelos […] sino que están a su trabajo junto al fuego pacientemente noche y día. No se dedican a pasearse, sino que buscan su entretenimiento en el laboratorio, usan vestidos sencillos de piel y mandiles de cuero en los que limpian sus manos [porque] introducen sus dedos entre los carbones, en la suciedad y la basura y no en anillos de oro. Están manchados de hollín y suciedad como los herreros y los carboneros, y por tanto lucen poco […] no alaban sus remedios sin mesura, ya que saben que el trabajo debe alabar al maestro y no el maestro al trabajo. […] Por tanto se dejan de todas esas cosas y se ocupan de trabajar con sus fuegos y de aprender los pasos de la alquimia”
Entonces, alrededor de 1525, cuando Paracelso se acercaba a los cuarenta, tuvo la fortuna de ser llamados a consultas a Basilea por Johann Froben (Frobenius) a causa de una importante infección en la pierna, un humanista y editor de enorme influencia. La infección era de tal entidad que se consideró la amputación para salvar su vida, pero Paracelso recomendó un tratamiento mucho menos drástico y Frobenius, por la razón que fuese, sobrevivió, llevándose Paracelso el mérito. Esto junto a los consejos médicos que dio a un buen amigo de Frobenius, y visitante en esos momentos, llamado Erasmo de Rotterdam, fue lo que le consiguió a Paracelso el puesto de médico municipal en Basilea.
Poco después comenzó a dar clases de medicina en la universidad. Y aquello fue la revolución.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Paracelso y los médicos espagiritas (3) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los animales
Los animales –humanos incluidos, por supuesto- son sistemas orgánicos autoorganizados cuya estructura permanece en el tiempo, o se modifica a lo largo de su desarrollo de acuerdo con un patrón preestablecido. Hasta que mueren, claro está.
El genoma porta, de forma codificada, las instrucciones a partir de las cuales se forma y funciona cada individuo. Incluye, por lo tanto, las instrucciones que determinarán, en interacción con las condiciones ambientales, el modo en que desempeñe sus funciones. Éstas pueden agruparse en las siguientes categorías: (1) mantenimiento de la integridad estructural y funcional del organismo; (2) adquisición y procesamiento de los recursos necesarios para producir copias de sí mismos; y (3) control de los procesos implicados en las funciones anteriores y en las relaciones (del tipo que fueren) con el resto de organismos del mismo o de otros linajes.
Hay muy pocas características animales que puedan ser consideradas realmente universales. Todos son organismos pluricelulares; sus células son eucariotas; y tienen un modo heterótrofo de alimentación, o sea, necesitan materia orgánica procedente de otros organismos. Casi todos se reproducen sexualmente (aunque unos cuantos son capaces de hacerlo asexualmente también) y unos pocos sólo se reproducen mediante partenogénesis. La inmensa mayoría han de ingerir el alimento, ya que no pueden absorberlo directamente del exterior, como hacen los hongos. Casi todos tienen metabolismo aerobio. Y casi todos disponen también de un sistema de control e integración. Muchos tienen capacidad de desplazamiento.
Los animales intercambian materia y energía con el exterior y sobre ese intercambio ejercen grados variables de control. El intercambio de materia puede estar relacionado con la economía de agua y sales. También puede tratarse de procesos implicados en la renovación de los componentes estructurales y la generación de nuevas estructuras (somáticas o reproductivas), o de la provisión del oxígeno y la energía necesarios para generar las moléculas de alto contenido energético –ATP principalmente- con las que alimentar las actividades propias del animal, tanto internas como externas.
Como en el resto de seres vivos, para comprender la biología de los animales es preciso tener en cuenta que los que existen hoy son el (hasta ahora) último eslabón de un linaje que se remonta a un antepasado común en el origen de la vida. No es posible fijar con exactitud el momento en que aparecieron pero se puede aventurar que ocurrió hace unos sesicientos millones de años. A lo largo de los tiempos han ido apareciendo nuevos linajes, a los que agrupamos bajo diferentes categorías a efectos taxonómicos, y han ido despareciendo otros. La categoría taxonómica básica es la especie, y está formada por el conjunto de individuos que pueden reproducirse entre sí dando lugar a descendencia fértil1. Los individuos de un mismo linaje presentan siempre una cierta variabilidad genética, provocada por efecto de las mutaciones y de la recombinación entre los genomas de los gametos que se unen para dar lugar a un nuevo individuo. Y pueden aparecer nuevos linajes por efecto de la selección natural y la deriva genética.
Decimos que los animales (individuos o linajes) se adaptan a unas determinadas condiciones cuando sus características fenotípicas son más adecuadas (para su desempeño bajo las referidas condiciones) que las anteriores a producirse la adaptación en cuestión. Ésta puede consistir en una respuesta de carácter fenotípico (de tipo fisiológico o etológico) de un individuo a un cambio ambiental, o en la aparición de una variante génica más adecuada que la anterior para el desempeño de los animales que la poseen; esta segunda modalidad, al contrario que la primera, se refiere a procesos que cursan a través de generaciones. En ambas acepciones del término es clave la noción de “adecuación” o, más propiamente, “aptitud”. Una adaptación siempre conlleva una mejora de la aptitud, y como consecuencia de ello, el individuo o el linaje que experimenta esa mejora se ve favorecido en términos de potencial reproductivo. O sea, es capaz de producir un mayor número de descendientes.
Teniendo en cuenta lo anterior, decimos que un determinado rasgo o una respuesta biológica tienen valor adaptativo cuando propician una mejora de la aptitud. No todos los rasgos animales son consecuencia de una adaptación. También decimos que sobre los animales actúan presiones selectivas; una presión selectiva es un factor, del tipo que sea, susceptible de inducir variaciones en el grado de aptitud de los individuos pertenecientes a un determinado linaje y, por ello, favorecer las variantes génicas que proporcionan mayor aptitud, provocando un aumento de su frecuencia en ese linaje.
La adecuación (o aptitud) no es estable a lo largo del tiempo, sino que depende de las circunstancias ambientales a las que se encuentran sometidos los animales. Si esas circunstancias cambian, la aptitud también puede hacerlo. Bajo esas condiciones pueden producirse adaptaciones, en forma de respuestas biológicas en plazos de tiempo cortos (en todo caso inferiores al periodo de vida de los individuos), que permitan mantener o mejorar la aptitud. Y en plazos más extensos de tiempo (más que el periodo vital de los individuos) también pueden producirse adaptaciones de base genética, si alguno o algunos individuos de un determinado linaje cuentan con una variante genética que proporciona un mayor grado de aptitud. Como consecuencia de ello, esa variante acabaría siendo la más abundante en los miembros del linaje o, incluso, la única, pues esos individuos tendrían una mayor descendencia y el rasgo ventajoso se acabaría extendiendo a todo el grupo.
Nota:
1No obstante, esa definición de especie tiene algunos problemas a la hora de llevarla a la práctica.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Los animales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Bacterias hospitalarias: resistentes e indetectables
Las infecciones adquiridas en el hospital suponen un problema de salud importante, por los problemas que generan y por la alta resistencia de las bacterias que las ocasionan. Una investigadora de la UPV/EHU ha descubierto que al someter a una de esas bacterias a diferentes procesos de desinfección, algunas células siguen vivas, pero en un estado en el que no son capaces de crecer en medios de cultivo tradicionales. Esto las hace indetectables por los métodos de evaluación de la desinfección, que están basados en ese crecimiento.
La bacteria Acinetobacter baumannii es un microorganismo responsable de un gran número de brotes epidémicos en los hospitales de todo el mundo, que es capaz de persistir bajo condiciones adversas durante largos periodos de tiempo, debido a su sorprendente resistencia a la desecación y a antibióticos y desinfectantes. Con el fin de conocer su comportamiento en el medio en el que vive, la microbióloga Zaloa Bravo ha estudiado sus estrategias de supervivencia en diferentes condiciones propias del ambiente hospitalario. Aunque era conocida su resistencia, esta investigadora ha constatado que “mantiene una gran estabilidad y viabilidad en condiciones hostiles durante largos periodos de tiempo, más de 30 días”.
Por todo ello, se considera de vital importancia la utilización y la garantía de los métodos de desinfección de los microorganismos en los hospitales. En su investigación, analizó la efectividad de diferentes métodos de limpieza, tanto métodos que utilizan radiación como el uso de desinfectantes. “Los resultados obtenidos tras la exposición de A. baumannii a estos agentes demostraron que ninguno de los desinfectantes estudiados es capaz de eliminar totalmente a este microorganismo”, explica la investigadora.
Más allá de las bacterias que se eliminan y las que no, uno de los resultados destacables de este estudio es que observó que las radiaciones y ciertos agentes oxidantes provocan la entrada de este microrganismo en el estado Viable No Cultivable (VNC), estado en el que las células no son capaces de crecer en medios de cultivo tradicionales pero sí retienen cierta actividad metabólica, sinónimo de que son células activas. “Se trata del primer trabajo que demuestra la adopción del estado Viable No Cultivable por parte de Acinetobacter baumannii“, declara Bravo. Los microorganismos patógenos en estado VNC, generalmente, no son capaces de producir una enfermedad, pero sí retienen la virulencia y la infección puede comenzar si revierten dicho estado. De hecho, “hay estudios que han demostrado que otros microorganismos son capaces de resucitar de ese estado y comenzar una infección, aunque es cierto que existe cierta controversia sobre este tema entre la comunidad científica”, añade.
La detección de células en estado Viable No Cultivable (VNC) lleva a Bravo a realizar la siguiente reflexión en relación a la evaluación de los desinfectantes: “En los controles que se llevan a cabo en los centros sanitarios, se detecta la presencia de bacterias infecciosas mediante la observación de su crecimiento en medios de cultivo. Pero si quedan células en estado viable no cultivable, es decir, que no son capaces de crecer en esos medios, y por eso consideramos que no están presentes, pero en realidad no es así, quizá ni los desinfectantes ni los métodos de control estén funcionando como se esperaba”.
En este punto, Bravo propone que en los hospitales no tendrían que limitar los análisis de presencia de microorganismos patógenos en el ambiente a determinaciones basadas en el crecimiento en medios de cultivo; “habría que utilizar otros métodos que detecten viabilidad, como la expresión génica, por ejemplo, para poder determinar si están presentes”. También habría que saber si esta bacteria es capaz de revertir el estado VNC y, potencialmente, iniciar un proceso infectivo.
Referencia:
Bravo Z., Orruño M., Parada C., Kaberdin V. R., Barcina I., Arana I. (2016) The long-term survival of Acinetobacter baumannii ATCC 19606T under nutrient-deprived conditions does not require the entry into the viable but nonculturable state. Archives of Microbiology, vol. 198: 398-407. doi: 10.1007/s00203-016-1200-1.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Bacterias hospitalarias: resistentes e indetectables se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:No están todas las que son
Yulua Lermontova nació en 1847 en San Petersburgo, Rusia. Intentó ingresar en la Academia Agrícola de Petrovskaya pero no fue aceptada por ser mujer. La matemática Sofía Kovaleski convenció a Yulua para que la acompañase a Alemania y seguir allí sus estudios. Fue admitida en el laboratorio de Robert Bunsen. En 1871 se trasladó a Berlín y estudió Química Orgánica en el laboratorio de August W. Hofmann; lo hizo de forma privada pues, pese a las brillantes referencias de los científicos de Heidelberg, en la capital alemana no se le permitió asistir a clase ni trabajar en los laboratorios. Allí se doctoró con Magna cum laude; fue la primera doctora en Química de la historia. A los 28 años Yulua regresó a Rusia y en 1875 fue nombrada miembro de la Sociedad Rusa de Química.
Trinidad Arroyo Villaverde nació en 1872 en Palencia. Quiso matricularse en la Facultad de Medicina de Valladolid pero el rector se negó, contraviniendo la Disposición Real que permitía a las mujeres realizar estudios universitarios desde ese mismo año. El padre de Trinidad recurrió ante la Dirección General de Instrucción Pública y se pudo matricular. Tras licenciarse en Medicina se trasladó a Madrid, donde defendió su tesis sobre oftalmología. A partir de entonces alternó o compaginó la práctica profesional con la docencia e investigación en la Universidad Central, hasta que la Guerra Civil la obligó exiliarse.
Lina Stern nació en Liepaja, en la actual Letonia, en 1878, en una familia judía. Debido a las políticas antisemitas de la Rusia zarista hubo de emigrar a Ginebra, en cuya facultad de Medicina cursó estudios universitarios. En 1925 se trasladó a Moscú, y a partir de entonces dirigió diversas instituciones científicas. En 1939 entró a formar parte de la Academia de Ciencias de la URSS, siendo la primera mujer galardonada con tal reconocimiento. Contribuyó a salvar la vida de miles de combatientes durante la II Guerra Mundial, y en parte por ello -desarrolló un medicamento contra la meningitis tuberculosa- recibió en 1943 el Premio Stalin. En 1949 fue detenida por ser judía y hasta 1952 permaneció en prisión, donde fue torturada en numerosas ocasiones. Conmutada la pena de muerte, fue desterrada a Asia central. A su regreso a Moscú, retomó la labor académica en el Instituto de Biofísica. La URSS silenció sus últimos años de vida.
Elisa Leonida Zamfirescu nació en 1887, en Galati, Rumanía. Intentó cursar estudios de ingeniería en su país pero, por ser mujer, no fue aceptada. No se arredró; fue a Berlín y no sin dificultades -de la misma índole que las anteriores- consiguió matricularse en su Universidad Técnica. En 1912 se graduó con honores, siendo denominada por el decano como “la más diligente de los diligentes”. Zamfirescu llegó a ser nombrada directora de los laboratorios del Instituto Geológico de Rumanía. Ella fue una de las primeras mujeres ingenieras reconocidas de la historia.
El pasado día 11 celebramos el Día Internacional de la Mujer y la Niña en la Ciencia; por eso he traído hoy aquí a estas mujeres. No son más que cuatro ejemplos de las muchas damas brillantes y esforzadas que superaron obstáculos enormes para poder desarrollar una carrera científica o tecnológica. Además de las que forman la breve lista de las que solemos recordar, como Lovelace, Curie, Franklin, Montalcini, Rubin y unas pocas más, en la historia de la ciencia ha habido muchas grandes científicas de las que apenas sabemos nada. Yulua, Trinidad, Lina y Elisa son cuatro de ellas. Representan aquí a esas grandes científicas que lo fueron y lo son, pero que ni estuvieron ni están.
Notas:
(1) Estas breves notas biográficas se han basado en lo publicado en Mujeres con Ciencia sobre Yulua Lermontova, Trinidad Arroyo Villaverde, Lina Stern y Elisa Leonida Zamfirescu.
(2) La publicación de esta anotación se enmarca en las actividades de celebración del Día Internacional de la Mujer y la Niña en la Ciencia que se han desarrollado entre el 6 y el 19 de febrero.
—————————————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————————————–
Una versión previa de este artículo fue publicada en la sección #con_ciencia del diario Deia el 12 de febrero pasado.
El artículo No están todas las que son se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 The Scottish Book
Si eres capaz de convertir café en teoremas lo mismo ganas un kilo de bacon, o algo así. José A. Prado Bassas lo explica mucho mejor.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 The Scottish Book se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El hidrógeno en el Universo (V): Cartografiando las galaxias en hidrógeno atómico
En la investigación en Astrofísica cada vez es más evidente que la información que proviene en “otras frecuencias” diferentes a las que detectamos con los telescopios ópticos convencionales es indispensable a la hora de entender el Cosmos. En las últimas décadas, y gracias a los telescopios espaciales, hemos empezado a explorar el Universo en rayos gamma, rayos X, ultravioleta e infrarrojo medio y lejano, descubriendo cosas fascinantes, desde violentas explosiones de estrellas muy masivas a distancias cosmológicas a la peculiar distribución del polvo interestelar dentro de nuestra Galaxia. Aún así, siguen siendo las observaciones en ondas de radio, que también se pueden observar desde la superficie de la Tierra, las que están cambiando muchas de nuestras concepciones previas de cómo funciona el Universo.
El objetivo de esta serie de artículos ha sido enseñar y describir la enorme importancia que las observaciones radioastronómicas en la línea de 21 cm (equivalente a 1420 MHz) del hidrógeno neutro han tenido y tienen en la actualidad. Gracias a ellas hemos empezado a entender la estructura de la Vía Láctea, hemos investigado la cantidad de gas y la dinámica de las galaxias cercanas (que nos permite medir muy bien la cantidad de materia oscura en ellas) e incluso explorado lo que ocurre en el espacio intergaláctico y cómo interaccionan las galaxias.
No obstante, el entender las características generales del gas neutro existente en las galaxias precisa no observaciones radioastronómicas de unas pocas galaxias individuales sino de datos de cientos, miles, decenas de miles, de galaxias. Los grandes números y los estudios estadísticos son muy importantes en Astrofísica a la hora de encontrar relaciones entre distintos observables que sean consecuencia de los fenómenos y las leyes físicas que gobiernan el Universo. Aquí quiero recordar algo importante: la Astrofísica es distinta al resto de las ciencias. No podemos hacer experimentos. Los astrofísicos observamos la luz que nos llega del Cosmos y, usando los modelos y las simulaciones por ordenador, intentamos explicar lo que vemos. Quizá el ejemplo más famoso de estos “estudios de multitud de objetos astronómicos” es el cartografiado SDSS (Sloan Digital Sky Survey) que, usando un “modesto” telescopio de 2.5 metros de tamaño (Observatorio Apache Point, Nuevo México, EE.UU.) proporciona datos ópticos de millones de estrellas y galaxias. El cartografiado de galaxias de SDSS es, en la actualidad, uno de los trabajos astrofísicos más citados en la literatura científica.
Por este motivo, desde finales del siglo pasado se empezaron a desarrollar catálogos y cartografiados de galaxias observadas en la línea de 21 cm del hidrógeno atómico. Aquí es donde entra en juego el cartografiado HIPASS (“HI Parkes All Sky Survey”). Usando un potente y novedoso receptor (el “21 cm multibeam system”) instalado para tal efecto en el famoso radiotelescopio de 64 metros de Parkes (Australia), HIPASS cartografió casi todo el cielo observable desde este radiotelescopio (71% de todo el cielo) buscando la emisión de HI de galaxias cercanas. HIPASS supuso una revolución para los astrofísicos extragalácticos: se pudieron obtener las propiedades del gas neutro (distancia, cantidad de masa de gas, cantidad de materia oscura, velocidad del gas, como describimos en el tercer artículo de esta serie) de más de 5000 galaxias cercanas.
(Vídeo 1: Visualización que muestra la posición de las galaxias detectadas según la emisión en 21 cm del hidrógeno atómico (en azul), muchas de ellas usando el cartografiado HIPASS, con nuevas galaxias escondidas detrás de la Vía Láctea y descubiertas en 2016 por el equipo liderado por Lister Stavely-Smith (en colores verde-anaranjados). El centro del diagrama representa nuestra Vía Láctea. Crédito: ICRAR.)
Aunque el cartografiado HIPASS se completó en 2002 el análisis de los datos (algo muy complejo para las observaciones en radio) ha llevado más de una década. Aún hoy día se siguen publicando descubrimientos que surgen de estos datos, por ejemplo, nubes de gas difuso alrededor de la Vía Láctea que habían pasado desapercibidas antes, o la detección difusa de gas hidrógeno en galaxias ultra-enanas cercanas descubiertas por cartografiados ópticos profundos como el “Dark Energy Survey” (DES, usando el Telescopio Blanco del Observatorio Inter-Americano de Cerro Tololo, Chile).
Video 2: Animación mostrando la localización de las galaxias descubiertas por Lister Staveley-Smith y colaboradores dentro de la “Zona de Exclusión” dada por el plano de la Vía Láctea. Para ello se usaron observaciones en la línea de 21 cm del hidrógeno atómico con el radiotelescopio de Parkes (Australia) que complementaban a las ya obtenidas con el cartografiado HIPASS. La emisión de las galaxias en colores ópticos, que son los que ven los telescopios convencionales (ondas azules) es completamente bloqueada por el polvo y el gas de la Vía Láctea. Sin embargo, la emisión en radio (ondas rojas) puede llegar hasta nosotros porque no es absorbida por el medio interestelar de la Galaxia. La animación ha usado los datos reales de la posición de las nuevas galaxias detectadas, pero su aspecto (tipo, tamaño y colores) es una representación artística. Crédito: ICRAR, música por Holly Broadbent.
Es más, dado que las ondas de radio no se bloquean por el polvo y el gas de la Vía Láctea, gracias a observaciones con HIPASS se han descubierto centenares de galaxias “escondidas” detrás de la Vía Láctea. El estudio más reciente lo lideró el astrofísico australiano Lister Staveley-Smith (Director de ICRAR, el “International Centre for Radio Astronomy Research”, Perth, Australia) usando datos de HIPASS complementando con nuevas observaciones más recientes. En su artículo científico, publicado a principios de 2016, se presenta la detección de gas hidrógeno en 883 galaxias en la zona del plano de la Vía Láctea. El 51% de estos objetos se han detectado en colores ópticos, pero sólo se tenían distancias espectroscópicas en el óptico al 8% de ellos. Uniendo estos datos con otros similares obtenidos desde el Hemisferio Norte se pudo conocer mejor la distribución de las galaxias en el Universo Local, ayudando a entender lo que son el Gran Atractor y el Vacío Local.
Otro cartografiado en busca del gas atómico de las galaxias usando una única antena de radio es ALFALFA (acrónimo de “Arecibo Legacy Fast ALFA”), que usa el famoso radiotelescopio de Arecibo (Figura 1), de 305 metros de tamaño. Los objetivos que persigue el cartografiado ALFALFA son parcialmente similares a los de HIPASS, pero como el radiotelescopio de Arecibo es mucho más grande que el de Parkes ahora se puede llegar más profundo en distancia y a objetos más débiles y cercanos. Por contra, dadas las características de la antena de Arecibo (que es fija) sólo se puede observar la banda ecuatorial del cielo. Aún así se espera detectar cerca de 25 mil galaxias por su emisión en la línea de 21 cm del hidrógeno neutro.
No obstante, la verdadera revolución a la hora de entender el gas difuso de las galaxias está viniendo por las observaciones usando radio-interferómetros. Durante los últimos 20 años del siglo XX se habían conseguido distintas observaciones de galaxias usando este método, muchísimas gracias al exitoso interferómetro VLA (“Very Large Telescope”, Nuevo México, EE.UU.). Normalmente eran observaciones de galaxias individuales para estudios en concreto, cada una liderada por un pequeño grupo (a veces un par de astrofísicos). En 2001 el astrofísico estadounidense John Hibbard (NRAO, EE.UU.) compiló más de 200 galaxias observadas con interferómetro radio, The HI Rogues Gallery, que dejaban patente la enorme diversidad de patrones y complejidades que mostraba el gas atómico en estas galaxias. Un ejemplo se muestra en la Figura 2, donde se aprecia la peculiar distribución de gas atómico en y alrededor de las galaxias NGC 5719 y NGC 5713.
Sin embargo, hasta entonces no se tenía un estudio sistemático del gas atómico en galaxias cercanas. Así, y en paralelo, a principios del siglo XXI se iniciaron dos grandes cartografiados de galaxias con el objetivo de profundizar en ellos: THINGS y LVHIS.
El proyecto THINGS (“The H I Nearby Galaxy Survey”), liderado por Fabian Walter (MPIA, Alemania), ha usado datos obtenidos con el radio-interferómetro VLA para analizar una muestra de 34 galaxias cercanas (dentro de lo que se conoce como “Volumen Local”, que tiene un radio de unos 10 Mpc, esto son, unos 32.6 millones de años luz) que ya se habían observado en detalle en otros surveys ópticos e infrarrojos. Los detalles que se han obtenido de cómo el gas está distribuido y se mueve en estas galaxias cercanas son impresionantes y aún se están analizando. La Figura 3 es el póster de las 34 galaxias de THINGS mostrando únicamente la emisión del hidrógeno atómico, que se ha codificado en escala lineal y a la misma resolución espacial.
A pesar de ser sólo 34 galaxias, el cartografiado THINGS cubre desde galaxias de baja masa y pobres en metales a galaxias espirales masivas. Permite resolver estructuras de unos 500 pc de tamaño (1630 años luz), resolviendo los brazos espirales y trazando la estructura fina del gas difuso. Además, los datos de THINGS permiten estudiar la rotación de las galaxias y determinar su masa dinámica, algo que, como ya vimos, es clave para precisar la cantidad de materia oscura en cada una de ellas (otro buen ejemplo se incluye en la Figura 4). Recientemente este trabajo se ha extendido con unas 40 galaxias enanas gracias al cartografiado “Little-THINGS”, liderado por la astrofísica Deirdre Hunter (Observatorio Lowell, Arizona, EE.UU.).
Por otro lado, el proyecto LVHIS (“Local Volume H I Survey”; se pronuncia «Elvis»), dirigido por la astrofísica Bärbel Koribalski (CSIRO, ATNF, Australia), ha mapeado en hidrógeno atómico todas las galaxias del Volumen Local detectadas por el cartografiado HIPASS y que pueden ser observadas desde el interferómetro Australian Telescope Compact Array (ATCA, Narrabri, Australia). Este cartografiado, que consta de unas 80 galaxias, lo conozco muy bien, dado que formo parte del equipo de investigación desde 2006 y yo mismo he realizado muchas de las observaciones y publicado artículos científicos con estos datos.
Los objetivos principales de LVHIS son investigar los alrededores de las galaxias buscando objetos compañeros de baja masa, concretar la rotación del gas atómico, determinar sus masas, estudiar la relación entre el gas y la formación estelar, y establecer una relación entre la velocidad de rotación y la luminosidad en óptico e infrarrojo (algo que se conoce como relación Tully-Fisher). Una muestra de galaxias observadas por LVHIS se presenta en la Figura 5.
Destaca la espectacularidad del gas atómico de la famosa galaxia espiral M 83, que abarca un diámetro de cerca de un grado (la componente estelar visible en óptico es cinco veces más pequeña) y presenta un brazo de marea que sugiere que ha interaccionado con un objeto enano. Al igual que con THINGS los datos de LVHIS aún no están completamente explotados. De hecho, justo estas semanas estamos ultimando el artículo científico que presenta los datos principales del cartografiado y otro que busca entender la formación estelar en estas galaxias.
Acostumbrados a los grandes cartografiados ópticos, que cuentan con centenares de miles de galaxias, estos cartografiados radio-interferométricos en busca del gas atómico que en total incluyen unas 200 galaxias cercanas parecen poco cosa. Pero hay que recordar que observar en radio tiene sus peculiaridades, las técnicas hay que desarrollarlas aún, y el procesado de los datos es mucho más complejo que en óptico. Aún así, en la actualidad se están construyendo nuevos radio-interferómetros que completarán cartografiados profundos del cielo en frecuencias de radio.
En particular, en Australia se está instalando un potente radio-interferómetro, el “Australian SKA Pathfinder” (ASKAP). Con sus instrumentos de última generación, que permiten tanto un enorme campo de visión (30 grados cuadrados a longitudes de onda de 20 cm) como un gran velocidad de observación y un enorme rango dinámico, ASKAP realizará cartografiados de todo el cielo observable desde su posición en la Tierra, el Observatorio Radioastronómico de Murchinson (Australia Occidental). ASKAP tendrá un total de 36 antenas de 12 metros de tamaño (10 de ellas se ven en la Figura 6) y, entre otras cosas, realizará un mapa muy profundo del gas neutro de la Vía Láctea, investigará el origen del magnetismo del Universo (precisando las propiedades de los púlsares y otros objetos compactos), detectará la radiación sincrotrón de unas 70 millones de galaxias hasta unos 8000 millones de años luz de distancia, y encontrará la emisión del gas neutro de más de medio millón de galaxias.
El cartografiado que usará ASKAP para buscar la detección del hidrógeno neutro en el universo es WALLABY (“Widefield ASKAP L-band Legacy All-Sky Blind Survey”). Coordinado por los astrofísicos Bärbel Koribalski (CSIRO/CASS/ATNF) y Lister Stavely-Smith (UWA/ICRAR), WALLABY observará el 75% de todo el cielo (todo el hemisferio sur celeste y el hemisferio norte celeste desde el ecuador hasta declinación +30º) proporcionado datos del hidrógeno atómico de centenares de miles de galaxias localizadas en un radio de unos 3000 millones de años luz. WALLABY necesitará 13 meses de observaciones continuas (y recuerdo que en radio se observan las 24 horas del día) para completar su cartografiado, aunque los mismos datos pueden usarse simultáneamente para otros proyectos. Más de un centenar de astrofísicos de todo el mundo participamos en WALLABY.
Aunque ASKAP está aún en construcción, algunas de sus antenas están ya operativas, por lo que los científicos australianos están ya trabajando en su comisionado. Entre todas las novedades tecnológicas que ASKAP está desarrollando una de las más destacadas es el sistema que permite tener un gran campo de visión. Esto se consigue colocando en cada antena receptores que apuntan ligeramente a sitios distintos del cielo. El proceso computacional para combinar estos datos es muy complicado y está suponiendo un verdadero reto tecnológico y computacional. La Figura 7 muestra un ejemplo de observación con un prototipo de este sistema usando sólo 6 antenas de ASKAP. Estos datos, que se consiguieron en 2014, presentan la distribución de gas atómico dentro del grupo de galaxias IC 4159. Los 9 círculos indican los 9 receptores que estaban operativos en cada antena.
Estas observaciones permitieron ver con detalle el gas en 11 de las galaxias de este grupo y descubrir tres nubes de gas difuso, cada una con una masa de 1000 millones de soles, donde aparentemente no hay estrellas. Los datos muestran que, en realidad, estas tres nubes difusas aisladas son la punta del iceberg de una gigantesca nube de gas atómico en la que el grupo de galaxias está envuelto pero que aún no se puede detectar de forma directa. De hecho, al comparar las observaciones radio-interferométricas de ASKAP con los datos de HIPASS (que es una antena única y, por tanto, no “disuelve” el gas difuso) se encuentra que alrededor del 10% de todo el gas del grupo de galaxias está en el medio intergaláctico. Quiero insistir en que esto se ha descubierto mientras se “probaba” el instrumento con sólo 6 antenas: cuando ASKAP esté en pleno rendimiento se encontrarán sorpresas a diario.
Es importante señalar que la gran mayoría de las galaxias que WALLABY detectará usando los datos de ASKAP no estarán resueltas espacialmente dada su lejanía. Se ha calculado que unas 30 000 galaxias sí tienen un tamaño mayor de 1.5 minutos de arco. Estos objetos cercanos, como la galaxia IC 5201 (datos de ASKAP conseguidos el año pasado) que se muestra en la Figura 8, sí podrán “diseccionarse en radio”, por lo que WALLABY proporcionará sus parámetros estructurales y masas. Sólo unas 1000 galaxias, aquéllas mayores de 5 minutos de arco, se estudiarán con alta resolución espacial, obteniéndose datos con similar resolución, calidad y sensibilidad que las conseguidas hasta ahora con interferómetros existentes, pero usando gran cantidad de tiempo de observación.
WALLABY proporcionará la muestra más extensa y homogénea de galaxias detectadas en gas atómico hasta la fecha, con idea de ser complementado usando datos en otras frecuencias (ultravioleta, óptico, infrarrojo y milimétrico/submilimétrico) con los que tendremos una nueva visión del Universo local, y resultando un excelente punto de partida para proyectos científicos similares a realizar en el futuro con el “Square Kilometre Array” (SKA), un ambicioso proyecto internacional que pretende construir miles de radio receptores entre África y Australia, y que revolucionará completamente nuestro conocimiento del Cosmos.
En resumen, el apasionante estudio del hidrógeno en el Universo usando observaciones radio en la línea de 21 centímetros está prácticamente comenzando. Hemos empezado a explorar el gas de la Vía Láctea y su alrededor y el de algunas galaxias cercanas; como hemos visto las sorpresas aparecen por doquier. En efecto, aún nos queda mucho para entender todas las propiedades de la componente del gas difuso en las galaxias.
Más importante aún, hay que conectar esas propiedades del gas con los resultados que obtenemos en colores ultravioleta, óptico e infrarrojo de las estrellas y el polvo que constituyen las galaxias dentro de un marco teórico donde, con ayuda de las potentes simulaciones por ordenador, se puedan restringir bien los modelos del Cosmos. Sólo así podremos establecer bien la relación del hidrógeno con la formación estelar, su influencia en la evolución de las galaxias, cuánto gas existe en el medio intergaláctico, la cantidad de materia bariónica y de materia oscura en las galaxias, cómo y con qué frecuencia suceden las fusiones de galaxias, como crecen sistemas como la Vía Láctea por la acreción de gas difuso, y como todo esto ha ido cambiando al pasar el tiempo cósmico. Afortunadamente para los astrofísicos, aún nos queda mucho trabajo por hacer.
Este post ha sido realizado por Ángel López-Sánchez (@El_lobo_rayado) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo El hidrógeno en el Universo (V): Cartografiando las galaxias en hidrógeno atómico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 El año del gamusino
De animales imaginarios y troles reales. Por Laura Morrón.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 El año del gamusino se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El ego y las trampas del intelecto
De entre todas las trampas en las que puede caer la mente humana una de las más extendidas entre los cerebros más poderosos y exitosos es la de la vanidad. Pero no la variedad habitual, la de creerse más guapo o atractivo que el resto, sino el más pernicioso y sutil mal de la vanidad intelectual: la de creerse más listo que los demás. Al fin y al cabo si uno ha triunfado en las ciencias, que son difíciles, e incluso ha realizado fabulosos descubrimientos de enorme importancia será porque su máquina de pensar tiene más potencia que la del resto de los humanos. Y no digamos si además el científico en cuestión ha recibido premios, parabienes y reconocimiento público.
La vanidad es una tendencia humana y los científicos de éxito no están exentos de ella. Lo que ocurre es que en el ámbito intelectual la vanidad se expresa de algunas formas típicas y curiosas que conviene conocer para evitar dejarnos llevar por la vanidad ajena, quizá lo único más triste que dejarse llevar por la propia. Una de ellas es lo que podríamos bautizar como el síndrome del martillo; la segunda la de que todo el monte es orégano y la tercera y más común proporciona un sólido cimiento a la Primera Ley de Clarke. Las tres están muy extendidas entre las mentes más preclaras y a menudo muestran algún solapamiento.
El síndrome del martillo (todo lo que ves son clavos) es la tendencia a utilizar las mismas teorías, herramientas e hipótesis que llevaron a un científico al éxito al resolver un problema de su especialidad al resto de los problemas y al resto de las especialidades. En sus casos más extremos las ideas que dieron el triunfo a un científico se acaban por convertir en una especie de Teoría del Todo que explica el universo entero a partir de una extrapolación de sus hallazgos. Es una consecuencia difícil de evitar de la tendencia que tenemos todos los humanos a enamorarnos de nuestras propias hipótesis, reforzada por el éxito y el reconocimiento. Y, claro está, por el ego; puesto que en el fondo de lo que se trata es de destacar lo listo que es uno en comparación con los demás, y lo buenas que son sus ideas.
Cuando esta querencia se extiende fuera de los límites de la especialidad propia, a campos completamente ajenos o incluso (horror) a la sociedad, la economía o la política podemos hablar de la enfermedad del Todo el Monte es Orégano, en la que el científico afectado considera que su conocimiento puede aplicarse a resolver cualquier problema humano de cualquier ciencia, tecnología o índole sin descartar los religiosos, políticos o económicos. Este síndrome suele aparecer en el estricto orden inverso de ‘pureza científica’ por lo que es habitual escuchar a matemáticos o físicos sus ideas de como curar el cáncer con sus herramientas de cálculo, por ejemplo; es más raro (pero no imposible) oír a biólogos declarar que saben cómo demostrar la Conjetura de Goldbach a partir de sus estudios de taxonomía de escarabajos.
En este caso la arrogancia se combina con un cierto desprecio por la inteligencia ajena, ya que al dar por supuesto que los conocimientos propios pueden resolver problemas que no se conocen en detalle se está implícitamente considerando que los especialistas en esas áreas no tienen la capacidad intelectual del afectado. El personaje de Sheldon en la serie The Big Bang Theory extrae humor a menudo de esta querencia natural, pero cuando estos consejos bienintencionados (y a menudo ignorantes) se extienden a la política o la economía es cuando en vez de risa dan mucho miedo; se han dado casos de premios Nobel apoyando teorías racistas o políticas manifiestamente en contra de las evidencias más elementales, y en estos casos el reconocimiento les proporciona un peligroso plus de credibilidad.
Quizá la más común es la ponzoñosa combinación de éxito científico reconocido con la inevitable mortalidad del individuo que tan bien supo parodiar Arthur C. Clarke con su Primera Ley: “Cuando un científico eminente pero anciano afirma que algo es posible es casi seguro que tiene razón; cuando afirma que algo es imposible muy probablemente está equivocado”. Aquí la arrogancia intelectual se mezcla con el giro oscuro de la personalidad que muchas veces acompaña a la senectud para proporcionar un campo de cultivo perfecto para la negación y lo negativo; lo mismo que suele ocurrir a los intelectuales y columnistas cuando entran en edades provectas y se convierten en cascarrabias irredentos pero en versión cósmica.
Y así es habitual contemplar a científicos que o bien descartan que se puedan producir avances de la ciencia o la tecnología cuando ellos ya no estén (el gran Lord Kelvin es un ejemplo egregio) o bien alertan de los peligros que nos acechan en el futuro, cuando no podremos contar con sus mentes para sortearlos. De ahí los grandes físicos o tecnólogos a los que les preocupa el futuro de la Humanidad cuando cohabite con Inteligencias Artificiales o la posibilidad de que estemos descubriendo nuestra posición a seres extraterrestres que quizá no sean bienintencionados. A veces el pesimismo que acompaña a la decadencia propia o hasta la proximidad de la muerte se acaba por desbordar. Lo cual demuestra que pueden ser mentes preclaras y haber conseguido grandes triunfos del conocimiento, pero los científicos siguen siendo tan humanos como los demás. También para lo malo.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo El ego y las trampas del intelecto se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Una electrónica para Venus
Llamar inhóspito al planeta Venus es quedarse corto, muy corto. De hecho las condiciones son tan terribles que ni siquiera sabemos a ciencia cierta los datos más elementales, porque cualquier equipo que se envíe a medir tiene que ser capaz de aguantar del orden de 460 ºC de temperatura y una presión atmosférica aproximadamente 90 veces mayor que la de la Tierra. Esto se debe a que la atmósfera es en su mayor parte dióxido de carbono y es tan densa que es imposible ver la superficie. El dispositivo que más tiempo aguantó estas condiciones fue la sonda Venera 12 soviética en 1978, que aguantó 110 minutos y eso que estaba diseñada como un submarino de inmersión profunda.
No ha existido una misión a la superficie de Venus desde 1984. Después de todo, ¿para qué?¿Para gastar una barbaridad de dinero en una sonda que podría funcionar unas horas? Aunque quizás ahora las cosas cambien. El Centro de Investigación Glenn de la NASA ha desarrollado una electrónica que puede funcionar de forma prolongada en las condiciones de la superficie de Venus.
Las sondas que se han enviado a Venus en el pasado protegían su electrónica en unos contenedores resistentes a la presión y a la temperatura, lo que añadía un peso significativo al sistema y disparaba el coste de la misión. Lo que el equipo encabezado por Philip Neudeck ha hecho es desarrollar una electrónica que pueda aguantar por sí misma, en la que los circuitos integrados están hechos a base de semiconductores de carburo de silicio.
Eso sí, tampoco hay que ponerse a lanzar cohetes. Ni en el sentido literal ni en el metafórico. La nueva electrónica soportó 521 horas (casi 22 días) en las condiciones de la superficie de Venus. Y si bien es un avance espectacular, que multiplica por 100 el mejor registro conocido de cualquier misión a Venus, tampoco parece mucha garantía como para empezar a diseñar una misión. Eso sí, tras las pruebas los circuitos seguían operativos.
Aparte de las aplicaciones que pueda tener este, u otros desarrollos basados en este en la exploración de Venus y otros planetas, es evidente que las aplicaciones terráqueas de este tipo de electrónica son múltiples: mejores controles en motores de alto rendimiento o instalaciones industriales, en los que las mediciones ahora mismo son indirectas o, directamente, no se tienen, son algunas de las posibilidades. Ello redundaría en un uso más eficiente de la energía y en menores emisiones contaminantes.
Como desde el inicio de la exploración espacial, los desarrollos que alienta terminarán mejorando la vida en la Tierra.
Referencia:
Philip G. Neudeck et al (2016) Prolonged silicon carbide integrated circuit operation in Venus surface atmospheric conditions AIP Advances doi: 10.1063/1.4973429
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Una electrónica para Venus se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El joven Arquímedes
El joven Arquímedes es una colección de cuatro relatos cortos publicados por Aldous Huxley entre 1922 y 1930 (ver nota).
El primero de ellos, el que da título a la antología, narra la historia de Guido, hijo de unos campesinos italianos. Una familia acomodada y culta británica –un matrimonio y su hijo Robin– alquila una casa apartada en la montaña, cerca de un pueblecito italiano, junto a las tierras que cultivan los padres de Guido.
El matrimonio inglés percibe la inclinación natural de Guido hacia la música y comienza a instruirle en este arte. Sin embargo, pronto advierten que, en realidad, sus dotes para la música –a pesar de ser buenas– no son excepcionales: Guido es en realidad un genio en matemáticas.
Se incluyen debajo algunas citas tomadas del libro para conocer la historia de este joven Arquímedes. El narrador es padre de Robin:
Pero teníamos otras razones, a los pocos días de habitarla, para gustar de la casa. De esas razones, era la más poderosa, que en el hijo menor del campesino descubrimos el compañero ideal de juegos de nuestro hijito.
Entre el pequeño Guido –tal era su nombre– y el menor de sus hermanos había una diferencia de seis o siete años. Los dos mayores trabajaban en el campo con su padre; después de la muerte de la madre, dos o tres años antes de conocerlos, la hermana mayor manejaba la casa, y la menor, que acababa justamente de dejar el colegio, la ayudaba y en las horas libres vigilaba a Guido, quien no necesitaba ya mucha vigilancia: contaba de seis a siete años, y era tan precoz, tan seguro y tan lleno de responsabilidad como lo son en general los hijos de los pobres, entregados a sí mismos desde que empiezan a andar.
Guido interrumpe en ocasiones sus juegos, sumiéndose en profundas meditaciones:
Éste era un niño reflexivo sujeto a súbitas abstracciones. Uno lo encontraba, a veces, solo en un rincón, la barbilla en la mano, el codo en la rodilla, sumergido, al parecer, en profunda meditación. Y a veces, aun en medio de sus juegos se detenía de pronto y se quedaba de pie con las manos detrás, el entrecejo fruncido y mirando al suelo. […]Es el Guido abstraído en uno de esos trances en que solía caer, aun en plena risa y juegos, de manera absoluta e inesperada, como si de pronto se le hubiera metido en la cabeza irse y hubiera dejado el hermoso cuerpo silencioso abandonado, como una casa vacía, esperando su vuelta.
Para amenizar sus horas de silencio en la montaña, el matrimonio británico decide llevar desde a su casa italiana un gramófono y varios discos de música clásica. Guido queda impresionado al escuchar estas melodías, tan diferentes de las que había oído hasta entonces en las alegres fiestas familiares:
Guido se detuvo ante el gramófono, y se quedó inmóvil, escuchando. Sus ojos, de pálido azul grisáceo, se abrieron desmesurados, y, con un pequeño gesto nervioso que ya había notado antes, se tiró el labio inferior apretando el pulgar y el índice. Debió de haber hecho una profunda aspiración; porque noté que después de escuchar por algunos segundos espiró vivamente, y aspiró una nueva dosis de aire. Me miró un instante –mirada interrogadora, entusiasta, asombrada–, se rio con una risa que se volvió un estremecimiento nervioso, y se volvió hacia la fuente de esos maravillosos sonidos.
Guido se entusiasma con esa música que surge del gramófono y muestra una enorme habilidad para repetir ritmos y captar –sin conocimientos musicales previos– matices y diferencias entre unas y otras. El narrador piensa que Guido es un genio de la música y decide alquilar un piano para enseñar al pequeño algunas nociones musicales.
Tenía pasión por lo clásico. Cuando le expliqué los principios de esa forma, quedó encantado.
– Es hermoso –decía admirado–. ¡Hermoso, hermoso, y tan fácil!
Guido aprende deprisa, pero no es un genio de la música: pronto se manifiesta su talento en otra disciplina:
Pero lo que vi fue a Guido que, con un palo tiznado, demostraba sobre las piedras lisas de la vereda que el cuadrado construido sobre la hipotenusa de un triángulo rectángulo es igual a la suma de los cuadrados construidos sobre los dos otros lados.Arrodillado en el suelo, dibujaba con la punta de su palo quemado sobre el piso. […] Y empezó a demostrar el teorema de Pitágoras, no como Euclides, sino por el método más sencillo y satisfactorio que según todas las probabilidades empleó el mismo Pitágoras. Había dibujado un cuadrado que había seccionado, con un par de perpendiculares cruzadas, en dos cuadrados y dos rectángulos iguales. Dividió los dos rectángulos iguales por sus diagonales en cuatro triángulos rectángulos iguales. Los dos cuadrados resultan estar construidos sobre los lados del ángulo recto de esos triángulos. Eso era, el primer dibujo. En el siguiente, tomó los cuatro triángulos rectángulos en los cuales estaban divididos los rectángulos y los dispuso alrededor del cuadrado primitivo, de manera que sus ángulos rectos llenaran los ángulos de las esquinas del cuadrado, las hipotenusas en el interior y el lado mayor y menor de los triángulos como continuación de los lados del cuadrado (siendo iguales, cada uno, a la suma de esos lados). De este modo, el cuadrado primitivo está seccionado en cuatro triángulos rectos iguales y un cuadrado construido sobre su hipotenusa. Los cuatro triángulos son iguales a los dos rectángulos de la primera división. Resulta que el cuadrado construido sobre la hipotenusa es igual a la suma de dos cuadrados –los cuadrados de los dos catetos– en los cuales, con los rectángulos, fue dividido el primer cuadrado. En un lenguaje muy poco técnico, pero claramente y con implacable lógica, Guido expuso su demostración.
Tras este extraordinario descubrimiento –Guido había descubierto por sí mismo, sin ayuda, la demostración del teorema– las clases de música pasan a compartir su tiempo con lecciones de matemáticas. El pequeño Guido se encuentra plenamente seducido por el álgebra y sus teoremas, aludiendo constantemente a su belleza y su naturalidad:
Así le hice conocer el álgebra, haciéndole una nueva demostración del teorema de Pitágoras. En esa demostración, se traza una perpendicular de lo alto del ángulo recto sobre la hipotenusa, y partiendo de la base de que los dos triángulos así formados son semejantes entre ellos y al triángulo primitivo, y que sus lados homólogos son en consecuencia proporcionales, se demuestra algebraicamente que c2+d2 (los cuadrados de los otros dos lados) es igual a a2+b2 (los cuadrados de los dos segmentos de la hipotenusa) +2ab; cuyo total, como se puede demostrar con facilidad geométricamente, es igual a (a+b)2, o sea al cuadrado construido sobre la hipotenusa. […] Cada día descubría algo que le parecía exquisitamente bello; el nuevo juguete tenía posibilidades ilimitadas. […]Una tarde apareció Guido trayendo cuidadosamente en sus pequeñas y sucias manos un endeble dodecaedro.
– ¡É tanto bello! –decía mientras lo mostraba, y cuando le pregunté cómo lo había hecho, se contentó con sonreír y decir que ¡había sido tan fácil!
La familia británica debe partir a pasar una temporada a Suiza, obsequiando a Guido los seis primeros libros de Euclides en italiano para que continúe su formación. La dueña de las tierras obliga al padre –al campesino– a dejar al niño a su cargo durante una temporada –le amenaza con expulsarle de las tierras que cultivaba desde hacía años si no accedía a esta solicitud–. Aunque la casera trata bien al pequeño Guido, le obliga a estudiar música –pensando en que está contribuyendo a crear un virtuoso del piano– y le quita los libros de matemáticas para que no se entretenga. Guido, privado de la cercanía de sus seres queridos y de sus matemáticas, se cree abandonado por su familia y por la de su amigo Robin… con trágico final.
Esta novela se llevó al cine en 1950 con el título de Prelude to Fame; las matemáticas desaparecieron del guion, siendo Guido un gran genio de la música. ¡Una lástima!
NOTA: Las cuatro novelas son: El joven Arquímedes; Los Claxton; Cura de reposo y El monóculo.La Editorial Losada (Buenos Aires) los reunió en una antología en 1943, traducida al castellano por Leonor de Acevedo.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo El joven Arquímedes se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Catástrofe Ultravioleta #13 LEVIATÁN
Vuelve Catástrofe Ultravioleta y nos preparamos para su segunda temporada. Nos embarcamos en una gran aventura para avistar cachalotes. Desde Canarias hasta Tarifa, desde la superficie hasta las profundidades del océano.
Agradecimientos: Cabildo Insular de La Gomera, Philippe Verborgh (CIRCE), Juan Ignacio Pérez Iglesias (UPV/EHU), Carlos Álvarez, Natacha Aguilar, Manola y a todos los que habéis hecho posible, con vuestro apoyo, que Catástrofe Ultravioleta regrese.
* Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) con el apoyo de la Cátedra de Cultura Científicade la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.
Puedes conocernos en nuestra web: Catastrofeultravioleta.com y seguirnos en el twitter Catastrofe_UV
El artículo Catástrofe Ultravioleta #13 LEVIATÁN se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Paracelso, el sistemático borrachín que trató la sífilis (2)
El uso más importante que podía hacerse de la alquimia, según Paracelso, será preparar medicinas que restablezcan el equilibrio químico de un cuerpo alterado por la enfermedad.
Por lo tanto, Paracelso se dedicó a ello de forma sistemática. En el que puede considerarse el primer proceso químico estandarizado de la historia, sometió a una gran variedad de metales a un conjunto de procedimientos para obtener una serie de sales. En realidad estas llamadas sales, no lo eran en el sentido moderno, sino que eran disoluciones que, para complicar más las cosas, Paracelso llamaba aceites que empleaba como medicamentos.
Paracelso también habría sido el primer europeo en emplear tintura de opio (un extracto alcohólico de opio), a la que llamó láudano, para tratar enfermedades. La acción de los principios activos del opio habría sido más analgésica que curativa, obviamente.
Hay quien sospecha que Paracelso podría haber sido un usuario frecuente del láudano, lo que en parte justificaría la poca influencia que tuvieron sus textos. Efectivamente su estilo extraño, confuso y errático, incluso para los estándares alquímicos, por describirlo amablemente, no facilitaba ni su lectura, ni su comprensión, llegando a plantear incluso que hubiese algo que comprender.
Además del láudano, Paracelso también era un usuario frecuente de esa relativamente nueva medicina, el alcohol destilado. De hecho habría sido la primera persona en usar la palabra alcohol para referirse a la esencia destilada del vino. Un tipo de maquillaje empleado desde la antigüedad en el este del Mediterráneo y Oriente Próximo, el kuhl, la expresión del árabe hispano para nombrarlo al-kuhúl, pasó a usarse para referirse a cualquier “polvo finamente dividido y limpio de impurezas”. Por una nueva metonimia al-kuhúl pasó a significar “la mejor parte de una sustancia”. El que Paracelso considerase el alcohol como la mejor parte del vino parece evidente habida cuenta de las enormes cantidades que trasegaba y que le hacían acabar muchos día en el suelo de una taberna.
Curase o no curasen sus aceites, láudano y alcohol, todos su remedios quedaron eclipsados por su gran triunfo: el empleo del mercurio en el tratamiento de la sífilis, la enfermedad que marcó una época. Si hoy día se caracteriza la sífilis como una enfermedad de evolución lenta, que causa llagas en los genitales y que puede levara síntomas mucho más graves si no se trata, en 1495 en Europa la sífilis se describía como una enfermedad que provocaba pústulas que cubrían todo el cuerpo, de la cabeza a los pies, en la que la piel se desprendía de la cara, y que terminaba provocando la muerte en unos pocos meses.
Apenas medio siglo después, para mediados del siglo XVI, la sífilis se había transformado en algo muy parecido a lo que conocemos hoy. Se ha sugerido que en ese periodo el microbio que la produce habría mutado de tal forma que los enfermos se mantenían vivos mucho más tiempo asegurando así una mayor tasa de transmisión de la enfermedad. Con todo, seguía siendo una enfermedad muy temida y la medicina basada en autoridades, básicamente Hipócrates, galeno y Avicena, tenía poco que ofrecer para atacarla más allá de unos remedios basados en hierbas de ninguna eficacia. Sin embargo, la aplicación tópica de mercurio recomendada por Paracelso, era de una eficacia espectacular en comparación. De hecho, no existió mejor tratamiento contra la sífilis hasta comienzos del siglo XX.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Paracelso, el sistemático borrachín que trató la sífilis (2) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Preparados para matar: algunas ideas para el debate
“La propia aplicación del pensamiento de Darwin a los problemas humanos… ilumina éstos de una forma que había sido siempre eludida en los planteamientos tradicionales, reconsiderando antiguos problemas y apuntando a su solución.”
Daniel Dennett, La peligrosa idea de Darwin, 1999 (1996).
Esta serie de textos tratará de matar y de su sustrato biológico y evolutivo. Tratará del homicidio, el asesinato y la ejecución. Y, siempre, quien esto escribe y quienes me lean no deben olvidar que la presentación de hipótesis y teorías, incluso de hechos, está afectada significativamente por la predisposición en cultura, historia e ideología del que presenta y del que recibe el argumento. O sea, en esta serie, sobre todo de mí y de mis circunstancias.
En la película “La batalla de Anzio”, Robert Mitchum es el protagonista e interpreta a un periodista de guerra veterano y cínico. Al final de la película, en una charla con un general destituido, Mitchum dice que “el hombre mata porque le gusta matar”, y siguen varias explicaciones, que no vienen al caso, de su afirmación. Siempre me ha fascinado el hecho de que, según declaramos con mucho énfasis, solo hay que recordar el quinto mandamiento, no debemos matar y, sin embargo, matamos sin cesar. O como aclara la Biblia en Éxodo, 23-7, “no quites la vida al inocente y justo; y no absuelvas al malvado”, pues hay que precisar cuando y a quien hay que matar y cuando no hay que hacerlo.
Según escribo estas líneas, decenas de personas están muriendo con violencia en todas las partes del mundo, civilizadas o no, según como se declaran los que allí viven. Pero las personas matan, y han matado, a otras personas en cualquier cultura, en cualquier lugar del planeta y en cualquier tiempo. La cuestión, creo, es por qué lo hacen.
En Estados Unidos hubo 13.636 homicidios en 2009. Cerca de 88 millones de personas murieron como resultado de las guerras del siglo XX en todo el planeta, y 54 millones eran civiles. Entre las tribus de cazadores recolectores, lo más parecido a nuestros antepasados de hace unos miles de años, el 13%, según datos de los arqueólogos, o el 15%, según la etnografía actual, de los hombres mueren en guerras. Incluso entre los yanomano, en la Amazonia, entre el 20% y el 30% de los hombres mueren con violencia.
Son solo algunos datos estadísticos de la cantidad y calidad de la violencia cometida por nuestra especie. Aunque algunas de estas muertes se pueden atribuir al abuso del alcohol o las drogas, a desórdenes mentales y a otras causas parecidas, lo cierto es que la mayor parte de las conductas violentas en nuestra especie no se pueden considerar una aberración sino que son obra de personas consideradas normales. Es lo habitual, algo típico de los humanos, incluyendo asesinatos y guerras.
Harold Shipman: El ambicioso médico y la estadística
Harold Frederick Shipman nació Nottingham el 14 de enero de 1946 y murió el 13 de enero de 2004. Era médico generalista y se le considera el mayor asesino en serie de la historia de Inglaterra. Fue juzgado y condenado a 15 cadenas perpetuas el 31 de enero de 2000 por 15 asesinatos. En 2004 se suicidó en su celda de máxima seguridad en la cárcel de Wakefield. Nunca admitió su culpabilidad y, por tanto, nunca explicó a cuántos mató y por qué lo hacía.
Estudió en Nottingham y en la Universidad de Leeds, y fue médico residente en la Facultad de Medicina de Bodington Hall en 1965. Allí conoció a la que sería su mujer, Primrose. Se casaron en 1966 y tuvieron cuatro hijos. Al terminar sus estudios en Leeds, comenzó a ejercer la medicina en el Hospital de Pontefract, cerca de Leeds, y se sospecha que ya entonces comenzaron sus asesinatos. También trabajó para el sistema penitenciario a principios de los setenta y, aunque no está probado, se supone que allí también asesinó a algunos pacientes.
En 1975 fue detenido por posesión de recetas de pethidina para uso propio, y por denuncias de sus colegas médicos. Es un opioide sintético utilizado como analgésico y que se considera que causa menos adicción que la morfina. Después de pasar por un centro de desintoxicación, fue declarado sano y apto para ejercer la medicina de nuevo.
Pasó de un puesto a otro siempre dejando buena impresión, hasta que se estableció en Hyde, cerca de Manchester, en 1977, donde llegó a tener su propia clínica a partir de 1993.
Sospechoso por primera vez en mayo de 1998, fue abandonada la investigación policial por falta de pruebas. Todo comenzó con la visita de la doctora Linda Reynolds, en marzo de 1998, al fiscal John Pollard, del distrito de South Manchester, y le comunicó su preocupación por el alto índice de mortalidad entre los pacientes de Shipman. También le comentó el gran número de cremaciones entre los fallecidos y de, en su gran mayoría, eran mujeres mayores, hasta el 80%. Según el fiscal Pollard, Shipman mataba a sus pacientes, aunque no podía asegurar si era negligencia o asesinato. La policía investigó el asunto, aunque sin mucho interés. Como ya he dicho, se archivó el caso por falta de pruebas un mes después, en abril.
Ya en 1985, Allen Massey, de la funeraria local, hizo notar que los pacientes de Shipman parecían morir a una tasa superior a la habitual y, además, muchos morían vestidos y sentados en su sillón. Por otra parte, tampoco parecía que hubieran estado gravemente enfermos antes de su muerte. Y, además, el doctor Shipman, solía estar presente en el momento de la muerte. Massey se enfrentó a Shipman pero este le convenció de que no había nada raro y que allí estaban sus libros de notas y casos listos para una inspección. Justo enfrente de la clínica de Shipman estaba la Clínica Brooke y los médicos que trabajaban allí también notaron el exceso de muertes entre los pacientes de la clínica de la acera de enfrente. Pero, como con Massey, sus sospechas eran difíciles de probar.
La muerte de su última víctima, Kathleen Grundy, hizo que en junio del mismo año, 1998, se retomara el caso. Vivía en Hyde y era muy conocida pues había sido alcaldesa de la localidad. El día de su muerte, el 24 de junio y con 81 años, la última visita que recibió fue la de su médico, el doctor Shipman, que también firmó su certificado de defunción. En la casilla sobre la causa de la muerte, Shipman puso “por su gran edad”.
La hija de la señora Grundy, la abogada Angela Woodruff, descubrió que su madre había cambiado el testamento y dejaba sus ahorros a Shipman. Por cierto, el testamento, escrito a máquina, se supone que por la señora Grundy, que, por otra parte, no tenía máquina de escribir, estaba mal redactado y peor mecanografiado. Desconfiada, Woodruff fue a la policía y consiguió la exhumación del cadáver de su madre. En el nuevo análisis se encontraron en el cuerpo restos de morfina, una sobredosis administrada unas tres horas antes de su muerte, justo cuando tenía lugar la visita de Shipman. Fue arrestado el 7 de septiembre de 1998 y, en el registro de su casa, se encontró la máquina de escribir que se había utilizado para cambiar el testamento de la señora Grundy.
La policía centró su investigación en 15 de los últimos pacientes fallecidos del doctor Shipman. Se analizaron los cuerpos y en todos se encontraron restos de morfina. Con estos datos, la policía acusó a Shipman y el 5 de octubre de 1999 se inició el juicio.
Uno de los policías que interrogó entonces a Shipman contó que era un tipo arrogante, de trato difícil, que intentaba controlar los interrogatorios y se burlaba de los policías. Lo tomaba como una competición en la que su superior intelecto terminaría victorioso. De todas formas, es curioso que, mientras lo habitual para la policía es tener un asesinato y buscar al asesino, con Shipman primero tuvieron al asesino y, después, tuvieron que buscar los asesinatos.
El 31 de enero de 2000, Shipman fue condenado a 15 cadenas perpetuas, una por cada una de sus víctimas, con la recomendación del juez de que nunca le dejaran en libertad. Nunca confesó ni aceptó su culpabilidad. El 13 de enero de 2004, un día antes de cumplir 58 años, Shipman se suicidó en su celda.
La policía acabó considerando que había matado a 218 de sus pacientes, la mayoría mujeres de edad, con 171, y 47 hombres, aunque algunos expertos aseguraron que sus víctimas podían sobrepasar las 400, desde un mínimo de 76 hasta un máximo de cerca de 1000 muertos. Su víctima más joven, Peter Lewis, tenía 41 años. Estuvo muy unido a su madre que falleció a los 43 años en 1963, en la adolescencia de Shipman, y, además, murió como lo harían sus víctimas: enferma de cáncer, en sus últimos días y para aliviarle el dolor, su médico le administraba morfina en su hogar.
La mayoría de los asesinatos de Shipman siguen el mismo patrón. La rutina es la habitual de un médico de cabecera: responder a una llamada del paciente un día entre semana y por la tarde y, una vez en su casa, inyectarle morfina o heroína. El paciente es encontrado muerto con el doctor presente o una media hora después de que se ha ido. El mecanismo de la muerte es descrito como síncope o colapso y la causa de la muerte, certificada por Shipman, es un ataque al corazón, un derrame cerebral o, simplemente, la edad. Las familias, avisadas por Shipman, aceptan que la muerte se debe a causas naturales y, por consejo del doctor, aceptan incinerar el cadáver.
Después del suicidio, la jueza Janet Smith elaboró un informe exhaustivo de las actividades de Shipman. Llegó a la conclusión de que había asesinado, entre 1975 y 1998, unas 250 personas de las 454 que murieron siendo pacientes suyos. El informe terminaba recomendando cambios en la estructura y funcionamiento de los servicios médicos. Muchos aspectos problemáticos de la práctica médica de Shipman no se habían tenido en cuenta: uso excesivo y fácil de la morfina, patrón de las visitas de Shipman a sus enfermos siendo casi siempre la último visita recibida antes de morir, exceso estadístico de muertes entre las mujeres de edad, demasiadas cremaciones, el uso de drogas, el problema de los médicos que trabajan solos, cómo procesar las denuncias si las hay, la función de los forenses, etc. Había que cambiar muchos de los protocolos de la práctica médica, aunque es curioso que la revisión de la práctica médica en Gran Bretaña la promoviese un asesino en serie.
Hay que cuidar con atención la salud del prójimo pues, no se sabe por qué, la medicina es la profesión con más asesinos en serie, seguida de cerca por la enfermería y por algún que otro odontólogo que podríamos añadir a la lista. En cambio y por lo que sabemos hasta ahora, no se conocen asesinos en serie entre los veterinarios.
Después de la condena, Richard Baker, de la Universidad de Leicester y a petición del Consejo Médico, hizo un estudio del número y patrón de las muertes certificadas por Shipman en sus 24 años de práctica médica, de 1974 a 1998, y comparó los resultados con los de otros médicos. Shipman firmó nueve veces más certificados de defunción que otros médicos de su misma localidad y de otras cercanas. La causa de la muerte “por edad” aparece ocho veces más. La mayoría de sus pacientes mueren entre las 14 y las 16 horas, cuando los de otros médicos mueren a cualquier hora del día. Cuando muere una persona, en el 80.2% de los casos hay algún pariente con él; con Shipman la probabilidad bajaba hasta el 40.1%. Además, mueren más rápido, pues el 60% lo hacen en media hora cuando, con otros médicos, solo el 23% muere en ese tiempo.
Con Shipman de médico de cabecera, el riesgo de muerte súbita era mayor que por tabaquismo. Habitualmente, que un médico esté presente cuando muere su paciente ocurre en un 0.8% de los casos; con Shipman, su presencia llegó al 19.5%. Este estudio de Benker concluye que Shipman mató a 236 pacientes.
Ya ven, es difícil detectar a un asesino en serie médico. Shipman tendría unos 3000 pacientes simultáneamente y la muerte de 15 o 20 de ellos no tiene significancia estadística. Es más, Shipman no fue descubierto por un asesinato sino por el testamento falso de Kathleen Grundy.
Mi formación, mi interés y mis lecturas, ya que nunca he matado a nadie y, por tanto, no tengo experiencia directa en ello, me han llevado a aplicar conceptos de biología evolutiva y, en concreto, de psicología evolutiva para examinar algunas de las funciones de la mente humana que se manifiestan en conductas violentas que pueden llevar a la muerte a otras personas. La hipótesis principal es que la violencia servía a los individuos que necesitaban recursos para la reproducción en aquellos entornos ancestrales y que, para ellos, la violencia supuso una ventaja que se seleccionó en el proceso evolutivo. Y así, como una ventaja evolutiva, ha llegado hasta nosotros.
Son dos los objetivos reproductores que buscaban nuestros antepasados, y nosotros seguimos haciéndolo. En primer lugar, sobrevivir para llegar a reproducirse. Para ello necesitaban alimento, refugio y un entorno seguro. Así, muchos de los conflictos dentro del grupo y entre grupos se debían a la escasez de estos recursos, todos ellos esenciales para la supervivencia. Solo hay que recordar la primera parte de 2001, una odisea en el espacio, de Stanley Kubrick, para comprender esta lucha por la supervivencia, en este caso el agua y la comida.
En segundo lugar, el objetivo es conseguir pareja, un recurso en sí mismo para la reproducción. Para conseguirlo hay varios medios que, además, varían según tiempo y lugar. Por ejemplo, necesitamos un territorio con recursos, aliados para defenderlo, estatus social, armas, objetos fabricados por el hombre como ropa, objetos preciosos naturales o artificiales, adornos, accesorios varios, y, en los últimos siglos, también dinero que, por lo que sabemos, no da la felicidad pero ayuda a conseguir el resto de necesidades a cubrir para tener éxito evolutivo.
Son recursos, muchos de ellos, que no tienen que ver con la supervivencia en sí misma, pero la selección de la pareja también implica tanto el éxito en atraer al otro sexo como la capacidad para asustar a los posibles rivales. Para esto último, para asustar, son las armas y el estatus. Y, en consecuencia, los hombres son más violentos que las mujeres. Además, estos mismos rasgos son atractivos para el otro sexo, para las mujeres, pues así se han seleccionado, durante milenios, ya que los violentos tienen más recursos que ayudarán a la supervivencia de los hijos.
Caín, el hermano de Abel
Génesis 4: 2-14. Biblia de Jerusalén (trad. Jesús Moya)
Volvió a dar a luz, y tuvo a Abel su hermano. Fue Abel pastor de ovejas y Caín labrador. Pasó algún tiempo, y Caín hizo a Yahveh una oblación de los frutos del suelo. También Abel hizo una oblación de los primogénitos de su rebaño, y de la grasa de los mismos. Yahveh miró propicio a Abel y su oblación, mas no miró propicio a Caín y su oblación, por lo cual se irritó Caín en gran manera y se abatió su rostro. Yahveh dijo a Caín: «¿Por qué andas irritado, y por qué se ha abatido tu rostro? ¿No es cierto que si obras bien podrás alzarlo? Mas, si no obras bien, a la puerta está el pecado acechando como fiera que te codicia, y a quien tienes que dominar.»
Caín, dijo a su hermano Abel: «Vamos afuera.» Y cuando estaban en el campo, se lanzó Caín contra su hermano Abel y lo mató.
Yahveh dijo a Caín: «¿Dónde está tu hermano Abel? Contestó: «No sé. ¿Soy yo acaso el guarda de mi hermano?» Replicó Yahveh: «¿Qué has hecho? Se oye la sangre de tu hermano clamar a mí desde el suelo. Pues bien: maldito seas, lejos de este suelo que abrió su boca para recibir de tu mano la sangre de tu hermano. Aunque labres el suelo, no te dará más su fruto. Vagabundo y errante serás en la tierra.» Entonces dijo Caín a Yahveh: «Mi culpa es demasiado grande para soportarla. Es decir que hoy me echas de este suelo y he de esconderme de tu presencia, convertido en vagabundo errante por la tierra, y cualquiera que me encuentre me matará.»
En conclusión, la violencia, seleccionada para conseguir recursos y la reproducción, es, sobre todo, de hombres jóvenes contra hombres jóvenes, y el hecho de que las mujeres encuentren atractivos como pareja a hombres dominantes y agresivos y, por tanto con recursos, sugiere que, en último término, han sido ambos sexos, y no solo los hombres, los que han contribuido a la evolución de la violencia en nuestra especie.
En la base de las diferencias entre los sexos en relación con la violencia está que sus objetivos son diferentes en la reproducción. El hombre compite con otros hombres para tener acceso sexual con cuantas más mujeres mejor y conseguir así difundir sus genes lo más posible a las siguientes generaciones. Pero, además, el hombre debe dedicar recursos a su pareja durante el embarazo, la lactancia y, en general, el desarrollo de sus hijos. Su objetivo es llegar a más mujeres pero, también, a conseguir que los hijos, con sus genes, salgan adelante.
Las mujeres, en cambio, no desperdician sus recursos en disputas por los hombres. Dedican todo su interés a encontrar una pareja con gran valor reproductor, es decir, joven y sano, y que contribuya al cuidado y crecimiento de los hijos, o sea, con recursos. Mientras los hombres tienden a buscar parejas a corto plazo, las mujeres las buscan a largo plazo con el objetivo de cuidar durante mucho tiempo a los hijos.
Sin embargo, no hay que olvidar que el entorno en que vivieron nuestros antepasados fue distinto al que tiene la humanidad actual y, quizá, lo que entonces seleccionó estas conductas relacionadas con la violencia, no sea válido en la actualidad. Como ejemplo sirve el hecho indiscutible de que en nuestra cultura matar no es moralmente defendible excepto en situaciones muy concretas. Tampoco podemos olvidar que seguimos teniendo ejércitos o, en muchos países, pena de muerte.
Una de las conductas violentas más típicas de nuestra especie es la guerra, o sea, el enfrentamiento violento y, si se puede decir así, oficial entre grupos humanos. Por tanto, para que exista guerra debe haber grupos humanos y, para que haya grupos, debe existir algún tipo de conducta de cooperación y empatía entre individuos. Sin previa cooperación, no puede haber guerra posterior, como mucho serán combates individuales. Además, hay que destacar que, quizá, la única manera de controlar e, incluso, acabar con la violencia entre personas es desarrollar las conductas de cooperación, empatía y altruismo. Como ven, violencia y cooperación, ambas conductas seleccionadas por el proceso evolutivo, forman parte del mismo comportamiento en nuestra especie.
En fin, más que debatir qué rasgos violentos son adaptaciones biológicas y cuales no lo son, propongo que todos los actos de violencia física o sexual tienen una historia evolutiva asociada con la adquisición de recursos. Aunque, como pasa en los procesos evolutivos, muchos rasgos violentos seleccionados por la evolución pueden ser seleccionados y recombinados para cumplir nuevos propósitos.
Referencias:
Baker, R., D.R. Jones & P. Goldblatt. 2003. Monitoring mortality rates in general practice after Shipman. British Medical Journal 326: 274-276.
Baumeister, R.F. 2001. Raíces de la violencia. Investigación y Ciencia junio.
Buss, D.M. 2005. The murdered next door: Why the mind is designed to kill. Penguin Books. New York. 288 pp.
Buss, D.M. 2012. The evolutionary psychology of crime. Journal of Theoretical and Philosophical Criminology Special Edition January: 90-98.
Buss, D.M. 2013. The science of human mating strategies: An historical perspective. Psychological Inquiry 24: 171-177.
Duntley, J.D. & D.M. Buss. 2004. The plausability of adaptations for homicide. En “The structure of the innate mind”. Ed. por P. Carruthers, S. Laurence & S. Stich. Oxford University Press. New York.
Duntley, J.D. & D.M. Buss. 2011. Homicide adaptations. Aggression and Violent Behavior 16: 399-410.
Ferguson, R.B. 2003. The birth of war. Natural History July/August: 27-35.
Frankel, S., J. Sterne & G.D. Smith. 2000. Mortality variations as a measure of general practitioner performance: implications of the Shipman case. British Medical Journal 320: 489.
García, J.E. 2015. El comportamiento criminal desde un punto evolucionista. Persona 18: 27-46.
Guthrie, B., T. Love, R. Kaye, M. MacLeod & J. Chalmers. 2008. Routiny mortality monitoring for detecting mass murder in UK general practice: test of effectiveness using modelling. British Journal of General Practice May: 311-317.
Jackson, T. & R. Smith. 2004. Obituaries: Harold Shipman. A general practitioner and murderer. British Medical Journal 328: 231.
Kinnell, H.G. 2000. Serial homicide by doctors: Shipman in perspective. British Medical Journal 321: 1594-1597.
Liddle, J.R., T.K. Shackelford & V.A. Weekes-Shackelford. 2012. Why can’t we all just get along? Evolutionary perspectives on violence, homicide, and war. Review of General Psychology 16: 24-36.
Morrall, P. 2006. Murder and society. John Wiley & Sons. Chichester. 214 pp.
Pringue, M. 2000. The Shipman inquiry: implications for the public’s trust in doctors. British Journal of General Practice May: 355-356.
Winter, D.A. 2016. Construing homicide. En “The Wiley handbook of personal construct psychology”, p. 416-425. Ed. Por D.A. Winter & N. Reed. John Wiley & Sons. New York.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Preparados para matar: algunas ideas para el debate se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El papel de las nanopartículas lipídicas en terapia génica
Se han cumplido 25 años desde la publicación del primer trabajo sobre nanopartículas sólidas lipídicas (SLN) y transportadores lipídicos nanoestructurados (NLC) como sistemas de administración de fármacos. Con tal motivo, la revista European Journal of Pharmaceutics and Biopharmaceutics ha preparado un número especial para el que pidió hacer un trabajo de revisión sobre la aplicación de SLN y NLC en terapia génica al grupo de investigación PharmaNanoGene, de la Universidad del País Vasco/Euskal Herriko Unibertsitatea, una autoridad internacional en este campo de investigación.
Las nanopartículas lipídicas (SLN y NLC) se consideran unos sistemas muy prometedores para la administración de ácidos nucleicos en terapia génica. Hasta ahora, los sistemas virales de administración de material genético han resultado ser más eficaces, pero presentan importantes problemas de seguridad. “Los vectores no virales, entre los que se encuentran las SLN y NLC, son menos eficaces pero mucho más seguros, aunque su eficacia ha aumentado significativamente en los últimos años”, comentan Alicia Rodríguez, María Ángeles Solinís y Ana del Pozo, autoras del artículo.
En éste se describen estos sistemas así como sus principales ventajas para terapia génica, como son la capacidad de protección del material genético frente a la degradación, facilitar la internalización celular y nuclear, y favorecer el proceso de transfección. “Además, las nanopartículas están formadas por materiales biocompatibles y biodegradables, son fáciles de producir a gran escala, se pueden esterilizar y liofilizar, y presentan una alta estabilidad, tanto en fluidos biológicos como durante el almacenamiento”, explican las investigadoras.
Esta revisión también incluye las principales enfermedades en las que se están aplicando nanopartículas lipídicas, generalmente a nivel preclínico: enfermedades degenerativas de la retina, enfermedades infecciosas, enfermedades metabólicas y cáncer, entre otras. “En PharmaNanoGene trabajamos en el diseño y evaluación de SLN para el tratamiento mediante terapia génica de algunas de esas enfermedades. Estudiamos la relación entre factores de la formulación con los procesos de internalización y disposición intracelular del material genético, que condicionan la eficacia de los vectores, y que es fundamental en el proceso de optimización, y por primera vez demostramos la capacidad de las SLNs para inducir la síntesis de una proteína tras su administración endovenosa a ratones”, resaltan.
En la publicación se incluyen también otros trabajos de este grupo de investigación de la UPV/EHU sobre la aplicación de las SLNs en el tratamiento de enfermedades raras, como la retinosquisis juvenil ligada al cromosoma X, enfermedad en la que la retina está desestructurada debido a la deficiencia de la proteína retinosquisina. “Entre los principales logros de nuestros estudios en este campo se encuentra el demostrar, también por primera vez, la capacidad de un vector no viral para transfectar la retina de animales deficientes en el gen que codifica para la citada proteína y restaurar parcialmente su estructura, mostrando que la terapia génica no viral es una herramienta terapéutica factible y prometedora para el tratamiento de las enfermedades degenerativas de retina”, detallan las investigadoras.
Además, en PharmaNanoGene también han estudiado la aplicación de las SLN para el tratamiento de la enfermedad de Fabry, una alteración metabólica, multisistémica y grave, de carácter hereditario. “Se trata de una enfermedad monogénica, ligada al cromosoma X, que se produce por diversas mutaciones en el gen que codifica la enzima α-galactosidasa A (α-Gal A). En modelos celulares de esta enfermedad, hemos demostrado la capacidad de las SLN para inducir la síntesis de la α-Gal A”. También han revisado la aplicación de las nanopartículas lipídicas al tratamiento de enfermedades infecciosas: “nuestros trabajos en este campo muestran cómo las SLN con ARN de interferencia son capaces de inhibir in vitro un replicón del virus de la hepatitis C, lo que sirvió como prueba de concepto de la utilidad de los vectores basados en SLN como una nueva estrategia terapéutica para el tratamiento de esta infección y otras relacionadas”.
Referencia:
Del Pozo-Rodríguez, A., Solinis, M.A., Rodríguez Gascón, A.. Applications of lipid nanoparticles in gene therapy. European Journal of Pharmaceutics and Biopharmaceutics. Volume 109, December 2016, Pages 184-193. DOI: 10.1016/j.ejpb.2016.10.016.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El papel de las nanopartículas lipídicas en terapia génica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La ciencia al rescate del país
A mediados del siglo XVIII la estructura económica del País Vasco, y especialmente en los territorios de Gipuzkoa y Bizkaia, comenzó a dar síntomas de agotamiento. La agricultura, que gracias a la introducción del maíz había florecido, dejó de expandirse. Las ferrerías habían vivido una primera mitad de siglo esperanzador pero en la segunda mitad del mismo a duras penas pudieron hacer frente a la competencia del hierro sueco e inglés. Algo parecido podemos decir del comercio: la Compañía Guipuzcoana de Caracas, que tenía el monopolio del comercio con esa urbe y su Hinterland, conoció una primera mitad de siglo esplendoroso pero a mediados de la centuria entró en crisis y sus actividades se paralizaron durante unos años. Cuando echo de nuevo a andar no consiguió los resultados de antaño.
Una élite perteneciente a algunas de las familias más poderosas de los territorios vascos fue plenamente consciente de la situación arriba descrita y se propuso reformar la economía para evitar una crisis profunda. Hablamos, por citar los casos más conocidos, de Xabier María de Munibe (VIII Conde de Peñaflorida), Joaquín de Eguía (Marqués de Narros), Manuel Ignacio de Altuna o Miguel José de Olaso. Muchos miembros pertenecientes a esta élite habían cursado sus estudios superiores en el extranjero, con lo cual conocieron y aceptaron tanto la corriente de pensamiento predominante en el continente, la Ilustración, como la física newtoniana. También tuvieron noticia del quehacer de las numerosas sociedades agrícolas y academias económicas que trabajaban en distintas zonas de Europa fomentando el progreso y la modernización de la industria y de la agricultura.
En 1763 varios caballeros gipuzkoanos redactaron un proyecto de Academia de Agricultura, Ciencias y Artes Útiles y Comercio para su implantación en la provincia, pero un año más tarde las miras se ampliaron y se fundó la Sociedad Bascongada de Amigos del País, formada también por miembros alaveses y vizcaínos. El objetivo de la Sociedad era poner al País Vasco, tanto a nivel científico como técnico y docente, a la altura de Europa. Era necesario introducir en el país el nuevo método científico, la física newtoniana y los avances técnicos que se estaban dando en Europa a nivel industrial y agrícola. El medio más razonable para lograrlo era a través de la educación de calidad. Además de Escuelas de Dibujo (fundamentalmente Educación Profesional) crearon el Real Seminario Patriótico Bascongado de Bergara. Este centro (semillero de los futuros hombres útiles al país) fue pionero en la enseñanza de la Química y de la Mineralogía y Metalurgia y consiguió conformar un completo laboratorio químico, un gabinete de Física y amplias colecciones de Ciencias Naturales. Entre sus profesores se encontraban, entre otros, Louis Proust, François Chabaneau y los hermanos Elhuyar. Algunas de las piezas de los laboratorios de esta época pueden contemplarse hoy en el museo Laboratorium de Bergara.
Los ilustrados vascos pusieron en marcha toda una batería de medidas y acciones con el fin de modernizar el territorio. Así, en el campo de la investigación científica analizaron la idoneidad de nuevos cultivos; realizaron un estudio edafológico del País Vasco e investigaron la fertilidad de los distintos tipos de tierras y suelos; ensayaron nuevos métodos de abonado; probaron tanto en Bilbao como en Bergara la idoneidad de nuevos aperos de labranza; ensayaron la bondad de la patata como alimento humano como animal; se estudiaron numerosas minas de nuestro territorio; analizaron las técnicas productivas de las ferrerías vascas e investigaron los modos de producción en aquellas extranjeras; mantuvieron relaciones profesionales con los científicos más punteros y famosos de la Europa del momento; descubrieron, en el Real Seminario de Bergara el método para hacer maleable el platino y en el mismo centro realizaron la mayor aportación científica que el País Vasco haya hecho nunca a la humanidad: el descubrimiento, cuando solamente se conocían 23, de un nuevo elemento químico: el wolframio.
Por lo que respecta al ámbito de la innovación técnica, realizaron plantaciones modelo de nuevas plantas forrajeras; así mismo plantaron nuevas especies arbóreas en Gipuzkoa y Bizkaia con el fin de modernizar el sector forestal; con miras a modernizar el sector textil implantaron plantaciones de lino modernas y racionalmente gestionadas; introdujeron nuevas especies agrícolas en Álava con lo que evitar el monocultivo del trigo; en Bilbao crearon una moderna compañía de pesca; hicieron venir de Europa técnicos cualificados en diversas ramas productivas para introducir sus métodos en el País Vasco; pusieron en marcha una moderna fábrica de producción de acero de calidad en Bergara y también en Bergara abrieron una factoría para la fabricación de cuchillos; subvencionaron la introducción de innovaciones técnicas en sendos talleres papeleros de Bilbao y de Azkoitia; crearon una nueva factoría textil en Vitoria; conformaron en el Real Seminario de Bergara el laboratorio de química mejor equipado del reino y planearon y dirigieron también desde Bergara una misión de espionaje militar e industrial con el fin de hacerse con la técnica de fundición de cañones de la fábrica escocesa de Carron, la más reputada entonces en Europa.
Finalmente, por lo que atañe a la educación de calidad, publicaron un moderno manual de ortografía que difundieron por todo el país; redactaron el proyecto de una escuela para el alumnado femenino; pusieron en marcha y mantuvieron Escuelas de Dibujo en Álava, Gipuzkoa y Bizkaia y fundaron un centro docente de máxima calidad, el ya citado Real Seminario de Bergara. Este centro contó con las avanzadas cátedras de Química y Mineralogía y Metalurgia, las primeras del reino y para dotarlas docentemente se trajo a parte de los profesores y científicos más reputados de Europa. También en el Seminario se crearon, con fines educativos y de investigación, un riquísimo herbario, una completa colección de minerales y una magnífica colección de Ciencias Naturales.
Referencia:
Astigarraga, J. [2003] Los ilustrados vascos. Ideas, instituciones y reformas económicas en España. Barcelona; Crítica.
Autor: Equipo técnico del museo Laboratorium
Museo Laboratorium. Palacio Errekalde, Juan Irazabal s/n, 20570 Bergara
Contacto: 943 769 003;laboratorium@bergara.eus.
El artículo La ciencia al rescate del país se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Hoy es el día de la mujer y la niña en la ciencia, todos lo son
Las mujeres no gozan de las mismas oportunidades que los hombres en el cursus honorum científico. Las causas de esa desigualdad son variadas y en una medida importante tienen su origen en el efecto de estereotipos en virtud de los cuales hay actividades que se consideran propias de las mujeres y otras que no. Tales diferencias carecen del más mínimo fundamento y no tienen justificación. Son además perniciosas, en primer lugar para las mujeres, que pierden así oportunidades para su desarrollo profesional y, por lo tanto, personal. Por esa razón son radicalmente injustas. Y en segundo lugar, causan un perjuicio al conjunto de la sociedad, pues privan a esta de las aportaciones de personas de valía a quienes, de forma sutil o no tan sutil, se limita el acceso a los puestos desde los que podrían realizar esas aportaciones.
La Cátedra de Cultura Científica de la UPV/EHU se ha propuesto contribuir, en la medida de sus modestas posibilidades, a mostrar la labor que desarrollan las mujeres en el mundo de la ciencia y la tecnología. Queremos visibilizar esa labor. Por eso publicamos desde mayo de 2014 el blog Mujeres con Ciencia. En promedio, un artículo cada día: para la Cátedra todos los días son días de la mujer y la niña en la ciencia.
Pero que todos los días lo sean no es óbice para que nos unamos a la iniciativa de Naciones Unidas y celebremos también el Día Internacional de la Mujer y la Niña en la Ciencia. Con ese propósito hemos producido “Ese lugar”, el vídeo que acompaña este texto. Quiere ser un gesto de denuncia, pero también una llamada al optimismo, optimismo que –no lo olvidemos– solo puede venir de la mano de la acción y, sobre todo, del trabajo. Por eso, para la Cátedra de Cultura Científica de la UPV/EHU mañana también será día de la mujer y la niña en la ciencia, y pasado mañana y los siguientes.
“Ese lugar” es una producción de K2000, ha sido dirigido por Jose A. Pérez Ledo y fue grabado en Begoñazpi Ikastola (Bizkaia).
—————————————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————————————–
El artículo Hoy es el día de la mujer y la niña en la ciencia, todos lo son se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El hidrógeno en el Universo (IV): Galaxias en interacción
Como describimos en el artículo anterior, las observaciones radioastronómicas en la línea de 21 cm (equivalente a 1420 MHz) del hidrógeno neutro, que en la jerga científica se denota simplemente como “emisión en H I”, nos proporcionaron una nueva visión de las galaxias. Gracias a esta técnica los astrofísicos pueden detectar el gas difuso y frío del Cosmos y usar esas observaciones para entender mejor desde la estructura de la Vía Láctea a las propiedades de otras galaxias. En particular, usando técnicas de radio-interferometría (combinar la luz que llega de varios radiotelescopios para conseguir una imagen en radio con gran resolución angular) se pudo no sólo “pesar” mejor las galaxias, confirmando que todas contienen un gigantesco halo más o menos homogéneo de materia oscura, sino también entender la dinámica del gas y su relación con la formación estelar.
Algo que empezó a quedar claro desde el comienzo de las observaciones radio-interferométricas es que el gas difuso observado a 21 cm era más extenso que la componente estelar en las galaxias. Esto se hizo patente a finales del siglo XX, cuando la combinación de observaciones más profundas usando mejores radio-interferómetros con el incremento de la potencia de los ordenadores, que proporcionaban un combinado más efectivo de los datos y mejor procesado final, permitieron obtener mapas detallados del gas neutro en galaxias cercanas. Un buen ejemplo lo vemos en la Figura 1, que muestra la comparación entre las estrellas (izquierda) y el gas (derecha) dentro de la galaxia espiral NGC 6946. La imagen en la línea de 21 cm del hidrógeno atómico se consiguió usando datos del radio-interferómetro Westerbork (WSRT por sus siglas en inglés, “Westerbork Synthesis Radio Telescope”), instalado en Holanda, y que cuenta con 14 antenas de 25 metros. Se necesitaron 192 horas de integración para conseguir el detallado mapa del gas hidrógeno de NGC 6946.
Esta imagen muestra claramente como el disco de las galaxias espirales, trazado por el gas difuso, es mucho más amplio que el disco estelar. Gracias a la alta resolución espacial obtenida en esta imagen en radio (unos 13 segundos de arco de resolución, sólo un poco mayor de la imagen en óptico, con 2 segundos de arco de resolución) se pueden trazar bien los brazos espirales de NGC 6946, además de distinguir muchos más detalles del gas difuso de esta galaxia. En efecto, el disco interior muestra el mismo patrón filamentoso y con “huecos” que se ve en la imagen óptica. A la vez, los brazos espirales se hacen más y más pronunciados en las partes externas, permitiendo contar al menos 3 de ellos. El brazo del norte es el más rico en gas y contrasta mucho mejor con la zona inter-brazo, donde apenas se detecta emisión difusa. A pesar de la aparente regularidad en la forma general del gas, llama la atención que el disco de gas es asimétrico: está ligeramente más extendido en una dirección que en la perpendicular.
Como curiosidad, hay que decir que el “hueco oscuro” que aparece en la imagen en HI justo en el centro de la galaxia es un artefacto a la hora de combinar los datos. En realidad hay mucho gas en las partes centrales de NGC 6946. Sin embargo, el centro de la galaxia alberga un agujero negro súpermasivo que emite grandes cantidades de radiación sincrotrón justamente a longitudes de onda de 20 cm. Cuidado que este agujero negro súpermasivo no debe confundirse con el “agujero” que se ve en la emisión del gas, el agujero negro súpermasivo de NGC 6946 es muchísimo más pequeño y no puede detectarse con este tipo de observaciones. La intensa emisión no-térmica en continuo de radio alrededor de la línea de 21 cm de HI hace que ésta no aparezca como “línea de emisión” sino como “línea de absorción”. Este “truco” está permitiendo detectar el gas H I en galaxias activas muy lejanas. Los estudios en este campo está prácticamente empezando.
Las imágenes detalladas de galaxias espirales en la línea de 21 cm del hidrógeno atómico han permitido encontrar varias cosas interesantes. Las observaciones permiten diferenciar el gas en rotación, algo esperado para el disco espiral, de “otras nubes de gas” que no comparten ese movimiento. Muchas de esas otras nubes parecen ser similares a las “nubes de alta velocidad” que se detectan alrededor de la Vía Láctea.
¿Qué son estos objetos? Las dos teorías más aceptadas sobre la naturaleza de las nubes de alta velocidad que vemos en galaxias espirales son por un lado gas expulsado del disco por “fuentes galácticas” (regiones de formación estelar intensa, con explosiones de supernova de estrellas masivas que viven rápidamente, que expulsan el gas fuera del disco espiral) y por otro rasgos de acreción de gas difuso intergaláctico que ha sido procesado muy poco (su composición química es por tanto muy sencilla). Los datos de NGC 6946 mostrados en la figura 1 confirmaron que muchas de sus nubes de alta velocidad estaban asociadas con “agujeros de gas” en el disco espiral y, por lo tanto, provenían de “fuentes galácticas”. Pero, a la vez, revelaban “rasgos extraños” que sólo parecen explicarse de una forma: hay gas que está cayendo a NGC 6946 por primera vez. En la actualidad los astrofísicos esperamos que en las galaxias se dan los dos fenómenos: expulsión del gas del disco por explosiones de supernova y acreción de gas difuso intergaláctico.
Pero no queda ahí la cosa. Una de las grandes ventajas de usar técnicas radio-interferométricas es que los datos permiten hacer imágenes a distintas resoluciones. La Figura 2 muestra exactamente los mismos datos que el panel derecho de la Figura 1, pero siguiendo dos combinaciones distintas. La imagen en escala de grises corresponden a los datos en alta resolución (13 segundos de arco), que es la misma que se muestra en la Figura 1. Los contornos corresponden a una imagen con mucha menos resolución angular (64 segundos de arco, las típicas que hasta entonces se obtenían con radio-interferometría). La ventaja de esta imagen de baja resolución es que permite detectar mucho más gas. Y, en efecto, es lo que vemos aquí: ahora aparecen de forma evidente las rasgos asimétricos de las partes externas que mencionábamos antes. Estas estructuras están asociadas a la interacción de galaxias y a la caída de gas difuso intergaláctico.
Y es aquí donde llegó otra de las grandes sorpresas al observar el gas difuso de las galaxias usando radio-interferometría. Como el disco de gas es mucho más extenso que el disco estelar es más fácil que una perturbación “externa” lo deforme. Cuando hablamos de perturbaciones o interacciones en este contexto nos referimos a casi cualquier cosa “externa” a la galaxia: una nube de gas difusa sin (apenas) estrellas, una galaxia enana, o una galaxia grande que pasan cerca (o directamente choca), o quizá la forma en la que la galaxia interacciona con el propio medio intergaláctico. Cuando miramos con detalle y profundidad las partes externas de las galaxias estamos encontrando continuamente esos rasgos de interacción, que son, en muchas ocasiones, imposibles de distinguir usando imágenes en los colores que nosotros vemos.
La Figura 2 revela a los posibles “culpables” de esa “pluma de gas difuso” que aparece arriba derecha del disco de NGC 6946: tiene dos galaxias enanas cercanas (las dos “nubes de gas” cerca de la esquina superior derecha) que han podido interaccionar con NGC 6946 en el pasado. No obstante, este rasgo difuso no está completamente explicado: podría ser también el resto de otra galaxia enana “engullida” en tiempos recientes por NGC 6946, o incluso parte del disco de la galaxia que ha sido parcialmente expulsado de las partes externas por fuerzas de marea inducidas por el paso cercano de otro objeto, originando una “cola de marea”.
Las “colas de marea” aparecen de forma especialmente evidente cuando observamos el gas neutro de galaxias cercanas usando radiotelescopios. La Figura 3 muestra el ejemplo de una galaxia muy conocida, M 51, la galaxia del Remolino. Posiblemente sea de las galaxias más observadas por los astrónomos aficionados (del hemisferio norte, dada su posición en el cielo dentro de la constelación de Canes Venatici no se puede ver desde el hemisferio sur) y una de las galaxias espirales de gran diseño más cercanas a la Vía Láctea, a sólo 23 millones de años luz. Estamos muy familiarizados a la visión de M 51 en colores ópticos, y es conocida su interacción con una galaxia enana (NGC 5195), que aparece en colores rojizos contrastando con el disco azul de M 51, pero la visión de M 51 usando la luz H I a 21 cm nos muestra algo nuevo. Los datos obtenidos con el radio-interferómetro VLA (“Very Large Array”, Estados Unidos) en 1992 muestran una larga cola de marea (codificada en azul en la figura), consecuencia de la interacción entre M 51 y NGC 5194, que se aleja mucho de las partes centrales. Además, se descubren algunas nubes difusas de gas neutro en lugares donde no se detectan galaxias enanas o emisión estelar.
Otro espectacular ejemplo de galaxia espiral en interacción con intensos brazos espirales es NGC 1512. Localizada a 31 millones de años luz de nosotros, la galaxia NGC 1512 está en interacción con una galaxia enana compacta azul (NGC 1510). Observaciones usando el radio-interferómetro ATCA (“Australian Telescope Compact Array”, Australia) desvelaron que ambos objetos estaban envueltos en una enorme nube de gas difuso que, siguiendo un patrón espiral inducido por las fuerzas de marea, se extiende muy lejos del centro del sistema. La Figura 4 muestra en detalle la extensión del gas H I observado a 21 cm (codificado en verde en esta imagen) en NGC 1512 y NGC 1510 (parece una estrella brillante), envolviendo completamente a las dos galaxias y extendiéndose siguiendo dos largas estructuras espirales hasta más de 250 mil años luz del centro de NGC 1512, esto es, casi 8 veces el tamaño de la galaxia en colores ópticos. Aparecen también algunas nubes difusas de gas donde no se detectan estrellas.
Además, los datos del gas atómico revelan que una de las estructuras espirales ha sido perturbada por la interacción con la galaxia enana NGC 1510, que está “cayendo” hacia la galaxia principal e induciendo la formación estelar en las partes externas del sistema. Combinando datos de espectroscopía óptica, colores ultravioleta e infrarrojos, y el mapa del gas neutro obtenido con radio-interferometría, pudimos confirmar que el gas difuso que posee NGC 1512 en las partes externas no proviene de esta galaxia, sino que ha sido el producto de fusión de galaxias enanas o de material intergaláctico que ya había sido procesado en otras galaxias espirales y después perdido por ellas, y ahora lo vemos acretándose alrededor de NGC 1512.
En otras ocasiones las interacciones de galaxias son mucho más evidentes y se ven claramente incluso en colores ópticos. Esto es lo que sucede en la galaxia de las Antenas (NGC 4038/4039, Figura 5), donde se observan dos núcleos centrales con dos largas colas de estrellas (de ahí el nombre que se le da a este peculiar objeto) que se alejan en direcciones opuestas. La galaxia de las Antennas es un ejemplo típico de lo que sucede cuando dos galaxies espirales chocan directamente: los dos núcleos centrales corresponden a las galaxias en proceso de colisión, mientras que las colas se originan por las intensas fuerzas de marea inducidas por las dos galaxias bailando en una danza que lleva irremediablemente a la fusión de ambas entidades. ¿Qué es lo que hace el gas? Normalmente en estos procesos es lo primero que se expulsa hacia el espacio intergaláctico, como describimos arriba. Pero en el caso de las Antenas aún se observa que buena parte del gas difuso está asociado a las largas colas de marea. El gas atómico, observado a 21 cm con el radio-interferómetro VLA, es especialmente prominente en la cola inferior. Es más, en los extremos de ambas colas aparecen regiones de formación estelar: en estas zonas el gas está condensado y creando nuevos soles. Algunos de estos sistemas quedarán “flotando” alrededor de las galaxias principales como “galaxias enanas de marea” (objetos que, a diferencia de las galaxias enanas típicas, poseen gran cantidad de elementos químicos y estrellas viejas) hasta terminar sus días cayendo de nuevo a la galaxia principal.
Hay casos aún más sorprendentes de interacciones de galaxias descubiertas gracias al estudio de la emisión de 21 cm del hidrógeno atómico. El cercano grupo de galaxias de M 81 y M 82 es quizá el caso más sorprendente. El panel superior de la Figura 6 muestra este grupo de galaxias, donde destacan la espiral M 81 (la “Galaxia de Bode”, en el centro) y la galaxia M 82 (la “Galaxia del Cigarro”, a su derecha), que posee una formación estelar muy intensa (tanto que el gas se está escapando perpendicularmente al disco, como se aprecia en los filamentos de color rojo intenso que surgen de su centro). Arriba a la izquierda aparece otra galaxia de baja masa, NGC 3077. Cuando observamos el gas difuso de este grupo de galaxias usando radio-interferómetros nos encontramos con una visión completamente distinta del sistema.
La imagen que reproducimos en el panel inferior de la Figura 6 es precisamente este mapa, tal y como se obtuvo usando datos del radio-interferómetro VLA. Además de descubrir el gas asociado a los discos espirales en rotación de las galaxias, esta poderosa imagen revela claramente el gas que conecta todas las galaxias entre sí. Estos “puentes de material difuso” no se ven en las imágenes en óptico (aunque es de esperar que también existan estrellas en ellos) y nos narran la convulsa historia que ha experimentado el sistema en tiempos recientes, con interacciones múltiples entre varias galaxias. La caída de gas neutro en M 82 como consecuencia de las fuertes interacciones de galaxias es la responsable de los fenómenos de formación estelar que observamos en ella. No es el único caso: una brillante nube de gas justo por encima de M 81 nos indica la posición de otra galaxia enana “estallante”, Holmberg IX, que apenas se distingue en los colores ópticos (sí brilla mucho en colores ultravioleta por el alto contenido de estrellas jóvenes y masivas que este galaxia enana posee), pero que destaca poderosamente en el mapa de la emisión de H I a 21 cm.
Si con sólo unas pocas observaciones a objetos individuales estamos encontrando tantos detalles nuevos y sorprendentes en galaxias que creíamos conocer bien, además de precisar su dinámica, la cantidad de materia oscura, la relación con la formación estelar, las interacciones y fusiones de galaxias, nubes difusas de gas donde no hay estrellas, ¿qué descubriremos al observar de forma sistemática centenares, miles de galaxias o decenas de miles de galaxias? Lo veremos en el último artículo de esta serie, donde detallaremos los cartografiados pasados, actuales y futuros que buscan estudiar la emisión del gas hidrógeno en galaxias usando la poderosa técnica de la radio-interferometría.
Este post ha sido realizado por Ángel López-Sánchez (@El_lobo_rayado) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo El hidrógeno en el Universo (IV): Galaxias en interacción se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 Arqueología funeraría: la fama y el olvido
El equipo de arqueólogos al que pertenece Almudena García Rubio entró en una iglesia por la fama y se encontró con el olvido. Una charla fantástica donde se pone de relieve la íntimamente relacionadas que están historia, sociología, economía y biología.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Arqueología funeraría: la fama y el olvido se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El papel viejo es amarillo
Tanto el dibujo como la escritura y, por ende, el lenguaje, son las formas de comunicación y abstracción más antiguas y definitorias del ser humano. Las palabras se las lleva el viento, se las lleva el tiempo, si no se garabatean sobre algún soporte. Si además este soporte no pudiese trasladarse y apilarse, como ocurría con los estáticos muros de las primitivas pinturas rupestres, el conocimiento seguiría permaneciendo y perteneciendo a un lugar. La evolución del soporte a través de la historia simboliza nuestro carácter social, nuestro afán por conservar y comunicar.
La invención de un soporte ligero sobre el que escribir, dibujar, almacenar y comunicar nuestro conocimiento a nuestra manera, sigue siendo, a día de hoy, un asunto que se reinventa; desde la piedra, al papel, a las memorias de silicio.
El primer «papel», y de ahí el origen de la palabra papel, fue el papiro. El papiro se fabricaba en el Antiguo Egipto a partir del vegetal que le dio nombre: Cyperus papyrus. En la Edad Media, en Europa, se empleaba el pergamino, un papel elaborado a partir de pieles animales curtidas. En China, en el siglo II a.C., se empezó a fabricar papel con restos de tejidos, como seda, algodón o cáñamo. El papel que conocemos en la actualidad, el que fabricamos a partir de madera, comenzó su andadura mucho más tarde, en el siglo XIX.
En todos estos soportes, la huella del tiempo nos resulta muy reconocible. Y es que, cuando el papel envejece, se vuelve amarillo, quebradizo y adquiere ese olor característico a libro antiguo. El envejecimiento se debe principalmente a un proceso de degradación química y, muchas veces, también a agentes bióticos como insectos y microorganismos[1].
El papel, desde mediados del siglo XIX, está constituido por tres componentes: fibras procedentes de la madera, carga y aditivos[2].
Las fibras procedentes de la madera están formadas por cadenas de celulosa. La celulosa es un polisacárido lineal, es decir, está formada por unidades de glucosa unidas una tras otra, como las cuentas de un collar. Entre las cadenas de celulosa se establecen enlaces débiles por puente de hidrógeno que las hacen impermeables al agua y dan lugar a las fibras compactas que componen la pared celular de las células vegetales.
Estas fibras se mantienen unidas entre sí por medio de un polímero denominado lignina que dota a la madera de suficiente rigidez como para que los troncos de los árboles se mantengan erguidos. La lignina es de color ocre, de ahí proviene en mayor medida la coloración de la madera. Al eliminar la lignina, la fibra de celulosa es blanca, por ese motivo se retira la mayor parte durante la fabricación del papel. La eliminación de la lignina se hace por adición de sustancias alcalinas en las que es soluble y por blanqueo por medio de adición de cloro, peróxidos, o sulfitos[3].
La lignina nunca se consigue eliminar completamente del papel y, esto es un problema ya que, de forma natural, ayudada por la presencia de luz y humedad, la lignina se termina oxidando y recuperando su coloración ocre original. Esta es la razón por la que el papel viejo es amarillo.
Este proceso está íntimamente conectado con la química de los radicales libres que intervienen en nuestro envejecimiento natural. Resulta evocador que los procesos químicos que intervienen en el proceso de envejecimiento del papel sean tan similares a los que ocurren en nuestra piel.
En el proceso de oxidación de la lignina también se producen compuestos aromáticos que mantienen cierta similitud con la vainilla, de ahí que el olor a libro antiguo nos resulte agradable.
Además de la fibra procedente de la madera, el papel lleva carga. Al igual que en pintura, la carga suele ser de minerales blancos como carbonato de calcio, caolín, mica, talco, sílice, yeso, o sulfato de bario[4]. Como la carga es más económica que la celulosa, disminuye el precio del papel. La carga rellena todos los vacíos existentes entre las fibras, con lo cual el papel adquiere una superficie uniforme, al mismo tiempo que se blanquea, reduce su transparencia y mejora las condiciones para la impresión. La blancura del papel, su brillo u opacidad, dependen del tipo de carga y de la finura del grano[3].
Además de la carga, el papel suele llevar aditivos que actúan como ligantes, tales como las colas (colágeno), el almidón, el látex o el alcohol polivinílico[3].
Algunos microorganismos también son capaces de degradar el papel, generalmente por hidrólisis u oxidación de la celulosa a través de enzimas como la celulasa, que ocasionan las manchas típicas del papel deteriorado. Son habituales los Aspergilus Niger (hongos) y los vibrios (bacterias) [1].
Hay insectos que también destruyen el papel, como las lepismas, las termitas y los anóbidos. Todos ellos se nutren de la parte orgánica del papel, es decir, de las fibras y de algunos ligantes. Así que, cuando los insectos y los microorganismos colonizan el papel por completo, el único rastro que dejan tras de sí es la carga, la fracción pétrea del papel.
Los soportes de nuestros antepasados fueron muros, por eso resulta sugerente que, cuando el papel envejece tanto que se pierde, lo que queda de él sea la piedra.
Fuentes:
[1] Conservación y restauración de materiales de archivo. Mª Carmen Sistach Anguera. Departament d’Història de l’Antiguetat de la Cultura Escrita. Universitat de València, 1990.
[2] Fibras papeleras. José A. García Hortal. Edicions UPC, 2007.
[3] Conservación y restauración de material cultural en archivos y bibliotecas. José Luis Villacañas Berlanga. Biblioteca Valenciana, 2002.
[4] Los materiales de pintura y su empleo en el arte. Max Doerner. Ed Reverté, 1998.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo El papel viejo es amarillo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La luz que irradia frena al Sol
La parte más externa del Sol rota más lentamente que su interior. Y eso es un misterio.
Ahora un grupo de investigadores acaba de publicar una posible explicación a ese fenómeno tras observarlo detenidamente en alta resolución. Se han fijado en las ondas que se mueven a través de las distintas capas del Sol y han llegado a la conclusión de que el “frenazo” se produce en los 70 km más externos. Sería debido a que los fotones que emite el Sol, la luz que irradia, le restan momento angular, disminuyendo la velocidad de rotación. Este efecto debería estar presente en todas las estrellas y ser mayor cuanto más grandes sean.
La velocidad de rotación del plasma que constituye el Sol varía con la latitud (más alta en el ecuador que en los polos) y con la distancia al núcleo. Las diferencias en velocidad entre el núcleo y la superficie se detectaron hace décadas pero hasta ahora no había una explicación convincente.
Para comprobar las velocidades de rotación en las distintas capas de la fotosfera semitransparente del Sol, de unos 500 km de espesor, los investigadores tomaron imágenes durante casi cuatro años de la estrella con diferentes filtros correspondientes a diferentes longitudes de onda, empleando el Observatorio de Dinámica Solar de la NASA. Los 150 km más externos pudieron medirse con una resolución de 10 km y los investigadores encontraron que la disminución de la rotación era perceptible en los últimos 70 km, que rotan un 5 % más lentos que el resto de la fotosfera..
Los investigadores también desarrollaron un modelo para explicar estos datos basado en la transferencia de momento angular. En el interior del Sol los fotones interaccionan tanto con el plasma que ganan tanto momento angular como pierden. Pero en la fotosfera, donde los fotones escapan al espacio, la transferencia de momento plasma-fotón resulta en una pérdida neta del momento angular del plasma. El resultado es un ligero frenazo del plasma, que frena la rotación de la fotosfera en su conjunto. Este frenazo es más eficaz en la capa más externa donde la densidad de plasma es menor. Los cálculos basados en este modelo se corresponden bastante bien con los datos observacionales.
Sin embargo, este efecto frenazo no parece que pueda afectar mucho al periodo de rotación del Sol. De hecho necesitaría muchas veces la edad del universo para cambiar la velocidad de rotación del núcleo de forma significativa. Eso sí, en estrellas más brillantes el efecto sería mucho mayor.
Referencia:
Ian Cunnyngham, Marcelo Emilio, Jeff Kuhn, Isabelle Scholl, and Rock Bush (2017) Poynting-Robertson-like Drag at the Sun’s Surface Phys. Rev. Lett. doi: 10.1103/PhysRevLett.118.051102
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La luz que irradia frena al Sol se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: