#Naukas16 Drogas y falsas promesas
Escuchar a Ohiana Iturbide hablar de adicción a la droga impresiona. No importa el número de veces que lo hayas hecho. En los diez minutos de esta charla el público presente no rio, no aplaudió, no tuiteó, no se movió. Solo guardó un atentísimo silencio.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Drogas y falsas promesas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El hidrógeno en el Universo (I): La emisión del hidrógeno neutro a 21 cm.
El hidrógeno es, con diferencia, el elemento químico más abundante del Universo. Creado durante los procesos que sucedieron al Big Bang, particularmente durante la recombinación de los núcleos atómicos (protones en su mayoría) con los electrones unos 380 mil años después del inicio del Cosmos, el hidrógeno es el “padre” del que provienen el resto de elementos químicos. La transformación del hidrógeno en otros elementos ocurre sobre todo dentro de las estrellas (por fusión termonuclear, por ejemplo formando núcleos de helio a partir del hidrógeno, que luego se fusiona en núcleos de oxígeno, silicio, azufre o hierro en las estrellas más masivas) o por la acción de éstas en sus alrededores (explosiones de supernova, que típicamente producen los elementos químicos más pesados que el hierro). Así, deberíamos esperar que los astrofísicos invirtieran gran parte de su esfuerzo en conocer dónde se encuentran las nubes de hidrógeno dentro de las galaxias y dentro de la estructura a gran escala del Cosmos, y qué características tienen.
Pero la cosa no es sencilla. Desgraciadamente los telescopios convencionales no pueden detectar el hidrógeno neutro y frío. Los átomos de hidrógeno sólo pueden emitir luz en los colores “visibles” cuando son excitados por radiación energética (particularmente emisión ultravioleta emitida por estrellas masivas, enanas blancas, y otros procesos violentos). Es así como “vemos” las nebulosas difusas de emisión, nubes gigantescas constituidas sobre todo de hidrógeno, como la Gran Nebulosa de Orión (Figura 1). El color rojizo que típicamente domina estas nubes de gas proviene de la emisión del hidrógeno ionizado (línea H-alpha). Pero, obviamente, este tipo de excitación del hidrógeno no ocurre en las frías profundidades del espacio, particularmente en el casi vacío espacio extragaláctico.
Sin embargo, se da la peculiaridad de que el hidrógeno neutro sí emite cierto tipo de luz. Esta radiación no ocurre en los “colores” que nosotros vemos sino en el dominio de las ondas de radio. La emisión del hidrógeno neutro en radio sucede como consecuencia de la transición atómica entre los dos niveles hiperfinos del estado fundamental del hidrógeno.
¿Qué quiere decir esto? La energía del átomo de hidrógeno, que consta de un protón y un electrón, es ligeramente diferente dependiendo si el espín (análogo al “giro”) del protón y del electrón están en la misma dirección (un poco más de energía) que en direcciones opuestas (un poco menos de energía). Un átomo de hidrógeno en el que el protón y el electrón tengan sus espines paralelos puede emitir un fotón (liberar energía) para pasar al estado en el que ambos espines apuntan en direcciones opuestas (Figura 2). Como la diferencia de energía es muy pequeña (5.9 x 10-6 eV), el fotón emitido tiene una frecuencia baja (1420.4 MHz) y, por tanto, una longitud de onda relativamente larga (21.1 cm).
A esta emisión en radio se la designa como “H I”, la emisión del hidrógeno atómico a 21 cm. No obstante es muy raro que ocurra en un átomo en concreto: la vida media del estado excitado es de unos 10 millones de años. Así, cuando en 1944 el astrónomo holandés Hendrik van de Hultz propuso por primera vez que se usaran radiotelescopios para captar la emisión del H I a 21 cm y así detectar nubes de gas hidrógeno en la Vía Láctea no muchos le hicieron caso. Pero, en realidad, como hay tal enorme cantidad de hidrógeno aún disponible en el Cosmos, la emisión a 21 cm del hidrógeno atómico es, en efecto, no sólo observable, sino fundamental para la Astrofísica contemporánea.
No fue hasta 1951 cuando los astrónomos Harold Ewen y Edward Purcell de la Universidad de Harvard (EE.UU.) detectaron por primera vez la emisión a 21 cm del hidrógeno atómico, que fue rápidamente corroborada por observaciones independientes desde Europa y Australia. En la actualidad, este tipo de observaciones son rutinarias y otorgan a los astrofísicos piezas claves a la hora de entender nuestro Universo.
Precisamente, una de las grandes ventajas que propiciaban las observaciones en la línea de 21 centímetros del hidrógeno atómico es que, al estar en el rango de las ondas de radio, la extinción de la luz por el polvo y gas interestelar es completamente despreciable. Esto no ocurre en “los colores que nosotros vemos” (el rango óptico del espectro electromagnético), que son fuertemente absorbidos por el polvo y el gas difuso. Así, las observaciones en HI a 21 centímetros permitieron por primera vez “ver” la Vía Láctea en su totalidad.
Fue así como, en 1952 y tras conseguir los primeros mapas de la Galaxia, se encontró que la Vía Láctea tiene una estructura espiral. En este punto hay que insistir en que las observaciones radioastronómicas en la línea de 21 cm no son imágenes, sino espectros. Es una línea de emisión más, y como tal no sólo su intensidad máxima (su brillo) sino también otras propiedades, como la anchura, la velocidad o un análisis de componentes, pueden estudiarse en detalle.
Las observaciones en H I permiten, por efecto Doppler, calcular las distancias a las galaxias o inferir a qué velocidad relativa se mueve el gas dentro de una galaxia. Y, en efecto, ha sido usando observaciones H I a 21 cm de otras galaxias (normalmente el gas es mucho más fácil de observar en las partes externas de las galaxias que las estrellas) como se confirmó definitivamente que las partes externas se movían extremadamente rápido contabilizando la cantidad de masa (estrellas, polvo y gas difuso incluyendo hidrógeno atómico) que contenían, necesitando la componente extra de un amplio pero homogéneo halo de materia oscura para poder mantener las galaxias como entidades estables.
El mapa más profundo de la Vía Láctea usando la emisión del hidrógeno atómico a 21 centímetros fue obtenido recientemente mediante la colaboración “HI4PI” (acrónimo de “H I 4π”), que usa datos obtenidos por dos de los radiotelescopios más potentes de la Tierra: el radiotelescopio Effelsberg (Alemania), de 100 metros de tamaño, y el famoso radiotelescopio de Parkes, ”The Dish”, (Australia), de 64 metros de tamaño (Figura 3). En esta proyección de todo el cielo, el plano de la Vía Láctea se encuentra en el ecuador, mientras que el centro de nuestra Galaxia corresponde al amasijo de gas brillante hacia la derecha.
La espectacular imagen del hidrógeno atómico de la Vía Láctea obtenida por la colaboración HI4PI (Figura 4) no sólo muestra la distribución de gas difuso (muy asimétrica) sino que codifica en colores la velocidad a la que se mueve dicho gas. Colores azules indican gas que se acerca al observador, mientras que los colores verdosos corresponden a gas que se aleja. Así se puede apreciar la misma rotación de la Vía Láctea, pero aparecen estructuras más complicadas: filamentos, burbujas, grumos, huecos, capas de gas, que narran la dinámica evolución de nuestra Galaxia. Muchos de los huecos, por ejemplo, corresponden a zonas liberadas de gas por explosiones de supernova. El mismo Sol se encuentra cerca de una de estas zonas irregulares, la Burbuja Local, que brilla particularmente en rayos X. La Burbuja Local, de al menos 300 años luz de tamaño. se originó hace poco tiempo (pocos millones de años, algunos estudios apuntan que incluso menos).
Por otro lado, la mayor densidad de gas corresponde precisamente a las regiones donde se están formando las estrellas. Las nebulosas de emisión aparecen justo en estas zonas donde el gas difuso está condensando para crear nuevos soles. Estas regiones de formación estelar se localizan sobre todo si se mira cerca del centro galáctico
Los colores de la imagen también muestran algo muy interesante: aparecen nubes de gas difusas en colores violetas y amarillos (altas velocidades). Estas “nubes de alta velocidad” corresponden a gas que está cayendo sobre la Vía Láctea (quizá por acreción de alguna galaxia enana) o es gas que ha sido expulsado del disco de nuestra Galaxia por las explosiones de supernovas. La más evidente de estas nubes de alta velocidad es la que corresponde a las galaxias enanas satélite de la Vía Láctea, las Nubes de Magallanes (abajo derecha, en colores naranjas). La imagen de la colaboración “HI4PI” permite distinguir que ambas galaxias enanas se encuentran dentro de esta gigantesca nube de hidrógeno neutro. Es más, permite apreciar su estructura alargada apuntando al centro de la Vía Láctea, además de muchas otras de sus características.
Las observaciones tanto de la Vía Láctea como de otras galaxias usando radioastronomía para “ver” la línea de 21 cm del hidrógeno atómico está proporcionando enorme información a los astrofísicos a la hora de entender la formación de las estrellas, la estructura de las galaxias, la interacción con su entorno, la evolución de las galaxias y la propia evolución del Universo. Sin embargo, quizá porque las imágenes en radioastronomía muchas veces no son atractivas para nuestros ojos (o, pensando mal, que la radioastronomía es el único rango espectral que la Agencia Espacial Estadounidense, NASA, no lidera), muchos de estos detalles no suelen conocerse por el público. En próximas entregas indagaremos en algunos de los sorprendentes detalles que, gracias a la radioastronomía y a la línea de H I a 21 cm, hemos conseguido arrancar al Universo.
Este post ha sido realizado por Ángel López-Sánchez (@El_lobo_rayado) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo El hidrógeno en el Universo (I): La emisión del hidrógeno neutro a 21 cm. se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 La fiesta de las moléculas
Los químicos, algunos, son frikis, pero muy frikis. Daniel Torregrosa es de estos últimos y nos trae una colección de moléculas bautizadas o sintetizadas por químicos frikis.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 La fiesta de las moléculas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ciencia y tecnología
Aunque se las suele confundir o al menos tratar por igual el objetivo de las ciencias y el de las tecnologías no es el mismo, y eso hace a la verdadera ciencia más resistente a interferencias de poderes externos de lo que pudiera parecer. Buena parte de los ataques a las ciencias en realidad lo que están rechazando es alguna determinada tecnología, o incluso decisiones que no son técnicas sino políticas y económicas. Por eso quizá convenga separar con claridad conceptos y campos de actuación, para delimitar las responsabilidades.
Las ciencias y las tecnologías se diferencian en su objetivo final, que es clara y contundentemente diferente. Las ciencias buscan comprender el universo y su funcionamiento; dilucidar las reglas, los procedimientos y sistemas que hacen que el cosmos exista tal y como es. Son descriptivas en el sentido de que contemplan los fenómenos existentes e intentan explicar sus mecanismos; todas sus intervenciones (experimentos) tienen por objeto ayudar al entendimiento, y por tanto en condiciones ideales las modificaciones que se introducen en el funcionamiento natural están reguladas y son mínimas. El resultado final de las ciencias son las teorías que explican qué hay ahí fuera y de qué manera funciona.
Las tecnologías, sin embargo, no describen el mundo, sino que lo modifican para adaptarlo a las necesidades humanas. Su objetivo no es entender el universo, sino moldearlo para hacerlo mejor para nosotros; el conocimiento que buscan y emplean tiene como objetivo su aplicación en este empeño, no el conocimiento mismo. Las tecnologías siempre son ‘para’ algo: crear vías de comunicación u otras obras públicas, curar enfermedades, extraer minerales, fabricar objetos. La finalidad es utilitaria, y la razón de su existencia es en última instancia mejorar la existencia de la Humanidad.
La relación entre ambos campos es íntima, retorcida y a veces mal entendida; la extensión de conceptos como ‘ciencia aplicada’ no hace más que complicarla todavía más. Las tecnologías emplean el conocimiento del universo generado por las ciencias para mejorar sus técnicas, mientras que la ciencia precisa echar mano de la tecnología más avanzada (y a veces impulsarla más allá de sus límites) para poder llevar a cabo sus experimentos. Hay veces que la investigación científica en una dirección concreta o en un campo específico es dirigida y favorecida para ayudar a resolver una cuestión tecnológica, como ocurre con la biología celular y la cura del cáncer. Otras veces nuevas tecnologías aparecen de pronto surgidas de avances científicos relativamente recónditos o incluso inesperados, como acaba de ocurrir con la ingeniería genética y el sistema CRISPR-Cas. Cuando se habla de ‘ciencia aplicada’ se mezclan conceptos y se diseñan actividades que están a medio camino entre ambas orillas.
Pero se trata de empeños diferentes con objetivos distintos, y mezclarlos conceptualmente tiene consecuencias que pueden ser graves. Porque si en la tecnología entra, por definición, la economía y por tanto la política, en ciencia no es así. Un chiste de ingenieros dice que a la pregunta ‘¿Esto se puede hacer?’ la respuesta siempre es: ‘Depende del presupuesto’, porque en cualquier ámbito tecnológico la clave para la toma de decisiones es la rentabilidad y el acceso a los recursos. En muchas ocasiones las discusiones sobre temas de tecnología no analizan la posibilidad de hacer algo, sino si la solución elegida es la mas conveniente, económica, interesante, rentable: no se discute si es o no posible, sino la conveniencia de hacerlo. No es una decisión sobre hechos, sino sobre política, y así es como debe ser.
El problema surge cuando las cuestiones políticas saltan desde las tecnologías a las ciencias y se intenta doblegar el conocimiento para adaptarlo a las necesidades de la conveniencia social. Se puede (se debe) discutir cuál es la mejor manera de poner límites al cambio climático, si una determinada decisión política será suficiente, o si no habrá otras tecnologías que puedan resolver el problema de modo más económico, ya que hablamos de una cuestión tecnológica (cambiar la realidad). Lo que no es razonable es negar la existencia del calentamiento global medido por la ciencia (describir la realidad). Es posible analizar si los actuales calendarios y sistemas de vacunación son los más eficientes para mantener a raya a las enfermedades contagiosas, pero para ello es absurdo afirmar que las vacunas tienen efectos secundarios que no se han descrito. La decisión política de usar o no usar Organismos Modificados Genéticamente para mejorar el rendimiento de la agricultura debe ser discutida en público para determinar si es la más conveniente o qué sacrificios y de quién estamos dispuestos a hacer para emplearla o no, pero sin usar en la discusión acusaciones infundadas y hechos falsos. La tecnología y en especial sus componentes económico y político siempre puede, y deben, discutirse con pasión, porque todas las decisiones de actuar sobre la naturaleza tienen costes además de beneficios y contrapesarlos es derecho y deber de una sociedad libre.
Lo que no quiere decir que los hechos, los datos, los conocimientos de la ciencia sobre el funcionamiento del universo sean maleables: la ciencia no cambia porque sus resultados sean inconvenientes para una postura política u otra. El planeta se calentará o no; las vacunas causarán autismo o no, y los OMGs serán dañinos o no, y a esa pregunta debe contestar la ciencia y su respuesta debe ser respetada. Después la tecnología determinará si podemos hacer algo para reducir las emisiones de CO2 y cómo, si es mejor vacunar a una edad u otra o si el mejor modo de acabar de una vez con el hambre en el mundo es usar OMGs o no, y la política asignar recursos económicos a la decisión que la sociedad tome. Pero partiendo de una descripción lo más certera posible de la realidad, es decir, de la mejor ciencia disponible. Porque si permitimos que la ideología o la rentabilidad determinen los hechos a partir de los cuales tomamos decisiones nos estaremos haciendo trampas al solitario, que es el modo más estúpido de autoengañarse que existe. Si confundimos la ciencia con la tecnología y ésta con la política no sólo nos irá mal en el futuro, sino que nos habremos merecido que nos pase.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo Ciencia y tecnología se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La fascinación del oro
Desde comienzos del año el oro está subiendo de precio forma sostenida. Eso es indicio de que la incertidumbre aumenta y los inversores buscan refugio en el metal amarillo. Increíblemente es su mera posesión lo que da tranquilidad financiera, aunque el oro no produzca intereses, ni dé nada que se pueda comer, su uso industrial sea limitado, y solo aparezca espectacularmente en naves y sondas espaciales como recubrimiento capaz de reflejar la radiación infrarroja. El oro fundamentalmente encarna la importancia que los humanos damos a los simbólico.
Y es que el oro es un metal raro. De entrada se puede encontrar en estado puro en la naturaleza, ya que hoy sabemos que no se combina con el oxígeno, por lo que es más difícil que entre a formar parte de compuestos como los que forman las rocas. No solo eso, encima es amarillo, brilla y mantiene ese brillo con el tiempo, coloración que no ocurre con ningún otro metal; el cobre es rojo, pero se oxida fácilmente. Por si esto fuese poco, el oro es maleable, por lo que se pueden hacer adornos complejos y fundirlo para hacer monedas. No es de extrañar la fascinación de los humanos con el metal noble desde tiempos inmemoriales.
Pero las maravillas del oro solo aumentan cuando intentamos comprender sus características.
De entrada, su color amarillo está íntimamente relacionado con la teoría de la relatividad de Einstein; son los llamados efectos relativistas debidos a las altísimas energías de los electrones en estos átomos. Estos mismos efectos son los que complican los cálculos teóricos de las propiedades electrónicas del oro. De hecho, los teóricos que se han dedicado durante décadas a intentar describir las características del metal desde primeros principios han encontrado muy difícil explicar las discrepancia entre sus predicciones y las observaciones experimentales. Ahora, un equipo de investigadores ha conseguido resolverlas con un nivel de precisión desconocido incorporando la existencia de interacciones “quíntuples” entre 5 electrones.
Calcular las propiedades electrónicas de un átomo nunca es fácil, especialmente para los átomos pesados en los que el elevado potencial de Coulomb implica que existen niveles de energías de los electrones para los que la teoría de la relatividad es de aplicación. En el caso del oro, los efectos relativistas son la causa de que exista un salto de energía más pequeño entre los orbitales (regiones en las que puede encontrarse un electrón en un átomo) 6s y 5d, lo que explica que el oro absorba las frecuencias más azules del espectro, y el resultado sea que refleje los tonos amarillo-rojizos.
Pero no todo es tan fácil de explicar. Los cálculos de la energía de ionización (la energía necesaria para arrancar un electrón del átomo) y la afinidad electrónica (la energía necesaria para incorporar un electrón) han resultado siempre en valores inferiores a los experimentales en decenas de mili-electrón-voltios, una discrepancia significativa, aunque no escandalosa.
El equipo que encabeza Lukas Pašteka, de la Universidad Massey (Nueva Zelanda), han conseguido realizar los cálculos más precisos conocidos hasta la fecha para el oro. Su modelo incorpora los efectos relativistas, las correlaciones entre electrones y la electrodinámica cuántica. Las correlaciones entre electrones incluyen todas las interacciones electrón-electrón que tienen lugar en un átomo que tiene 79 electrones.
Una de las principales novedades de este estudio está precisamente en que, a la hora de estudiar estas correlaciones se asumía que un electrón interaccionaba con otros 2, interacciones triples. Pašteka y sus colaboradores lo han ampliado a cuádruples y quíntuples. Al hacerlo así han reducido la discrepancia en las energías de ionización y la afinidad electrónica a tan solo unos pocos de milielectronvoltios, mejorando los resultados anteriores en 10 veces.
Esta metodología, que puede aplicarse a otros átomos pesados, es un indicio de hasta qué punto una creciente capacidad de cálculo nos puede permitir comprender mucho mejor el funcionamiento de la materia y poder predecir características en materiales que ahora son inimaginables.
Referencia:
L. F. Pašteka, E. Eliav, A. Borschevsky, U. Kaldor, and P. Schwerdtfeger (2017) Relativistic Coupled Cluster Calculations with Variational Quantum Electrodynamics Resolve the Discrepancy between Experiment and Theory Concerning the Electron Affinity and Ionization Potential of Gold Phys. Rev. Lett. doi: 10.1103/PhysRevLett.118.023002
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La fascinación del oro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Círculo vicioso
“Tomen un círculo, acarícienlo, y se hará un círculo vicioso.”
Eugène Ionesco, La cantante calva
Etienne Lécroart es un artista del cómic. Ya hablamos de uno de sus magníficos trabajos en Interpretando mensajes cifrados.
Es miembro, y uno de los pilares, del grupo OuBaPo (Ouvroir de Bande dessinée Potentielle, Obrador del Tebeo Potencial), que crea sus cómics obedeciendo determinadas trabas formales (muchas de ellas matemáticas), al igual que hace con sus textos el grupo OuLiPo.
Lécroart es un maestro del tebeo; basta con recorrer su trabajada página web para observar sus dotes creativas, sus grandes dosis de humor y sus sorprendentes juegos. Destacan los cómics en los que la lectura puede realizarse en horizontal, en vertical y oblicuamente, o en los que se puede progresar según la numeración de la página o en sentido inverso.
En mi opinión, Cercle Vicieux (Círculo vicioso) es una joya dentro de esta familia de tebeos. Es un enorme palíndromo, es decir, Cercle Vicieux puede leerse desde la primera viñeta hasta la última, o viceversa… y la historia narrada es exactamente la misma en cualquiera de los dos sentidos.
El tebeo tiene treinta páginas, con seis viñetas en cada una de ellas. La última viñeta de la página 15 (la número 90) es la que marca el punto de inflexión de este magnífico palíndromo: la imagen que aparece es simétrica respecto al eje vertical, y marca el centro de este enorme palíndromo.
A partir de esta viñeta central se observa que la casilla 91 (página 16) es la misma que la 89 (página 15), y se van comprobado sucesivamente estas identificaciones entre viñetas: 92 (página 16) = 88 (página 15), 93 (página 16) = 87 (página 15), …, 100 (página 17) = 80 (página 14),…, 179 (página 30) = 1 (página 1), hasta llegar a la casilla final, la 180 (página 30), que se reserva para la palabra FIN ¿o es el principio?
He puesto el signo de igualdad entre los números de las viñetas, para insistir en que son idénticas, tanto la imagen como el texto sobre ellas.
La historia trata de un sabio un tanto excéntrico y nervioso que trabaja en su laboratorio diseñando una máquina del tiempo. Le acompañan su paranoico asistente y su ingenua secretaria.
En las quince primeras páginas de Cercle Vicieux se habla de la máquina del tiempo, que el profesor y su ayudante no consiguen poner en marcha; quieren invertir el tiempo para salvar a la secretaria que ha sufrido un colapso. El nerviosismo y la desesperación son las claves en esta primera mitad del tebeo. Los mandos de la máquina envían mensajes extraños, uno de los interruptores de la máquina está apagado… Pero algo sucede de repente –exactamente en la viñeta 90, de las 180 de las que consta el tebeo–, algo que hace cambiar el ritmo y el tema de la trama.
En efecto, la acción de la viñeta central tiene lugar en una hora capicúa, son exactamente las 12h21…, y como se ha indicado, el cómic empieza a escribirse en sentido inverso. La desesperación lleva a la calma, la secretaria ‘resucita’, aparece la atracción entre el sabio y la mujer…
Insistimos en que Lécroart narra la segunda parte de la historia invirtiendo el sentido de las viñetas, pero sin ningún otro cambio, ni en las imágenes ni en los diálogos. El autor consigue crear una historia coherente, tanto en la primera parte como en la segunda, como en su conjunto: a partir de la página central se construye una trama diferente, ‘deshaciendo’ el camino trazado al ir recorriendo las viñetas en sentido inverso…
Si leyéramos la historia desde el final –casillas 179, 178, 177, etc.– comenzaríamos de nuevo la historia del sabio que dice desesperado a su secretaria que no consigue poner en marcha su máquina del tiempo… se trata, sin duda, de un auténtico Círculo Vicioso…
Referencias
- Etienne Lécroart, Cercle Vicieux, l’Association, 2000
-
Marta Macho Stadler, Cercle Vicieux, de Etienne Lécroart, DivulgaMAT, Literatura y Matemáticas, 2012
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Círculo vicioso se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 Tiene bigote, carga eléctrica y no lleva gafas
Mario Herrero Valea nos explica cómo se juega a un quién es quién muy particular.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Tiene bigote, carga eléctrica y no lleva gafas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El oscurecimiento de la alquimia
Todo hacía presagiar que Europa estaba lista para progresar rápidamente, pero no sería así para la química. El comienzo del siglo XIV supuso un estancamiento de 200 años en la alquimia europea, no así fuera del continente. ¿Por qué?
El siglo XIV comenzó con una serie de hambrunas que se llevaron por delante muchas vidas, pero lo realmente grave empezó en los años cuarenta del siglo: la peste bubónica, la muerte negra. En unas pocas décadas casi la mitad de la población de Europa murió. Las ciudades, especialmente vulnerables a la enfermedad contagiosa, fueron abandonadas. Los nuevos centros del saber y nuevas ideas tuvieron que cerrar sus puertas. El progreso se detuvo.
Como si esta locura no fuese suficiente, los gobernantes añadieron la suya propia: la guerra fue continua en el continente entre 1337 y 1453. Los principales protagonistas fueron los Plantegenet ingleses y los Valois franceses y la excusa la sucesión en el trono de Francia, pero los reinos cristianos de la península ibérica también se vieron involucrados en uno y otro bando. En esta llamada Guerra de los Cien Años, bandas de ingleses se dedicaron a rapiñar la campiña francesa, matando y violando, hasta que una muchacha iletrada, Juana de Arco, empujada por su misticismo, consiguió revitalizar el bando francés.
Esta guerra continental terminó derivando en Inglaterra en una guerra interna, la Guerra de las Rosas, entre 1455 y 1487. En la península ibérica la guerra continuó contra los moros hasta 1492.
Pero todos estos males y penurias no podían dejarse pasar sin explicación. La mente racionalizadora de los humanos, que no racional, echó mano de sus sesgos y encontró una base para tanto desastre: era el demonio y sus secuaces los que sembraban el mal y la destrucción en todos los territorios. Una población ya religiosa y supersticiosa se convirtió en aún más religiosa y supersticiosa en los siglos XIV y XV.
Formas extremas de penitencia, como la autoflagelación, se volvieron mucho más comunes. La Inquisición se estableció en Castilla para mantener a raya a herejes y conversos. La vida de un judío valía menos que la de una oveja y hubo estallidos de violencia generalizados. Especialmente relevante, quizás, sea el de 1391 en Castilla, Aragón y Navarra, consecuencia directa de la primera guerra civil castellana. El lema de uno de los grandes predicadores de la revuelta antijudía, Vicente Ferrer (santo de la Iglesia Católica), “bautismo o muerte”, se convertiría en la base de la política para con los no cristianos. El paroxismo llegó con la expulsión de los judíos de Castilla y Aragón en 1492.
La Europa cristiana se volcó en una guerra sin cuartel contra los paganos, las brujas, hechiceros, judíos, musulmanes y contra cualquiera que hiciese cualquier cosa fuera de las normas imperantes y las supersticiones anexas.
Fuera de los grupos étnicos, las mujeres fueron las que más sufrieron esta persecución. A las “brujas” se las cazó, torturó y ejecutó de las formas más salvajes, muchas veces durante campañas de limpieza. En muchas ocasiones las víctimas eran parteras y sanadoras, receptoras del conocimiento existente sobre medicina y química, pero se creía que aquellas personas con “poderes” para sanar tenían necesariamente que haber aprendido esos conocimientos de la boca del mismísimo Belcebú; y, si podían sanar, podían usar esos poderes para hacer daño.
El papa Juan XXII había prohibido la práctica alquímica fraudulenta en 1317 en el decreto Spondent Pariter. No es de extrañar que la alquimia optase por oscurecerse.
Los alquimistas europeos (serios, no los que se dedicaban a estafar) de esta época fueron extremadamente cautelosos, por tanto, y no muy dados ni a la imaginación ni a los experimentos espectaculares. Si bien se produjeron algunos manuscritos alquímicos, se dedicaron a recoger el conocimiento existente y, en todo caso, a adornar el lenguaje de tal manera que se volviese impenetrable salvo para el iniciado. El simbolismo y el misterio se convirtieron en un arma de defensa, más que una forma de guardar “el gran secreto”, que no era otra cosa que lo que ya circulaba libremente en siglos anteriores. Esta oscuridad servía también como cortina frente a las acusaciones de falta de ortodoxia. No te podían acusar de nada concreto si todo era interpretable…
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El oscurecimiento de la alquimia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Historias de la malaria: El árbol de la quina
Paludismo: Enfermedad febril producida por un protozoo, y trasmitida al hombre por la picadura de mosquitos anofeles. Del latín palus·, –adis “laguna”, “pantano” e –ismo.
Malaria: Del italiano “malaria”, de mal, malo, y aria, aire.
“Tomar una onza de la mejor corteza de los jesuitas, raíz de serpentaria de Virginia, corteza de naranja, de cada mitad una onza; agítelo todo junto, y guarde durante cinco o seis días en una botella de brandy, de ginebra de Holanda, o de cualquier otro licor; después separe el líquido limpio y tome un vaso de vino dos o tres veces al día.”
William Bucham en 1791, quizá la primera cita del gin-tonic.
En una revisión publicada en 2012, Christopher Murray y su equipo, de la Universidad de Washington, en Seattle, estudiaron la mortalidad global provocada por la malaria entre 1980 y 2010, o sea, en nuestra época. Fueron entre 1200000 y 2780000 al año los fallecidos por esta enfermedad, con un aumento de casi el 25% en tres décadas. Es una enfermedad, por tanto, de triste y apremiante actualidad. Pero el informe de la OMS para 2015 es más esperanzador y menciona 214 millones de enfermos y entre 236000 y 635000 fallecidos. Las cifras descienden un 48% entre 2000 y 2015.
El paludismo o malaria se ha definido como una enfermedad infecciosa provocada por protozoos del género Plasmodium que infectan los glóbulos rojos de la sangre y se transmiten por las picaduras de las hembras infectadas de varias especies de mosquitos del género Anopheles. La enfermedad se caracteriza por periodos intermitentes de fiebre alta provocados por la reproducción del protozoo. Además, la destrucción de los glóbulos rojos provoca anemia y debilidad general.
Según los últimos datos conocidos en la evolución de la malaria, la enfermedad apareció en África, en la región de Etiopía, en primates y pasó a nuestra especie y se desarrolló y extendió debido a la gran movilidad de nuestros antepasados. Desde el valle del Nilo llegó al Mediterráneo y, después, a Asia y, hacia el norte, a Europa. A América se cree que llegó con los españoles y, para principios del siglo XIX, ya estaba la malaria en todo el planeta.
Se describe en el papiro de Ebers, en el antiguo Egipto de hace casi 4000 años y también quedan pruebas documentales en China fechadas hace casi 6000 años, y en Mesopotamia y la India. Escriben y enseñan sobre la malaria Hipócrates, Herodoto y Homero en la Grecia clásica. Y en Roma era temida por las marismas y pantanos que rodeaban la ciudad imperial, estupendo criadero de mosquitos. Hace unas semanas se ha probado la presencia del plasmodio en los cadáveres de tres cementerios de las cercanías de Roma, enterrados entre los siglos I y III de nuestra era.
Entonces no conocían ni el protozoo que provoca la enfermedad ni sabían que los mosquitos la contagian, pero temían las miasmas, esos efluvios malignos que desprenden las aguas estancadas y que se consideraban la causa de las fiebres intermitentes y que, además, son la base del nombre en italiano para la enfermedad, “malaria”, compuesta de “mal” y “aria”, es decir, el “mal aire” que provoca las miasmas.
En los siglos XVII y XVIII era conocida y temida en todo el planeta. Por ejemplo, se escribió sobre ella en Gran Bretaña, con datos de fallecimientos, que ahora se han recuperado, en Escocia o en Inglaterra. También provocaba gran mortandad en países muy separados geográficamente como Holanda y España. En el resto de Europa, hasta los países escandinavos, la situación era la misma.
En nuestra Península solo en 1964 recibió España el certificado de la OMS de la erradicación del paludismo. Para ello se utilizaron todos los métodos conocidos: eliminación de los mosquitos, sobre todo desecando pantanos y con DDT, y eliminando el plasmodio de los portadores con la prescripción de la quinina y de drogas sintéticas anti-malaria.
Pero, como decía, en el siglo XVIII era una enfermedad muy extendida, sobre todo en Andalucía, Valencia, La Mancha, Cataluña, Baleares y Murcia. Hubo brotes fuertes en Aragón, Navarra y, sin confirmar, en las zonas orientales de Álava y Guipúzcoa. En toda la Península, la mortandad fue terrible en 1751, 1783 y 1802, en lo que ahora llamamos la Pequeña Edad del Hielo. No hay que olvidar que todos los lugares llamados “Fadura” o “Padura” vienen de “pantano” en latín y que también están en el origen del término “paludismo” para esta enfermedad. Todavía hace un siglo era un mal habitual y en el sur y el este de la península, con casi 2000 fallecidos en España por el paludismo en el año 1919, y con unos 200.000 enfermos en todo el país y por año.
En este ambiente, con las llamadas fiebres intermitentes sufridas desde siempre y sin tratamiento conocido, las buenas noticias llegaron desde América. Fue en 1635 cuando el jesuita Bernabé Cobo publicó su “Historia del Nuevo Mundo”, y allí escribía:
“En los términos de la ciudad de Loja, diócesis de Quito, nace cierta casta de árboles grandes que tienen la corteza como de canela, un poco más gruesa, y muy amarga, la cual, molida en polvo, se da a los que tienen calenturas y con sólo este remedio se quitan.”
Es la primera descripción escrita del árbol de la quina. Cobo añade que sus polvos ya son conocidos en Europa y que, incluso, se envían a Roma. Se conocían como el “polvo de los jesuitas”.
Unos años más tarde, en 1639, Felipe IV nombra al Conde de Chinchón, Luis Jerónimo Fernández de Bobadilla y Mendoza, Virrey del Perú. Dos meses después de la toma de posesión del Virrey en Lima, llegó su joven y bella esposa Doña Francisca Enríquez de Rivera. Pasaron los días y la joven Condesa cayó en unas fiebres intermitentes tercianas agotadoras.
El jesuita y confesor del Virrey, Diego Torres de Vásquez, le habló de los polvos que usaban los indios contra la fiebre. La Virreina, con unas pocas dosis de corteza de quina, curó rápidamente. Así, también se conocería a la quina como los “polvos de la condesa”. Hay que añadir que esta historia de la Condesa cada vez provoca más dudas entre los expertos en la historia del árbol de la quina.
Los primeros datos constatados de sus efectos sobre los enfermos de paludismo los escribió el médico sevillano Gaspar Caldera de Heredia en 1663. Se basa en los resultados que consiguió en enfermos sevillanos, hacia 1640, con la corteza que trajo del Perú Juan de la Vega, el médico del Virrey.
El primer informe científico sobre el árbol de la quina que llegó a Europa, con la descripción y los primeros esquemas, lo envió Charles-Marie de La Condamine. Se publicó en París en 1740. Recibió Linneo muestras y escritos de La Condamine y, con ellos, clasificó el árbol de la quina y le asignó el género Cinchona en 1742 y lo publicó en 1753, en honor de la bella y joven Condesa de Chinchón, con errata incluida y nunca corregida.
Durante años la única quina que llegaba a Europa la traían y distribuían los jesuitas según su criterio. Entraba por España y Roma y, poco después, llegó a Inglaterra y a Francia. Y ya en 1667, la quina estaba incluida en la farmacopea de Londres como medicamento oficial.
José Celestino Mutis nació en Cádiz en 1732 y murió al comienzo del siglo siguiente, en 1808, y en otro continente, en Santa Fé de Bogotá, en Colombia. Fue sacerdote, botánico, geógrafo, matemático, médico y profesor universitario. Ahora nos interesa como viajero, explorador y botánico por su relación con el árbol de la quina. Fue quien aclaró definitivamente la confusión entre varias especies de Cinchona y estableció cuales eran eficaces contra la malaria y cuales no la aliviaban.
La Real Expedición Botánica del Nuevo Reino de Granada, auspiciada por Carlos III y dirigida por Mutis, comenzó en 1783 y se prolongó por 30 años. El Herbario que se acumuló quedó depositado en el Real Jardín Botánico de Madrid. Como un resumen dedicado al árbol de la quina, Mutis escribió “El Arcano de la Quina”, que se publicó en 1828, después de la muerte del autor, aunque ya se conocía en Bogotá desde 1791.
En realidad, hasta que los botánicos europeos, como La Condamine, Linneo o Mutis, trabajaron en la clasificación de las especies del género Cinchona hubo mucha confusión con las muchas especies del árbol de la quina que, además, tenían en la corteza distintas concentraciones de quinina. Durante muchas décadas fue fácil engañar con lo que se conocía como “polvos de los jesuitas”.
De la corteza de quina se extrajo en 1820 el alcaloide quinina que era el compuesto que actuaba contra las fiebres. Lo consiguieron los químicos franceses Pierre Joseph Pelletier y Joseph Bienaimé Caventou. Este alcaloide fue durante más de un siglo el único alivio del paludismo.
A mediados del siglo XIX, y después de conspiraciones y aventuras, los holandeses consiguieron semillas del árbol de la quina y establecieron enormes plantaciones en sus colonias en Indonesia, sobre todo en la isla de Java.
Fueron naturalistas y exploradores, más bien espías industriales, como los ingleses Clements Markham y Charles Ledger o el holandés Justus Hasskarl, los que viajaron a los Andes en busca de ejemplares y semillas del árbol de la quina. Entre 1860 y 1870 consiguieron llevar las muestras a sus colonias y resembrar los árboles. Las consiguió el inglés Charles Ledger en Bolivia y las llevó a Londres. Ofreció su venta al gobierno inglés que no demostró gran interés en hacerse con ellas. Fue el cónsul de Holanda quien pagó por las plantas y las envió a su país. Fueron el origen de las plantaciones en Java a partir de 1852. En honor de Ledger, esta especie que crecía en Java se llamó Cinchona ledgeriana. De allí procedía la quina que las empresas farmacéuticas utilizaban para extraer la quinina que comercializaban en todo el mundo. El 90% del comercio mundial de la corteza y de la quinina, entre 1890 y 1940, venía de las colonias holandesas en Indonesia.
Con la quinina a su disposición, los médicos la recetaron y popularizaron en la lucha contra la malaria. Europa, entonces, pudo colonizar los países con malaria en Asia y África y construir sus imperios. En fin, que la toma de muestras para sembrar el árbol fuera de su área geográfica original fue, a medio plazo, una empresa colonial y, en definitiva, imperial. Se dio quinina en cantidades masivas a los ejércitos europeos en las colonias de África y en el sur y sudeste de Asia. Y, además, fue un gran negocio para las farmacéuticas.
La quinina no era agradable de tomar. Como la corteza original, era muy amarga y de un gusto muy desagradable. Desde que empezó a utilizarse se buscaron muchos trucos para hacer pasable aquel mejunje, por otra parte tan beneficioso y necesario. Estaba la mezcla de William Bucham, el bebedizo secreto del inglés Richard Talbor o, y ha llegado a nuestros días, la popular bebida victoriana, inventada en la India, y que conocemos como gin-tonic. La primera agua tónica, con quinina, se fabricó en 1858 y, ahora, tiene mucha menos quinina, más o menos una décima parte que la necesaria como dosis terapéutica para aliviar la enfermedad.
Así ocurrió hasta 1940, cuando comenzó la Segunda Guerra Mundial y los japoneses conquistaron Java y sus plantaciones de quina. De inmediato, los aliados se quedaron sin quinina y padeciendo la malaria en muchas de las zonas de combate. Desde siempre la malaria suponía uno de los mayores riesgos para los ejércitos en guerra. Por ello, su utilización en la medicina militar cambió el curso de la historia. Es lo que intentaron los japoneses en 1940. El uso más antiguo que se conoce del uso de la quina en guerra fue en el sitio de Belgrado en 1717.
Estados Unidos promovió plantaciones del árbol de la quina en Centro y Sudamérica pero fueron las compañías farmacéuticas las que fabricaron en cantidad suficiente drogas sintéticas anti-malaria. Para el ejército de Estados Unidos, solo el Proyecto Manhattan de desarrollo de la bomba atómica superó las prioridades de la investigación y fabricación de drogas sintéticas anti-malaria. Fueron la atebrina o la cloroquina los fármacos que sustituyeron, en parte pues se seguía y sigue utilizando, 400 años después de su descubrimiento por la ciencia europea, la quinina.
Solo ha aparecido una débil resistencia del protozoo a la quinina en áreas geográficas muy concretas. Se han propuesto tres hipótesis para explicar la eficacia de la quinina durante tanto tiempo. En primer lugar, que el blanco de la acción anti-plasmodio sea tan específico que la mutación que lo anula aparece muy raramente. O que las cepas actuales del plasmodio sean otras que las conocidas en los siglos anteriores y, quizá, la resistencia sea diferente. Y, finalmente, que la quinina no se haya utilizado en tanta cantidad y el tiempo suficiente como para crear resistencia en el plasmodio, todo ello a pesar de lo que nos pueda parecer después de cuatro siglos.
La quinina es uno de los mayores candidatos a ser el medicamento que ha aliviado de sus sufrimientos a más personas en la historia de nuestra especie. Sabemos que destruye al Plasmodium dentro de los glóbulos rojos pero, todavía, se desconoce el mecanismo.
Referencias:
Achan, J. et al. 2011. Quinine, an old anti-malarial drug in a modern world: role in the treatment of malaria. Malaria Journal 10: 144.
Amaya, J.A. 1986. Mutis. Ed. Debate. Madrid. 77 pp.
Balduque Álvarez, A. 2009. Los polvos de la condesa. Historia del paludismo en Madrid. Blog Escritores en Red. 2 septiembre.
Bayliss, J.H. 1985. Epidemiological considerations of the history of indigenous malaria in Britain. Endeavour 9: 191-194.
Bruce-Chwatt, L.J. 1988. Cinchona and its alcaloids: 350 years. New York State Journal of Medicine June: 318-322.
Castejón Porcel, G. 2015. Paludismo en España en los siglos XVIII-XIX: Distribución espacial y erradicación. En “Análisis espacial y representación geográfica: innovación y aplicación”, p. 69-78. Ed. por J. de la Riva et al. Universidad de Zaragoza.
De Buen, S. 1922. El paludismo en el campo. Calpe. Madrid. 32 pp.
Earle, D.P. 1979. A history of malaria and its ironies. Transactions of the American Clinical and Climatological Association 90: 1-26.
Goss, A. 2013. Building the world’s supply of quinine: Dutch colonialism and the origins of a global pharmaceutical industry. Endeavour 38: 8-18.
Granjel, L.S. 1978. La medicina española del siglo XVII. Universidad de Salamanca. 252 pp.
Greenwood, D. 1992. The quinine connection. Journal of Antimicrobial Chemotherapy 30: 417-427.
Klein, W. & T. Pieters. 2016. The hidden history of a famous drug: Tracing the medical and public acculturation of Peruvian bark in early modern western Europe (c. 1650-1720). Journal of the History of Medicine and Allied Sciences doi: 10.1093/jhmas/jrw004
La Condamine, C.M. de. 1738 (1740). Sur l’arbre du quinquina. Memoires de l’Academie Royale 226-243.
López Piñero, J.M. et al. 1976. Materiales para la historia de las ciencias en España: s. XVI-XVII. Pre-textos. Valencia. 314 pp.
Marciniak, S. et al. 2016. Plasmodium falciparum malaria in 1st-2nd century CE Southern Italy. Current Biology 26: R1220
Meshnick, S.R. 1997. Why does quinine still work after 350 years of use? Parasitology Today 13: 89-90.
Murray, C.J.L. et al. 2012. Global malaria mortality between 1980 and 2010: a systematic analysis. The Lancet 379: 413-431.
Neghina, R. et al. 2010. Malaria, a journey in time: In search of the lost myths and forgotten stories. American Journal of the Medical Sciences 340: 492-498.
OMS. 2016. Informe mundial 2015 sobre el paludismo. Resumen. Ginebra. 32 pp.
Ortiz Crespo, F.I: 1994. La Cinchona antes y después del Virreinato del Conde de Chinchón. Interciencia 19: 130-136.
Pagès, F. 1953. Le paludisme. P.U.F. Paris. 114 pp.
Philip, K. 1999. Global botanical networks, political economy, and environmentalist doscourses in Cinchona transplantation to British India. Revue française d’histoire d’outre-mer 86: 119-142.
Puente Veloso, S. 1985. Historia de las quinas de Nueva Granada. Anales de la Real Academia Nacional de Medicina 102: 305-335.
Riera, J. 1984. Fiebres y paludismo en la España ilustrada. Universidad de Valladolid. 75 pp.
Schlagenhauf, P. 2004. Malaria from prehistory to present. Infectous Disease Clinics of North America 18: 189-205.
Shanks, G.D. 2016. Historical review: Problematic malaria prophylaxis with quinina. American Journal of Tropical Medicine and Hygiene 95: 269-272.
Sorní Esteva, J. 1991. El quino, la quina y la quinina. Crónica Filatélica 79: 91-93.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Historias de la malaria: El árbol de la quina se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los bimbaches de Punta Azul (El Hierro)
El Hierro es el verdadero finis terrae de España, un territorio donde el aislamiento marca a sus habitantes desde hace siglos, incluso desde los tiempos de sus primeros pobladores, cuyo ADN sugiere que descienden de la primera oleada de bereberes que se aventuró a colonizar Canarias.
Las investigadoras Concepción de la Rua Vaca y Montse Hervella Afonso del Departamento de Genética, Antropología Física y Fisiología Animal de la Facultad de Ciencia y Tecnología de la UPV/EHU, junto con las investigadoras Alejandra C. Ordoñez, Rosa Irene Fregel, A. Trujillo-Mederos, y Matilde Arnay de la Rosa de la Universidad de la Laguna, han publicado en Journal of Archaeological Science un estudio genético de los antiguos bimbaches, a partir del análisis del ADN de 61 de las 127 personas enterradas en la cueva de Punta Azul, un yacimiento del siglo XII.
Sus conclusiones no solo corroboran los lazos genéticos que unen a los aborígenes canarios con las poblaciones bereberes del norte de África -algo ya apuntado por varios estudios-, sino que sugieren que El Hierro se pobló en tiempos antiguos de una sola vez, por un grupo humano que probablemente no volvió a tener contactos con el exterior casi hasta la llegada de los primeros conquistadores europeos.
El trabajo recuerda que Canarias es el único archipiélago de la Macaronesia (región que incluye también a Madeira, Azores y Cabo Verde) que fue habitado antes de la llegada de los colonos europeos, en tiempos que se remontan a mediados del primer milenio antes de Cristo en el caso de Tenerife (época a la que pertenece la datación de carbono 14 más antigua) y al siglo I de la era moderna para el resto de islas.
Los estudios genéticos que se han publicado hasta la fecha indican que Canarias fue poblada en al menos dos oleadas del norte de África que luego se quedaron aisladas del resto del mundo en buena parte de los casos hasta la llegada de los españoles, portugueses y normandos en el siglo XV, incluso sin apenas contacto entre islas, como relatan las crónicas europeas de la conquista.
Organización matriarcal de los aborígenes canarios
Los análisis de ADN realizados por los investigadores de la UPV/EHU y de La Laguna indican que todos los individuos enterrados en la cueva de Punta Azul (al menos los 61 analizados) comparten un mismo linaje en el ADN mitocondrial; o lo que es lo mismo, tienen un ancestro materno común, algo que los autores atribuyen a la organización matriarcal descrita entre los aborígenes canarios.
Y se trata de un linaje considerado “fundador”, ya que está presente en toda la población actual de Canarias (con una incidencia global del 1,8%) y se ha encontrado también en los aborígenes antiguos de Tenerife, La Palma y La Gomera.
El trabajo revela asimismo, esta vez a través del cromosoma Y, que la gran mayoría de esos individuos proceden de dos linajes paternos: uno autóctono del norte de África (halogrupo E-M81) y otro de raíces europeas, pero también presente desde hace siglos en el norte de África (R-M29), aunque también hay un individuo con marcadores originarios del África Subsahariana (E-M33).
Para ahondar más en el código genético de los bimbaches de Punta Azul, los investigadores también han analizado los marcadores STR (pequeñas secuencias que se repiten en el ADN y que permiten establecer parentescos), con un resultado que apunta en la misma línea: esas personas no tienen diferencias genéticas significativas con los antiguos bereberes.
Dificultad para llegar a la isla
“Probablemente, a El Hierro le alcanzó la primera oleada migratoria y luego se quedó aislada. Esta hipótesis concuerda con la dificultad que existe para llegar a la isla”, escriben los autores, que recuerdan que se trata de la isla más meridional de Canarias y la más alejada de la costa de África, con unas condiciones de vientos y corrientes que hacen complejo navegar hasta ella.
El artículo subraya que el aislamiento “ha marcado el comportamiento de los herreños durante toda su historia” y que los bimbaches tuvieron que enfrentarse al llegar a la isla a duras condiciones naturales que probablemente les llevaron “un cuello de botella”, aunque su ADN no muestra signos que indiquen que tuvieran problemas de endogamia.
Referencia:
A. C. Ordoñez, R. Fregel, A. Trujillo-Mederos, M. Hervella, C. de-la-Rúa, M. Arnay-de-la-Rosa, Genetic studies on the prehispanic population buried in Punta Azul cave (El Hierro, Canary Islands) Journal of Archaeological Science 78 (2017) 20e28. doi: 10.1016/j.jas.2016.11.004
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Los bimbaches de Punta Azul (El Hierro) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:“Laboratorium”, el museo del Real Seminario de Bergara
Tras largos años de investigar, clasificar, conservar y restaurar una antigua colección de objetos científicos, en septiembre de 2015 se inauguró el Museo Laboratorium, en Bergara (Gipuzkoa, País Vasco). El objetivo fundamental del museo es difundir la importancia de la innovación, la ciencia y la educación como base para el avance y el desarrollo. ¿Por qué este nuevo museo? Porque Bergara fue la sede del Real Seminario, una institución única en el País Vasco cuya excelente trayectoria histórico-científica y cuya colección científica constituyen la base del nuevo proyecto. ¿Conoces el Real Seminario? ¿Y sus colecciones?
El Real Seminario (en su origen Real Seminario Patriótico Bascongado) constituye la cuna de la ciencia en el País Vasco. Fundado en 1776 por la Real Sociedad Bascongada de Amigos del País, sus primeros años resultaron espectaculares. El químico francés L.J. Proust (uno de los fundadores de la química moderna, recordado por haber propuesto la ley de las proporciones definidas) fue profesor en el Seminario y montó el excelente Laboratorium chemicum del centro. En sus instalaciones, los hermanos Elhuyar descubrieron en 1783 un nuevo elemento químico, el wolframio; y aquí también se encontró el método para lograr la maleabilidad del platino, lo que permitió el uso del valioso metal. En el siglo XIX, aunque muy condicionado por las guerras, el centro mantuvo su importancia. Se convirtió en Escuela Industrial para la formación de ingenieros (primera en el País Vasco), y durante años fue el único instituto existente en Gipuzkoa. Su infraestructura científica seguía siendo de primer orden: laboratorios de Química, gabinetes de Física, jardín botánico, colecciones de zoología, observatorio meteorológico.
Los rectores del Real Seminario, en el período 1776-1892 sobre todo, acudieron a los principales productores y comercios europeos de equipamiento científico a adquirir el material necesario para equipar las instalaciones de Bergara. Reunieron gran cantidad de utensilios científicos modernos y de calidad, para hacer e impartir ciencia. Ese es el origen de los objetos científicos que constituyen la base de la colección del museo.
Se trata de una colección única en el País Vasco, tanto por la relevancia histórico-científica de la institución que la creó, como por la riqueza de las distintas secciones científicas que la componen, por su antigüedad, y por albergar piezas únicas y extraordinarias. La colección está compuesta hoy por tres mil objetos científicos, entre instrumental de Física, de Química, minerales, fósiles, modelos de anatomía humana y ejemplares de zoología; la mayoría de ellos del siglo XVIII y sobre todo del XIX.
Puedes conocer con mayor detalle la historia del Real Seminario y parte de sus colecciones en la sede del museo, en el palacio de Errekalde de Bergara. Este palacio está estrechamente vinculado a los inicios de la ciencia en el País Vasco, ya que a finales del siglo XVIII residió en él Xabier María Munibe, VIII Conde de Peñaflorida, quien fuera durante años director del Seminario en la época de la Ilustración. Te aseguramos que la visita merece la pena.
Pero la actividad del museo Laboratorium no se va a limitar solamente a la colección expuesta. Ni mucho menos. Actualmente está ya muy extendido el concepto de la “Nueva Museología”, corriente museológica en la que se incluye este museo. La clave de esta nueva museología está en ampliar los parámetros del museo tradicional, democratizándolo; es decir, cuando pasamos del museo tradicional al museo nuevo, sin limitarnos a las colecciones del museo, nos adentramos en el Mundo del Patrimonio (patrimonio cultural y natural); sin olvidar al público que acude al museo, tomamos como eje a la sociedad, a la comunidad; sin menosprecio del edificio del museo, nos expandimos hacia el territorio.
Y en esa expansión, surgió la generosa oferta de la Cátedra de Cultura Científica de la UPV/EHU para que este Cuaderno sea una de las ventanas del Laboratorium. A través de la misma, partiendo del Real Seminario de Bergara como eje, vamos a contar historias sobre la ciencia y la sociedad, historias que ocurrieron en los siglos XVIII y XIX, y que esperamos compartir contigo.
Autor: Equipo técnico del museo Laboratorium
Museo Laboratorium. Palacio Errekalde, Juan Irazabal s/n, 20570 Bergara
Contacto: 943 769 003; laboratorium@bergara.eus.
El artículo “Laboratorium”, el museo del Real Seminario de Bergara se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 Pianos, torpedos y lo inesperado
Beatriz Sevilla , aunque no lo parezca al comienzo, narra, cual moderna trobairitz, la historia sin par de Hedy Lamarr.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Pianos, torpedos y lo inesperado se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:25 años de planetas extrasolares
Esta semana se han cumplido 25 años de la publicación en la revista Nature del artículo A planetary system around the millisecond pulsar PSR1257 + 12 (Un sistema planetario alrededor del púlsar de milisegundo PSR1257 + 12) por A. Wolszczan y D. A. Frail. En su resumen decía esto:
Los púlsares de radio de milisegundo, que son viejas (~109 años) estrellas de neutrones en rápida rotación aceleradas por acrecimiento de materia de sus compañeras estelares, se encuentran por lo general en sistemas binarios junto con otras estrellas degeneradas.
Usando el radiotelescopio de Arecibo para hacer mediciones precisas de los pulsos del recientemente descubierto púlsar de 6,2 milisegundos PSR1257+12 demostramos que, en lugar de estar asociado con un objeto estelar, el púlsar es orbitado por dos o más cuerpos del tamaño de un planeta.
Los planetas detectados hasta el momento tienen masas de por lo menos 2,8 M☉ y 3,4 M☉, donde M☉ es la masa de la Tierra. Sus distancias respectivas al púlsar son de 0,47 ua y 0,36 ua, y se mueven en órbitas casi circulares con periodos de 98,2 y 66,6 días. Las observaciones indican que puede haber al menos otro planeta en este sistema.
La detección de un sistema planetario alrededor de una estrella vieja y cercana (~500 pc), junto con el reciente informe acerca de un compañero planetario del púlsar PSR1829–10 plantea la posibilidad de que una fracción no despreciable de las estrellas de neutrones observables como púlsares de radio puedan tener cuerpos similares a planetas en órbita alrededor de ellas.
Los planetas a los que se referían Wolszczan y Frail en su artículo, conocidos hoy como Phobetor y Poltergeist, son los dos primeros planetas extrasolares de cuya existencia tuvimos confirmación, aunque hacía cientos de años que sospechábamos que, dado lo enorme que es el universo, tenía que haber planetas más allá de nuestro sistema solar. La existencia del tercer planeta cuya existencia insinúan, recientemente bautizado como Draugr, fue confirmada en 1994.
La última frase del resumen del artículo, además, ha resultado ser profética, ya que desde la publicación de ese histórico trabajo hemos descubierto unos 3.500 planetas extrasolares más, aunque en órbita alrededor de todo tipo de estrellas, no sólo de púlsares, Alfa Centauri, la más próxima a nosotros, incluída. Y hay otros miles esperando observaciones adicionales que confirmen –o no– su existencia, ya que detectar exoplanetas es un proceso muy delicado. De hecho a Phobetor y Poltergeist les podía haber quitado el puesto HD 114762 b, un planeta extrasolar que fue descubierto en 1989, de no ser porque su existencia no fue confirmada hasta muy recientemente, ya que había serias dudas de que no se tratara de una enana marrón.
En cualquier caso lo que ha quedado claro una vez que hemos sido capaces de comprobar que en efecto hay planetas más allá del sistema solar, y es que hay un número enorme de estrellas con planetas. Hay estimaciones que hablan de la enorme cifra 160.000 millones de planetas extrasolares sin salir de nuestra galaxia. De ellos unos 17.000 millones son de tamaño similar al nuestro.
Muchos de los exoplanetas cuya existencia hemos podido confirmar son además mucho más extraños de lo que podíamos haber imaginado: desde planetas con tres soles a planetas en los que llueven rocas a planetas que son un gran diamante, por citar algunos casos. Y por si eso fuera poco algunos de ellos han venido a poner en duda muchas ideas que teníamos acerca de cómo se forman los sistemas planetarios… pero es que a fin de cuentas sólo conocíamos un sistema solar.
La más que aparente abundancia de planetas extrasolares hace además que sea inevitable plantearse la posibilidad de que haya vida más allá de nuestra pequeña esquina del universo, algo que apoya el hecho de que cada vez vamos encontrando más planetas extrasolares potencialmente habitables. Y eso que de nuevo sólo manejamos un ejemplo de lo que es la vida, así que no sería de extrañar que nos estuviéramos confundiendo a la hora de estimar qué planetas extrasolares son potencialmente habitables.
Pero en cualquier caso lo que parece claro es que si no existiera vida más allá de la Tierra, y parafraseando la doctora Ellie Arroway, la protagonista de Contact, el universo sería un enorme desperdicio de espacio.
De planetas extrasolares y del origen de la vida en la Tierra –o puede que más allá– hablaremos, entre otras cosas, en Naukas Coruña 2017, que se celebrará el próximo 25 de febrero bajo el título La vida, el universo y todo lo demás.
Este post ha sido realizado por Javier Pedreira (@Wicho) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo 25 años de planetas extrasolares se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 Alucinaciones lingüísticas: los engaños de tu lengua materna
Nuestra lengua materna nos hace alucinar. Literalmente. Idoia Ros nos los explica.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Alucinaciones lingüísticas: los engaños de tu lengua materna se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:NASA, ¿cuándo vas a llevarnos a Venus en un barco (o en lo que sea)?
Decía Mecano que nunca hemos ido a Venus en un barco, y tenía razón. Pero sí que fuimos varias veces vez a bordo de naves espaciales (no tripuladas, lo de “fuimos” es una forma de hablar). La última vez nos llevó la sonda Magallanes. La misión partió de la Tierra en 1989 y orbitó en torno a nuestro planeta vecino hasta 1994, cuando terminó su tarea y se precipitó hacia su superficie, desintegrándose parcialmente por el camino.
La semana pasada la NASA anunciaba cuáles serían sus próximas misiones de exploración del sistema solar: la sonda espacial Lucy será lanzada en octubre de 2021 y explorará seis asteroides de los alrededores de Júpiter de 2027 a 2033, mientras que Psyche, cuyo lanzamiento está programado para octubre de 2023, visitará en la misma zona un asteroide metálico llamado Psyche 16.
Los dos proyectos han sido seleccionados entre los cinco que pasaron el corte final en 2015. Entre los tres descartados había uno que proponía volver a Venus. Se llamaba Investigación de los Gases Nobles, la Química y las Imágenes de la Atmósfera Profunda de Venus (lo que en inglés daba como resultado el poético nombre DAVINCI porque a la NASA, a marketing, no le gana nadie), y su objetivo era justamente ese: estudiar la composición química de la atmósfera venusiana durante un descenso de 63 minutos para responder preguntas como si quedan volcanes activos en Venus o cómo interacciona la atmósfera con la superficie del planeta.
Otra vez será, queridos astrónomos especializados en Venus. Unos astrónomos, por cierto, que empiezan a mosquearse porque opinan que la NASA se ha olvidado de ‘su’ planeta. Ni una sola misión ni plan de exploración en casi 30 años, tres décadas en las que se ha intensificado el estudio del sistema solar, años en los que por visitar, hemos visitado hasta el lejanísimo Plutón. Y para Venus, ni una triste sonda, ni una pequeñita.
La sonda Messenger retrató así a Venus en su camnio hacia Mercurio¿Por qué deberíamos viajar a Venus?
Porque Venus es considerado por los científicos como un planeta hermano de la Tierra. Es el anterior en orden tras el nuestro partiendo desde el Sol, es rocoso y de tamaño similar. Además, se cree que se formó a partir de los mismos materiales y aproximadamente en el mismo momento que la Tierra.
Pero las similitudes terminan ahí, porque el ambiente en la superficie venusiana no tiene nada que ver con el que experimentamos en la Tierra: la presión es 90 veces superior, la temperatura media supera los 400 grados a causa de que la atmósfera está compuesta principalmente por gases de efecto invernadero, como el dióxido de carbono. A causa de la temperatura, no existe agua líquida en su superficie.
Para terminar de dibujar esta especie de Tierra extraña, en Venus el día dura 243 días terrestres, lo que lo convierte en el periodo de rotación más largo del sistema solar, y además gira en el sentido contrario al que lo hacen los demás planetas: en un día en Venus el sol sale por el Oeste y se esconde por el Este.
Por todos estos motivos, Venus se considera un lugar incompatible con cualquier forma de vida conocida… Y sin embargo, algunos astrónomos creen que una vez albergó océanos como los nuestros y ser habitable.
Imagen de la superficie de Venus compuesta a partir de las imágenes captadas por la sonda MagallanesPero en algún momento, su evolución y la de la Tierra siguieron caminos diferentes. Ambos planetas contienen la misma cantidad de dióxido de carbono, pero en la Tierra las placas tectónicas, los océanos y los seres vivos contribuyen a extraer la mayor parte de la atmósfera, dejando en ella solo una pequeña cantidad, suficiente para retener parte del calor del Sol.
En Venus, el calor que impide la presencia de agua líquida y la intensa actividad volcánica causaron que todo el CO2 fuese liberado a la atmósfera, aumentando la temperatura aún más, hasta dar forma al infierno tóxico que hoy conocemos.
¿Qué pasó exactamente para que dos planetas que en principio fueron similares hayan terminado teniendo características tan distintas? Es una pregunta que los científicos se hacen sin conocer todavía la respuesta. Obtenerla no solo aumentaría nuestro conocimiento sobre el sistema solar y su evolución, sino que nos ayudaría a entender cómo los cambios en la atmósfera afectan a la superficie y al revés. Y seamos sinceros, es algo que nos vendría muy bien saber.
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista en El Confidencial
El artículo NASA, ¿cuándo vas a llevarnos a Venus en un barco (o en lo que sea)? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La estructura 3D de la cota de malla invierte el efecto Hall
Estructura básica de la cota de malla
Inventada por los celtas probablemente en el siglo V antes de la era común, la cota de malla, una armadura metálica formada por anillos de hierro forjado unidos entre sí, fue usada por los romanos, durante toda la Edad Media y hasta entrado el siglo XVI como forma de protección contra los objetos punzantes. El patrón básico que la forma, donde un anillo está unido a cuatro, forma geometrías más complejas que dan lugar hoy a metamateriales con propiedades muy exóticas.
En 1879 Edwin Hall descubrió que en un conductor por el que circula una corriente eléctrica en presencia de un potente campo magnético perpendicular aparece otra corriente eléctrica perpendicular tanto a la corriente original como al campo magnético. La potencia de esta corriente es proporcional tanto a la densidad de la corriente original como a la del campo magnético. La constante de proporcionalidad se llama coeficiente de Hall.
Ahora, un equipo de investigadores del Instituto de Tecnología de Karlsruhe coordinado por Martin Wegener ha desarrollado un nuevo metamaterial con geometría de cota de malla en el que el hecho de adoptar esa geometría cambia el signo del coeficiente de Hall del material con el que está formada.
.
El efecto Hall es la base de los sensores magnéticos que emplean, por ejemplo, las brújulas de los teléfonos inteligentes. La mayoría de los sólidos, en los que la corriente la transportan los electrones, tienen un coeficiente de Hall negativo; el coeficiente es positivo solo en el caso de que la corriente fluya en forma de agujeros (lugares en los que no hay un electrón), como ocurre en los semiconductores del tipo p. En 2015 el grupo de Wegener propuso un diseño de metamaterial en el que el coeficiente sería positivo aunque los elementos estructurales tuviesen un coeficiente negativo. Cada punto en la celdilla unidad en la estructura de este material sería un toro (anillo) semiconductor hueco, y la celdilla unidad sería la misma que la de la cota de malla.
Lo que ahora han hecho los investigadores es llevar a cabo su idea fabricando un andamio polimérico en 3D al que han recubierto de óxido de zinc. Una vez construido han medido el coeficiente de Hall para estructuras con varias distancias entre los toros, demostrando que el signo del coeficiente depende de esta distancia.
Este metamaterial podría usarse para construir nuevos sensores magnéticos que contengan elementos con coeficientes de Hall tanto positivos como negativos y que podrían por tanto detectar gradientes o vórtices en un campo magnético.
Referencia:
Christian Kern, Muamer Kadic, and Martin Wegener (2017) Experimental Evidence for Sign Reversal of the Hall Coefficient in Three-Dimensional Metamaterials Phys. Rev. Lett. doi: 10.1103/PhysRevLett.118.016601
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La estructura 3D de la cota de malla invierte el efecto Hall se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Criptografía con matrices, el cifrado de Hill
Hace no mucho tiempo me encontraba yo buscando un ejemplo sencillo de aplicación de las transformaciones lineales que me permitiera explicarlas de una forma práctica e interesante, cuando descubrí el cifrado de Hill.
No es la primera vez que en la sección Matemoción del Cuaderno de Cultura Científica hablamos de criptografía. En la entrada Códigos secretos en la primera guerra mundial ya repasamos algunos de los métodos de encriptación clásicos, como son el cifrado de César, el atbash hebreo, el cifrado francmasón, el cifrado de Polibio, el método de Francis Bacon, el cifrado Vigenère y la cifra ADFGVX.
“La matriz rusa, multiplicación de una matriz por una matriz columna”, del artista franco-ruso Paul Kichilov
El cifrado de Hill fue inventado, basándose en el álgebra lineal, por el matemático norteamericano Lester S. Hill en 1929, y aparece explicado en su artículo Cryptography in an Algebraic Alphabet, publicado en The American Mathematical Monthly.
Es un sistema criptográfico de sustitución polialfabético, es decir, un mismo signo, en este caso una misma letra, puede ser representado en un mismo mensaje con más de un carácter. Así, en el ejemplo que vamos a analizar a continuación, la letra A del mensaje original aparece representada en el mensaje codificado de tres formas distintas, como C, K e I.
Expliquemos en qué consiste el cifrado de Hill. En primer lugar, se asocia cada letra del alfabeto con un número. La forma más sencilla de hacerlo es con la asociación natural ordenada, aunque podrían realizarse otras asociaciones diferentes. Además, en este ejemplo solamente vamos a utilizar las 27 letras del alfabeto, pero también podrían añadirse otros símbolos usuales, como el espacio en blanco “_”, el punto “.” o la coma “,”, la interrogación “?”, las 10 cifras básicas, etcétera.
Como en la correspondencia anterior, entre letras/signos y números, solamente aparecen 27 números, hay que trabajar con los números enteros “módulo 27”. Es decir, se consideran los números enteros 0, 1, 2,… , 26 y el resto se identifica con estos de forma cíclica. Así, el 27 es igual a 0, el 28 a 1, el 29 a 2, etcétera, y lo mismo con los números negativos, de forma que – 1 es igual 26, – 2 es igual 25, etcétera. Además, se reducen las operaciones aritméticas (suma, resta, multiplicación y división) al conjunto de los números enteros módulo 27 de forma natural, es decir, al operar dos números enteros (módulo 27) el resultado se considera también módulo 27. Por ejemplo, si se realiza la multiplicación de los números 6 y 13, módulo 27, el resultado dará 24 (módulo 27), puesto que 6 13 = 78 y 78 = 2 27 + 24. O el inverso de 2, es decir, el número a tal que 2 a es igual a 1 (módulo 27), es 14, puesto que 2 14 = 28, que es igual a 1, módulo 27.
En el cifrado de Hill se utiliza una matriz cuadrada de números A como clave, la cual determina la transformación lineal Y = A ∙ X, donde Y, X son vectores columna y A y X se multiplican con la multiplicación de matrices (véase la siguiente imagen). Veamos un ejemplo. Consideremos la matriz cuadrada 3 x 3 (aunque en general pueden considerarse matrices cuadradas de cualquier tamaño) siguiente y la correspondiente transformación lineal Y = A ∙ X:
.
Supongamos que el mensaje que se quiere enviar encriptado es
“CUADERNO DE CULTURA CIENTIFICA”,
cuya transcripción numérica, teniendo en cuanta la tabla de sustitución anterior, es “2, 21, 0, 3, 4, 18, 13, 15, 3, 4, 2, 21, 11, 20, 21, 18, 0, 2, 8, 4, 13, 20, 8, 5, 8, 2, 0”. Como la transformación lineal es de orden 3, vamos a agrupar los números en grupos de tres, en ternas, sobre las que luego aplicaremos la transformación lineal, (2, 21, 0), (3, 4, 18), (13, 15, 3), (4, 2, 21), (11, 20, 21), (18, 0, 2), (8, 4, 13), (20, 8, 5), (8, 2, 0).
A continuación, vamos a transformar las ternas de números anteriores, mediante la transformación lineal dada por la clave, en nuevas ternas, que serán el mensaje numérico cifrado. ¡Ojo!, que en la transformación lineal no hay que olvidar que seguimos trabajando con los números enteros módulo 27.
.
Aunque la transformación lineal de la terna (2, 21, 0) es inicialmente (44, 84, 2), como estamos trabajando con enteros módulo 27, esta terna se convierte en (17, 3, 2), ya que 44 = 1 x 27 + 17 y 84 = 3 x 27 + 3. E igual para el resto.
.
.
Por lo tanto, el mensaje numérico cifrado es “17, 3, 2, 11, 25, 3, 25, 21, 4, 17, 5, 22, 6, 23, 2, 24, 10, 3, 1, 0, 5, 24, 3, 23, 12, 8, 8”, que al transformar de nuevo los números en sus correspondientes letras, se convierte en el mensaje cifrado
“QDCLYDYUEQFVGWCXKDBAFXDWMII”.
Y este es el mensaje que se envía para que no sea comprendido por el “enemigo” aunque este lo intercepte en el camino.
Imágenes de la patente US 1.845.947 presentada por Lester S. Hill y Louis Weisner, quienes diseñaron una máquina que implementaba el cifrado de Hill de orden 6
Para poder descodificar los mensajes cifrados mediante el método de Hill se necesita que la matriz de la transformación lineal utilizada, la clave, sea una matriz inversible. La matriz de nuestro ejemplo lo es, puesto que su determinante es no nulo, |A| = 22. Además, la matriz inversa de A, que es la necesaria para descodificar un mensaje cifrado, es
.
Pero ojo, estamos trabajando con los enteros módulo 27 y vamos a transformar la matriz inversa anterior en una matriz con números enteros módulo 27. Para empezar se necesita el inverso del número 22. Se ve fácilmente que 22 16 = 352, que es igual a 1, módulo 27, luego 1/22 = 16. Y la matriz inversa se transforma, módulo 27, en
.
Expliquemos ahora el proceso de descodificación de un mensaje. Imaginemos que el receptor recibe el siguiente mensaje
“EHAHTDINRKQOPUSKVLKMUFÑG”,
y quiere conocer su significado. Para descodificar el mensaje hay que utilizar el mismo método anterior, el cifrado de Hill, pero utilizando como clave la matriz inversa A-1 (módulo 27) de la matriz A de codificación.
Por lo tanto, se empieza de nuevo transformando el mensaje en la sucesión de ternas numéricas asociada, (4, 7, 0), (7, 20, 3), (8, 13, 18), (10, 17, 15), (16, 21, 19), (10, 22, 11), (10, 12, 21), (5, 14, 6). Y entonces se transforman mediante la transformación lineal con matriz A-1, es decir, Y = A-1 ∙ X.
.
.
.
En consecuencia, la secuencia de ternas numéricas original asociada al anterior mensaje codificado es (3, 8, 22), (21, 11, 6), (0, 13, 3), (15, 11, 0), (19, 12, 0), (20, 4, 12), (0, 20, 8), (2, 0, 19). Y traduciendo los números a sus correspondientes letras del alfabeto se obtiene que el mensaje original enviado es
“DIVULGANDO LAS MATEMATICAS”.
Máquina de cifrado M-94 utilizada por el ejército de los Estados Unidos de América entre los años 1922 y 1945, que consta de 25 discos con las letras del alfabeto. Imagen de la página Cipher Machines
Sin embargo, el cifrado de Hill no es seguro. Utilizando métodos de álgebra lineal en un “ataque con texto claro conocido” puede romperse el código y descubrir la matriz clave de encriptado. Un ataque con texto claro conocido significa que el analista que quiere romper el código dispone de un ejemplo de “texto en claro”, es decir, de un mensaje original, con el correspondiente mensaje cifrado.
Veamos cómo se puede romper este código. Supongamos que estamos utilizando la matriz clave anterior A = (1 2 3 / 0 4 5 / 1 0 6), y que el analista “enemigo” ha conseguido obtener tanto un mensaje original como el correspondiente mensaje cifrado. Por ejemplo, el primero de los utilizados en esta entrada del Cuaderno de Cultura Científica.
MENSAJE ORIGINAL: “CUADERNO DE CULTURA CIENTIFICA”
(2, 21, 0), (3, 4, 18), (13, 15, 3), (4, 2, 21), (11, 20, 21), (18, 0, 2), (8, 4, 13), (20, 8, 5), (8, 2, 0)
MENSAJE CIFRADO: “QDCLYDYUEQFVGWCXKDBAFXDWMII”
(17, 3, 2), (11, 25, 3), (25, 21, 4), (17, 5, 22), (6, 23, 2), (24, 10, 3), (1, 0, 5), (24, 3, 23), (12, 8, 8)
Para romper el código se utiliza el “método de Gauss Jordan” (pero módulo 27) con la matriz asociada al mensaje original y la matriz del mensaje cifrado:
.
Aunque esta última parte de la presente entrada es muy interesante, debido a que nos muestra una aplicación del método de Gauss Jordan, también es un poco técnica, por lo que las personas que lo deseen pueden saltársela y considerar simplemente que es posible romper el cifrado de Hill, mediante técnicas de álgebra lineal.
El método de Gauss Jordan consiste realizar una serie de operaciones sobre la anterior matriz, que está dividida en dos partes, la correspondiente al mensaje original y la del mensaje cifrado, para conseguir que en la parte de la izquierda quede la matriz identidad (1 0 0 / 0 1 0 / 0 0 1) en tres de las filas, para considerar entonces la parte correspondiente de la derecha, como se mostrará después. Esas operaciones consisten en sustituir cada fila de la matriz por el resultado de sumarle/restarle a esa fila una combinación lineal de algunas de las otras filas.
Como el elemento que está en la primera fila y la primera columna tiene que ser un 1, para conseguir la matriz identidad, y resulta que es un 2, debemos dividir por 2 (módulo 27) la primera fila. Ya hemos comentado al principio que el inverso de 2 (módulo 27) es 14, luego dividir por 2 es igual a multiplicar por 14 (módulo 27).
Al multiplicar la primera fila (2 21 0 : 17 3 2) por 14 (módulo 27) se transforma en (1 24 0 : 22 15 1). Ahora, para conseguir un 0 en la primera posición de cada fila se realiza las siguientes sustituciones (método de Gauss Jordan):
a) “2ª fila” se sustituye por “2ª fila” – 3 x “1ª fila” (módulo 27)
b) “3ª fila” se sustituye por “3ª fila” – 13 x “1ª fila” (módulo 27)
c) “4ª fila” se sustituye por “4ª fila” – 4 x “1ª fila” (módulo 27)
d) “5ª fila” se sustituye por “5ª fila” – 11 x “1ª fila” (módulo 27)
e) “6ª fila” se sustituye por “6ª fila” – 18 x “1ª fila” (módulo 27)
y así podría seguirse con el resto, aunque no necesitamos las tres últimas filas para conseguir nuestro objetivo. En cualquier caso, después de las sustituciones anteriores, la matriz se ha transformado en la siguiente matriz
.
Ahora queremos conseguir un 1 en la posición que se corresponde con la segunda fila y la segunda columna, de nuevo buscando conseguir la matriz identidad en la parte de la izquierda. Como en esa posición está el 13, debemos buscar su inverso módulo 27, que resulta que es 25 (ya que 13 x 25 = 325, que tomando módulo 27, es igual a 1). Es decir, hay que multiplicar la segunda fila por 25, de manera que esta segunda fila (0 13 18 : 26 7 0) se transforma, al multiplicarla por 25 (módulo 27) en (0 1 18 : 2 13 0). Y ahora buscamos obtener ceros en la segunda posición de las demás filas mediante las siguientes sustituciones (método de Gauss Jordan):
f) “1ª fila” se sustituye por “1ª fila” – 24 x “2ª fila” (módulo 27)
g) “4ª fila” se sustituye por “4ª fila” – 14 x “2ª fila” (módulo 27)
h) “5ª fila” se sustituye por “5ª fila” – 26 x “2ª fila” (módulo 27)
quedando ahora la matriz como sigue
.
El siguiente paso sería conseguir un 1 en la posición que se corresponde con la tercera fila y la tercera columna, una vez más buscando conseguir la matriz identidad en la parte de la izquierda. Sin embargo, en este momento nos encontramos con una primera anomalía por trabajar módulo 27, y es que los números enteros módulo 27 admiten “divisores de cero”, como el 3 y el 9, ya que el producto de 3 por 9 es igual a 0 (módulo 27), y estos no tienen inverso.
En consecuencia, no se puede conseguir un 1 en la tercera columna de las filas 3, 4 y 5. Y al multiplicarlas por 9 se anulan todos sus elementos, luego esas tres filas no nos interesan.
Por lo tanto, vamos a intentar conseguir un 1 en la tercera columna de la fila 6, para lo cual tenemos que multiplicar por el inverso de 2, que como ya sabemos es 14. Y al fila 6 pasa de (0 0 2 : 6 10 12) a (0 0 1 : 3 5 6), al multiplicarla por 14.
Y para obtener la matriz identidad en la parte de la izquierda solo nos falta convertir el 18 que está en la tercera columna de la segunda fila en un cero, para lo cual realizamos la siguiente sustitución
i) “2ª fila” se sustituye por “2ª fila” – 18 x “6ª fila” (módulo 27)
y la matriz queda finalmente, después de todo este proceso de Gauss Jordan,
.
Luego, tras el método de Gauss Jordan (módulo 27), en la parte de la derecha de la matriz, correspondiéndose con la matriz identidad de la izquierda, nos queda la siguiente matriz
.
que es la matriz traspuesta (es decir, se cambian las filas por columnas, y al revés) de la matriz clave utilizada en el ejemplo que hemos visto de encriptación de Hill.
En consecuencia, el álgebra lineal que ha servido para desarrollar el cifrado de Hill, también sirve para romper su código.
.
Una forma de evitar lo anterior, es modificar el algoritmo del cifrado de Hill para que la matriz clave no sea fija, sino que sea dinámica.
Bibliografía
1.- Raúl Ibáñez, Arthur Cayley, explorador victoriano del territorio matemático, RBA, 2017 (pendiente de publicación).
2.- Marie-José Pestel, Paul Kichilov, de la gravure à la anamorphose, Tangente Hors-serie 23: Maths et arts plastiques, p. 142-147.
3.- Lester S. Hill, Cryptography in an Algebraic Alphabet, The American Mathematical Monthly, vol. 36, n. 6 (1929). p. 306-312.
4.- Jorge Ramió Aguirre, Seguridad Informática y criptografía (libro electrónico), Universidad Politécnica de Madrid, 2006.
5.- OnlineMSchool, Online calculadoras para solucionar problemas matemáticas
6.- Calculadora de los números enteros modulares
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Criptografía con matrices, el cifrado de Hill se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 La transferencia de conocimiento, ¿nos lleva a la pobreza?
Las universidades, aparte de enseñar e investigar, tienen una tercera misión: la transferencia de conocimiento. De esto y sus consecuencias inesperadas habla Javier de la Cueva.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 La transferencia de conocimiento, ¿nos lleva a la pobreza? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los avanzados alquimistas indios y chinos del s. XIV
A comienzos del siglo XIV el feudalismo europeo ha comenzado su declive; el número de ciudades se ha incrementado y la nueva centralización de la Iglesia Católica hace que esta mantenga una vida intelectual propia y separada.. Los textos compilados y traducidos llenan los monasterios; las ideas de China y la India se filtran a través de viajeros y comerciantes. Todo hacía presagiar que Europa estaba lista para progresar rápidamente, pero no sería así para la química. Durante los siguientes 200 años habría mucha actividad, pero se andaría en círculos esotéricos, sin avances reales. Todo lo contrario a lo que ocurriría fuera de Europa.
Efectivamente, a comienzos del siglo XIV los alquimistas indios y chinos ya eran claramente activos en iatroquímica (la aplicación de la química a la medicina), algo que en Europa no se encontrará hasta el siglo XVI.
Pero no solo indios y chinos fueron pioneros en las aplicaciones de la química, también fueron los primeros en considerar seriamente las necesidades técnicas para desarrollar adecuadamente sus estudios. Así, destacan las descripciones de cómo deben construirse y dotarse los que hoy llamaríamos laboratorios químicos; algo similar solo se encuentra en un texto europeo de 1500.
“Lingam” de Shiva nepalí hecho de piedra
Por ejemplo en el Rasa-Ratnasamuccaya, un tratado indio del periodo dedicado a la metalurgia (“rasa” es esencia y también el metal mercurio) encontramos la siguiente descripción:
“El laboratorio debe construirse en una región en la que abunden las plantas medicinales y los pozos […] debe estar equipado con varios aparatos. El lingam (falo) de mercurio [símbolo de Shiva, el principio creador] debe colocarse al este, los hornos deben colocarse en el sureste, los instrumentos en el suroeste, las operaciones de lavado en el oeste, las de secado en el noroeste. El koshti [aparato para la extracción de esencias], recipientes de agua, un fuelle y otros instrumentos varios deben estar presentes como, asimismo, morteros para trillar y machacar, manos de mortero, tamices de distinto grado de finura, tierra para los crisoles, carbón [vegetal], tortas secas de estiércol de vaca [usadas en la India como combustible para los hornos], retortas hechas de vidrio, tierra, hierro y conchas, cacerolas de hierro, etc. “
Un laboratorio equipado de esta manera estaba claramente diseñado por alguien con conocimientos sobre muchos procesos químicos: reducción, destilación, extracción y digestión (disolver usando un ácido o una base) como mínimo. De aquí se deduce también que esta persona era capaz de llevar a cabo algunas investigaciones químicas realmente complejas.
En otra parte del mismo texto se enumeran las características del aprendiz alquímico ideal, características que se nos antojan difíciles de encontrar en muchos alumnos modernos de química:
“El aprendiz debe estar lleno de reverencia hacia su maestro, comportarse bien, ser veraz, trabajar mucho, obediente, sin orgullo ni engreimiento y fuerte en la fe […] habituado a vivir según la dieta [alimenticia] y régimen [sanitario] apropiados […] bien versado en el conocimiento de las drogas y plantas y en las lenguas de muchas regiones […]”
También había requisitos para el maestro:
“El maestro debe ser sabio, experimentado, buen conocedor de los procesos químicos, devoto de Shiva y [su consorte] Parvati, sobrio y paciente”.
Es imposible decir si las ideas orientales sobre la iatroquímica y los laboratorios diseñados sistemáticamente terminaron llegando a Europa de forma gradual o surgieron allí espontáneamente, pero lo que está claro es que estas ideas surgieron primero en India y China y tardaron siglos en aparecer en Europa.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Los avanzados alquimistas indios y chinos del s. XIV se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Un nuevo fármaco revierte el déficit cognitivo asociado a esquizofrenia
Evolución en el tiempo de imágenes de gatos de Louis Wain, posiblemente esquizofrénico no diagnosticado
El compuesto, nombrado IPR19, ha demostrado su eficacia en ratones para revertir el déficit cognitivo asociado a esquizofrenia, acción que se consigue mediante la modulación de una nueva vía. Este mecanismo no ha sido explorado hasta la fecha para esta enfermedad, hecho que acentúa la novedad del trabajo. Además, se trata de una molécula estable, inocua y capaz de penetrar en el cerebro, donde realiza su función. Un gran número de potenciales fármacos son incapaces de cruzar la membrana que protege el Sistema Nervioso Central, imposibilitando su acción terapéutica. Sin embargo, el IPR19 es capaz de atravesar esta restrictiva barrera.
La empresa biotecnológica Iproteos, con sede en el Parc Científic de Barcelona, el Grupo de Neuropsicofarmacología de la Universidad del País Vasco/Euskal Herriko Unibertsitatea (UPV/EHU) y perteneciente al Centro de Investigación Biomédica en Red de Salud Mental (CIBERSAM), y el Instituto de Investigación Biomédica (IRB Barcelona), perteneciente al The Barcelona Institute of Science and Technology (BIST), han publicado sus resultados en European Neuropsychopharmacology que muestran la eficacia del nuevo fármaco procognitivo.
“Es la primera vez que se demuestra que un compuesto de estas características tiene potencial para ser utilizado en el tratamiento del déficit cognitivo asociado a esquizofrenia. IPR19 supone un punto de partida para la generación de nuevas terapias para esta sintomatología que carece de tratamiento actualmente”, comenta Roger Prades, autor del artículo científico publicado en European Neuropsychopharmacology.
La comprobación de la eficacia se ha realizado en modelos animales de la enfermedad. Concretamente, se ha validado la acción del fármaco en tres modelos de ratón, que se caracterizan por sufrir un déficit en la función cognitiva. Los experimentos se han realizado en colaboración con el Grupo de Neuropsicofarmacología de la Universidad del País Vasco y perteneciente a CIBERSAM. Mediante una batería de ensayos, en los que se pone a prueba la memoria de trabajo y la memoria espacial de los modelos, se ha demostrado que la administración de IPR19 es capaz de revertir el déficit en cognición hasta alcanzar los niveles basales.
“Esta publicación es un un hito muy importante para Iproteos ya que supone la validación de nuestro proyecto de esquizofrenia por parte de la comunidad internacional de expertos en neuropsicofarmacología”, afirma Teresa Tarragó, Directora Ejecutiva de Iproteos. “La colaboración con el grupo del Prof. Javier Meana, de la Universidad del País Vasco y del CIBERSAM, ha sido clave en la demostración de la eficacia de nuestro fármaco. Esta publicación es una prueba más de que la colaboración público-privada puede aportar un gran beneficio al ecosistema de investigación español, si se articula correctamente”.
Actualmente Iproteos está llevando a cabo la fase preclínica regulatoria de su candidato para el tratamiento del déficit cognitivo asociado a esquizofrenia. La empresa cerró recientemente una ronda de financiación, liderada por Caixa Capital Risc, para la realización de dichos experimentos. Se prevé que en 2018 el fármaco será evaluado en humanos.
La esquizofrenia es una enfermedad heterogénea que afecta a 45 millones de personas en todo el mundo. Los signos clínicos se clasifican en tres grupos de síntomas: positivos (alteración del habla, pensamiento y comportamiento, alucinaciones, delirios), negativos (apatía, incapacidad de disfrutar) y cognitivos (habilidad reducida para prestar atención selectiva, dificultad en procesar la información social y emocional, fallo de la memoria de trabajo). Pese a existir tratamiento para los dos primeros grupos de síntomas, el déficit cognitivo es una necesidad médica no resuelta. Esto imposibilita el día a día de los pacientes (se estima una tasa de desempleo del 90% entre los pacientes de esquizofrenia). Según la Organización Mundial de la Salud (OMS), la esquizofrenia es una de las enfermedades más incapacitantes.
Referencia:
Roger Prades, Eva Munarriz-Cuezva; Leyre Urigüen; Itziar Gil-Pisa; Lídia Gómez; Laura Mendieta; Soledad Royo; Ernest Giralt; Teresa Tarragó; J. Javier Meana. (2016) The prolyl oligopeptidase inhibitor IPR19 ameliorates cognitive deficits in mouse models of schizophrenia. European Neuropsychopharmacology DOI: 10.1016/j.euroneuro.2016.11.016
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Un nuevo fármaco revierte el déficit cognitivo asociado a esquizofrenia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: