Física de partículas en un simulador cuántico
En 2012 el Grupo QUTIS de la UPV/EHU publicó en Physical Review Letters una novedosa propuesta teórica para reproducir colisiones de partículas como las de los grandes aceleradores sin necesidad de utilizar esas impresionantes infraestructuras. Ahora, con la colaboración del laboratorio de del profesor Kihwan Kim de la Universidad de Tsinghua, en Pekín (China), han confirmado la validez de la propuesta en un simulador cuántico de iones atrapados.
En los grandes laboratorios de física de partículas del mundo disponen de imponentes aceleradores de hasta, como es el caso del CERN, 27 kilómetros de circunferencia. En esos aceleradores se llevan a cabo costosísimos experimentos para estudiar la creación y aniquilación de la materia. ¿Sería posible simular esas colisiones en pequeños experimentos encima de la mesa? El Grupo QUTIS que dirige en la UPV/EHU el profesor Ikerbasque Enrique Solano planteó en 2011 una propuesta teórica que siete años después han podido verificar en el laboratorio de iones atrapados del profesor Kihwan Kim, de la Universidad de Tsinghua.
“Pusimos en marcha un teatro cuántico, en el que las partículas se comportan como actores en un simulador cuántico, es decir, unas imitan a otras para diversos fines”, explica el profesor Enrique Solano. Tuvo un aspecto lúdico, pero también muy práctico, ya que estos experimentos conllevarían en un futuro un ahorro de dinero y serían, además, pruebas controladas imposibles de calcular en los ordenadores convencionales. “Hemos conseguido imitar cómo la materia (representada por fermiones, uno de los dos tipos de partículas elementales que existen en la naturaleza) y la antimateria (antifermiones) se crea y se destruye, usando láseres, átomos cargados (iones) y trampas atómicas. Es decir, hemos simulado una física muy similar a la de los grandes aceleradores en un simulador cuántico de iones atrapados”, añade el director del grupo QUTIS.
Referencias:
Casanova, J., Mezzacapo, A., Lamata, L. & Solano, E. Quantum simulation of interacting Fermion lattice models in trapped ions. Phys. Rev. Lett. 108, 190502 (2012)
Xiang Zhang, Kuan Zhang, Yangchao Shen, Shuaining Zhang, Jing-Ning Zhang, Man-Hong Yung, Jorge Casanova, Julen S. Pedernales, Lucas Lamata, Enrique Solano & Kihwan Kim (2018) Experimental quantum simulation of fermion-antifermion scattering via boson exchange in a trapped ion. Nature Communications 9, 195 DOI: 10.1038/s41467-017-02507-y
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Física de partículas en un simulador cuántico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un simulador cuántico de fenómenos imposibles
- Un observador cuántico de lo más útil
- De los secretos del Universo a la vida cotidiana: aceleradores de partículas.
La nueva forma de enfriar que lo cambiará todo
Los sistemas de refrigeración no solo sirven para tomar las bebidas bien frescas, sino que nos permiten conservar alimentos, transportar medicamentos y vacunas, y vivir cómodamente en ambientes cálidos gracias al aire acondicionado. La refrigeración es fundamental para nuestra salud y bienestar. A lo largo de la historia hemos utilizado diferentes sustancias y métodos para tal fin. Desde el agua, el amoníaco, el dióxido de carbono, los CFCs (clorofluorocarbonados) hasta los modernos HFCs (hidrogenofluorocarbonados). Todos ellos, en mayor o menor medida, producen diferentes efectos negativos en el medioambiente. El principal problema es que los refrigerantes son fluidos (gases o líquidos) que se fugan a la atmósfera, contribuyendo al calentamiento global y a la destrucción de la capa de ozono. Por ello la mayoría se han prohibido y los más modernos ya tienen fecha de caducidad. Ha llegado la hora de implicarse a fondo y apostar por alternativas ecológicas. En la Universidad de A Coruña han encontrado un material revolucionario que lo cambiará todo. Lo han llamado perovskiña.
- Por qué usamos fluidos para refrigerar
Los fluidos resultan interesantes para refrigerar por la sencilla razón de que los podemos comprimir con facilidad. Su funcionamiento es bastante intuitivo. Cuando comprimimos un fluido (le aplicamos presión) éste se calienta. Cuando lo expandimos se enfría (o absorbe calor, que viene a ser lo mismo). Así es cómo funciona el sistema de refrigeración de nuestra nevera, por expansión y compresión de un fluido.
- Cómo afectan al medioambiente los fluidos refrigerantes
En los años 80 descubrimos que los CFCs (también denominados freones) estaban destruyendo la capa de ozono. El mecanismo a través del cual atacan la capa de ozono es una reacción fotoquímica: al incidir la luz sobre la molécula de CFC, se libera un radical de cloro, muy reactivo y con gran afinidad por el ozono, hasta tal punto que rompe la molécula de ozono e inicia una reacción en cadena altamente destructiva.
El ozono es fundamental para la supervivencia. Protege la vida en el planeta mediante la absorción de la radiación ultravioleta, potencialmente cancerígena, que afecta a nuestro sistema inmunológico y daña la vida de las plantas.
Después de varios años de negociaciones, se llevó a cabo un acuerdo internacional en 1987 en la ciudad de Montreal, Canadá, que se conoce como el Protocolo de Montreal. Este protocolo es un esfuerzo unido de gobiernos, científicos, industrias y grupos ecologistas coordinados por la UNEP (Programa Ambiental de las Naciones Unidas). Este acuerdo consistió en regular la producción y uso de los CFCs hasta su desaparición gradual. En la Unión Europea se prohibieron totalmente en 1996.
La aplicación del Protocolo de Montreal ya ha dado sus frutos. Investigadores de la NASA demostraron a principios de 2018 que la disminución de CFCs ha provocado la reducción en un 20% del agujero de la capa de ozono.
El impacto medioambiental de los fluidos refrigerantes también se mide a partir de su potencial de calentamiento global, es decir, cuánto calor pueden atrapar en comparación con un compuesto de referencia y cómo esto afecta al calentamiento global. El dióxido de carbono es el gas de referencia, al que se le asigna un potencial de calentamiento global de 1.
Los CFCs y HFCs tienen un potencial de calentamiento global entre 1.000 y 15.000 veces mayor que el del CO2. Una vez prohibidos los CFCs, su sustituto inmediato fueron los HFCs, compuestos análogos que carecen de cloro y, por tanto, sin capacidad de destruir la capa de ozono. Sin embargo, el HFC que más se utiliza en la actualidad tiene un potencial de calentamiento global de unos 1.400, que sigue siendo muy elevado.
El conocimiento de los potenciales de calentamiento global nos llevó en 2014 a aprobar una normativa europea a partir de la cual el uso de los HFCs también se tendrá que minimizar. Antes del 2020, todos aquellos fluidos con un potencial mayor de 2.500, estarán prohibidos. En 2022, estarán prohibidos los que tengan un potencial superior a 150.
Esta normativa ha puesto en jaque a la industria de la refrigeración. Algunos han previsto volver a usar refrigerantes anticuados, como el amoníaco, el isobutano, el propano, o el mismo CO2. La razón es que tienen potenciales de calentamiento global muy bajos. El problema de volver a ellos es el mismo que nos hizo decidir prescindir de ellos en su momento: son tóxicos y/o inflamables. Producen un menor impacto medioambiental, sin embargo comprometen la seguridad de nuestros hogares.
- El problema de los fluidos refrigerantes es que son fluidos, ¿y si usamos sólidos?
Los problemas medioambientales y de seguridad de los refrigerantes que hemos utilizado hasta ahora radica en que son fluidos, es decir, se fugan. Por ese motivo desde hace poco tiempo hemos empezado a investigar la posibilidad de utilizar sólidos. Eso sí, han de ser sólidos que se puedan comprimir con facilidad, aplicando una presión baja. Las neveras actuales funcionan con presiones de hasta 50-70 bar, así que lo ideal sería usar refrigerantes sólidos eficientes en ese rango de presiones. El mecanismo por el que se enfrían y calientan los sólidos es el mismo por el que lo hacen los fluidos, por ciclos de compresión y expansión (procesos barocalóricos), o también por ciclos de tensión y relajación (procesos elastocalóricos).
Al deformar un sólido elastocalórico, por ejemplo estirándolo, sus componentes se alinean en la dirección de la fuerza aplicada, aumentando de esta manera el grado de ordenación interna (lo que conocemos como entropía), de forma que el sólido se calienta. Una vez que el sólido recupera su temperatura inicial, si dejamos de estirarlo, se enfriará notablemente. En ese momento podemos usarlo para enfriar otro objeto. Este fenómeno de calentamiento-enfriamiento de un sólido lo podemos observar con una goma elástica (ver vídeo). Cuando la estiramos, ésta se calienta. Lo podemos comprobar acercándola a los labios. Una vez recupere la temperatura ambiente, dejamos de estirar la goma. Cuando recupera su forma inicial, comprobaremos sobre nuestros labios que se enfría. Esto se ve claramente utilizando una cámara de infrarrojos.

Sólido elastocalórico cuando se calienta al estirarlo (izquierda), y cuando se enfría al eliminar esa fuerza de deformación (derecha).
En junio de 2017, un equipo de investigadores de la Universidad de A Coruña publicaba en Nature un gran hallazgo. Un nuevo material sólido respondía a la aplicación de bajas presiones enfriándose con facilidad. Con solo 70 bar, presión que pueden alcanzar las neveras actuales, muestra una capacidad de refrigeración sobresaliente.
Este hallazgo fue fruto de la tesis doctoral de Juan Manuel Bermúdez-García. El equipo multidisciplinar con el que trabaja, formado por María Antonia Señarís, Manuel Sánchez, Socorro Castro, Jorge José López y Ramón Pedro Artiaga, integra a químicos e ingenieros de la UDC procedentes del Centro de Investigaciones Científicas Avanzadas (CICA) y de los Departamentos de Química y de Ingeniería Naval e Industrial. El pasado 24 de enero de 2018 fueron galardonados con el Premio de Investigación Ernesto Viéitez, concedido por la Real Academia Galega de Ciencias.

Premios de la Real Academia Galega de Ciencias. 24 de enero de 2018, Santiago de Compostela.
Se trata de un sólido híbrido, con una parte inorgánica (metales como hierro, níquel o manganeso) y otra orgánica (basada en carbono, nitrógeno e hidrógeno), dispuestos en una estructura tridimensional denominada perovskita y a la que debe el nombre que han decidido ponerle: perovskiña, en honor a su origen galego.
La perovskiña es fácil de sintetizar, sus componentes son económicos, ninguno es tóxico, y además es ligero y compacto, lo que implica que podremos fabricar neveras que también sean ligeras. La parte orgánica del sólido es la que le confiere flexibilidad a la estructura y por tanto es la responsable que de que sea fácilmente comprimible.
La investigación en perovskitas iba dirigida a encontrar mejores materiales para celdas solares, capaces de transformar eficientemente la energía solar en energía eléctrica. Afortunadamente, algunas de estas perovskitas resultaron ser comprimibles y útiles para refrigerar (tienen propiedades barocalóricas). En vista de los magníficos resultados, a estos investigadores les han concedido un proyecto de investigación de cuatro años. En ese tiempo cuentan con optimizar las propiedades de la perovskiña, perfeccionar su síntesis y adaptarla a los sistemas de refrigeración actuales.
Hay que tener en cuenta que sólo quedan cuatro años para que los refrigerantes actuales se prohíban, y las subvenciones para que las industrias de la refrigeración se adapten a la normativa son escasas y tardías. El futuro próximo de la industria de la refrigeración sufrirá un cambio espectacular. Y ese cambio pasará por incluir refrigerantes sólidos. Con toda probabilidad, en cuatro años nuestras neveras contendrán perovskiña, el material híbrido que lo cambiará todo.
Este post ha sido realizado por Deborah García Bello (@Deborahciencia) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
Nota de la autora: Agradezco a Juan Manuel Bermúdez-García y Socorro Castro de la Universidad de A Coruña la ayuda que me han brindado para escribir este artículo.
El artículo La nueva forma de enfriar que lo cambiará todo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Cambiará algún día la imagen del científico?
- La forma de las hojas
- Abonar el mar para enfriar el planeta
La pubertad está comenzando antes para muchos niños; la educación sexual debería afrontar esta realidad
Celia Roberts
 

Noñas de tan solo seis o siete años comienzan a mostrar los primeros signos de la pubertad. Imagen: Shutterstock
El gobierno británico está haciendo una consulta sobre un nuevo plan de estudios para la educación sexual y en relaciones [1] en los colegios ingleses. Este cambio brinda una ocasión oportuna para actualizar cómo, cuándo y qué se enseña a los niños sobre la pubertad.
Sorprendentemente, las orientaciones del Departamento de Educación (DdE) [2] sobre la educación sexual no han cambiado en casi dos décadas. Pero tras la presión concertada, la investigación y las recomendaciones de múltiples comités de miembros del parlamento, en 2017, la Ley de niños y trabajo social finalmente reconoció la necesidad de proporcionar “educación sexual para el siglo XXI”.
Se publicarán nuevas directrices legales para los colegios tras la consulta pública, que se cierra a mediados de febrero. A partir de 2019, los colegios de secundaria estarán obligados a ofrecer educación sexual y en relaciones, y los de primaria ofrecerán educación en relaciones. Los padres mantendrán el derecho a decidir que sus hijos no reciban educación sexual, aparte de la que se trata en el plan de estudios de ciencias, pero no se les permitirá que decidan sobre la educación en relaciones.
Estos cambios se basan en la preocupación generalizada por los efectos negativos que las tecnologías digitales tienen en la vida sexual de los jóvenes, en particular el “sexting”[3], el abuso y la explotación sexual infantil y los “extraños en línea”. El nuevo plan de estudios, al parecer, enseñará a los niños y jóvenes cómo son las relaciones sanas en el tenso contexto de teléfonos inteligentes, porno online e Instagram.
La nueva pubertad
Pero el nuevo plan de estudios también debería tener en cuenta lo que está sucediendo en los cuerpos de los jóvenes en el siglo XXI. No solo los niños parecen crecer mucho más rápido hoy, muchos de ellos en realidad están comenzando a desarrollarse físicamente antes que nunca.
Según con muchos científicos y médicos, estamos viviendo en la era de la “nueva pubertad” en la que un número creciente de niñas comienza a desarrollarse sexualmente a la edad de siete u ocho años. En la década de los sesenta, solo el 1% de las chicas entraban en la pubertad antes de cumplir los nueve años. En la actualidad, hasta el 40% de algunas poblaciones tanto en países ricos y como pobres lo están haciendo.
El desarrollo sexual también se está ampliando en el tiempo, y a muchas niñas comienzan a crecerles los senos y el vello púbico dos o tres años antes de que tengan su primera mentruación. Si bien hay menos pruebas de que el desarrollo de los niños esté cambiando tan rápidamente, algunos estudios también indican que una entrada más temprana en las etapas iniciales de la pubertad se está haciendo cada vez más común.
Las causas de estos cambios siguen sin estar claras. Muchos científicos apuntan al aumento simultáneo de la obesidad infantil, mientras que otros estudian los efectos de los compuestos químicos ambientales, como el Bisfenol A o BPA (que se encuentra en algunos plásticos), en el cuerpo. Otra investigación ha explorado los efectos de los factores sociales, incluidas las estructuras familiares, las experiencias traumáticas en la primera infancia y las desventajas socioeconómicas. Esta variedad de explicaciones evidencia lo complejo que es el fenómeno de la pubertad.
La guía del DdE en vigor establece que:
Todos los niños, incluidos aquellos que se desarrollan antes que el promedio, necesitan saber sobre la pubertad antes de experimentar la aparición de cambios físicos.
Pero deja que los colegios decidan, en consulta con los padres, “la edad apropiada” para hablar a los niños sobre la pubertad. En 2017, la Asociación de Educación Personal, Social y de la Salud [4] argumentó que esto debería ocurrir cuando tengan siete años. Pero hablar con niños de siete años sobre los senos, el vello púbico, el olor corporal y los cambios genitales puede no ser fácil para muchos maestros o para muchos padres. Tener siete años se supone que es una época de libertad, juego e inocencia.

Preparándose para la pubertad. Imagen: Shutterstock
Actualización de la educación sexual
Los niños que se desarrollan pronto presentan un desafío tanto para el pensamiento cultural sobre el sexo como para la política de educación sexual. Si bien muchos padres y jóvenes desean una educación sexual actualizada, esto generalmente viene con la condición de que dicha educación sea “apropiada para su edad”. Aunque es muy importante, esta frase es dolorosamente vaga, y no está claro si se refiere a la edad cronológica, la edad emocional o la etapa de desarrollo físico.
Hoy en día, algunas niñas de siete años pueden ser emocionalmente jóvenes, pero también les comienzan a crecer los senos y el vello púbico. Otros que se han desarrollado pronto porque han experimentado estrés en la primera etapa de la vida, por abandono o abuso, pueden sentirse más maduros que sus iguales y estar listos antes para aprender sobre la pubertad y la sexualidad. La creciente brecha en el momento del desarrollo sexual de niños y niñas también plantea un desafío. Enseñar a las niñas por separado o antes que a los niños, la estrategia en la escuela primaria de mi propio hijo, corre el riesgo de reforzar nocivas normas de género yfomentar el secretismo en torno a cuestiones como la menstruación.
En cambio, tal vez podríamos tratar de desenredar la pubertad de la sexualidad adolescente y desarrollar relatos de la pubertad que no la enmarquen como el comienzo de la adolescencia. Una niña de siete años con senos no se está “convirtiendo en mujer”, y una niña de nueve años que está menstruando probablemente no va a querer tener relaciones sexuales pronto.
En última instancia, esto significa ir más allá de las representaciones tradicionales de los cuerpos femeninos que se centran en la capacidad reproductiva con la idea de explorar significados y experiencias más amplias de lo que es ser una chica. Crecer también se trata de nuevos horizontes, como la fuerza, la salud e incluso el placer. La educación sexual y en relaciones incluso podría incluir la pubertad como algo que debe esperarse, notarse e incluso celebrarse, y no como un riesgo más.
Notas del traductor:
[1] Clases que el currículo británico hace obligatorias desde el 2000 bajo la denominación PSHE education y que incluye temas de salud y bienestar (higiene personal, alcohol y drogas, sexo), relaciones (entre iguales, con los adultos, con la familia) y vivir en el mundo (economía personal, mundo del trabajo).
[2] El Deparment of Education es el equivalente al Ministerio de Educación español.
[3] “Sexting” es un anglicismo para referirise al envío de contenidos eróticos o pornográficos por medio de teléfonos móviles u otros dispositivos conectados a Internet.
[4] Esta asociación agrupa a profesores y profesionales que imparten las clases de PSHE education (véase nota [1])
Sobre la autora:
Celia Roberts es catedrática de estudios de ciencia y género y codirectora del departamento de sociología de la Universidad de Lancaster (Reino Unido)
Texto traducido y adaptado por César Tomé López a partir del original publicado por The Conversation el 18 de enero de 2018 bajo una licencia Creative Commons (CC BY-ND 4.0)
El artículo La pubertad está comenzando antes para muchos niños; la educación sexual debería afrontar esta realidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Realidad conexa, porque todo está conectado.
- Por qué la filosofía es tan importante para la educación científica
- De cómo la ludificación del aula prepara a los niños para vivir en un estado policial
En The Big Bang Theory no hay químicos, sin embargo…
En la serie The Big Bang Theory hay físicos, biólogos, ingenieros… pero no hay ningún personaje protagonista que sea químico. Sheldon Cooper es físico teórico, Leonard Hofstadter es físico experimental, Raj Ramayan Koothrappali es astrofísico, Howard Wolowitz es ingeniero mecánico, Bernardette Rostenkowski es microbióloga, Amy Farrah Fowler es neurobióloga y Penny es una aspirante a actriz que, siendo la única protagonista sin formación científica, acaba trabajando como visitadora médica.
En el último capítulo emitido, el episodio 13 de la temporada 11, Leonard y Amy juegan en casa a reproducir algunos de los experimentos que hicieron en sus años de colegio. El primero de ellos es un experimento de química. Ninguno de los dos es químico, sin embargo, deciden hacer un experimento de química para obtener «hielo caliente».
-We’re making «hot ice».
-It’s very cool!
El «hielo caliente»no es realmente hielo, es decir, no se trata de agua sólida a una temperatura diferente a los cero grados Celsius, sino que se trata de otro sólido que, a simple vista, se parece mucho al hielo.
Lo sorprendente de este experimento es que, al introducir la mano u otro objeto en un vaso que parece contener agua, éste se recubre instantáneamente con algo similar a cristales hielo. Es muy bonito y aparente, por eso es un experimento al que se recurre con frecuencia en las clases de química del instituto.
No son cristales de hielo, sino que son cristales de acetato de sodio. Podemos comprar el acetato de sodio, en cambio, también podemos sintetizarlo en casa con dos sustancias que habitualmente todos tenemos en nuestra cocina: vinagre blanco, el mismo que usamos para las ensaladas, y bicarbonato, lo que utilizamos para que los bizcochos luzcan esponjosos —y para un montón de cosas más—.
El vinagre es una disolución de ácido acético en agua. El bicarbonato es una sal, el hidrogenocarbonato de sodio. Si echamos un par de cucharadas de bicarbonato sobre medio litro de vinagre estaremos dando el primer paso para producir acetato de sodio. Lo que observaremos es una reacción química muy efervescente. Se forman cientos de pequeñísimas burbujas, como cuando agitamos enérgicamente una bebida gaseosa. Lo que está ocurriendo es que los átomos de ambos compuestos se reordenan para dar lugar a nuevos compuestos más estables. Esta es la definición de reacción química. En este caso forman acetato de sodio, agua y dióxido de carbono. El dióxido de carbono es el gas que observamos como burbujas.
Lo que nos interesa para hacer «hielo caliente» es el acetato de sodio. Tenemos que reducir la cantidad de agua y de dióxido de carbono producidos y forzar a que todo el ácido acético reaccione efectivamente con el bicarbonato. El dióxido de carbono es el menor de nuestros problemas, ya que el ser un gas, se escapa por sí solo. Para el resto, lo más efectivo es calentar la mezcla hasta que hierva. Al hervirla estamos evaporando gran parte del agua que se produjo, de modo que, por un lado, forzamos a que todo reaccione y, por otro lado, cuanta menos agua más saturada estará la disolución de acetato resultante.
Si lo dejamos hervir el tiempo suficiente, veremos cómo se empieza a formar una película superficial. Esto nos indica que la disolución está suficientemente concentrada (estará sobresaturada), así que la apartamos del fuego y la dejamos enfriar. Una vez fría, la dejamos refrigerar media hora en la nevera.
Si a continuación introducimos cualquier objeto o nuestra mano en esa disolución, ¡sorpresa!, empezarán a crecer cristales a su alrededor inmediatamente. Esto es lo que hacen Leonard y Amy, introducir una varilla metálica en la disolución. Ésta se empieza a cubrir de cristales. En la serie hacen un primer plano del suceso, así que en este capítulo se observa muy bien la cristalización.
Lo que está ocurriendo es que el acetato de sodio está sobreenfriado. Se mantiene en estado líquido aunque esté por debajo de su temperatura de fusión (54oC). Este estado es inestable, por lo que cualquier perturbación —como introducir un objeto— desencadena que las moléculas de acetato comiencen a organizarse formando cristales, que es su estado estable a temperatura ambiente. Al ser un proceso tan favorable, sucede desprendiendo calor. A esto se le denomina proceso exotérmico. Es decir, la disolución se calienta a medida que se produce la cristalización. Por eso al meter la mano no solo sentimos cómo se forman cristales, sino que también sentiremos cómo estos se calientan, de ahí el nombre de «hielo caliente».
Por el momento no hay químicos en la serie The Big Bang Theory, como tampoco están representados científicos de otras muchas áreas de la ciencia. Sin embargo, han sido el físico experimental y la neurobióloga los que se han puesto a jugar a las cocinitas y a darle un poco a esa maravillosa ciencia llamada química.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo En The Big Bang Theory no hay químicos, sin embargo… se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La atmósfera de CoRoT-2b lleva la contraria

Concepción artística del gigante gaseoso CoRoT-2b, con un punto caliente hacia el oeste, orbitando su estrella. Fuente: NASA/JPL-Caltech/T. Pyle (IPAC)
Los escritores de ciencia ficción y algunos científicos especulan con cómo podían ser algunas cosas en el universo a partir de una muestra muy limitada de objetos conocidos de nuestro entorno. Un ejemplo típico de esas cosas es la vida extraterrestre, en la que unos hacen hincapié más en sistemas sociales asumiendo que en lo básico serán iguales (como en el caso de Star Wars o Star Trek), o en una combinación de características de especies animales o vegetales terrestres. Otro son los posibles planetas en otros sistemas solares, sospechosamente parecidos a la Tierra o Marte. Sin embargo, el hecho cierto es que conforme avanza la exploración, aún muy limitada, de los planetas extrasolares nos encontramos con tantas sorpresas que cualquier parecido con la realidad de lo que imaginamos será pura coincidencia.
Si nos planteamos una pregunta aparentemente muy simple como “¿cuál es el punto más caliente de un planeta gaseoso cercano a una estrella?” nos parece que los físicos y planetólogos no deberían tener demasiada dificultad en responderla correctamente desde un punto de vista teórico. Y, sin embargo, el escritor de ciencia ficción dura o el científico que asuma que la respuesta teórica es la correcta se puede llevar una sorpresa mayúscula. El punto más caliente en al menos un planeta gaseoso real cerca de una estrella distante real no está donde los físicos esperaban que estuviese, un descubrimiento que desafía la comprensión de los científicos de los muchos planetas de este tipo que se encuentran en sistemas solares fuera del nuestro.
A diferencia de nuestro conocido planeta Júpiter, los llamados Júpiter calientes orbitan asombrosamente cerca de su estrella anfitriona, tan cerca que normalmente necesitan menos de tres días para completar una órbita. Además un hemisferio de estos planetas siempre se enfrenta a su estrella anfitriona, mientras que el otro está en la oscuridad permanentemente.
Como era de esperar, el lado “día” de los planetas se calienta mucho más que el lado nocturno, y el punto más caliente de todos tiende a ser el punto más cercano a la estrella. Los astrofísicos elaboran modelos que predicen que estos planetas también experimentan fuertes vientos que soplan hacia el este cerca de sus ecuadores, lo que a veces pueden desplazar el punto caliente hacia el este, algo que también ha sido observado. Sin embargo, en el misterioso caso del exoplaneta CoRoT-2b, el punto caliente se encuentra en la dirección opuesta: al oeste del centro. Un descubrimiento realizado por Lisa Dang, de la Universidad McGill (Canadá), y sus colegas usando el Telescopio Espacial Spitzer de la NASA.
CoRoT-2b, descubierto hace una década, está a 930 años luz de la Tierra. Si bien se han detectado muchos otros Júpiter calientes en los últimos años, CoRoT-2b ha seguido intrigando a los astrónomos debido a dos factores: su enorme tamaño y el desconcertante espectro de las emisiones luminosas de su superficie. Ambos factores combinados sugieren que algo raro sucede en la atmósfera de este Júpiter caliente.
Los investigadores ofrecen tres posibles explicaciones para este descubrimiento inesperado, cada una de las cuales plantea nuevos interrogantes. La primera es que el planeta podría estar girando tan lentamente que una rotación lleva más tiempo que una órbita completa a su estrella; esto podría crear vientos que soplan hacia el oeste en lugar de hacia el este, pero también supondría un problema para las teorías sobre la interacción gravitacional planeta-estrella en órbitas tan próximas.
Otra posibilidad es que la atmósfera del planeta podría interactuar con el campo magnético del propio planeta para modificar su patrón de vientos; si esto fuera así podríamos estar ante una oportunidad única de estudiar el campo magnético de un exoplaneta.
Finalmente, una tercera sería que grandes nubes estuviesen cubriendo el lado oriental del planeta, lo que podría hacer que parezca más oscuro de lo que sería realmente; pero esto socavaría los modelos actuales de circulación atmosférica en tales planetas.
Serán necesarios muchos más y mejores datos para ver si alguna de estas hipótesis es correcta o es necesario recurrir a otra. El telescipio espacial James Webb, que se supone será lanzado al espacio el próximo año y que tiene 100 veces la potencia del Spitzer, podrá proporcionarlos. En cualquier caso, preparémonos para ser sorprendidos con lo que hay ahí fuera.
Referencia:
Lisa Dang et al (2018) Detection of a westward hotspot offset in the atmosphere of hot gas giant CoRoT-2b Nature Astronomy doi: 10.1038/s41550-017-0351-6
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La atmósfera de CoRoT-2b lleva la contraria se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Algo raro pasa alrededor de Gliese 436
- De guijarro a asteroide en una trampa de polvo
- La presencia de sales podría hacer que exista una tectónica de placas en Europa
Variaciones artísticas del teorema de Napoleón
Si hace unas semanas iniciaba mi entrada en el Cuaderno de Cultura Científica con la magnífica exposición Anni Albers: tocar la vista (Museo Guggenheim, Bilbao) de la artista alemana Anni Albers (1899-1994), hoy lo voy a hacer con otras dos excelentes exposiciones, en esta ocasión de la artista donostiarra Esther Ferrer, una que está teniendo lugar en estos momentos en el Palacio Velázquez de Madrid, organizada por el Museo Nacional Centro de Arte Reina Sofía, con el título Esther Ferrer. Todas las variaciones son válidas, incluida esta (26 de octubre de 2017 – 25 de febrero de 2018) y la otra la que se celebrará en el Museo Guggenheim de Bilbao, con el título Esther Ferrer. Espacios entrelazados (16 de marzo – 10 de junio, 2018).

Esther Ferrer durante la performance “Performance Art: Theory and Practice”, en 2012, en Ljubljana (Eslovenia). Foto de Dalila Ingold
Esther Ferrer (Donostia/San Sebastián, 1937) es una pionera del arte de la performance y una de sus máximas representantes en España. En 1963 crea en Donostia el Taller de libre expresión, junto con el artista donostiarra José Antonio Sistiaga y una Escuela experimental en Elorrio (Bizkaia). En el año 1967 se incorpora al grupo musical vanguardista ZAJ, fundado por los compositores Walter Marchetti, Ramón Barce y Juan Hidalgo, que tenían como referencia al compositor norteamericano y teórico de la música John Cage (1912-1992) y al movimiento artístico Fluxus. Fueron famosos sus performances conceptuales y radicales. En la década de 1970, Esther Ferrer retoma su actividad plástica con fotografías trabajadas, instalaciones, objetos, videos y cuadros. Su obra se suele relacionar con la corriente minimalista y conceptual, iniciada en la década de los sesenta del siglo XX, que tiene al poeta francés Stéphane Mallarmé (1842-1898), el escritor francés Georges Perec (1936-1982), al compositor John Cage o al movimiento Fluxus, como referentes, así como en los feminismos de aquel momento.

“Permutaciones. En el marco del arte matemático” (década años 1980), de Esther Ferrer
Esther Ferrer ha recibido muchos premios, entre ellos, el Premio Nacional de Artes Plásticas, en 2008, el Premio Gure Artea, en 2012, o los siguientes premios en 2014, Premio MAV (Mujeres en las Artes Visuales), Premio Marie Claire de l’Art Contemporain y Premio Velázquez de las Artes Plásticas. Y ha expuesto y realizado performances a lo largo de todo el mundo. En sus obras podemos encontrar muchos elementos relacionados con las matemáticas, desde los números primos con los que trabaja desde la década de los años 1970, hasta el infinito en el número pi, pasando por la combinatoria, el azar, la medición, las ilusiones ópticas o la geometría.
En esta entrada me gustaría traer su serie de obras titulada Triángulo de Napoleón, realizadas por Esther en la década de 1980, como las dos siguientes.

Serie “Triángulo de Napoleón” (1987), de Esther Ferrer. Técnica mixta en papel. Galería Àngels Barcelona

Serie “Triángulo de Napoleón” (1988), de Esther Ferrer. Técnica mixta en papel. Galería Àngels Barcelona
Esta serie de obras de la artista Esther Ferrer titulada Triángulo de Napoleón, está relacionada con el conocido teorema de Napoleón, un resultado clásico de la geometría.
Este resultado clásico sobre la geometría del triángulo dice lo siguiente.
Teorema de Napoleón: Si sobre los tres lados de un triángulo cualquiera ABC se construyen tres triángulos equiláteros exteriores (respectivamente, interiores), los centros de estos tres triángulos equiláteros forman un nuevo triángulo XYZ, que es equilátero, al que se denomina triángulo exterior (respectivamente, interior) de Napoleón.
En esta imagen se ve la construcción del triángulo exterior de Napoleón (en azul en la imagen) del triángulo ABC (en negro). El punto X es el centro del triángulo equilátero apoyado en el lado BC, el punto Y el centro del triángulo equilátero apoyado en el lado AC y Z lo es del triángulo apoyado en AB. El teorema de Napoleón nos dice que el triángulo XYZ, construido de esta forma, es equilátero, tiene todos sus lados iguales. La anterior obra de Esther Ferrer de la serie Triángulo de Napoleón, de 1987, es un ejemplo de triángulo exterior de Napoleón.
Antes de continuar, una pequeña aclaración sobre el punto que es el centro de un triángulo equilátero. Dado un triángulo cualquiera se pueden definir varios puntos que son de alguna forma el centro del triángulo, a saber, el baricentro (el punto de intersección de las tres medianas del triángulo, siendo una mediana la recta que pasa por un vértice del triángulo y el punto medio del lado opuesto; también se llama centroide o centro de masas), el incentro (el punto de intersección de las tres bisectrices, rectas que dividen a un ángulo en dos partes iguales, de un triángulo, y que es el centro de la circunferencia inscrita en el triángulo), el circuncentro (el punto de intersección de las tres mediatrices –recta perpendicular a un segmento que pasa por el medio del mismo- de los lados del triángulo, y que es el centro de la circunferencia circunscrita al triángulo) y el ortocentro (el punto de intersección de las tres alturas del triángulo, donde recordemos que una altura pasa por un vértice y es perpendicular al lado opuesto del mismo).

Baricentro, o centroide, de un triángulo, realizado con GeoGebra

Incentro de un triángulo, realizado con GeoGebra

Circuncentro de un triángulo, realizado con GeoGebra

Ortocentro de un triángulo, realizado con GeoGebra
Aunque en el caso de un triángulo equilátero esos cuatro puntos son el mismo, por eso en el teorema de Napoleón hablamos simplemente del centro de un triángulo equilátero, sin especificar cuál de ellos es, puesto los cuatro son el mismo.
Continuemos con el teorema de Napoleón. A continuación, se muestra un ejemplo de construcción de un triángulo interior de Napoleón (en azul en la imagen) del triángulo ABC (en negro).
Precisamente, la obra de 1988 de la serie Triángulo de Napoleón, de Esther Ferrer, que hemos mostrado más arriba, es un ejemplo de triángulo interior de Napoleón.
Pero el resultado geométrico sobre los triángulos de Napoleón, exterior e interior, de un triángulo dado va más allá aún. También se cumplen las siguientes propiedades.
Propiedad 1: El centro del triángulo exterior (respectivamente, interior) de Napoleón y el baricentro, o centroide, del triángulo original coinciden.
Propiedad 2: La diferencia entre las áreas de los triángulos exterior e interior de Napoleón es igual al área del triángulo original.

El área del triángulo azul, que es el triángulo exterior de Napoleón, menos el área del triángulo verde, triángulo interior de Napoleón, es igual al área del triángulo gris, el triángulo original ABC
Existen varias demostraciones distintas del teorema de Napoleón que utilizan diferentes herramientas de las matemáticas, desde la geometría analítica a los números complejos, pasando por la trigonometría o la simetría, que se pueden encontrar en la literatura matemática. Para quien esté interesado, varias de estas demostraciones se pueden encontrar en la página cut-the-knot de Alexander Bogomolny.
El nombre de este interesante teorema geométrico, teorema de Napoleón, tiene un gran atractivo, puesto que lleva el nombre del general y emperador francés Napoleón Bonaparte (1769-1821). Pero, una cuestión interesante es si este resultado es realmente de Napoleón.
La verdad es que Napoleón Bonaparte siempre estuvo interesado en la ciencia, y muy especialmente en las matemáticas. Era un matemático aficionado, al que apasionaba la geometría. Hacer ejercicios matemáticos solía relajarle y causarle gran placer. Su biógrafo J. S. C. Abbott escribió “Cuando tenía un momento para la diversión, no era infrecuente que lo utilizara en un libro de logaritmos, en el cual siempre encontraba entretenimiento”.
Se sentía orgulloso de ser miembro del Instituto de Francia. Entre sus amistades se contaban muchos científicos y matemáticos, entre los que estaban los matemáticos Jean-Baptiste Joseph Fourier (1768-1830), Gaspard Monge (1746-1818), Joseph-Louis Lagrange (1736-1813), Pierre-Simon Laplace (1749-1827), o los químicos Jean-Antoine Chaptal (1756-1832) y Claude Louis Berthollet (1748-1822). Monge y Fourier, con quienes Napoleón acabaría teniendo una fuerte amistad, le acompañaron en su campaña en Egipto. Se cuenta que por las noches solían resolver problemas juntos en su tienda de campaña.

Grabado “El general Bonaparte a borde del buque L’Orient discute con los científicos de la expedición a Egipto”, en el que podemos ver a Gaspard Monge en el centro de la imagen
Napoleón Bonaparte era consciente de la importancia de la educación, por eso fundó las dos grandes instituciones educativas de Francia, la Escuela Normal Superior y la Escuela Politécnica. La siguiente cita nos da una idea de la importancia que Napoleón le daba a las matemáticas: “El avance y perfección de las matemáticas está íntimamente ligado a la prosperidad del Estado”.
Por otra parte, Napoleón era muy amigo del poeta y matemático italiano Lorenzo Mascheroni (1750-1800). Este le dedicó su libro Geometria del Compasso (1797) a Napoleón. Incluso existe un problema que recibe el nombre de Problema de Napoleón, por haber sido propuesto por el general, y que resolvió Mascheroni. Es el problema de dividir la circunferencia en cuatro partes iguales utilizando únicamente el compás. Se dice que en cierta ocasión estaba Napoleón explicando este resultado de geometría a Lagrange y Laplace, y este último le contestó “Lo último que esperábamos de usted General, era una lección de geometría”.

“Napoleón en Fontainebleau”, 31 de Marzo de 1814, por Paul Hippolyte Delaroche (1797-1856)
Sin embargo, no hay ninguna constancia de que el teorema de Napoleón fuera realmente de Napoleón Bonaparte. Coxeter y Greitzer en su libro Geometry revisited, afirman que “la posibilidad de que [Napoleón] supiese suficiente geometría para realizar este logro es tan cuestionable como que supiese suficiente inglés como para componer el famoso palíndromo ABLE WAS I ERE I SAW ELBA (Hábil fui antes de ver Elba)”.
La primera vez que se publica algo relacionado con el teorema de Napoleón, fue en forma de problema en la revista The Ladies’ Diary, en 1825, propuesto por el matemático inglés William Rutherford (1798–1871):
Trácense triángulos equiláteros (los vértices apuntando todos hacia fuera o todos hacia dentro) sobre los tres lados de un triángulo ABC: entonces las líneas que unen los centros de gravedad de estos tres triángulos rectángulos forman un triángulo equilátero. Se requiere demostración.
Al año siguiente se publicaron en The Ladies’ Diary dos demostraciones del problema de los triángulos, una geométrica y otra analítica, aunque la revista recibió muchas más.

Extracto de la revista The Ladies’ Diary, de 1826, que contiene las dos soluciones, geométrica y analítica, del problema planteado por W. Rutherford
Aunque el teorema de Napoleón ya había apareció, con anterioridad, en forma de tres ejercicios de un examen para obtener la Medalla de Oro de la Universidad de Dublín, en 1820.
Muchos estudiosos son de la opinión de que este resultado ya era conocido con anterioridad, pero no se ha conservado ninguna publicación del mismo. Hay quienes citan a los matemáticos italianos Evangelista Torricelli (1608-1647), Bonaventura Cavalieri (1598-1647) o Vincenzo Viviani (1622-1703), puesto que habían estudiado figuras en las que se disponían triángulos equiláteros en los lados de un triángulo y podrían haber obtenido el resultado, o hay quien cita también al francés Pierre de Fermat (1601-1665), aunque no hay ninguna prueba documental de ello.
Por otra parte, después de ser publicado en The Ladies’ Diary este resultado ha sido redescubierto independientemente por muchas personas, lo cual nos da una pista de que quizás ya había sido enunciado y demostrado con anterioridad.
Según Branko Grünbaum, en su artículo Is Napoleon’s Theorem Really Napoleon’s Theorem?, la primera publicación conocida en la que se menciona a Napoleón en relación a este resultado es de 1911, en la edición decimoséptima del libro Elementi di Geometria, del matemático italiano Aureliano Faifofer (1843-1909). Faifofer menciona que es un “teorema propuesto para la demostración por Napoleón a Lagrange”.
Sin embargo, en el artículo de la wikipedia sobre el teorema de Napoleón se menciona que en la Enciclopedia Chambers, en el volumen IX, de 1867, ya se citaba a Napoleón en relación a esta cuestión.
Lo cierto es que no se sabe quién descubrió originalmente este teorema de triángulos, ni si realmente Napoleón se lo propuso a Lagrange para su demostración y este fue el motivo de que lleve su nombre. Lo único que sí es cierto es que este resultado se conoce hoy en día con este nombre, el teorema de Napoleón. Seguramente, será un ejemplo más de la ley de la eponimia de Stigler (por cierto, que el propio Stephen Stigler mencionó que esta ley ya había sido formulada por Robert K. Merton con anterioridad, cumpliéndose de nuevo la propia ley), que dice que “ningún descubrimiento científico recibe el nombre de quien lo descubrió en primer lugar”, como la regla de L´Hôpital, que realmente es de Johann Bernoulli, la ley de Benford, que la descubrió el astrónomo Simon Newcomb o los sistemas triples de Steiner, que estudió primero el matemático Thomas P. Kirkman.
Pero terminemos con algunas otras obras de la serie Triángulo de Napoleón de la artista donostiarra Esther Ferrer.

Obra de la serie “Triángulo de Napoleón” (finales años 1980), collage, de Esther Ferrer

“Triángulo interno de Napoleón”, Esther Ferrer, presentada en ARCO 2013

Maqueta de Esther Ferrer para la instalación “Triángulo interno de Napoleón” (finales años 1980), es la proyección del triángulo interno de Napoleón mediante hilo o cable

Dibujo para la instalación “Triángulo interior de Napoleón” (finales años 1980), de Esther Ferrer)
Bibliografía
1.- Esther Ferrer. Todas las variaciones son válidas, incluida esta (Palacio Velázquez, 26 de octubre de 2017 – 25 de febrero de 2018), Museo Reina Sofia
2.- Página web de Esther Ferrer
3.- Galería Àngels Barcelona, Esther Ferrer
4.- H. S. M. Coxeter and S. L. Greitzer, Geometry Revisited, Mathematical Association of America, 1967.
5.- GeoGebra
6.- Howard W. Eves, Mathematical Circles (volume I), MAA, 2003.
7.- Branko Grünbaum, Is Napoleon’s Theorem Really Napoleon’s Theorem?, The American Mathematical Monthly, vol. 119, n. 6, p. 495 – 501, 2012.
8.- Wikipedia: Napoleon’s theorem
9.- M. R. F. Smyth, MacCool’s Proof of Napoleon’s Theorem, Irish Math. Soc. Bulletin 59, p. 71 – 77, 2007.
10.- Alexander Bogomolny, Cut-the-knot, Napoleon’s Theorem
11.- Esther Ferrer, Maquetas y dibujos de instalaciones 1970/2011, EXIT, 2011.
12.- Esther Ferrer, Entre líneas y cosas, CEART, 2016.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Variaciones artísticas del teorema de Napoleón se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El teorema de Marion (Walter)
- El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba
- El teorema de los cuatro colores (1): una historia que comienza en 1852
Sistemas respiratorios: pigmentos de alta afinidad

Panulirus interruptus
En la anotación anterior hemos visto los pigmentos de baja afinidad, propios de animales normalmente bastante activos y que habitan medios con alta disponibilidad de oxígeno. Veremos aquí algunos ejemplos de especies que tienen pigmentos de características opuestas, o sea, de alta afinidad. Aunque en este caso no cabe asignar tal condición solo a aquellos que ocupan medios de baja disponibilidad de oxígeno.
De hecho, empezaremos el repaso por un grupo de animales que tienen pigmentos de alta afinidad y que, sin embargo, viven en medios con abundante oxígeno. Es el caso de muchos crustáceos decápodos. Dadas las características del medio en que viven (de alta tO2) cabría incluso pensar que debieran ser capaces de mantener su metabolismo sin el concurso de pigmento respiratorio alguno. Sin embargo, las tensiones parciales de oxígeno en sangre arterial y sangre venosa son muy bajas, impropias de animales que habitan medios bien oxigenados. En la langosta roja de California Panulirus interruptus, por ejemplo, esas tensiones son de 7 y 3 mmHg, y bajo esas condiciones, la hemocianina está saturada al 54% y al 22% respectivamente. La descarga de O2 corresponde, grosso modo, a la que se hubiera producido en ausencia de pigmento si las tensiones parciales arterial y venosa hubiesen sido similares a las de otros animales que viven en esos mismos medios. Pero resulta evidente que para tensiones arterial y venosa como las registradas en esta especie, respirar sin el concurso de un pigmento no es una opción. Al parecer, tanto en esta langosta como en otros decápodos la difusión de O2 del medio externo a la hemolinfa está muy limitada porque sus branquias se encuentran cubiertas por una cutícula quitinosa que dificulta enormemente el paso de oxígeno, pero no está claro a qué obedece esa configuración. Los límites impuestos a la difusión de oxígeno por la cubierta quitinosa imponen restricciones similares a las características de medios hipóxicos, y eso explica que los decápodos tengan pigmentos de alta afinidad.
Otro grupo de animales son los que viven en medios con baja disponibilidad de oxígeno o en los que tal característica puede variar de manera importante en ciertas ocasiones. Uno de los casos mejor estudiados es el de las larvas de ciertas especies de quironómidos, larvas conocidas como “gusanos sangrientos” por el color rojo que les proporciona la hemoglobina de su hemolinfa. Dependiendo de la especie, esa hemolinfa puede albergar entre 55 y 115 µl de O2 por ml de sangre (µl O2 ml-1) en forma combinada con el pigmento. Las curvas de disociación de esas hemoglobinas son prácticamente hiperbólicas y se encuentran entre los pigmentos de más alta afinidad por el O2 conocidos. El p501 (tensión de semisaturación) del pigmento, es extraordinariamente bajo: entre 0,1 y 0,6 mmHg. En estas especies, el pigmento no se descarga en absoluto a tO2 superiores a 60 mmHg. Para entender ese hecho, es importante recordar que en los medios circulatorios parte del oxígeno se encuentra disuelto y otra parte se encuentra combinado con el pigmento. En lo que a la fracción disuelta se refiere, la capacidad de oxígeno de la sangre, o sea, la concentración de O2 que corresponde a una hipotética tensión parcial de 158 mmHg (condiciones normales de presión parcial de O2 en el medio externo) ronda los 6 µl O2 ml-1. Es una capacidad muy pequeña, pero en numerosas especies es suficiente como para que, dadas sus demandas metabólicas, todo el O2 necesario pueda ser transportado de forma disuelta.
Ese es el caso de los quironómidos citados. Bajo condiciones de normoxia (altas tensiones ambientales de O2), todo el transporte del gas se produce en forma disuelta, porque dada la altísima afinidad de su hemoglobina por el O2, este no puede desprenderse del pigmento salvo que la tO2 baje de forma considerable. Pero cuando la disponibilidad ambiental de oxígeno baja y, en consecuencia, también baja la tO2 de la hemolinfa, el pigmento empieza a ceder parte del oxígeno que contiene. Ahora bien, solo llega a ceder fracciones significativas cuando la tO2 se reduce en una medida importante. Los gusanos sangrientos viven en tubos dentro de sedimentos en el fondo de lagos con una fuerte estratificación y se ven expuestos con frecuencia a periodos de muy baja disponibilidad ambiental de O2. Un pigmento de alta afinidad resulta funcional bajo esas condiciones, porque ayuda a captar oxígeno del exterior incluso bajo condiciones de hipoxia y cederlo posteriormente cuando el gusano deja de respirar o cuando, aún respirando, no es capaz de obtener suficiente oxígeno del medio externo.
Los quironómidos no son las únicas especies en las que los pigmentos de alta afinidad “tamponan” las variaciones ambientales en la disponibilidad de O2. Hay caracoles pulmonados que son secundariamente acuáticos y que cuando se sumergen hacen uso del oxígeno contenido en la hemoglobina de su hemolinfa.
Los pigmentos de alta afinidad, capaces de captar oxígeno con facilidad y que ejercen una cierta función de almacén se denominan “pigmentos de emergencia” y a la tarea que desempeñan la llamamos “transporte de emergencia”. Los de los gusanos sangrientos o los de los pulmonados que bucean cumplen esa función con claridad.
Aunque no se conocen vertebrados cuyos pigmentos tengan una afinidad para con el oxígeno tan alta como la de los invertebrados citados, algunos peces tienen pigmentos de baja tensión de carga. Las hemoglobinas de la carpa y el pez gato, por ejemplo, tienen unos p50 del orden de 1-5 mmHg; son peces que viven en medios en los que ocasionalmente puede reducirse de manera importante la concentración de O2. Aunque el pigmento respiratorio de esas especies también transporta O2 bajo condiciones de normoxia, esa alta afinidad les garantiza contar con una reserva cuando han de hacer frente a condiciones de hipoxia. A efectos comparativos, tenemos, en el otro extremo, a la caballa o la trucha arco iris, que viven en aguas de elevada concentración de oxígeno, despliegan una importante actividad y, en consonancia, tienen hemoglobinas cuyos p50 se encuentran entre 16 y 18 mmHg.
Fuentes:
Richard W. Hill, Gordon A. Wyse & Margaret Anderson (2004): Animal Physiology. Sinauer Associates, Sunderland
John D. Jones (1972): Comparative physiology of respiration. Edward Arnold, Edinburgh
Knut Schmidt-Nielsen (1997): Animal Physiology. Adaptation and Environment. Cambridge University Press; Cambridge
Nota:
1 El p50 es la presión o tensión parcial a que el pigmento respiratoro se encuentra sturado al 50%. Se utiliza como indicador de la afinidad del pigmento
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas respiratorios: pigmentos de alta afinidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Sistemas respiratorios: pigmentos de baja afinidad
- Sistemas respiratorios: los pigmentos respiratorios
- Sistemas respiratorios: distribución de los pigmentos
La relatividad de la longitud

Después de leer este artículo podrás explicarles a tus amigos qué significa este graffiti que se encuentra en Leiden (Países Bajos), aunque no tengas ni idea de neerlandés.
Los dos postulados de la teoría de la invariancia [1] también conducen a la relatividad de una segunda variable fundamental, la longitud. Einstein volvió a aplicar los dos postulados a un experimento mental (no a un experimento real [2]) que implica un proceso de medición extremadamente simple. Otra vez estamos ante una forma de deducir las consecuencias físicas de sus dos postulados fundamentales, en la que, de nuevo, la velocidad constante de la luz es la clave, mientras que el principio de relatividad es la suposición subyacente.
Vamos a dejar que en esta ocasión Mónica y Esteban descansen y en este experimento Moisés será el que esté en movimiento uniforme en nuestro vagón plataforma con respecto a Ester, que permanece estática respecto al suelo. El experimento consiste en algo tan simple como medir el vagón.
Moisés lleva un metro para medir la longitud a lo largo de su plataforma, esto es, va a medir una longitud en la dirección en la que el objeto se mueve. Obtiene exactamente 10 m. Ester intenta medir la longitud de la plataforma de Moisés con su metro cuando la plataforma de Moisés pasa por delante a su velocidad constante. Tiene que ser rápida, ya que debe leer los dos extremos del metro en el mismo instante; si esto no fuese así, es decir, si ella midiese primero uno de los extremos, el otro se habría movido hacia adelante antes de llegar a él. Como Ester es ingeniosa, ha diseñado un sistema óptico que le permite hacerlo simultáneamente. Pero hay un problema: la luz desde la parte delantera y desde la parte trasera del vagón tardan una cierta cantidad de tiempo en alcanzarla, y en ese breve lapso de tiempo, la plataforma ha avanzado.
Las longitudes medidas por los dos observadores están relacionadas entre sí por la misma raíz cuadrada que aparecía para la dilatación del tiempo. Moisés, que está en reposo en relación con su plataforma, mide la longitud de la plataforma le, pero Ester, que debe medir la longitud de la plataforma movimiento de Moisés desde su marco estacionario, mide su longitud como lm. Einstein demostró que, debido a la velocidad constante de la luz, estas dos longitudes no son iguales, sino que se relacionan por la misma raíz cuadrada que aparecía para la dilatación del tiempo.
Efectivamente, como la velocidad de la luz c es constante, podemos escribir que c = lm/Δtm = le/Δte donde Δtm y Δte son los intervalos de tiempo que mide cada observador que se tarda en recorrer la longitud correspondiente. De aquí tenemos que lm = le · Δtm/Δte y como Δte = Δtm /√(1-v2/c2), obtenemos que lm = le·√(1-v2/c2). [3]
Esta ecuación nos dice que, como la velocidad de la luz no es infinita, la medición de Ester de la longitud de la plataforma siempre resulta ser más corta que la longitud que mide Moisés, ya que el resultado de esa raíz cuadrada siempre es menor que 1. Cuanto más rápido se mueve la plataforma, más corta resulta para la medición de Ester. Si la plataforma está quieta, v = 0, y entonces lm = le.
Por lo tanto:
Las mediciones de longitud no son absolutas e invariables, sino relativas. De hecho, un objeto que se mueve en relación a un observador estacionario parece a ese observador en ese marco de referencia que es más corto en la dirección del movimiento que cuando su longitud la mide un observador que se mueve con el objeto; y parece más corta cuanto más rápido se mueve el objeto. Este efecto se conoce como contracción de la longitud.
Pero eso no significa que el objeto se contraiga cuando se mueve: la “contracción” observada, que es solo en la dirección del movimiento, no perpendicular a ella, es un efecto de la medición hecha desde otro sistema, como lo fue el efecto en las observaciones relativas del tiempo transcurrido, la “dilatación” del tiempo.
Cuando v = 0,8c, por ejemplo, el aparente acortamiento visto por Ester de la plataforma de Moisés moviéndose hacia la derecha, y del propio Moisés y todo lo que se mueve con él, sería de aproximadamente 0,6 le . Pero, recordemos, no existen marcos de referencia especiales [4], por lo que es simétrico. Como Moisés puede considerar que su marco de referencia está en reposo, Ester parece moverse rápidamente hacia la izquierda, y son ella y todo lo que la acompaña lo que le parece a Moisés acortadas en la misma cantidad.
La contracción aparente continúa hasta la velocidad de la luz, en cuyo punto la longitud del objeto en movimiento le parecerá cero al observador estacionario. Sin embargo, no se puede conseguir que ninguna masa pueda alcanzar la velocidad de la luz, por lo que nunca se puede alcanzar la longitud cero, aunque en los aceleradores (colisionadores) las partículas elementales se acercan bastante a ese límite.
Notas:
[1] Popularmente, teoría de la relatividad.
[2] Ruego la indulgencia del atento lector por reiterar lo obvio; lo hacemos pensando en otros lectores quizás no tan atentos.
[3] Alguien habrá al que le parezcan muchas matemáticas, pero estamos hablando de álgebra elemental, elevar a potencia y hallar raíces cuadradas. Y lo maravilloso es que son todas las matemáticas que hacen falta para entender una de las teorías más fantásticas que haya creado mente humana. ¡Y se dan en primaria!
[4] De acuerdo con el principio de relatividad, no hay ningún experimento que se pueda realizar dentro de un marco de referencia inercial que revele si éste está en reposo o moviéndose a una velocidad uniforme. Un marco de referencia inercial es un marco de referencia que está en reposo o en velocidad uniforme en relación con otro marco de referencia.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La relatividad de la longitud se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El principio de relatividad (y 4): la versión de Einstein
- El principio de relatividad (2): la versión de Galileo
- El principio de relatividad (3): la invariancia de Galileo
La soledad se contagia

Foto: Julian Corlaci
La soledad no es sólo una condición desagradable y todo lo contrario a placentera. Además de causar un estado de ánimo negativo en quien la sufre, es causa de un buen número de afecciones, como enfermedades cardiovasculares, obesidad, o debilitamiento del sistema inmune, entre otras. Por otro lado, se da la circunstancia de que una persona puede sufrir soledad aunque se encuentre rodeada de gente de forma permanente; basta con experimentar la sensación o el sentimiento de encontrarse uno aislado para encontrarse solo.
Por si lo anterior no fuera suficente, de acuerdo con un estudio publicado en la revista Personality and Social Psicology, la soledad se contagia. Quiere esto decir que cuando en una red social una persona empieza a manifestar sentimientos de soledad, otras personas próximas también irán progresivamente sintiendose solas. A título indicativo, cabe decir que, tomando como referencia la media, es un 50% más probable que experimente sentimientos de soledad una persona que se encuentre en contacto directo con otra a la que le ocurre lo mismo.
La razón por la que la soledad se contagia es porque hace que la gente actue hacia los demás de una forma más negativa y menos generosa; ese comportamiento debilita los lazos existentes entre las personas concernidas, acentuándose de esa forma los sentimientos de soledad. Es un efecto más intenso entre amigos que entre familiares, algo que no parece necesario explicar. Y se produce con más frecuencia entre mujeres que entre hombres, porque las mujeres demandan de sus amistades más apoyo emocional y social que los hombres.
Así pues, la soledad no solo conlleva un deterioro de la salud, también es contagiosa. Puede, por tanto, ser catalogada como una enfermedad.
Referencia:
Cacioppo, J. T.; Fowler, J. H.; Christakis, N. A. (2009): “Alone in the crowd: The structure and spread of loneliness in a large social network.” Journal of Personality and Social Psychology Vol 97(6): 977-991.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La soledad se contagia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El terrorismo como sacerdocio
- El altruismo en las mujeres se ve recompensado
- Diversidad religiosa y el estrés de las enfermedades infecciosas
Neurociencia cognitiva – Redolar
César Tomé López, lector
La neurociencia cognitiva está de moda. Rara es la semana que alguna noticia relacionada con ella no aparece en algún medio de información general. Y está de moda por méritos propios, porque es la ventana que la ciencia ha abierto al interior de la mente humana (suponiendo, claro, que tal cosa exista).
La neurociencia cognitiva es una ciencia interdisciplinar que intenta encontrar la relación existente entre la actividad neuronal, y del encéfalo en su conjunto, con el comportamiento. Implica la participación de biólogos, médicos, químicos, físicos, matemáticos, informáticos, lingüistas, ingenieros y psicólogos, con todas las subespecialidades imaginables.
En los once años que lleva servidor escribiendo con regularidad en blogs me he ocupado de la neurociencia cognitiva ampliamente. Mi interés en el tema viene de antiguo y llegó a tal punto que cuando surgió la oportunidad me matriculé en el máster en neurociencia y biología del comportamiento de la Universidad Pablo de Olavide (Sevilla) en 2006.
Mi referencia bibliográfica durante mucho tiempo fue un texto que no es estrictamente de neurociencia cognitiva, el Kandel, pero en versión original y sabiendo que no trata aspectos importantes de la neurociencia cognitiva de vanguardia. Por eso el texto publicado en 2014 por Editorial Médica Panamericana que ha coordinado (y escrito en parte) Diego Redolar, de la Universitat Oberta de Catalunya, y que se llama, precisamente, “Neurociencia Cognitiva”, nos parece, ahora que lo estamos consultando más asiduamente por motivos variados, un estupendo libro.
En primer lugar, se nota muy mucho que Redolar es profesor en una universidad a distancia. Efectivamente, los textos son autocontenidos, con referencias cruzadas claras (también a los materiales suplementarios de la web), con refuerzos visuales de los conceptos importantes y recuadros donde entrar en el detalle de algún aspecto mencionado en el texto principal. Además el lenguaje es todo lo llano y fluido que puede ser un texto académico (aunque se empeñe en usar la palabra cerebro donde debiera decir encéfalo). Y esto, coordinando a una cincuentena larga de especialistas dispersos por dos continentes que han contribuido al trabajo, es un logro no menor.
En segundo lugar, no se ha evitado entrar en temas que son de la más absoluta vanguardia y que pueden, incluso, ser polémicos. Así, por ejemplo, tras los capítulos dedicados a la introducción histórica a la materia (un capítulo muy recomendado a los psicólogos), a la neuroanatomía y a la metodología, el capítulo 5 está dedicado a las bases de la conectividad funcional exploradas usando la actividad espontánea del cerebro; algo que hace solo 7 años todavía había que explicar qué era.
Otros temas llamativos son el capítulo 22 “Conducta sexual, cerebro, cognición y afectividad” que no es políticamente correcto precisamente, pero es que la ciencia no lo es. El 27 “Control ejecutivo, toma de decisiones, razonamiento y resolución de problemas” tras una introducción anatomofisiológica a las partes relevantes del encéfalo, se mete en asuntos que serían de obligada lectura para todo economista que aún piense que los humanos toman decisiones racionalmente.
Especialmente importante es que Redolar no rehuye una de las grandes cuestiones, a diferencia del Kandel que le dedica media página de perfil, y el capítulo 28 está dedicado a “La conciencia: conceptos, hipótesis y observaciones clínicas y experimentales”; es un capítulo que se lee especialmente bien y que está muy recomendado para quien piense que aún es necesaria la hipótesis cuántica o la existencia de un alma para explicar la consciencia. Finalmente, y no podía faltar en texto moderno, el capítulo 29 está dedicado a la “Neurocomputación y modelización de sistemas cognitivos”.
Consideración aparte merece el sorprendente por inesperado capítulo 30 dedicado a la divulgación de la ciencia. Su título lo dice todo “La difusión de los avances y las aplicaciones en neurociencia cognitiva: necesidad, reto y responsabilidad”. Es muy interesante. Y discutible en algunas cosas.
En definitiva, un texto muy completo, bien escrito, que interesará a un amplio abanico de estudiantes y curiosos.
Para concluir un par de aspectos materiales. Primero, el libro es muy bonito. Puede parecer extraño, pero es la sensación que se tiene al ojearlo, hojearlo y leerlo; es un objeto muy agradable, aunque pese lo suyo. Segundo, no es barato precisamente.
Ficha:
Autor/Coordinador: Diego Redolar Ripoll
Título: Neurociencia cognitiva
Año: 2014
Editorial: Editorial Médica Panamericana
Nota: Esta reseña es una actualización y revisión de la que publiqué en 2013 con el lanzamiento del libro.
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
El artículo Neurociencia cognitiva – Redolar se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Computación cognitiva de espectros infrarrojos
- Arte & Ciencia: Sobre la dimensión cognitiva del arte en relación a la ciencia
- La neurociencia como religión
Naukas Bilbao 2017 – Francisco R. Villatoro: El espín para irreductibles
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Javier Peláez, quizás más conocido online como Irreductible, suele repetir que el concepto de espín se le escapa. Francis aceptó el reto de explicárselo de una vez por todas. Puede caber alguna duda de si logró su objetivo. En cualquier caso, el resultado fue una charla antológica.
Francis Villatoro: El espín para irreductiblesEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Francisco R. Villatoro: El espín para irreductibles se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma
- Naukas Bilbao 2017 – Mónica Lalanda: Una muerte de cómic
- Naukas Bilbao 2017- Daniel Torregrosa: ¡Estamos rodeados!
Las baterías ion sodio, la alternativa estacionaria

Estructura de una batería de ion sodio. Imagen: Victor Josan /Shutterstock
El constante aumento del consumo de energía, principalmente basado en combustibles fósiles, está causando serios problemas medioambientales. La alternativa podría ser la utilización de fuentes de energía renovables, pero su intermitencia dificulta su uso, por lo que son cada vez más necesarios los dispositivos de almacenamiento eléctrico. Los sistemas de almacenamiento electroquímico en general, y las baterías en particular, se presentan como la mejor solución a ese inconveniente.
“Desde su comercialización, las baterías de ion litio (Li-ion) han sido la tecnología predominante en el mercado. Sin embargo, las baterías de ion sodio (Na-ion) se han convertido en una alternativa a la tecnología de Li-ion para aplicaciones estacionarias en las que el peso del dispositivo no es de gran importancia debido al menor coste del sodio con respecto al litio, a su mayor abundancia y a su distribución más homogénea”, afirma Paula Sánchez, autora del estudio.
A pesar de que el sodio presenta propiedades químicas similares a las del litio, la tecnología de Li-ion no es directamente transferible. Por ello es necesaria la búsqueda de nuevos materiales compatibles para las baterías de sodio. La investigación de la UPV/EHU se ha centrado en concreto en los materiales anódicos para ese tipo de baterías.
Por un lado, en este trabajo se han desarrollado materiales derivados de la lignina, un biopolímero no comestible presente en las plantas. Para la síntesis de estos materiales se ha aislado lignina a partir del licor negro, un desecho de la industria papelera. La optimización de la síntesis se ha orientado a la mejora de las propiedades electroquímicas de los carbones a través de la mejora de su pureza. Para ello se han empleado varias técnicas de caracterización con el objetivo de correlacionar las propiedades físico-químicas de los materiales de carbón y sus propiedades electroquímicas. Y es que, según Sánchez, dado el bajo coste de su precursor, su facilidad de síntesis, no toxicidad y relativamente alta capacidad de almacenamiento de la electricidad, “los hard carbons se han perfilado como materiales anódicos prometedores para baterías de ion sodio”.
Se han desarrollado, asimismo, unos materiales anódicos poliméricos de bajo coste, que se sintetizan fácilmente y son seguros. Además, poseen la gran ventaja que pueden ser utilizados como un aglutinante. “Cuando se elabora una batería a nivel industrial, se requiere que el electrodo tenga buenas propiedades mecánicas. Para ello, normalmente se le añade un aglutinante que es necesario, pero a su vez contribuye en el peso de la batería y eso hace que la densidad energética de la batería sea más baja”, explica Sánchez. Por ello, en todo momento se intenta disminuir al máximo ese contenido. En este trabajo “hemos conseguido desarrollar un material novedoso, un polímero aglutinante, que aunque genere cierto peso en la batería también es capaz de insertar los iones de sodio, es decir también funciona como ánodo, de tal manera que, el exceso de peso queda parcialmente paliado por la capacidad extra que proporciona el novedoso polímero”, añade Paula Sánchez.
A la vista de los resultados obtenidos, la investigadora añade que “gran parte de la comunidad científica está ahora dedicada al estudio de las baterías de ion sodio que podrán competir en un corto espacio de tiempo con las ya comercializadas de litio ion para aplicaciones estacionarias”.
Referencia:
N. Fernández, P. Sánchez-Fontecoba, E. Castillo-Martínez, J. Carretero-González, T. Rojo, M. Armand (2018) ChemSusChem doi: 10.1002/cssc.201701471
El artículo Las baterías ion sodio, la alternativa estacionaria se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Baterías de litio y oxígeno sólido
- ADN para la nueva generación de baterías
- La teoría de bandas de los sólidos se hace topológica
Tesoros que oculta el reciclaje

Palimpsesto
Os invito a viajar a través de la historia. Iniciaremos nuestro recorrido visitando uno de los lugares en los que más me gusta perderme, una biblioteca. Pero no una cualquiera, la segunda biblioteca más célebre de la Antigüedad.
La biblioteca de Pérgamo fue fundada por el rey Atalo I, cuyo reinado se extendió desde el 241 y el 197 a.C. Su construcción respondía a la voluntad del monarca de convertir la capital en una nueva Atenas de Pericles. Su hijo, Eumenes II, fue el mayor mecenas e impulsor de la biblioteca logrando que compitiese en importancia con la gran biblioteca de Alejandría.
Llegó a conservar alrededor de 200 000 volúmenes, si bien algunas fuentes hablan de una cantidad menor y en otras esta asciende hasta 300 000. La propia rivalidad con la biblioteca alejandrina puede ser la causante de la imprecisión de esta cifra, que pudo ser reducida o aumentada según se desease otorgarle mayor o menor relevancia a la institución. Los estudios llevados a cabo en la escuela de Pérgamo abordaban una amplia diversidad de disciplinas: historia del arte, viajes y epigrafía, topografía, cronología, filosofía estoica y literatura.
Los conocimientos acerca de esta biblioteca provienen, principalmente, de la obra Historia Natural de Plinio el Viejo. Este escritor y viajero romano también fue quien atribuyó la invención del pergamino a la lucha por el dominio cultural entre Pérgamo y Alejandría. Según cuenta, Ptolomeo, rey de Egipto, decretó un embargo a la exportación de papiro y esto propició que surgiese el pergamino en la corte del rey Eumenes II. Por desgracia, esta historia aportada por Plinio el Viejo no encaja con la realidad, ya que se sabe que en el siglo V a. C. los griegos del Asia Menor ya escribían en ellos. Puede que la evidente relación entre el pergamino y Pérgamo provenga del hecho de que esta ciudad fue una gran productora y exportadora de este material. En cualquier caso, el pergamino, siendo más resistente y aprovechable que el papiro, le ganó la partida como soporte para la escritura.

Acrópolis de Pérgamo.
Por lo que se refiere a la biblioteca de Pérgamo, su final fue propiciado por su mayor rival. Tal y como narra Plutarco en Vidas Paralelas, Marco Antonio mandó al Serapeo de Alejandría los volúmenes de la biblioteca de Pérgamo como recompensa por las pérdidas que había sufrido la biblioteca de Alejandría en el incendio del 47 a. C.
Del papiro al pergamino
Los libros de la biblioteca de Alejandría estaban hechos de papiro, una planta fibrosa que crecía en el delta del Nilo y en ciertas zonas de Etiopía, Siria, Palestina o Sicilia.
Los expertos, provistos de un punzón, abrían perpendicularmente la corteza triangular del tallo y extraían el líber en finas tiras de hasta 5 m de longitud. Después, una vez secas, las superponían por los bordes y las humedecían y golpeaban para conseguir una capa compacta y resistente. A esta primera capa, le añadían una segunda construida con el mismo procedimiento, con las tiras dispuestas de manera perpendicular. Como resultado, se formaba una banda flexible que se dejaba secar al sol y más tarde se pulía con piedra pómez, una concha de molusco o una pieza de marfil para uniformar su superficie. A cada uno de los extremos de la tira se pegaba una varilla de madera, marfil o hueso, denominada umbiculus, que permitía enrollar y desenrollar la banda. Una vez enrollada, se ataba con una cinta llamada lora y se colgaba en uno de sus extremos, una etiqueta con el título de la obra y el autor. El texto se plasmaba sobre la cara anterior del soporte, distribuyéndolo en columnas verticales que podían leerse de derecha a izquierda.
En Pérgamo, fuese por las dificultades en encontrar papiros o por la elección de un soporte más cómodo y duradero, se inclinaron por el uso de pieles de animal. Las más preciadas eran las de ternera, cabra, oveja o carnero, mientras que las de vaca y cerdo se consideraban demasiado gruesas. El pergamino se obtenía por maceración de la piel en cal y su posterior raspado, estirado, secado y pulido, hasta convertirla en una membrana lisa y translúcida. El componente básico del pergamino es el colágeno, además de la queratina, la elastina y una mínima cantidad de albúmina y globulinas. Su susceptibilidad al biodeterioro depende de la materia prima, del método de producción y del estado de conservación.
En presencia de aire, el pergamino parcialmente deteriorado puede ser atacado por microorganismos y perder sus propiedades originales, volviéndose duro y frágil. Además, el desarrollo microbiano puede provocar manchas de distinto color, pátinas blanquecinas y desvanecimientos de los textos escritos.
En su inicio los pergaminos se enrollaban como los papiros, cosiendo las piezas una a continuación de la otra, pero con el tiempo, por practicidad, se optó por cortarlos en forma de hojas rectangulares que se podían plegar para obtener cuadernillos. Estos se cosían entre sí y se protegían con una cubierta de madera o piel reforzada formando lo que se conocía como códice.
Por tanto, este tipo de volúmenes ya contenían lo que pasaría a ser una parte fundamental del libro: la página, que en el futuro se numeraría posibilitando la realización de índices. La portabilidad y facilidad de escritura del nuevo soporte le proporcionó un gran éxito y permitió que en Roma se reprodujeran obras literarias y traducciones de autores griegos.
El palimpsesto
Como ya se he apuntado, el pergamino constituía un mejor soporte que el papiro. Permitía la escritura por las dos caras, doblando la cantidad de espacio disponible, y, lo que todavía resultaba más interesante: se podía borrar la primera escritura (escritura inferior o scriptio inferior) mediante lavado o raspado y utilizarse de nuevo (escritura superior o scriptio superior). El lapso de tiempo entre ambas copias, así como la disposición de la segunda escritura varía en gran medida de un manuscrito a otro.
A los códices escritos sobre folios de pergamino cuya primera escritura ha sido eliminada, se los conoce como palimpsestos. Aunque también denominamos palimpsesto a un manuscrito que transmite solo algunos cuadernillos o unos simples folios. Esta variedad tipológica dificulta la elaboración de un censo completo de palimpsestos grecolatinos.
Esta antigua práctica de reciclado se practicaba con frecuencia dado lo costoso y escaso que era el pergamino y nos ha permitido recuperar grandes obras perdidas.
Las increíbles aventuras del Palimpsesto de Arquímedes
Arquímedes fue considerado uno de los pensadores más importantes de la antigüedad clásica. Sus aportaciones en los campos de la física y las matemáticas han dejado un legado de gran importancia para el avance de la ciencia. Supo unir la lógica matemática a la experimentación, por lo que puede considerársele precursor de Galileo.
El Palimpsesto de Arquímedes es un libro del siglo XIII en el que se descubrieron nuevas obras del matemático de Siracusa. Está formado por 174 páginas de pergamino, con tapas de madera. En su interior se plasma el paso del tiempo y todas las vicisitudes a las que tuvo que hacer frente. El palimpsesto fue víctima de la cera, del pegamento, del fuego y de un hongo morado que, allí donde actuó, se comió el colágeno y acabó con el texto de Arquímedes. Es un gran superviviente que nos ha permitido recuperar un texto fundamental para el estudio de la historia de las Matemáticas.
La historia del palimpsesto parece remontarse al siglo X, cuando un escriba monástico, probablemente en Constantinopla, transcribió el texto de Arquímedes de alguna fuente anterior. Dos siglos más tarde, en 1229, cuando en el monasterio escasearon los materiales, el monje cristiano Johanes Myronas desencuadernó el libro de Arquímedes, borró la tinta, cortó las páginas por la mitad, las colocó perpendicularmente y las unió a otras que había extraído de otros seis libros antiguos, para formar un nuevo el libro sobre el que escribió textos religiosos. Afortunadamente, quedó un rastro de tinta escondido en el texto cristiano y el libro de oraciones, que permaneció varios siglos en el monasterio de San Sabas, fue la mejor caja fuerte para un contenido que en aquellos tiempos no hubiese sido entendido ni valorado.
El monasterio de San Sabas se encontraba en pleno desierto de Judea y fue comprado en 1625 por el Patriarcado Ortodoxo Griego de Jerusalén. En 1839, cuando fue visitado por el reverendo George Croly, el libro de oraciones todavía estaba en la biblioteca, junto a más de un millar de manuscritos. Pero por aquel entonces, le tocó hacer dos escapadas. La primera fue al monasterio del Santo Sepulcro de Jerusalén, cuando el Patriarcado ordenó reunir allí los acervos de varias bibliotecas. Más tarde lo trasladaron al Metochion de la Iglesia del Santo Sepulcro, una casa dedicada a la administración monacal situada en Constantinopla. Hay constancia de que el libro de oraciones ya estaba allí en 1846. Año en el que Constantin von Tischendorf visitó el Metochion con el fin de aprovechar la ignorancia de los monjes para hacerse con varios documentos antiguos. Dejó anotado que en la biblioteca del Patriarca no había nada interesante salvo «un palimpsesto que trata de matemáticas», lo que prueba que en aquel momento ya se sabía que el libro de oraciones estaba escrito sobre un texto antiguo. Tischendorf desconocía su valor pero se llevó de recuerdo una página en su mochila. Treinta años más tarde, tras su muerte, sus herederos venderían a Cambridge cuarenta y cuatro hojas de manuscritos antiguos. Pero no fue hasta 1983, que se reconoció que una de las hojas era la página que faltaba en el Palimpsesto de Arquímedes.

Constantin von Tischendorf.
Otra prueba del conocimiento que se tenía por aquel entonces de las características del Palimpsesto, es el inventario de las riquezas manuscritas del Metochion que hizo Athanasios Papadopoulos-Kerameos en 1899. En él no solo se incluía el libro de oraciones, sino que también se señalaba la presencia de material de matemáticas en griego bajo el texto litúrgico. El inventario, además, incluía parte del contenido del palimpsesto, lo cual llamó poderosamente la atención del filólogo danés Johan Ludvig Heiberg quien, en 1880, había publicado una edición monumental de las obras conocidas de Arquímedes, y enseguida identificó al autor del texto. Así que, en 1906 y en 1908, visitó el Metochion para recopilar toda la información que pudo. Hizo numerosas fotografías y, ya una vez en casa, con la única ayuda de una lupa, se dispuso a recuperar el texto del matemático. Sus hallazgos fueron la base de una segunda edición de las obras de Arquímedes que publicó entre 1910 y 1915 y le valieron una portada en The New York Times (el 16 de julio de 1907).
Después de la Primera Guerra Mundial el Patriarca de la Iglesia Ortodoxa Griega ordenó que los libros y manuscritos del Metochion fueran enviados a la Biblioteca Nacional de Grecia para garantizar su seguridad. Sin embargo, de las 890 obras catalogadas por Papadopoulos-Kerameos, en Atenas solo se recibieron 823, entre las cuales, no estaba el Palimpsesto de Arquímedes.
Parece ser que poco antes de la mudanza de la biblioteca, un funcionario francés llamado Marie Louise Sirieix, presumiblemente le compró el palimpsesto a uno de los monjes. Pero no existe ningún registro de dicha operación y Sirieix se limitó a volver a Francia y conservar el libro en el seno familiar.
Para desgracia del palimpsesto, en su nueva ubicación se le pintaron, a página entera, imágenes de estilo bizantino de los cuatro evangelistas. Pudo ser para darle más importancia al libro y que se asemejase más a un Nuevo Testamento que a un libro de oraciones, lo que da a entrever que sus entonces dueños desconocían su importancia. Sireix murió en 1956 y el palimpsesto pasó a manos de su hija Anne Guersan. Esta y su hijo Robert Guersan, se percataron a principios de la década de 1960, del deterioro sufrido por el libro y tras consultar a expertos como el profesor Jean Bollack, el profesor A. Wasserstein y el padre J. Paramelle, lo enviaron a París para su restauración. Diez años más tarde, los Guersan por primera vez se plantearon vender el palimpsesto y prepararon e hicieron circular doscientos folletos sobre el manuscrito, cien en francés y cien inglés. Instituciones como la Biblioteca Beinecke de Libros Raros, de la Universidad de Yale; Libros Raros y Manuscritos H. P. Kraus, de Nueva York; el Centro de Investigaciones sobre Humanidades de la Universidad de Texas, o la Universidad de Pittsburgh; estuvieron interesadas pero en ningún caso se procedió a la venta.

Ilustración
Finalmente, a principios de la década de 1990, la familia Guersan entregó el manuscrito a la casa de subastas Christie’s, a título de consignación, para su eventual venta. Christie’s pudo constatar su autenticidad comparando el documento con las fotografías de Heiberg y estimó que podía conseguir de 800 mil a 1.2 millones de dólares. El 13 de agosto de 1998, la empresa puso en conocimiento al gobierno griego de su intención de subastar el Palimpsesto de Arquímedes, y este puso sobre aviso al Patriarcado de la Iglesia Ortodoxa Griega de Jerusalén. El representante de Christie’s en Grecia llegó a ofrecer a las autoridades griegas la venta directa del manuscrito por 400 mil dólares, pero declinaron la oferta. Como consecuencia, Christie’s anunció en septiembre que subastaría el libro el 29 de octubre.
Cinco días antes de la subasta, el ministro de Cultura de Grecia, Evangelos Venizelos, comunicó a la prensa que el palimpsesto era propiedad legal del Patriarcado puesto que no existía ningún registro de la venta y el Patriarcado inició una acción legal contra Christie’s y la familia Guersan para impedir la venta.
El 29 de octubre de 1998, las actividades en Christie’s se iniciaron con la lectura de un boletín de prensa que decía lo siguiente: «Christie’s tiene el placer de informar a sus clientes que la Corte Federal de Nueva York negó anoche una moción del Patriarcado Ortodoxo Griego de Jerusalén para detener la venta, esta tarde, del Palimpsesto de Arquímedes. El juez decretó que bajo las leyes aplicables, nuestro consignatario tiene claramente derecho a vender el manuscrito, y la venta se realizará conforme a lo programado». El ganador de la puja fue Simon Finch, que compró el manuscrito para un coleccionista privado estadunidense que sigue en el anonimato. El juez Kimba Wood ratificó que la venta era legal el 18 de agosto de 1999.
Recuperando el texto oculto
El propietario del manuscrito se lo prestó al Museo de Arte Walters, para que llevasen a cabo las tareas de conservación y análisis necesarias para exhibirlo al público. Entre junio de 1999 y mayo del 2001, se organizó un certamen para integrar un equipo multidisciplinario que recuperase el texto de Arquímedes. Los dos finalistas fueron el Instituto Tecnológico de Rochester y la Universidad Johns Hopkins, que, mediante técnicas de obtención de imágenes multiespectrales, microscopía confocal y procesado de la imagen, recuperaron alrededor de 80 por ciento del texto.

Uwe Bergmann, a la izquierda, y Will Noel colocan fragmentos del Palimpsesto en frente del haz de rayos X.
Pero antes de poder analizar las páginas tuvieron que hacer frente a dos problemas. El primero fue el desmontaje del libro, tarea que les llevó cuatro años. Había pegamento Elmer’s Wood en el lomo, una emulsión de acetato de polivinilo que una vez seco no se disuelve en agua y es más fuerte que el pergamino donde estaba pegado. El segundo fue el raspado mecánico de la cera que se había depositado en las páginas, proveniente de las velas que se utilizaban en los servicios litúrgicos.
Para analizar el 20 por ciento restante que había quedado oculto por las imágenes religiosas añadidas se recurrió a la ayuda del físico Uwe Bergmann del laboratorio sincrotrón de la Universidad de Stanford, que, a finales de 2003, se dio cuenta de que la técnica que empleaba para observar la fotosíntesis en las hojas de espinacas podría ser útil para descifrar el texto de las páginas del Palimpsesto de Arquímedes que quedaban por recuperar. La técnica en cuestión se denomina fluorescencia de rayos X y pudo realizarse gracias a que la tinta con que se escribió el palimpsesto contenía hierro. Detectando las moléculas de hierro se pudo determinar las zonas en las que quedaban rastros de tinta.
Para llevarlo a cabo se utilizaron rayos X “duros” (muy energéticos), cuya longitud de onda es de alrededor de 1 Angstrom, comparable a las distancias entre los átomos y, por tanto, capaz de interaccionar con estos para aportar información sobre los mismos. A su vez, estos rayos X, al generarse en un sincrotrón, contaban con un haz muy fino y muy intenso que posibilitaba escanear una página aproximadamente en 12 horas, más o menos 300 veces más rápido que con un tubo de rayos X.
La interacción de este haz con la materia aportaba la energía suficiente para desprender electrones fuertemente ligados en los orbitales internos del átomo. Esta carencia electrónica en las capas más próximas al núcleo deja inestable la estructura electrónica que recupera su estabilidad mediante la caída de los electrones de orbitales más elevados hacia los orbitales más bajos, ocupando los huecos de los electrones internos desprendidos. En estas transiciones se produce un exceso de energía que se disipa en forma de fotones cuyas energías son iguales a las diferencias de energía entre los dos orbitales involucrados y características del átomo del material irradiado. Así pues, conociendo la diferencia de energía entre los orbitales del hierro, el detector podía marcar aquellos puntos donde estaba oculta la tinta.
El 29 de octubre de 2008, en el décimo aniversario de la adquisición del palimpsesto por subasta, las imágenes procesadas del palimpsesto fueron publicadas en orden en Google Libros.
El contenido
Además de obras de otros autores, el palimpsesto contenía siete obras del matemático griego:
- Sobre el equilibrio de los planos
- Sobre las espirales
- Medida de un círculo
- Sobre la esfera y el cilindro
- Sobre los cuerpos flotantes
- El método de los teoremas mecánicos
- Stomachion(copia más completa de todas las conocidas)
Dos de las cuales tienen especial relevancia: la única copia conocida de su tratado Sobre los cuerpos flotantes, escrita en griego y el texto de El método de los teoremas mecánicos, que se creía perdido.
La particularidad de El método de los teoremas mecánicos radica en el uso de la experimentación previa a la hora de resolver los problemas. En una carta a Eratóstenes, Arquímedes lo expresa de la siguiente manera: «será posible captar ciertas cuestiones matemáticas por medios mecánicos, lo cual, estoy convencido, será útil para demostrar los mismos teoremas. Yo mismo, algunas de las cosas que descubrí por vía mecánica, las demostré luego geométricamente, ya que la investigación hecha por este método no implica verdadera demostración. Pero es más fácil, una vez adquirido por este método, un cierto conocimiento de los problemas, dar luego la demostración, que buscarla sin ningún conocimiento previo».
La lectura de los textos de Arquímedes contenidos en el palimpsesto nos han mostrado que los resultados obtenidos por el matemático no fueron adoptados por otros científicos hasta 500 años después. Lo que hace que nos preguntemos qué hubiera pasado si no se hubiesen perdido. ¿Qué avance hubiese significado para la ciencia que los sabios de la época lo hubiesen podido leer?
Este post ha sido realizado por Laura Morrón (@LauraMorron) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
Bibliografía
Archimedes Palimpsest (en inglés)
G. Caneva, M. P. Nugari, O. Salvadori, La biología en la restauración
Ángel Escobar, El palimpsesto grecolatino como fenómeno librario y textual
Lluís Borràs Perelló, El libro y la edición
Jonathan Fildes, «Un fax del siglo III a.C.», BBC Mundo
Malen Ruiz de Elvira, «Investigadores en auxilio de Arquímedes», El País
«Eureka», National Geographic
María José Viñas, «Se me ocurrió analizar con el sincrotrón la tinta del manuscrito de Arquímedes», El País
Manuela Gil, «Joyas de biblioteca: El Palimpsesto de Arquímedes», Bibliotecas
El artículo Tesoros que oculta el reciclaje se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Lo que Yellow Mellow oculta sobre los chemtrails
- Las cartas de Darwin: El capitán y el filósofo
- De cañones, cátedras y espías
Simulados, vídeo finalista “On Zientzia”
En “Simulados”, vídeo finalista en los premios “On Zientzia” en 2017, Guillermo Marin y Fernando Cucchietti nos cuentan la historia de una familia virtual de cazadores-recolectores que lucha por sobrevivir en el Gujarat (La India) de hace 10.000 años. A través de ella aprenderemos cómo las simulaciones computacionales ayudan a los científicos a estudiar las sociedades del pasado para comprender mejor las actuales y encontrar soluciones que beneficien a las del futuro.
¿Tienes una idea genial para explicar un concepto científico en un vídeo? ¿Quieres ver tu trabajo emitido en televisión? La Fundación Elhuyar y el Donostia International Physics Center (DIPC) han organizado la octava edición de On zientzia, un concurso de divulgación científica y tecnológica enmarcado en el programa Teknopolis, de ETB. Este certamen pretende impulsar la producción de vídeos cortos y originales que ayuden a popularizar el conocimiento científico.
On zientzia tendrá tres categorías. El mejor vídeo de divulgación recibirá un premio de 3.000 euros. Para impulsar la producción de piezas en euskera, existe un premio de 2.000 euros reservado a la mejor propuesta realizada en ese idioma. Por último, con el objetivo de impulsar la participación de los estudiantes de ESO y Bachillerato, hay un premio dotado con 1.000 euros para el mejor vídeo realizado por menores de 18 años.
Los vídeos han de tener una duración inferior a los 5 minutos, se pueden realizar en euskera, castellano o inglés y el tema es libre. Deben ser contenidos originales, no comerciales, que no se hayan emitido por televisión y que no hayan resultado premiados en otros concursos. El jurado valorará la capacidad divulgativa y el interés de los vídeos más que la excelencia técnica.
Las bases las encuentras aquí. Puedes participar desde ya hasta el 25 de abril de 2018.
Edición realizada por César Tomé López
El artículo Simulados, vídeo finalista “On Zientzia” se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Keats vs Feynman, mejor vídeo de divulgación “On zientzia”
- Fallos científicos en el cine, mejor vídeo de divulgación joven “On zientzia”
- El mecanismo de la vida, mejor vídeo de divulgación joven “On zientzia”
Saber y saber que se sabe
“¿Es esta calle o la anterior?”. “Creo que es la anterior”. “¿Seguro?”. “No, seguro no”. ¿Quién no ha tenido nunca una conversación así? Un intercambio banal y cotidiano que subraya la importancia práctica que tiene no sólo saber, sino saber quie se sabe; no sólo conocer, sino confirmar que se posee ese conocimiento. A veces saber que se sabe puede ser más importante incluso que saber.
Uno puede no conocer la etiología y patología de la gripe, pero no hace falta conocerlas para saber que los antibióticos no la curan, porque se trata de un virus. No hace falta saber cómo funcionan los mecanismos exactos de la inmunización; basta con saber que las vacunaciones funcionan. No es necesario poder calcular las ecuaciones de una órbita terrestre para estar seguro de que la Tierra es un esferoide y los satélites artificiales dan vueltas a su alrededor. Cuando analizamos muchas teorías científicas ‘alternativas´ lo que falla no es necesariamente el saber, sino el saber lo que sabemos; no se trata de falta de conociientos, sino de una profunda desconfianza hacia la noción misma de conocer.
Los partidarios de la Tierra Plana son capaces de prodigios de la gimnasia mental para explicar dentro de sus parámetros algunos fenómenos fácilmente observables: el conocimiento no les falta, más bien les sobra. Lo que no admiten es que la Tierra esférica sea una realidad comprobada y sólida: lo que rechazan es la idea misma de que esté comprobada. Lo mismo ocurre con la eficacia de las vacunas, o de terapias como la homeopatía, o la idea de que misteriosos poderes utilizan estelas de aviones para fumigar a la población: no se trata de fracasos del conocimiento, sino de negativas a aceptar un conocimiento aceptado.
Lo curioso es que esta idea de rechazar el conocimiento aceptado también forma parte intrínseca del modo como funciona la ciencia, un ámbito en el que se anima a perseguir y abatir a las vacas sagradas y en el que en principio ningún saber es imbatible o eterno. Cuestionar los conocimientos adquiridos es una buena y sana costumbre que favorece el avance del conocimiento. Pero hasta esto se puede hacer en exceso: cuando se dedide poner en cuestión lo ya conocido sin más razón que la desconfianza y el rechazo estamos rechazando la misma idea de saber que se sabe. Que es tan importante como saber, o incluso más.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo Saber y saber que se sabe se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La razón del querer saber
- El aguacate debería haberse extinguido, pero él no lo sabe todavía
- El peligro de saber sólo un poco
Un atlas para materiales 2D

Imagen: J. Nevalaita / University of Jyväskylä
En 1869 un químico teórico ruso, Dimitri Mendeleev, ordenó los elementos químicos conocidos en su día en lo que hoy conocemos como tabla periódica. Algo similar había sido hecho antes, pero Mendeleev estaba tan convencido de entender qué periodicidad tenían los elementos que se atrevió a dejar huecos en su tabla para elementos aún desconocidos, pero de los que era capaz de predecir sus propiedades. Poco tiempo después algunos de esos elementos eran descubiertos y la tabla periódica se convertía en uno de los grandes logros de la ciencia.
Desde el aislamiento del grafeno en 2004, los investigadores han descubierto cientos de materiales bidimensionales (2D), que tienen una o varias capas atómicas de grosor y tienen propiedades interesantísimas, como una resistencia excepcional, una gran movilidad de electrones o capacidades reactivas excepcionales. Muchos de los dispositivos que sustituirán previsiblemente a la electrónica (habrá que irse habituando a nombres como espintrónica o polaritónica) se basan en materiales 2D.
Las estructuras y propiedades de estos materiales están determinadas por sus enlaces químicos, que generalmente son covalentes, como en el caso del grafeno. Pero también existen materiales 2D con enlaces metálicos, que han demostrado recientemente además tener mucho potencial en catálisis y otras aplicaciones, como la detección de gases.
Ahora dos teóricos, Janne Nevalaita y Pekka Koskinen, del Centro de Nanociencia de la Universidad de Jyväskylä (Finlandia) han realizado un estudio sistemático de materiales en 2D que podrían formarse a partir de muchos elementos metálicos. El resultado es un “atlas” que podría servir de guía a los investigadores que intentan sintetizar estos materiales como la tabla de Mendeleev lo hizo con el descubrimiento de nuevos elementos.
Si bien solo unos pocos metales 2D elementales se han investigado con anterioridad, tanto experimental como teóricamente, los investigadores llevaron a cabo un estudio del funcional de la densidad de los materiales 2D que podrían formarse a partir de 45 elementos metálicos, desde el litio al bismuto. Para cada uno calcularon las propiedades clave relacionadas con la estructura y la resistencia mecánica: longitudes de enlace promedio, energía cohesiva (una medida de la fuerza con la que se une la retícula de átomos) y módulo de compresibilidad (una medida de la resistencia a ser comprimida de una sustancia).
Los cálculos sugieren que las propiedades de un material 2D se “heredan” de las de la versión 3D del mismo metal y, por lo tanto, pueden calcularse a partir de las propiedades del metal 3D mediante una extrapolación lineal. Para cada metal en 2D, los investigadores analizaron tres posibles configuraciones de estructura cristalina: hexagonal, cuadrada y en nido de abeja, señalando aquellas para las que con mayor probabilidad conducirían a láminas fuertes y estables.
La ciencia de nuevos materiales está en efervescencia y estudios como este permiten avanzar aún más rápidamente hacia dispositivos dignos de las mejores películas de ciencia ficción. Justo como pasó en los cincuenta años posteriores a la tabla de Mendeleev.
Referencia:
Janne Nevalaita and Pekka Koskinen (2018) Atlas for the properties of elemental two-dimensional metals Physical Review B doi: 10.1103/PhysRevB.97.035411
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Un atlas para materiales 2D se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un algoritmo genético para buscar materiales 2D
- Usando ADN para sintetizar nanoestructuras de oro
- Aislantes topológicos en sólidos amorfos
Errare humanum est
El genial Leonardo da Vinci (1452-1519) también se equivocaba; algo completamente normal, por cierto, como afirma el título de esta entrada. Damos cuenta a continuación de un pequeño error de cálculo cometido por este científico, y contenido en la página 75R del Códice Madrid I.

Página 75R. Fuente: Universiteit Gent.
Recordemos que los Códices Madrid I y II son una serie de manuscritos de Leonardo da Vinci, encontrados en los archivos de la Biblioteca Nacional de España (Madrid) en 1964. Llegaron a nuestro país a través del escultor italiano Pompeo Leoni (aprox. 1533-1608) quien los adquirió de Orazio, el hijo del pintor Francesco Melzi (1493-1572), amigo y alumno de Leonardo, que los heredó tras la muerte de su maestro. Tras diferentes cambios de dueño, acabaron en la Biblioteca del Monasterio del Escorial, pasando en 1712 a la Biblioteca Real. Allí permanecieron extraviados durante 150 años, “por el trasiego de la biblioteca regia por cuatro sedes distintas, por una fatal confusión de signatura y por el aura de Da Vinci, que cegó a muchos para adosar su fama a la del genio” en unas declaraciones al periódico El País de Julián Martín Abad; responsable de Manuscritos de la Biblioteca Nacional (ver [3]).
Estos códices, que contienen 540 páginas, tratan sobre mecánica, estática, geometría y construcción de fortificaciones. Están escritos en un dialecto del italiano y tienen una gran relevancia, ya que contienen cerca del 15% de las notas de Leonardo de Vinci referenciadas en nuestros días, además de ser uno de los tratados de ingeniería más importantes de su época.
Volvamos al manuscrito aludido al principio, y miremos con un poco más de atención la tabla situada en la parte izquierda de la página 75R.

Página 75R. Fuente: Universiteit Gent.
Escritos a mano, pero invertidos –puede verse el texto correcto por simetría especular–, se ven una serie de números representando potencias sucesivas del número 2.

La zona invertida en el documento original y su simetría especular para leer el contenido correctamente.
Sin embargo, Da Vinci comete un error al pasar del número 4 096, a su doble: en efecto, escribe 8 092, en lugar de 8 192. Tras este error, las sucesivas duplicaciones de Leonardo son correctas, con lo cual las potencias de 2 escritas en el manuscrito son erróneas a partir de ese momento.

Las potencias de 2 de Da Vinci y las correctas.
Peter Dawyndt, de la Universidad de Gante, señala en [2]: “Sin lugar a dudas, éste es un error de cálculo de Leonardo y no de unos copistas descuidados, ya que se encontró en el manuscrito original (invertido) del propio Da Vinci. El que se haya descubierto en este momento, quinientos años después de la muerte de Da Vinci, se debe probablemente al hallazgo tardío del manuscrito, hace apenas cincuenta años”.
Los genios también se equivocan, porque Errare humanum est…
Nota:
Visto en Great and small, Futility Closet, 28 diciembre 2017
Más información:
[1] Códice Madrid I (digitalizado), Biblioteca Nacional de España
[2] Peter Dawyndt, Miscalculations of da Vinci, Universiteit Gent, 13 marzo 2012
[3] Rafael Fraguas, Código Da Vinci a la castellana, El País, 22 mayo 2009
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Errare humanum est se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Artistas que miran a las matemáticas
- El teorema de los cuatro colores (y 4): ¿Podemos creer la prueba de la conjetura?
- El rostro humano de las matemáticas
Sistemas respiratorios: pigmentos de baja afinidad

Imagen: Andrei Shpatak
Hay grandes variaciones en la concentración de pigmento respiratorio de unas especies a otras. Por ello, hay también importantes diferencias entre especies en lo relativo a la concentración de O2 en la sangre. En la especie humana, por ejemplo, cuando toda la hemoglobina se halla combinada con oxígeno, la sangre alberga unos 200 ml de O2 por litro de sangre (ml O2 l-1). En aves y mamíferos ese valor suele encontrarse entre 150 ml O2 l-1 y 200 ml O2 l-1, pero en mamíferos marinos es mucho más alto: en la foca de Weddell, por ejemplo, hay más de 300 ml O2 l-1 y puede llegar a 400 ml O2 l-1 en otros. En los peces varía entre 50 y 150 ml O2 l-1 (en la caballa, que es un pez muy activo, hay del orden de 150 ml O2 l-1). En los cefalópodos no llega a 50 ml O2 l-1; y en otras especies de invertebrados hay incluso menos: en moluscos y en crustáceos varía entre 10 y 20 ml O2 l-1. Los valores indicados son lo que técnicamente se denomina capacidad de oxígeno, que es la concentración que corresponde a una tensión parcial de O2 (tO2) sanguínea de 158 mmHg (o sea, la que corresponde a la presión parcial de O2 en condiciones estándar).
Veamos cómo funciona la sangre humana a los efectos del transporte de oxígeno. Sale de los pulmones recién oxigenada con una tO2 algo inferior a 100 mmHg, tensión a la que corresponde una concentración de unos 195 ml O2 l-1. En condiciones de reposo la sangre retorna de los tejidos a los pulmones con una tO2 de unos 40 mmHg aproximadamente, a la que corresponde una concentración de unos 150 ml O2 l-1. La diferencia arteriovenosa, esos 40 ml O2 l-1, es a lo que llamamos la descarga de O2 y refleja la magnitud de la reducción sanguínea de oxígeno provocada por el consumo que han efectuado los tejidos.
Si en vez de en reposo, el individuo realiza ejercicio físico, la sangre arterial sale del corazón con una tO2 de entre 80 y 90 mmHg, dependiendo del flujo sanguíneo, y la concentración ronda los 190 ml O2 l-1; como se ve, esas tensiones parciales y concentración de O2 son algo inferiores a las que tenía la sangre arterial en condiciones de reposo, pero la diferencia es muy pequeña. La menor concentración en este caso obedece al hecho de que para satisfacer las demandas metabólicas derivadas del ejercicio, la sangre fluye a través de los capilares pulmonares más rápidamente, por lo que no llega a equilibrarse completamente con la presión parcial de oxígeno en los alveolos. La sangre (ya venosa) retorna de los tejidos con una tO2 de aproximadamente 20 mmHg (concentración de unos 70 ml O2 l-1). Por lo tanto, la descarga es de unos 120 ml O2 l-1, y aunque puede variar dependiendo de la intensidad de la actividad física, la variación no es demasiado importante salvo que los niveles de actividad sean tan altos que las mitocondrias musculares provoquen una fuerte reducción de la tO2 venosa. Si la tO2 llega a reducirse por debajo de 10 mmHg, el aporte de O2 sería insuficiente para sostener el metabolismo aerobio y sería necesario recurrir a la fermentación láctica para la obtención de ATP. En condiciones de actividad física no demasiado intensa, es el gasto cardiaco (volumen de sangre impulsada por el corazón por unidad de tiempo) a través, sobre todo, de la frecuencia cardiaca (frecuencia de latido), el que se modifica para hacer frente a distintas necesidades.
Las magnitudes de los parámetros consignados en los párrafos anteriores para la especie humana son muy similares para la mayoría de los mamíferos. Su hemoglobina es un pigmento típico de baja afinidad y de alta tensión de carga. La afinidad de un pigmento refleja la propensión de ese pigmento a combinarse con el oxígeno, o sea, a captarlo. Los de alta afinidad lo captan incluso a muy bajas tensiones parciales; lo contrario ocurre con la hemoglobina de mamíferos y con otros pigmentos, ya que se necesitan tensiones parciales de oxígeno bastante altas para que el pigmento se aproxime a la saturación. Estas hemoglobinas son características de animales que viven en entornos de alta disponibilidad de oxígeno y cuyos epitelios respiratorios no imponen apenas limitaciones a la difusión de gases a su través. Bajo esas condiciones es conveniente que el pigmento sea de baja afinidad pues no tiene ningún problema para captar el oxígeno necesario y sin embargo, lo cede a los tejidos con suma facilidad.
No solo los mamíferos tienen pigmentos con esas características. Muchos otros vertebrados cuentan con hemoglobinas de alta tensión de carga; se trata de especies que habitan en medios con abundante oxígeno. Y ciertas especies de invertebrados, como los poliquetos sabélidos, también poseen ese tipo de pigmentos, aunque en este caso se trata de clorocruorinas.
Los cefalópodos también tienen pigmentos de afinidad relativamente baja. No son hemoglobinas, como los de vertebrados, ni clorocruorinas, como los de los poliquetos citados, sino hemocianinas. Y no se encuentran en el interior de células especializadas, sino en suspensión coloidal. Esa característica limita mucho la capacidad de la sangre para albergar oxígeno combinado, ya que por razones osmóticas, la concentración de proteínas plasmáticas no puede ser demasiado alta. El caso es que los cefalópodos se caracterizan por tener una concentración pigmentaria baja y, por ello, la capacidad de oxígeno de su sangre es modesta: entre 20 y 50 ml O2 l-1, valores que se encuentran en el rango inferior de los correspondientes a los peces, que son los vertebrados con los que podemos compararlos porque ambos ocupan los mismos medios y desarrollan similares niveles de actividad.
Al contrario que aves y mamíferos, los pulpos y calamares llegan prácticamente a agotar el oxígeno al atravesar la sangre los tejidos, de manera que la venosa llega a los corazones branquiales casi anóxica. Y eso ocurre incluso cuando se encuentran en reposo; por ello, las necesidades que pueden derivarse de un aumento de las demandas metabólicas solo pueden cubrirse elevando el gasto cardiaco o recurriendo a vías del metabolismo anaerobio. En el pulpo Enteroctopus dofleini la sangre arterial tiene una tO2 de unos 70 mmHg (puede variar entre 50 y 90 mmHg) y la hemocianina se encuentra saturada al 85% (entre 65% y 95%). La sangre venosa, sin embargo, tiene una tO2 de alrededor de 8 mmHg (entre 0 y 16 mmHg) y la hemocianina solo tiene un 7% (entre 0 y 18%) del oxígeno que puede llegar a tener en condiciones de saturación. La descarga del pigmento es muy importante en términos relativos, prácticamente se vacía, pero conviene recordar que se trata de una sangre con baja concentración de pigmento y, por lo tanto, baja capacidad de oxígeno.
Hemos visto aquí varios pigmentos (hemoglobina, clorocruorina y hemocianina) de baja afinidad; y todos ellos corresponden a animales que viven en medios con elevada disponibilidad de O2 y que desarrollan una importante actividad física. Que el pigmento sea de baja afinidad no supone ningún inconveniente, dado que la abundancia ambiental de oxígeno permite una adquisición suficiente y, por otro lado, se descargan con facilidad, lo que permite satisfacer las demandas de oxígeno propias del metabolismo de animales activos.
Fuentes:
Richard W. Hill, Gordon A. Wyse & Margaret Anderson (2004): Animal Physiology. Sinauer Associates, Sunderland
John D. Jones (1972): Comparative physiology of respiration. Edward Arnold, Edinburgh
Knut Schmidt-Nielsen (1997): Animal Physiology. Adaptation and Environment. Cambridge University Press; Cambridge
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas respiratorios: pigmentos de baja afinidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Sistemas respiratorios: los pigmentos respiratorios
- Sistemas respiratorios: distribución de los pigmentos
- Sistemas respiratorios: la curva de disociación de un pigmento respiratorio
La relatividad del tiempo (y 3)

Dos fotogramas de la películla Interestellar (2014) de Christopher Nolan. En ambos los personajes son los mismos, Joseph Cooper y su hija Murphy “Murph” Cooper. Murph permanece en la Tierra, mientras su padre viaja a velocidades relativistas (próximas a c) y, claro, pasa lo que pasa.
Ya hemos visto qué le sucede a velocidades muy altas y a velocidades ordinarias a la relación entre el intervalo de tiempo transcurrido registrado por un reloj que está estacionario con respecto al observador (Mónica) y el intervalo de tiempo transcurrido para el mismo fenómeno medido por alguien que observa el reloj en movimiento a una velocidad constante v (Esteban). La relatividad del tiempo, viene dada por una ecuación muy sencilla, Δte = Δtm /√(1-v2/c2). Vamos a explorar a continuación algunas situaciones extremas.
¿Qué ocurre si la velocidad alcanza la velocidad de la luz?
Conforme aumentamos la velocidad v y nos aproximamos mucho a la velocidad de la luz c la dilatación del tiempo se va haciendo cada vez mayor . Si nos fijamos, si v se acerca mucho a c, entonces v/c se aproxima a 1, y v2/c2 también lo hace; por tanto lo que está dentro de la raíz, (1-v2/c2), se acerca a 0 y la propia raíz también. Un número dividido por algo muy pequeño, casi cero, da como resultado un número enorme: una hora en la vida de Mónica ( Δtm) se viviría como décadas, si no siglos o milenios por Esteban (Δte ). Dicho de otra manera, si v se va haciendo casi igual a c, la dilatación del tiempo tiende a infinito.
De hecho, si v = c entonces el denominador es 0 y Δte sería infinito. Una simple fracción de segundo para Mónica sería un tiempo infinito para Esteban o, visto desde la perspectiva de Esteban, a todos los efectos prácticos el tiempo no transcurre para Mónica.
¿Qué ocurre si nos las arreglásemos para alcanzar una velocidad superior a la de la luz?
Si esto pudiera suceder, entonces v2/c2 sería mayor que 1, por lo ques (1-v2/c2) sería negativo. ¿Cuál es la raíz cuadrada de un número negativo? Como nos hemos impuesto como limitación no emplear otras matemáticas que las que se estudian en primaria hemos de responder que no hay un número que, al cuadrado, arroje un resultado negativo. Por lo tanto, llegamos a la conclusión de que la raíz cuadrada de un número negativo en sí no tiene realidad física [1].
En la práctica, esto significa que los objetos no pueden tener velocidades mayores que c. Esta es una razón por la cual la velocidad de la luz a menudo se considera como el “límite de velocidad” del Universo [2].
¿Es posible que el tiempo vaya hacia atrás?
Las matemáticas nos dicen que hay dos formas de llegar a un número cuadrado como 9: puedo multiplicar 3 por 3 o -3 por -3 y en ambos casos el resultado es el mismo, 9. Visto en el otro sentido, la raíz cuadrada de 9 es doble, 3 y -3. Los valores negativos se suelen despreciar por carecer de sentido físico.
Para que el tiempo fuese hacia atrás entonces Δtm /√(1-v2/c2) tendría que ser negativo, lo que significa que en el intervalo de tiempo Δte, el tiempo final es menor que el tiempo inicial. La única forma de conseguirlo es si √(1-v2/c2) tiene un valor negativo. Lo que es perfectamente posible, basta con no despreciar la solución negativa de la raíz cuadrada. Por tanto, viajar en el tiempo hacia atrás es teóricamente posible [3].
Notas:
[1] Aunque sí tiene una solución matemática, lo que se llama un “número imaginario”.
[2] Ni los objetos ni la información pueden viajar más rápido en el vacío que la luz. Nada que tenga masa puede ni siquiera alcanzar la velocidad de la luz, ya que c actúa como un límite asintótico (lo que siginifica que puedes aproximarte todo lo que quieras o puedas pero nunca alcanzarlo) de la velocidad.
[3] El único inconveniente es que un intervalo de tiempo negativo implicaría que masa y energía serían negativas absolutamente. Y, hasta donde sabemos, masa y energía son positivas. Obviamente las diferencias de masa y energía pueden ser negativas, por eso decimos absolutamente. Un objeto puede ganar o perder 1g o 100 kg, pero no puede tener una masa de – 7 kg; lo mismo para la energía.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La relatividad del tiempo (y 3) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La relatividad del tiempo (2)
- La relatividad del tiempo (1)
- El principio de relatividad (y 4): la versión de Einstein
Desmitificando: La vitamina C y el resfriado
El resfriado, o esa enfermedad leve, molesta y cotidiana, que antes o después nos fastidia a todos con unos días de nariz goteante y cabeza cargada, es habitual en cuanto enfría el tiempo. No hay quien lo cure ni con qué curarlo; en todo caso, se pueden aliviar los síntomas. Por eso, es importante investigar sobre cómo prevenirlo y, si es posible, escapar de él. La vitamina C, o ácido ascórbico, es una de las sustancias que se dice previene el constipado y sobre ella se ha investigado mucho y escrito todavía más. No hay que olvidar que la dosis diaria recomendada es de 80 miligramos. En 2013, Harri Hemila y Elizabeth Chalker, del Departamento de Salud Pública de Helsinki, han revisado toda la literatura que han podido localizar sobre la relación entre la vitamina C y el constipado.
Para averiguarlo, eligen los trabajos en que la dosis diaria de vitamina C es, por lo menos, de 0.2 gramos y, a partir de ahí, dividen las cantidades ingeridas en tres tramos: entre 0.1 y 1.0; entre 1.0 y 2.0; y más de 2.0 gramos diarios. Después de revisar las bases de datos con lo publicado entre 1990 y 2012, seleccionan 56 publicaciones con 29 ensayos controlados que incluyen a 11306 personas. Además, añaden los estudios de Linus Pauling, el científico que popularizó, a principios de los setenta, la prevención del constipado con grandes dosis de vitamina C.

Linus Pauling
Entre paréntesis, merece la pena que conozcamos mejor a Linus Pauling. Químico, bioquímico, activista por la paz y contra las armas nucleares, educador y divulgador, Linus Pauling fue un científico enormemente influyente en la ciencia y la sociedad del siglo XX, sobre todo en su segunda mitad. Nacido en 1901 y fallecido en 1994, fue dos veces Premio Nobel, de Química en 1954 y de la Paz en 1962. Es una de las cuatro personas que recibieron dos veces el Nobel y una de las dos personas, la otra es Marie Curie, que ganó sus Premios Nobel en especialidades distintas. Puso toda su influencia en el apoyo público a la vitamina C como prevención del constipado y él mismo tomaba 3 gramos al día. Recordar que la dosis diaria recomendada por las autoridades sanitarias es de 80 miligramos al día. Pauling propone, para la población en general, una dosis diaria de 2.3 gramos o superior, y en 1974 la sube hasta los 4 gramos. En los años ochenta participó en algunas investigaciones sobre la relación entre la vitamina C y el cáncer, la recuperación de daños en el cerebro o la angina de pecho. Cerremos el paréntesis sobre Pauling y volvamos al constipado.
Volviendo a la revisión de Harri Hemila, con sus 29 ensayos y las 11306 personas que intervienen en ellos, las conclusiones son que no hay una reducción convincente en la incidencia del constipado por tomar vitamina C, excepto en personas que están sometidas a una fuerte exigencia física. Son tres grupos muy especiales que se cuentan entre los 11306 voluntarios: un grupo de maratonianos, un grupo de escolares que van de vacaciones a esquiar, y, finalmente, un grupo de soldados canadienses que van de maniobras a la zona subártica de su país. La disminución de la incidencia del constipado no es muy grande, alrededor del 10%, y la dosis diaria de vitamina C no es exagerada, alrededor de 1 gramo, poco más de los 80 miligramos recomendados.
Sin embargo, la toma de vitamina C parece acortar los días que dura la enfermedad si se ingiere una vez que el constipado nos ha atrapado. Entonces, la toma de vitamina C disminuye el tiempo de constipado un 13.6% en niños y un 8% en adultos. De todas formas, si algo queda claro en esta revisión es que la acción de la vitamina C es muy heterogénea en los enfermos, quizás por el ambiente en que viven y la conducta de cada uno de ellos (permanecer en casa o salir a trabajar o a la escuela, si hay calefacción o no,…), o por la genética de cada enfermo o, más sencillo, por el diferente planteamiento de los estudios que revisan Hemila y Chalker, como veremos más adelante.
Resultados similares se han detectado en el meta-análisis del investigador suizo G. Ritzel, publicado en una fecha tan lejana como 1961, que incluye el estudio tan citado de los niños que salen a esquiar. Otro meta-análisis lo publicaron T.W. Anderson y su grupo, de la Universidad de Toronto, que encuentran que se produce una ligera mejoría si se toma la vitamina C en la fase aguda del constipado.
Ha sido Richard Shader, Editor Jefe de la revista Clinical Therapeutics, el que acaba de publicar algunos fallos metodológicos de los estudios sobre la acción de la vitamina C sobre el constipado. Por ejemplo, afirma que el constipado no se debe a un solo virus sino a un conjunto muy variable, incluso con algunos virus todavía desconocidos, y que incluye coronavirus, rinovirus y virus sincicial respiratorio. También es importante resaltar que la prevalencia de esta enfermedad varía mucho de año en año y de estación en estación. En la mayoría de los estudios no se proporciona a los voluntarios una vitamina C estándar sino la que se ha extraído de muchas fuentes como son maíz, algas rojas, arándanos, clorella, escaramujos y otros orígenes. En estos estudios tampoco se tiene en cuenta las cantidades de vitamina C que los voluntarios ingieren de su dieta. Y, también, la vitamina C se disuelve en agua y si es grande la cantidad ingerida, se elimina de inmediato, por la excreción, con lo que conocer el efecto de grandes dosis no es sencillo.
Un buen resumen nos lo da Shader con textos extraídos de la última revisión de Hemila y Chalker. Dice así:
“La ingesta regular de vitamina C no tuvo ningún efecto sobre el constipado común… El fracaso de los suplementos con vitamina C para reducir la incidencia de resfriados en la población general indica que la toma rutinaria de suplementos de vitamina C no está justificada… Sin embargo, dado el efecto consistente de la vitamina C en la duración y gravedad de los resfriados en los estudios regulares de suplementación … puede valer la pena probar esta suplementación en pacientes con una base individualizada para ver si la vitamina C terapéutica es beneficiosa para ellos.”
En conclusión, para los autores de estas revisiones no existe justificación alguna para la toma diaria de vitamina C para prevenir el constipado en la población normal. Quizá es útil para acortar su duración en las personas que ya lo sufren y en aquellos que están sometidos a mucho esfuerzo físico y a temperaturas bajas.
Referencias:
Anderson, T.W. et al. 1974. The effects on winter illness of large doses of vitamin C. Canadian Medical Association Journal 111: 31-36.
Douglas, R.M. & H. Hemila. 2005. Vitamin C for preventing and treating the common cold. PLOS Medicine 2: e168
Hemila, H. 2017. Vitamin C and infections. Nutrients DOI: 10.3390/nu9040339
Hemila, H. & E. Chalker. 2013. Vitamin C for preventing and treating the common cold. Cochrane Database of Systematic Reviews DOI:10.1002/14651858.CD000980.pub4
Pauling, L. 1970. Evolution and the need for ascorbic acid. Proceedings of the National Academy of Sciences USA 67: 1643-1648.
Pauling, L. 1971. The significance of the evidence about ascorbic acid and the common cold. Proceedings of the National Academy of Sciences USA 68: 2678-2681.
Ritzel, G. 1961. Kritische Beurteilung des Vitamins C als Prophylacticum und Therapeuticum der Erkälrungskrankherten. Helvetica Medica Acta 28: 63-68.
Shader, R.J. 2017. Vitamins C and D. Clinical Therapeutics 39: 873-876.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Desmitificando: La vitamina C y el resfriado se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Desmitificando: Alguien me está mirando…
- Historias de la malaria: El charlatán y caballero Sir Robert Talbor
- Historias de la malaria: Charles Louis Alphonse Laveran y el protozoo