Por qué se corta la mayonesa y qué relación tiene esto con la cosmética

Para hacer mayonesa se necesita aceite de oliva, vinagre, huevos y sal. Hay variantes con otros aceites, como el de girasol, o con otros ácidos que no sean vinagres, como el zumo de limón.
El proceso es siempre el mismo. Primero se echa el huevo y por encima el aceite. El orden es muy importante para que no se corte. También es importante que el huevo esté a la misma temperatura que el aceite, no de la nevera. Introducimos el brazo de la batidora hasta el fondo y comenzamos a batir. En ese momento se empieza a formar una emulsión, la mezcla estable del huevo y el aceite. Sin dejar de batir añadimos vinagre y sal al gusto.
Decimos que la mayonesa se corta cuando no se forma bien la emulsión. En lugar de espesarse, la mezcla parece que se vuelve más líquida, y por mucho que se insista con la batidora, parece que no hay marcha atrás. La razón por la que esto a veces sucede y a veces no está en la naturaleza química de las emulsiones.
Las emulsiones son mezclas entre sustancias que por su naturaleza química no se podrían mezclar. Esto sucede por ejemplo con el agua y el aceite, que no se mezclan. Cuando ponemos en contacto agua y aceite, una sustancia rehúye de la otra. Los químicos tenemos un dicho para esto: “lo semejante disuelve a lo semejante”. Con ello nos referimos a las sustancias polares y apolares.
La polaridad es una propiedad química que se caracteriza por la presencia de una marcada distribución heterogénea de las densidades electrónicas en una molécula. Cada elemento químico tiene una tendencia diferente por retener la nube electrónica de los elementos con los que enlaza cuando forma moléculas. Debido a esta desigual distribución electrónica surge la polaridad. En las moléculas en las que ocurre esto hay regiones cargadas negativamente (δ-) y otras cargadas positivamente (δ+), generando lo que llamamos momento dipolar.
El agua es una molécula polar que es útil para ilustrar esta propiedad. El agua está formada por dos hidrógenos que se unen a un oxígeno por sendos enlaces covalentes. Como el oxígeno es más electronegativo que el hidrógeno tiende a atraer más los electrones que comparten. Esto se traduce en que el oxígeno tiene más densidad de carga negativa (rojo), mientras que el hidrógeno tiene más densidad de carga positiva (azul).

El agua es una sustancia polar. En cambio, el aceite es apolar, no presenta una distribución tan desigual de las cargas. Por este motivo el agua y el aceite no se mezclan, se repelen. Las moléculas de agua tratan de mantenerse unidas entre sí porque son afines por ser polares, y las de aceite hacen lo mismo, rehúyen de las de agua para mantenerse unidas entre sí. Como el agua es más densa que el aceite, es decir, la misma cantidad de volumen tiene más masa que el aceite, se mantendrá en el fondo, mientras que el aceite permanecerá flotando.
Sin embargo, hay muchas salsas como la mayonesa, en las que hay una mezcla estable de fase acuosa y fase grasa. Lo que en principio es imposible se vuelve posible gracias a la formación de una emulsión.
La base de la mayonesa es el aceite y el huevo. El aceite es una grasa vegetal apolar, y el huevo es esencialmente polar, ya que contiene un 80% de agua. El resto del huevo está formado por proteínas y grasa, así que el propio huevo ya es en sí mismo una emulsión, especialmente la yema, que tiene una cantidad de grasa mayor.
La razón por la que el huevo se mezcla con el aceite reside en la yema de huevo, ahí es donde encontramos la lecitina. La lecitina es un término genérico que se utiliza para designar a un tipo de grasas que son consideradas emulsionantes.
Los emulsionantes son sustancias que presentan dos extremos: uno polar y otro apolar. Así, cuando el emulsionante se distribuye entre dos fases, como agua y aceite, empieza a rodear a las gotas de aceite que se han dispersado en el agua. El extremo del emulsionante apolar, como es afín al aceite, se sitúa dentro de la gota. Mientras que el extremo afín al agua se sitúa en la parte exterior de la gota. Cuando dos gotas se acercan, el emulsionante impide que las gotas se unan entre sí. Se ha empezado a formar la emulsión.
Para hacer mayonesa es importante empezar batiendo el huevo en el fondo. De esa manera conseguimos liberar el emulsionante. A continuación, o ya sobre el huevo, tenemos el aceite que, por agitación se irá dispersando en pequeñas gotas dentro de la fase acuosa del huevo. El emulsionante irá rodeando estas gotas hasta dejarlas suspendidas en la fase acuosa.
Es importante que primero se disgregue el huevo y no al revés. Si lo hiciésemos al revés conseguiríamos el resultado inverso. El agua se iría dividiendo en gotas pequeñas, que quedarían rodeadas por el emulsionante. El extremo afín al agua del emulsionante se dirigiría hacia el centro de la gota, y la parte afín al aceite se dirigiría hacia el exterior de la gota, manteniendo a esas gotas de agua dispersas en el medio aceitoso. Esto es lo que ocurre cuando decimos que la mayonesa se corta, que hemos hecho la emulsión justo al revés.
Que la emulsión suceda en un sentido o en otro también depende de la temperatura del huevo. Al batir el huevo este se dispersa y se separa la lecitina del resto del agua. Eso se consigue gracias a la energía que aplicamos al batirlo. Si el huevo está frío necesitaremos aplicar más energía para que esto suceda, así que el resultado puede ser que el huevo no llegue a disgregarse todo lo necesario como para que el emulsionante se disponga alrededor de las gotas de aceite. Por esta razón se aconseja que el aceite y el huevo estén a la misma temperatura.
El siguiente ingrediente que se añade a la emulsión es un ácido. O bien el vinagre, que es una sustancia ácida por su contenido en ácido acético; o bien zumo de limón, que es ácido por su contenido en ácido cítrico. La función de los ácidos es estabilizar la emulsión. Las gotas de aceite rodeadas de emulsionante y dispersas en agua son más estables cuando el medio es ácido, ya que el medio ácido fomenta la repulsión entre los extremos polares y apolares. Impedir la unión entre gotas por medio de un ácido hace que la emulsión sea más estable.
Añadimos sal al gusto y listo, ya tenemos preparada la mayonesa.
-
¿Qué relación tiene esto con la cosmética?
La mayor parte de las cremas son emulsiones, presentan una fase acuosa y una fase grasa.

Dependiendo del tipo de cosmético que se quiera formular podemos fabricar la emulsión en un sentido u en otro: con la fase interna acuosa y la externa grasa, o al revés. Para ello empleamos emulsionantes.
Así tenemos cosméticos “oil in water” (aceite en agua), también denominados O/W. Y cosméticos “water in oil” (agua en aceite), también denominados W/O.
El 80% de los cosméticos del mercado son O/W, ya que son más frescos, ligeros y se absorben mejor. Los W/O son cosméticos más untosos. Generalmente los cosméticos para el rostro con fórmulas ligeras son O/W. Mientras que los cosméticos más viscosos diseñados para las zonas más secas del cuerpo, suelen ser W/O.
La química de la emulsión de los cosméticos O/W es como la que sucede en la mayonesa. Mientras que la química que la emulsión de los cosméticos W/O es como la que sucede cuando se nos corta la mayonesa. Lo que en cocina es un error, resulta de gran utilidad en cosmética.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Por qué se corta la mayonesa y qué relación tiene esto con la cosmética se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El buen turrón tiene su ciencia
- El mejor lacón con grelos tiene su ciencia
- La pantalla de tu móvil solo tiene tres colores
La transformación de la panadera
Una transformación biyectiva de una imagen de n por m píxeles es una modificación de esta figura en la que cada píxel se desplaza del lugar que ocupa a otro, y el que llenaba ese sitio se mueve a otra parte de esa imagen. De este modo ningún píxel desaparece, sólo cambia de posición. En matemáticas se dice que se ha realizado una permutación de los píxeles que componen la imagen.
Las transformaciones biyectivas de imágenes poseen la siguiente propiedad general:
Existe un menor número entero, k, de manera que realizando k veces la transformación se vuelve a obtener la imagen original.
Este resultado es una consecuencia inmediata del hecho de que el conjunto P de las permutaciones sobre un conjunto finito forma un grupo –el grupo simétrico, que en este caso, además, es un grupo finito–. Puede demostrarse que si P es una permutación de este tipo, existe un número entero k tal que si P se aplica k veces se recupera la transformación identidad –la permutación que no cambia nada–.
Para aclarar esta idea, supongamos un conjunto con cinco objetos {A,B,C,D,E} y llamemos P a la permutación que intercambia el primer y tercer objetos, lleva el segundo objeto a la cuarta posición, el cuarto al quinto lugar y el quinto pasa a ocupar la segunda posición. Puede simbolizarse esta transformación del modo ABCDE → CEABD. Si aplicamos sucesivamente P obtenemos las ordenaciones siguientes:
ABCDE → CEABD → ADCEB → CBADE → AECBD → CDAEB → ABCDE,
es decir, en seis iteraciones hemos regresado a la configuración inicial.
Por cierto, en este Cuaderno de Cultura Científica hablamos hace unos años de la transformación del fotomatón, que es un ejemplo de transformación biyectiva de una imagen.
La transformación (discreta) de la panaderai es un caso particular de transformación biyectiva de imágenes. La introdujeron en 1997 los matemáticos Jean-Paul Delahaye y Philippe Mathieu (ver [1] y [2]).
Su nombre se refiere al tipo de distorsiones que definen la permutación, que recuerdan al proceso de preparar una masa de pan, estirando y plegando la mezcla. En efecto, partimos de una imagen con un número par de filas n y columnas m. Los puntos –píxeles– de la primera línea tienen por coordenadas (de izquierda a derecha) (0,0), (1,0), (2,0), …, (m-2,0) y (m-1,0); las de la segunda línea (0,1), (1,1), (2,1), …, (m-2,1) y (m-1,1), etc. Y se procede del siguiente modo
- Estirado de “la masa”: mezclando líneas pares e impares
La altura del rectángulo de partida se divide por 2 y su longitud se multiplica por 2. Tras esta transformación, la primera línea pasa a ser (0,0), (0,1), (1,0), (1,1), …, (m-2,0), (m-2,1), (m-1,0) y (m-1,1), la segunda (0,2), (0,3), (1,2), (1,3), …, (m-2,2), (m-2,3), (m-1,2) y (m-1,3), y así sucesivamente.
-
Plegado de “la masa”: cortando el rectángulo obtenido en la etapa anterior en dos y colocando la parte derecha sobre la izquierda tras haberla hecho girar 180 grados.
Con esta segunda permutación, la primera línea se transforma en (0,0), (0,1), (1,0), (1,1), …, (m/2-1,0) y (m/2-1,1) y la segunda queda (0,2), (0,3), (1,2), (1,3), …, (m/2-1,2) y (m/2-1,3). Y los puntos de las últimas líneas que resultan del plegado de la mitad derecha quedan: (m-1,3), (m-1,2), (m-2,3), (m-2,2), …, (m/2,3) (penúltima línea) y (m/2,2), y (m-1,1), (m-1,0), (m-2,1), (m-2,0), …, (m/2,1) y (m/2,0) (última línea).

Observar que, tras realizar estas dos operaciones, se obtiene una imagen cuyas dimensiones coinciden con las de la imagen original. Es decir, es una imagen que posee n filas y m columnas, como la de partida. La transformación de la panadera es la obtenida tras realizar las operaciones de estirado y plegado.
Como la transformación (discreta) de la panadera es una permutación de n por m píxeles, si se aplica de manera iterada, llegará un momento en el que se debe recuperar la imagen original, tal y como se ha comentado antes.
Por ejemplo, si se toma una imagen de la Gioconda de n=256 por m=256 píxeles y se aplica la transformación de la panadera, se obtiene una figura como la que se muestra debajo:

Si se sigue aplicando sucesivamente la transformación de la panadera a cada imagen obtenida, tras 17 iteraciones, ¡la imagen original aparece! En este enlace podéis ver el proceso completo de cambio.
En la página de Philippe Mathieu se pueden ver otras transformaciones de imágenes mediante la transformación de la panadera y otras transformaciones biyectivas de imágenes.
Referencias
[1] Jean-Paul Delahaye y Philippe Mathieu, Images brouillées, Images retrouvées, Pour la Science 242 (1997) 102-106
[2] Jean-Paul Delahaye y Philippe Mathieu, Les transformations bijectives d’images, página web de P. Mathieu
[3] Marta Macho Stadler, La transformación del panadero, Boletín de la Titulación de Matemáticas de la UAL, vol. VIII, no. 1 (2014) 16-17
i Se suele llamar ‘del panadero’, pero la panadería de mi barrio está regentada por una mujer…
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo La transformación de la panadera se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La transformación del fotomatón
- Los ritmos primos de Anthony Hill
- El problema matemático de las cartas extraviadas
La energía del estado estacionario
Como sabemos, armado solo con sus dos postulados, Bohr podía calcular el radio de cada órbita permitida. No solo eso, además podía calcular la energía total del electrón en cada órbita, es decir, la energía del estado estacionario. Los resultados que obtuvo Bohr pueden resumirse en dos expresiones muy simples.

Recordemos que el radio de una órbita con número cuántico n viene dado por la expresión rn = a·n2, aunque también podemos escribirlo como rn = n2·r1, donde r1 es el radio de la primera órbita (la órbita para n = 1) y tiene el valor de 5,3·10-11 m.
La energía (la suma de la energía cinética y la energía potencial eléctrica) del electrón en la órbita con el número cuántico n también se puede calcular a partir de los postulados de Bohr. La energía asociada a la posición, la energía potencial, siempre nos va a depender de qué tomemos como referencia por lo que no tiene sentido asignar un valor absoluto a la energía potencial. En este caso, solo los cambios en la energía tienen un significado físico. Por tanto, se puede elegir cualquier nivel cero que nos resulte conveniente. Para un electrón en órbita en un campo eléctrico, las matemáticas son vuelven especialmente simples [1] si como nivel cero para la energía elegimos el estado n = ∞. En este nivel, el electrón estaría infinitamente lejos del núcleo (y, por lo tanto, libre de él) [2]. La energía para cualquier otro estado En es la diferencia con respecto a este estado libre.
Los posibles estados de energía para el átomo de hidrógeno serán por tanto, En = 1/n2 ·E1, donde E1 es la energía total del átomo cuando el electrón está en la primera órbita (n =1). E1 es la energía más baja posible para un electrón en un átomo de hidrógeno. Su valor es -13,6 eV [3] (el valor negativo significa solo que la energía es 13.6 eV menor que el valor de estado libre E∞). Este es el llamado estado fundamental. En ese estado, el electrón es cuando más «unido» está al núcleo. El valor de E2, el primer estado excitado por encima del estado fundamental, es, según la expresión anterior, E2 = 1/22 ·(-13,6 eV) = -3,4 eV. Este estado solo tiene 3,4 eV menos que el estado libre.
Según la fórmula para rn, la primera órbita estacionaria, definida por n = 1, tiene el radio más pequeño. Los valores más altos de n corresponden a órbitas que tienen radios más grandes. Las órbitas más altas están separadas más y más, y el campo de fuerza del núcleo cae aún más rápidamente. De aquí que el trabajo requerido para moverse a la siguiente órbita con n mayor se vuelva cada vez más pequeño. Se sigue además, que los saltos de energía de un nivel de energía permitida E al siguiente de n mayor se vuelvan cada vez más pequeños. Si estos saltos absorben luz, o la emiten en sentido contrario de los saltos, debería apreciarse en la longitud de onda de esa luz. Esta será la primera comprobación experimental del modelo.
Notas:
[1] Como siempre que se habla del uso de matemáticas en física, son especialmente, pero no estrictamente, simples. Aquí admitimos que 1/∞ = 0, pero te recomendamos que no uses esta igualdad a la ligera en tus asignaturas de matemáticas.
[2] Otra imagen irreal pero conveniente. El universo es finito, por lo tanto se puede estar muy lejos, pero un lejos finito. Por lo tanto al electrón le pasa como a Luke Skywalker, que por muy lejos que se vaya la fuerza le acompaña, por pequeña que ésta sea.
[3] El electrón-voltio es una unidad de medida muy conveniente porque nos permite manejar valores absolutos pequeños. Sobre él y su definición hablamos aquí.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La energía del estado estacionario se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Se intuye la conservación de la energía (1)
- Se intuye la conservación de la energía (2)
- Se establece el principio de conservación de la energía
Como personas normales
«Existe la curiosa idea entre los hombres profanos de que en los escritos científicos hay un estrato común de perfeccionismo. Nada está más lejos de la verdad. Los informes de los biólogos son una dimensión, no de la ciencia, sino de los hombres. Existen tan pocos científicos gigantes como de cualquier otra clase. En algunos informes, es imposible relacionar las descripciones de animales vivos, a causa de la ineptitud de su lenguaje, y en otros, los lugares de recolección aparecen tan mezclados o ignorados, que las especies mencionadas no pueden ser halladas. El mismo condicionante se introduce en la especificación como en cualquier otra clase de observación, y las mismas faltas de negligencia que se encuentran en los informes científicos, se hallan en el banco de testigos de un tribunal criminal. A veces, parece que los hombres, en un trabajo científico, asuman el temor de un sacerdocio para ocultar sus defectos, como hace el médico-brujo con sus orgullosas máscaras y trípodes de barro, como tienen los sacerdotes de todos los cultos con lenguajes y símbolos, secretos y extraños. Normalmente, sólo los hombrecillos obstinados se oponen a lo que se llama «popularización», por la que ellos entienden escribir con claridad comprensible a alguien que no esté familiarizado con las claves y ritos del culto. No hemos conocido ni a un solo gran científico que no pueda disertar con desenvoltura con un niño. ¿Significa esto, tal vez, que los que aborrecen la claridad no tienen nada que decir, no han observado nada, no poseen una idea clara ni tan siquiera de sus propias actividades? Un hombre estúpido es estúpido sea cual sea su profesión, y naturalmente un científico inepto tiene derecho a protegerse con togas y plumajes, emblemas y grados, como hacen otros hombres obtusos, que son potentados y dictadores imperialistas de logias de hombres estúpidos.»
John Steinbeck, Por el Mar de Cortés, 1951.
“El mayor problema de la comunicación es la ilusión de que ha tenido lugar”.
George Bernard Shaw.

El enigma de por qué los científicos no hablan como las personas normales preocupaba a Katherine Wu, de la Universidad de Harvard, y dio título al artículo que publicó en el blog de Scientific American en mayo de 2017. Comenta que, mientras los científicos se preparan, terminan su carrera, terminan el doctorado y planifican y dirigen proyectos de investigación, comienzan a distinguir entre científicos y público en general. Antes de empezar su proceso de aprendizaje, ellos también eran público y, ahora, ya no lo son, son científicos. Y en ese momento queda comprometida su capacidad para comunicar ciencia con eficacia a los ciudadanos.
Sabe comunicarse con otros científicos, pero no con el público en general que, ya he dicho, son otro grupo, si se quiere no son de “los nuestros”. Son entidades separadas, incluso excluyentes. Ambos grupo se sienten culturalmente incomprensibles, incluso, para muchos, son inaccesibles. Es más, los científicos se sienten, muchos de ellos, en un pedestal, lejos, por encima y separados del público. Un buen entrenamiento e impartir docencia, dar clase subido a la tarima.
Hay diferencias e incomunicación entre ambos grupos, a pesar de que deseos y objetivos son, en último término, los mismos: curiosidad, interés, deseo de aprender, experimentar,…
Sin embargo, estamos en un tiempo en que recuperar el contacto entre la ciencia y la ciudadanía es urgente. La política dirige la ciencia, la financia y marca sus objetivos. Además, muchos asuntos relacionados directamente con los conocimientos científicos los deciden los ciudadanos y, es evidente, para ello deben conocer la ciencia, sus métodos y sus resultados. Siempre se acusa a los ciudadanos de que no tienen suficientes conocimientos científicos para entender lo que la ciencia es y significa. Ya lo discutiremos más adelante. Pero, también, es a los científicos a los que corresponde comunicar lo que hacen y consiguen, y llegar al ciudadano.
Para conseguir esta comunicación eficaz, Sara Brownell y sus colegas, de la Universidad de Stanford, han desarrollado un curso sobre neuroinmunología que incluye la práctica para los alumnos de leer artículos científicos originales como base indispensable para la comunicación de ciencia. Después, deben comunicar la investigación que se explica en el artículo al público en general.
Como destacan Tania Bubela y su equipo, de la Universidad Simon Fraser, de Canadá, los artículos científicos no llegan con facilidad al público. Por ejemplo, los resultados son casi siempre cuantitativos mientras que los textos en los medios son cualitativos y diseñados para llegar y atraer al lector. Además, los artículos científicos están dirigidos a una audiencia muy concreta de especialistas mientras que en los medios se intenta llegar a una audiencia lo más amplia posible. Como resultado final, el texto en los medios se suele basar en las anécdotas que cuenta el científico al periodista o en historias concretas de perjudicados o beneficiados por la investigación de que se trate. En fin, primero hay que entender el artículo original, aunque casi siempre los medios se basan en notas de prensa simplificadas, y deben saber cómo hacer para llevarlo al público general.
El grupo de Sara Brownell utiliza las reglas del New York Times para el diseño de un artículo periodístico y las aplica a sus alumnos para conseguir una comunicación eficaz. Las reglas son empezar el texto con una breve introducción del tema, centrarse en los hallazgos importantes y limitar otras informaciones, controlar el argot y explicar cada término que se tenga a utilizar, destacar el significado e importancia de los hallazgos, y escribir el texto con orden y desarrollo lógicos.
Los resultados finales explican, después de escribir los textos con las reglas del New York Times, que los alumnos confían en la comunicación de ciencia al público en general. La comunicación no es poco eficaz por la carencia de conocimientos del público o porque la ciencia sea complicada de explicar. Es, más bien, porque los científicos deben aprender a comunicar, y se puede conseguir con cursos como el de Sara Brownell.
Un estudio similar, sobre contenidos geológicos y resultados parecidos e interesantes, es el firmado por Núria Iglesias y su grupo, de la Universidad Complutense, sobre un proyecto que tiene el objetivo concreto y específico de geodivulgar.

Desde Australia, desde la Universidad de Queensland, Lucy Mercer-Hapstone y Louise Kuchel concretan y amplían la propuesta de Sara Brownell. Revisan publicaciones anteriores y entrevistan a expertos para encontrar las acciones esenciales que ayuden a una comunicación eficaz de la ciencia. Enumeran doce competencias que doy a continuación:
1.- Identificar y conocer la audiencia.
2.- Usar el lenguaje apropiado para la audiencia. Como aconseja David Oppenheimer, de la Universidad de Princeton, si se tienen dos palabras a elegir con el mismo o similar significado, elegir siempre la más corta.
3.- Identificar con precisión el objetivo que se quiere comunicar.
4.- Tener en consideración el nivel de conocimientos de la audiencia.
5.- Separar lo esencial de lo no esencial siempre teniendo en cuenta la audiencia y sin perder el rigor.
6.- Usar un formato y una plataforma adecuadas para la audiencia.
7.- Considerar el contexto social, político y cultural de la información científica que se quiere comunicar.
8.- Considerar y utilizar elementos de estilo apropiados: humor, anécdotas, relatos, citas, metáforas, imágenes, lenguaje corporal, contacto visual, diagramas, gráficas,…
9.- Conocer las teorías que apoyan los adelantos de la ciencia.
10.- Promover el compromiso del público con la ciencia.
11.- Usar herramientas narrativas y de contar historias para ayudar a llegar a la audiencia.
12.- Animar al debate con la audiencia.
A pesar de lo anterior, Katherine Wu propone reevaluar la comunicación entre científicos y ciudadanos. Y plantea tres puntos clave de esa comunicación que debemos olvidar y, a menudo, utilizamos como excusa para evitar comunicar con eficacia o, simplemente, no comunicar.
El primer concepto a olvidar es suponer que no se nos entiende porque el público no tiene suficientes conocimientos de ciencia. Cierto, pero solo hasta cierto punto y ya lo hemos visto con los estudios de Sara Brownell. Los científicos, de su tema, saben mucho y, además, utilizan su propia jerga. Pero, para llegar al público, dependen de cómo presentan sus conocimientos. En general, el científico está preparado para hablar con científicos pero la ciencia, para el público, no es un tema normal de conversación. Para conseguir que lo sea y llegar a los ciudadanos, los científicos, como dice Katherine Wu, deben hablar como” personas normales”.
Ayuda a ello que los científicos reciban con interés las perspectivas e intereses de los ciudadanos. No se les puede, ni debe, rechazar a priori como temas poco interesantes e, incluso, erróneos. Los científicos tienen como tema de investigación, si pueden, lo que les interesa pero si se quiere llegar a los ciudadanos hay que conseguir que ese tema les interese. Es una opción que el científico debe tomar con responsabilidad. Bajemos de la tarima y charlemos con el público para ponernos al día.
La segunda desilusión que nos propone Katherine Wu es la suposición de que la ciencia tiene alguna finalidad concreta, es decir, que la investigación tiene un final contundente para resolver definitivamente una cuestión concreta. Vamos, el objetivo definitivo de personajes como C. Augustus Dupin o Sherlock Holmes. Un científico debe huir de la sensación de sentirse un experto capaz de resolver definitivamente los problemas de su campo. Siempre queda algo, o mucho, por hacer. Si fuéramos capaces de hacerlo, por lo menos en algún caso, y con los científicos tan extraordinarios que nos han precedido, esos hombros de gigante en los que nos aupamos, ya no quedaría nada por hacer. Desalentador y, siempre, humildad, mucha humildad.
Para el público, la ciencia desilusiona porque casi siempre o, mejor, nunca, da una respuesta clara y definitiva a un problema. Los datos requieren más estudio, faltan nuevos experimentos, las conclusiones exigen prudencia y, además, plantean nuevas incógnitas e hipótesis de trabajo. Por todo ello, la ciencia comunica mal pues el público demanda dogmas más que nuevos conocimientos. Y, por si fuera poco, la ciencia así expuesta da para llamativos titulares en los medios.
Para ayudar a la comprensión del público sobre el inacabable proceso de la ciencia, hay que explicar con detalle el método científico. Con su utilización eficaz, la ciencia produce suave y continuamente conocimientos y los golpes de efecto, los grandes titulares no le convienen. Como público, desconfíen de las soluciones estupendas. Como científicos, comuniquen avances, nunca metas definitivas, y planteen, siempre, cómo seguir adelante.
En tercer lugar, Katherine Wu propone que debemos olvidar que la comunicación efectiva entre científicos y público es inevitable y, antes o después, con más o menos trabajo, se conseguirá. Los científicos, por su preparación, piensan que, cuando la investigación en que están ha terminado y es publicada, ya llegará, sin más, la comunicación con el público. Pero, como nos recuerda Katherine Wu y escribió George Bernard Shaw, “el mayor problema de la comunicación es la ilusión de que ha tenido lugar”. Si queremos comunicación, hay que informar a los interesados, sean público en general o gestores políticos en particular, y aceptar que no siempre funcionará.
Propuestas como la del curso de Sara Brownell crean el entorno adecuado para la comunicación entre científicos y público. No se conseguirá, como indica Katherine Wu, una comunicación perfecta y completa pero, es seguro, mejorará. Acercar a los alumnos de ciencia al mundo exterior y evitar la muchas veces denostada “torre de marfil”. Integrar a los científicos en su entorno social y, quizá, se consiga que la rutina del científico, incluya la comunicación activa de la ciencia y lleve su trabajo a la mayor diversidad posible de audiencias.
Lo mínimo es que el científico aparezca y converse con quien sea necesario y esté interesado. Y una conversación es, según el Diccionario de la Lengua, “acción y efecto de hablar familiarmente”. Es evidente que, para conseguirlo, hay que salir de la torre de marfil y bajar de la tarima.
Para terminar, Tim Radford, editor de ciencia en The Guardian, tituló un texto publicado hace unos años con un contundente “Of course scientists can communicate”. Que un profesional de los medios lo afirme con tanta convicción anima a seguir. Radford dice que los científicos tienen todo lo necesario para conseguirlo: entusiasmo por lo que hacen, son buenos en la exposición clara y directa de su historia, están entrenados en observar los resultados de su trabajo, y, es obvio, saben de lo que comunican. Por tanto, ánimo y un paso adelante: escribir, comunicar, divulgar es, también, labor de los científicos.
Referencias:
Brownell, S.E. et al. 2013. A writing-intensive course improves biology undergraduates’ perception and confidence of their abilities t oread scientific literatura and communicate science. Advances in Physiology Education 37: 70-79.
Brownell, S.E. et al. 2013. Science communication to the general public: Why we need to teach undergraduate and graduate students this skill as a part of their formal scientific training. Journal of Undergraduiate Neuroscience Education 12: E6-E10.
Bubela, T. et al. 2009. Science communication reconsidered. Nature Biotechnology 27: 514-517.
Iglesias, N. et al. 2017. Ideas y reflexiones para una divulgación científica efectiva. Boletín de la Real Sociedad Española de Historia Natural Sección Aula, Museos y Colecciones 4: 29-41.
Mercer-Hapstone, L. & L. Kuchel. Core skills for effective science communication: A teaching resource for undergradutae science education. International Journal of Science Education doi: 10.1080/21548455.2015.11135-73
Oppenheimer, D.M.. 2006. Consequences of erudite vernacular utilized irrespective of necessity: problems with using long wprds needlessly. Applied Cognitive Psychology 20: 139-156.
Radford, T. 2011. Of course scientists can communicate. Nature 469: 445.
Wu, K. 2017. Why can’t scientists talk like regular humans? Scientific American Blog Network May 24.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Como personas normales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cómo hacer ciencia en un periódico: la experiencia de ‘Público’
- Científico, ¿cómo usas Twitter?
- Consolider-Gran Telescopio Canarias: Cómo comunicar Astrofísica
Alegato por el árbol
Mertxe de Renobales Scheifler, lectora
Para la mayoría de las personas, sobre todo las que vivimos en ciudades, los árboles son objetos decorativos que embellecen el paisaje urbano y rompen la monotonía de los edificios y el cemento de las calles. En días soleados veraniegos apreciamos su sombra, pudiendo ser difícil encontrar un hueco en un banco protegido del sol para leer tranquilamente un libro, o el periódico. Y ya está. A lo largo de sus 336 páginas, Alegato por el Árbol (primera edición en español) me ha hecho apreciar los árboles como seres vivos sorprendentes e impresionantes, y me ha proporcionado muchos ratos buenos e interesantes paseando por parques urbanos, fijándome en los árboles y tratando de identificar algunas de las estructuras que describe este libro (no es tan difícil!). Me ha enseñado a mirar los árboles de otra manera, a darme cuenta de aspectos y detalles que antes nunca había visto a pesar de «haber visto» muchos árboles, en las ciudades y en la naturaleza. Pero no sabía cómo mirarlos para realmente verlos. Y también a apreciar su influencia en las culturas de diferentes pueblos. Las fotos que acompañan esta reseña están sacadas en ambientes urbanos del País Vasco.
Francis Hallé, su autor, es botánico, profesor emérito de la Universidad de Montpellier, y experto reconocido internacionalmente en ecología forestal de regiones tropicales. Dicho de otra manera, sabe de lo que está hablando. Y, además, lo hace en un lenguaje sencillo, ágil y fácil de entender para el público en general, sin perder rigor científico. Las explicaciones escritas, concisas y claras, se acompañan de 95 excelentes dibujos, la gran mayoría hechos por el propio autor, en los que resalta los detalles botánicos mencionados en el texto, y de 19 fotografías en color. Todo ello se completa con un glosario de los conceptos científicos utilizados para que los lectores legos en la materia vayamos adquiriendo un vocabulario correcto.
El libro consta de 3 partes que se pueden leer en cualquier orden, aunque creo que es mejor seguir el orden propuesto para adentrarnos en el inesperado mundo del árbol. El título del capítulo 1 «¿Puede definirse el árbol?» ya nos indica que quizá el concepto de árbol no está tan consolidado, aunque hasta ahora hubiéramos pensado que estábamos seguros de lo que es un árbol! ¿Cómo se es árbol? El Profesor Hallé es muy conocido, entre otras contribuciones científicas, por proponer (junto con otros dos expertos botánicos) los modelos arquitectónicos que describen el modo de crecimiento y la forma de los árboles atendiendo a: si tienen ramas o no; si el crecimiento del eje principal del árbol es continuo o rítmico; si las ramificaciones son homogéneas o no; la disposición de los órganos sexuales (flores, inflorescencias, conos, etc) con respecto al eje principal (tronco) y sus ramificaciones. En total ha descrito 24 modelos arquitectónicos existentes en la naturaleza. Sorprende leer que «hay muy pocos árboles que se mantienen durante toda su vida en una misma unidad arquitectónica que, simplemente, crece con el tiempo» (es lo que se llama un «árbol unitario»). Nos explica el autor que esto se debe a que la mayoría de los árboles son seres coloniales, es decir, formados por repeticiones de la unidad arquitectónica principal («unidades reiteradas). Es como si dijéramos que al árbol original «le sale» otro árbol! (ver Figura 1).

El hecho de ser colonial le permite al árbol llegar a alcanzar longevidades prácticamente indefinidas. ¿Indefinidas? El autor describe cómo muchos árboles forman «renuevos» que en realidad son unidades reiteradas producidas a partir de la raíz. Un análisis genético nos indica si un pequeño árbol que está creciendo en las inmediaciones de otro es un renuevo o ha brotado de una semilla: en el primer caso mantiene el genotipo del árbol crecido, y en el segundo no. Muchos árboles tienen una gran tendencia a formar clones (organismos que tiene el mismo genotipo que el organismo original) unidos por redes de raíces. Aparentemente son individuos diferentes, pero el análisis genético ha revelado en varias ocasiones que son el mismo individuo con decenas de miles de reiteraciones, como ya se ha comprobado en algunos bosques de álamos en Estados Unidos a los que se les ha calculado una edad superior a los 10.000 años. Por eso se pregunta el autor «el árbol, ¿es un individuo o una colonia?» la respuesta no es sencilla.
Las otras dos partes del libro inciden en la relación que los seres humanos hemos tenido, y seguimos teniendo, con los árboles, su influencia en diferentes culturas, en sus economías y hasta en el desarrollo del moderno sector del automóvil. En nuestra sociedad, altamente tecnificada, podríamos aprender mucho de las prácticas agronómicas de bajo coste que muchos pueblos indígenas han puesto a punto para mejorar la productividad de sus árboles y aprovechar sus escasos recursos naturales, sobre todo el agua. El último capítulo es un sugerente estudio de lo que la especie humana podría deber a nuestros antepasados arborícolas.
Como sucede en todos los campos científicos, no todos los expertos están de acuerdo en la interpretación de las razones que explican lo que observamos. Los temas que trata el presente libro no son una excepción. A lo largo del texto, con abundantes referencias a publicaciones científicas, el profesor Hallé señala las diferentes posturas e hipótesis junto a la que él considera más adecuada, lo que nos amplía la visión del tema en cuestión.
La cuidada edición de este libro en todos sus aspectos es una constante de la alta calidad a la que ya nos tiene acostumbrados la editorial Libros del Jata. Se lee muy fácilmente, por una parte gracias la pluma ágil del autor, y por otra a la exquisita traducción, como si el libro hubiera estado originalmente escrito en español, sin esas frases forzadas, resultado de una traducción literal que, aunque se entiendan, disminuye mucho la calidad del texto. No he encontrado una sola errata en todo el texto, ni una coma fuera de lugar! La portada, los dibujos del autor y la calidad de las fotografías están a la altura de las excelentes descripciones científicas del texto. Este libro proporciona una visión de los árboles que le marcarán a Ud., lector o lectora, un antes y un después en su manera de verlos y considerarlos. Estoy segura de que lo disfrutará y ya no volverá a ver un árbol de la misma manera que antes.
Ficha:
Autor: Francis Hallé
Editorial: Libros del Jata, S.L.,
Año: 2019. Primera edición en español (título original: Paidoyer pour l’arbre).
Colección: La Mirada Atenta.
ISBN: 978-84-16443-10-9. EAN: 9788416443109
Sobre la autora de la reseña: Mertxe de Renobales Scheifler es catedrática de bioquímica en la Facultad de Farmacia de la UPV/EHU.
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
El artículo Alegato por el árbol se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Árbol sagrado, árbol maldito
- Historias de la malaria: El árbol de la quina
- I, Mammal. The Story of What Makes Us Mammals
Leonardo Torres Quevedo en Bilbao, 1919-2019: Naútica, Aeronáutica y Computación

El ingeniero Leonardo Torres Quevedo (1852-1939) fue el protagonista de importantes sucesos ocurridos en Bilbao hace cien años. Por un lado, completó en la ría de la capital vizcaína las pruebas de su “Binave”, el primer catamarán moderno construido en los astilleros Euskalduna. Por otro, hacía público en el Teatro Arriaga el proyecto del dirigible trasatlántico “Hispania”, culminación de su obra aeronáutica.
Otro de los grandes logros del ingeniero de origen vasco fue su “aritmómetro electromecánico”, aparato que puede considerarse el primer ordenador de la historia en el sentido actual del término y que fue presentado en la Exposición de Material Científico.
Todos estos grandes inventos, entre otros, hicieron que fuera calificado en 1930 como el más prodigioso inventor de su tiempo, por lo que ocupa un importante lugar en la historia universal de la ciencia y la técnica. Francisco A. González Redondo, profesor de la Universidad Complutense de Madrid (UCM), analizó las grandes obras del ingeniero el pasado 18 de septiembre en la Biblioteca Bidebarrieta de Bilbao.
Francisco A. González Redondo es profesor en la Universidad Complutense de Madrid (UCM) en el Departamento de Didáctica de las Ciencias Experimentales, Sociales y Matemáticas, además de ser uno de los grandes especialistas en la vida y obra de Leonardo Torres Quevedo. Sobre él ha escrito una biografía y numerosos artículos, además de organizar numerosos congresos y exposiciones.
Edición realizada por César Tomé López
El artículo Leonardo Torres Quevedo en Bilbao, 1919-2019: Naútica, Aeronáutica y Computación se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- «Leonardo Torres Quevedo, el más prodigioso inventor de su tiempo» por F.A. González Redondo
- Neandertales ¿crónica de una muerte anunciada?, por María Martinón-Torres
- Francisco Ayala en Bilbao
¿Quiere que coman fruta y verdura? Conviértalos en pequeños artistas

Las tasas de sobrepeso y obesidad infantil son preocupantes a nivel mundial. Por ello, se han llevado a cabo programas para promover hábitos alimentarios saludables. La mayoría se ha centrado fundamentalmente en la educación nutricional, pero esta no es la única estrategia posible. Nosotros hemos optado por una aproximación diferente a este problema.
Es habitual que niños y niñas rechacen probar nuevos alimentos, sobre todo frutas y verduras. Este comportamiento se denomina neofobia alimentaria y se considera como característico del desarrollo evolutivo entre los 2 y 6 años. Sin embargo, si no se gestiona adecuadamente puede prolongarse hasta la edad adulta.
Frutas y verduras son, además, una fuente de minerales y vitaminas. Por todo ello es sumamente importante explorar nuevas estrategias para fomentar el consumo de estos alimentos entre la población infantil.
El papel de los sentidos
La simple exposición ha sido una de las estrategias más utilizadas para inducir el consumo de nuevas frutas y verduras. De esta manera, el niño se familiariza con el alimento. Además, durante un tiempo se consideró que en su aceptación era decisivo el sentido del gusto y, por eso, había que probar y saborear estos alimentos.
No obstante, otros autores observaron que la información de los sentidos del tacto, de la vista y del olfato también eran importantes para probar nuevas verduras.
Centrémonos en el sentido de la vista. En un estudio donde se presentaron los vegetales con diferentes formas (enteros, a rebanadas, en palitos y con figuras de estrella), los resultados mostraron que los pequeños preferían mucho más las verduras con figura de estrella.
De manera similar, otros autores encontraron que los niños comieron el doble de fruta cuando esta se presentaba decorada con palillos para cócteles y dentro de una sandía que cuando se mostraba de manera habitual. Los elementos divertidos siempre han resultado atractivos para los más pequeños: un claro ejemplo de ello es la variedad de colores y formas que presentan la mayoría de golosinas.
Efecto ‘Ikea’
Hasta el momento, varios estudios han identificado una relación entre la participación de los niños en la preparación de los alimentos (concretamente, en la compra y el cocinado) y el aumento de su disposición a probar cosas nuevas.
Este tipo de actividades prácticas son muy valoradas entre los pequeños, y se ha demostrado que aportan una sensación de responsabilidad y orgullo. Dichas emociones han sido explicadas a través del denominado “Efecto Ikea” o, más específicamente en relación a la comida, “lo cocino para mí”.
Este fenómeno explica cómo los consumidores aprecian más (por tanto, les gusta más e ingieren mayor cantidad) aquellas comidas que han preparado ellos mismos, comparadas con las elaborados por otras personas. Además, crear experiencias positivas con nuevos alimentos es también interesante, ya que la aceptación de nuevos sabores puede generalizarse y aumentar así la de otros diferentes.
Preparar platos artísticos
En un estudio, llevado a cabo en el departamento de I+D del Basque Culinary Center de Donostia-San Sebastián analizamos los efectos en el consumo y el agrado de nuevas frutas y verduras al involucrar a los niños en la creación de una merienda artística.
Para ello, se crearon tres grupos:
- El grupo ART, en el que los pequeños elaboraron ellos mismos el plato artístico y luego lo comieron para merendar.
- El grupo VISUAL, donde los niños participaron en una actividad creativa de tipo collage con imágenes de frutas y verduras. A continuación merendaron el mismo plato artístico que el grupo anterior, pero elaborado por los investigadores.
- El grupo CONTROL, en el que los niños participaron en la misma actividad creativa que el grupo anterior y merendaron los mismos alimentos que el resto, pero presentados de la manera habitual (simplemente cortados).
Los resultados mostraron que tanto el grupo ART como el VISUAL aumentaron su disposición a probar y comer nuevos alimentos. Esto indica que tanto la creación como la presentación del plato artístico pueden ser dos estrategias válidas para fomentar el consumo de nuevas frutas y verduras.

Este experimento ha demostrado, además, que los niños también “comen primero con la vista”.
No obstante, el grupo que elaboró el plato por ellos mismos (ART) mostró un estado de ánimo más positivo, así como una mayor dominancia. Esto prueba que participar en la elaboración tiene un mayor impacto en el estado emocional que el simple hecho de comer algo elaborado por otro.
También es importante recalcar la importancia de jugar con los alimentos, tocándolos con las manos e implicando diferentes sentidos. Al final, crear comidas artísticas es una nueva forma de jugar y divertirse en familia.
Sobre la autora: Edurne Maiz Aldalur es profesora adjunta de la Facultad de Psicología, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Quiere que coman fruta y verdura? Conviértalos en pequeños artistas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Acumuladores térmicos domésticos más pequeños usando parafinas
- Artistas científicos
- Artistas que miran a las matemáticas
A la sombra de un Adagio

El Adagio de Barber ha sonado en cientos de funerales, exequias y homenajes. Pero hubo uno donde su ausencia se hizo notar: el funeral de su propio compositor, Samuel Barber. Él mismo lo vetó poco antes de su muerte, cansado del que fue simultáneamente su mayor éxito y un espejo asfixiante durante toda su carrera.
Barber copuso su famoso Adagio en 1936, cuando apenas tenía 26 años. Pocos años antes, había conocido a Arturo Toscanini, uno de los compositores más célebres de su tiempo, quien le había animado a enviarle alguna de sus obras. Barber, un compositor joven y deseoso de darse a conocer, arregló rápidamente el movimiento lento de un cuarteto de cuerda que había compuesto poco antes y así nació su famoso Adagio para cuerdas.
La obra se estrenó el 5 de noviembre de 1938. Un selecto grupo de melómanos fue invitado al Estudio 8H del Rockefeller Center para ver a Toscanini dirigir la premier al frente de la Orquesta Sinfónica de la NBC. La obra además se grabó y emitió en directo para todos los oyentes de la Radio Nacional. Hasta la fecha, pocas obras del repertorio clásico se habían estrenado ante una audiencia tan inmensa y un público tan pequeño.
Desde entonces, y a partir de las primeras críticas positivas, su fama no dejó de crecer. Funerales, elegías, películas, televisión… durante el s. XX, no hubo lugar triste donde no sonase el Adagio. A día de hoy, algunas orquestas aún lo ensayan periódicamente, por si a alguna celebridad le da por estirar la pata.
Sin embargo, el compositor acabó lamentando este éxito tan temprano. Por un lado, su tremenda intensidad emocional fijó un estándar que Barber se sentía presionado a replicar en cada un de sus obras, condenado a destilar, una y otra vez, la fórmula que le había llevado al éxito. Pero además, sucedió que esta ópera prima eclipsó por completo el resto de su obra (y lo sigue haciendo a día de hoy, basta con buscar Samuel Barber en Spotify, por ejemplo).
Barber estaba convencido de haber escrito obras al menos igual de buenas que el Adagio, como sus conciertos para violín y para piano. Por eso no entendía que estas no llenasen los escenarios. Su irritación se volvía evidente, cada vez que alguien le comentaba cuánto admiraba su (dichoso) Adagio. En una entrevista de 1949, un periodista de la CBS le interpela, admirado, explicando que el Adagio fue la primera composición de Barber que él conoció. El compositor le contesta, “ojalá hubieses escuchado alguna de las nuevas” y añade con desdén “todo el mundo toca esa”. Hacia 1979, la acidez parece haber ido in crescendo: “A veces me aburro escuchando el Adagio. Pero me divierto durante las representaciones porque sé que siempre va a haber un error en alguna parte; simplemente espero que suceda. Es una obra tan sencilla, que ni siquiera se molestan en ensayarla”. A pesar del paso de los años, su Adagio lo seguía y ocultaba como una sombra, un espejo plano y oscuro en el que el compositor ya no se reconocía y que otros se empeñaban en mostrar.
No es de extrañar, por tanto, que Barber pidiese excluirlo de su propio funeral. Carlo Menotti, su pareja de toda la vida, se aseguró de que así fuera: durante la ceremonia sonaron corales de Bach, otras obras de música vocal de Barber, un madrigal del propio Menotti… ni resto del Adagio. Sin embargo, no logró silenciarlo durante la agonía del pobre Barber, atrapado en el hospital a causa del cancer: poco antes de su muerte, el director Lukas Foss dirigió su propia interpretación al frente de la Orquesta Filarmónica de Brooklyn y se la dedicó al compositor convaleciente. También Bernstein lo dirigió como homenage, poco tiempo después. Los amigos de Barber fueron a visitarle al hospital y le tocaron el Adagio en directo con todo su amor (y para aburrimiento mortal del compositor, segúnel testimonio de Menotti)… no falta comedia en esta pequeña tragedia, si uno la quiere ver.
Referencia:
Thomas Larson (2012) «The Saddest Music Ever Written: The Story of Samuel Barber’s Adagio for Strings»
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo A la sombra de un Adagio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – Ángel Gómez Roldán: Tras la sombra de la Luna
- Tema y variaciones
- El último puzle de Bach
42, la respuesta definitiva a la vida, el universo y todo lo demás
Una serie clásica de novelas de ciencia ficción de la década de los años 1980 es La guía del autoestopista galáctico, del escritor inglés Douglas Adams (1952 – 2001). Originalmente fue una serie para la radio, de 1978, con ese mismo nombre. La serie literaria se compone de cinco libros, el primero que da título a toda la serie, La guía del autoestopista galáctico, fue publicado en 1979, al que siguieron El restaurante del fin del mundo; La vida, el universo y todo lo demás; Hasta luego, y gracias por el pescado e Informe sobre la Tierra.

En la novela aparece un superordenador, llamado Pensamiento Profundo y que es el segundo ordenador más grande del universo del espacio y del tiempo, que ha sido construido por una raza de seres “pan-dimensionales” que buscan el sentido de la vida. Cuando le preguntan al superordenador cuál es la “respuesta definitiva a la vida, el universo y todo lo demás”, éste contesta, después de siete millones y medio de años haciendo cálculos, que “cuarenta y dos”.
– Buenos días –dijo al fin Pensamiento Profundo.
– Hmmm… Buenos días, Pensamiento Profundo –dijo nerviosamente Loonquawl–, ¿tienes… hmmm, es decir…?
– ¿Una respuesta que daros? –le interrumpió Pensamiento Profundo en tono majestuoso–. Sí, la tengo.
Los dos hombres temblaron de expectación. Su espera no había sido en vano.
– ¿De veras existe? –jadeó Phouchg.
– Existe de veras –le confirmó Pensamiento Profundo.
– ¿A todo? ¿A la gran pregunta de la Vida, del Universo y del Todo?
– Sí.
Los dos hombres estaban listos para aquel momento, se habían preparado durante toda la vida; se les escogió al nacer para que presenciaran la respuesta, pero aun así jadeaban y se retorcían como criaturas nerviosas.
[…] Los dos hombres se agitaron inquietos. La tensión era insoportable.
– En serio, no os va a gustar –observó Pensamiento Profundo.
– ¡Dínosla!
– De acuerdo –dijo Pensamiento Profundo–. La Respuesta a la Gran Pregunta…
– ¡Sí…!
– … de la Vida, del Universo y de Todo… –dijo Pensamiento Profundo.
– ¡Sí…!
– Es… –dijo Pensamiento Profundo, haciendo una pausa.
– ¡Sí…!
– Es…
– ¡¡¡¿Sí…?!!!
– Cuarenta y dos –dijo Pensamiento Profundo, con calma y majestad infinitas.
Ante el asombro de sus creadores, el supercomputador les plantea que tienen que buscar cuál es la “pregunta definitiva”. Y como ese ordenador no puede contestar a esa pregunta construyen el superordenador más grande del universo, llamado Tierra, que es destruido antes de responder a la cuestión de cuál es la “pregunta definitiva” y se pierde la posibilidad de conocer esa información de vital importancia.
Esta historia de La guía del autoestopista galáctico es el motivo por el cual cuando hace unas semanas se pudo leer en la prensa que los matemáticos habían resuelto un problema relacionado con el número 42, a muchas personas nos vino a la cabeza la “respuesta definitiva a la vida, el universo y todo lo demás”.

Algunos de los titulares de prensa que pudieron leerse hace unas semanas fueron
“Matemáticos resuelven el diabólico acertijo del número 42, sin solución durante 65 años” (ABC Ciencia)
“Un viejo problema sobre el 42, resuelto” (Investigación y Ciencia)
“Resuelven por fin un misterioso problema matemático que lo puede cambiar todo” (El Confidencial)
Dejando la ciencia ficción a un lado, expliquemos cuál es el problema matemático al que se estaban refiriendo los titulares de la prensa. El problema es el siguiente.
Problema: ¿cómo expresar los números naturales del 1 al 100 como suma de tres cubos de números enteros?
Si lo escribimos de forma algebraica sería lo siguiente. Dado un número natural k, entre 1 y 100, buscar los números enteros x, y, z tales que verifican la ecuación diofántica:
x3 + y3 + z3 = k.
Empecemos explicando qué es una ecuación diofántica. Estas son ecuaciones polinómicas de dos o más variables x, y, z, etc, para las que se estudian las soluciones con números enteros (los naturales, el cero y los negativos).
Por ejemplo, se puede considerar la ecuación, en las variables x, y, z, relacionada con el teorema de Pitágoras x2 + y2 = z2 y estudiar sus soluciones enteras. Una solución de esta ecuación es la clásica (3, 4, 5), ya que 32 + 42 = 52. Estas soluciones enteras se conocen con el nombre de ternas pitagóricas. Otras ternas pitagóricas son (5, 12, 13) o (8, 15, 17). Los griegos se dedicaron a investigar la existencia de diferentes ternas pitagóricas. El matemático griego Diofanto, que vivió en Alejandría en el siglo III, escribió un libro sobre ecuaciones algebraicas de título Arithmetica. En particular, Diofanto elaboró una regla general para encontrar todas las ternas pitagóricas, y se interesó por el estudio de lo que hoy llamamos ecuaciones diofánticas.

Pero volviendo a nuestro problema, a la ecuación diofántica concreta x3 + y3 + z3 = k, o cómo expresar los números naturales del 1 al 100 como suma de tres cubos de números enteros, esta cuestión fue planteada de forma explícita y extensamente estudiada en un artículo publicado en 1955, en la revista Journal of the London Mathematical Society, por los matemáticos ingleses, J. C. P. Miller y M. F. C. Woollett, con el explícito título Solutions of the Diophantine Equation x3 + y3 + z3 = k.
Estos matemáticos se interesaron por este problema a raíz de un comentario del matemático inglés L. J. Mordell en otro artículo anterior, de 1953, en la misma revista:
“No sé absolutamente nada sobre las soluciones enteras de x3 + y3 + z3 = 3, más allá de la existencia de (1, 1, 1) y (4, 4, – 5); y tiene que ser realmente muy difícil descubrir algo sobre otras soluciones”.
Además, Mordell sugirió a sus colegas Miller y Woollett que utilicen el ordenador ERSAC, de la Universidad de Cambridge, para obtener soluciones de la ecuación diofántica x3 + y3 + z3 = k, para valores de k menores, o iguales, a 100. Fruto de ese trabajo es el mencionado artículo.
Aunque ya con anterioridad de había estudiado la ecuación x3 + y3 + z3 = k. En la revista inglesa de matemática recreativa The Ladies’ Diary se publicó en 1825, por S. Ryley, una familia de soluciones racionales, no enteras, de esa ecuación. Y las primeras soluciones enteras fueron obtenidas para las ecuaciones diofánticas x3 + y3 + z3 = 1 y x3 + y3 + z3 = 2 (k = 1, 2), en 1908 y 1936, respectivamente.
Portada de 1740 de la revista The Ladies’ Diary, en la que aparece un retrato de Carolina de Brandeburgo-Ansbach, reina consorte del rey Jorge II de Gran Bretaña [*]. Desde el inicio de la revista se incluían en la portada retratos de mujeres prominentes británicas, para atraer a las mujeres a leer la revista. Imagen de la Princeton University Library, a través de Google Books
Pero volvamos a la ecuación diofántica x3 + y3 + z3 = k y al estudio de sus soluciones enteras.Veamos algunos ejemplos que nos permitan entender mejor la cuestión. Podríamos incluso plantearnos primero la ecuación x3 + y3 + z3 = 0, la cual por el último teorema de Fermat (véase la entrada Euler y el último teorema de Fermat) no tiene soluciones más allá de las triviales, del tipo (a)3 + (– a)3 + 03 = 0.
Para k = 1, además de la solución trivial 13 + 03 + 03 =1, se pueden encontrar otras soluciones, como 93 + (–8)3 + (–6)3 = 729 – 512 – 216 = 1 o (– 12)3 + 103 + 93 = –1728 + 1000 + 729 = 1. De hecho, en 1908 se demostró que existen infinitas formas de obtener 1 como suma de cubos, como aparece en el artículo de Miller y Woollett:
(9 t4)3 + (3 t – 9 t4)3 + (1 – 9 t3)3 = 1.
Este resultado se extiende, de forma natural, a los números que son cubos, a3. Luego, para números menores de 100 serían 8, 27 y 64.
También se probó, en 1936, que para k = 2, algunas de cuyas soluciones son 13 + 13 + 03 = 2 y 73 + (– 5)3 + (–6)3 = 2, existen, de nuevo, infinitas soluciones:
(6 t3 + 1)3 + (– 6 t3 + 1)3 + (– 6 t2)3 = 2,
que se extiende a los números que son el doble de un cubo, 2 a3. Para menores de 100 serían 16 y 54.
Para el 3, como menciona Mordell, se conocían solo las soluciones 13 + 13 + 13 = (– 5)3 + 43 + 43 = 3. A pesar de los intentos computacionales de encontrar más soluciones a esta ecuación diofántica x3 + y3 + z3 = 3, no se produjo ningún avance. Solo, en 1985, se demostró que una condición necesaria para que una terna de números enteros (x, y, z) fuese solución de esa ecuación debía de cumplir que x, y y z fuesen congruentes entre sí, módulo 9. Es decir, que el resto al dividirlos por 9 fuese el mismo. Pero ninguna solución particular fue encontrada.
Ahora tocaría el turno a los números 4 y 5. Aunque os recomiendo que no lo intentéis, puesto que no es posible. De hecho, el resultado es más general.
Proposición: No existen soluciones de la ecuación diofántica x3 + y3 + z3 = k, para valores de k “congruentes con 4 o 5, módulo 9”, es decir, que al dividirlos por 9 el resto de la división es 4 o 5, como los números 4, 5, 13, 14, 22, 23, 31, 32, 40, 41, 49, 50, 58, 59, 67, 68, 76, 77, 85, 86, 94 y 95.
Esto se debe a que cualquier número elevado al cubo a3 es congruente con 0, 1 u 8, módulo 9, es decir, el resto de dividir a3 entre 9 solo puede ser 0, 1 u 8. Por lo tanto, la suma de tres cubos no puede ser congruente con 4 o 5, módulo 9, puesto que no hay forma de sumar tres valores (pueden ser repetidos) de 0, 1 u 8 para que quede un resultado congruente con 4 o 5, módulo 9. Por ejemplo, los siguientes cubos 23 = 8, 33 = 27, 53 = 125, son congruentes con 8, 0 y 8, módulo 9, respectivamente, luego su suma es congruente con 8 + 0 + 8 = 16, es decir, congruente con 7, módulo 9. Efectivamente, 8 + 27 + 125 = 160 es congruente con 7, módulo 9, ya que al dividir 160 entre 9 nos queda 17 y de resto 7.

Los matemáticos británicos Miller y Woollett, utilizando el ordenador EDSAC, encontraron soluciones particulares para 69 valores de k entre 1 y 100, buscando en un rango de valores de x, y, z comprendidos entre – 3.164 y 3.164. Si tenemos en cuenta que además había 22 valores, menores que 100, para los que no existen soluciones, quedaron sin resolver las ecuaciones diofánticas correspondientes a nueve valores, a saber, 30, 33, 39, 42, 52, 74, 75, 84 y 87.
Llegados a este punto de esta entrada del Cuaderno de Cultura Científica, os animo a que os enfrentéis vosotros mismos a la búsqueda de soluciones particulares al problema de expresar los números naturales del 1 al 100 (evitad los nueve valores que no consiguieron resolver Miller y Woollett, así como los 22 valores que no tienen solución) como suma de tres cubos de números enteros. Para algunos valores de k no es difícil encontrar soluciones, mientras que para otros no es tan sencillo, aunque para la mayoría existen soluciones con x, y, z menores, en valor absoluto, que 25 (esto es, entre – 25 y 25). En particular, para k = 16 la solución de Miller y Woollett es complicada,
16263 + (– 1609)3 + (– 511)3 = 16.
Bueno, pues si os animáis, disfrutad del problema/juego… divertíos… pero no os olvidéis de seguir leyendo esta entrada.
A partir del artículo Solutions of the Diophantine Equation x3 + y3 + z3 = k, de J. C. P. Miller y M. F. C. Woollett, se empezó a trabajar en la solución de estos nueve números menores que 100 que quedaban pendientes, pero también se estudió la ecuación diofántica x3 + y3 + z3 = k, para valores de k mayores que 100, en particular, se puso mucho énfasis en los menores que 1.000. Para resolver estas ecuaciones diofánticas se desarrollaron nuevos algoritmos computacionales y se amplió el rango de valores para x, y, z.
Hasta el año 2001 se había resuelto el problema para todos los números menores que 100, salvo 33, 42 y 74, para los cuales se sabía que no existían soluciones para x, y, z menores (en valor absoluto) que 1011. Así mismo, se habían encontrado soluciones para las ecuaciones diofánticas de todos los valores menores de 1000, salvo veinte, además de los tres anteriores.
Hubo que esperar a 2016 para obtener una solución para el número 74 y al inicio de este año 2019, aún quedaban por resolver los números 33 y 42.
En abril de este año, 2019, el matemático británico Andrew Booker, de la Universidad de Bristol, empezó a trabajar en el problema de escribir el número 33 como suma de tres cubos a raíz del video The uncracked problem with 33 [https://www.youtube.com/watch?v=wymmCdLdPvM] del canal de Youtube Numberphile.
Booker desarrolló un nuevo algoritmo que le permitiera buscar soluciones enteras con números de 16 dígitos de la ecuación diofántica x3 + y3 + z3 = 33. Y, con ayuda de este algoritmo, encontró la buscada solución. Como cuenta el propio Andrew Booker en una entrevista para Numberphile, saltó de alegría en su despacho cuando encontró esa solución.
Y a principios del pasado mes de septiembre (de 2019) Andrew Brooker, junto con el matemático estadounidense Andrew Sutherland del MIT, han conseguido la solución del número que faltaba, el 42. Para ello han tenido que subir el rango de las posibles soluciones x, y, z a números de 17 dígitos. En concreto, el 42 se puede expresar como suma de tres cubos de la siguiente forma
Booker y Sutherland también encontraron algunas soluciones para números menores que 1000, como 165, 795 y 906. De esta forma ha quedado resuelto el problema, hasta los 100 primeros números, aunque hasta 1.000 aún quedan unos pocos… 114, 390, 579, 627, 633, 732, 921 y 975, sobre los que se seguirá trabajando en el diseño de algoritmos que los resuelvan.
Pero, ¡sorpresa! Solo diez días más tarde del anuncio de que habían conseguido resolver el problema de expresar el 42 como suma de tres cubos, Booker y Sutherland volvieron a hacer otro importante anuncio, relacionado con este problema. Por fin, habían encontrado una nueva solución de la ecuación diofántica citada por el matemático británico L. J. Mordell en 1953, x3 + y3 + z3 = 3, más allá de las ya conocidas (1, 1, 1) y (4, 4, – 5). Los números de esta solución no trivial tienen 21 dígitos.
Para resolver estos complicados problemas de computación, asociados a la solución de la ecuación diofántica, los matemáticos Andrew Booker y Andrew Sutherland utilizaron la aplicación Charity Engine, que conecta más de 500.000 ordenadores personales de todo el planeta, creando una red planetaria de ordenadores.
Existen muchos otros problemas que implican la suma de cubos de números, por ejemplo, el problema de ver qué números, en progresión aritmética, verifican que la suma de sus cubos es, de nuevo, un cubo. Por ejemplo, 33 + 43 + 53 = 63 (por cierto, que a este número, 63, se le conoce como el número de Platón) o 113 + 123 + 133 + 143 = 203, pero eso es otra historia que será contada en otra ocasión.

Bibliografía
1.- University of Bristol: Sum of three cubes for 42 finally solved
2.- Andrew R. Booker, Cracking the problem with 33, Res. Number Theory vol. 5, n. 29, 2019.
3.- John Pavlus, Sum-of-Three-Cubes Problem Solved for “Stubborn” number 33, Quanta Magazine, March, 2019.
4.- J. C. P. Miller y M. F. C. Woollett, Solutions of the Diophantine Equation x3 + y3 + z3 = k, Journal of the London Mathematical Society, vol. 30, pp. 101 – 110, 1955.
5.- L. J. Mordell, On the integer solutions of the equation x2+y2+z2+2xyz = n, Journal London Math. Soc, vol. 28, pp. 500-510, 1953.
6.- Armen Avagyan, Gurgen Dallakyan, A New Method in the Problem of Three Cubes, Universal Journal of Computational Mathematics vol. 5, n. 3, pp. 45-56, 2017.
7.- J. W. S. Cassels, A Note on the Diophantine Equation x3 + y3 + z3 = 3, Mathematics of Computation, vol. 44, n. 169, pp. 265-266, 1985.
8.- University of Bristol: Almost imposible 66-years-old maths puzzle solved
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
Nota del editor: Como es costumbre en España se traduce el nombre del rey o la reina y su correspondiente consorte. También es correcto su título como «rey de Gran Bretaña»; la denominación «Gran Bretaña» para el estado duró desde el 1 de mayo de 1707 al 1 de enero de 1801, momento en el que pasó a ser «Reino Unido de la Gran Bretaña e Irlanda» («…Irlanda del Norte» desde 1927).
El artículo 42, la respuesta definitiva a la vida, el universo y todo lo demás se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- 1 = 0, la prueba definitiva
- Cuando todo tu universo es un sólido
- El universo en un día: El origen de la vida, por Carlos Briones
El tamaño del átomo de hidrógeno

Sin duda, una prueba de fuego para el modelo de Bohr tendría que ser explicar los espectros de los elementos, empezando por el del hidrógeno. Pero antes tenía que pasar una prueba cuantitativa básica: el tamaño del átomo derivado del modelo tenía que ser compatible con los datos ya conocidos.
De entrada estaban los órdenes de magnitud impuestos por los resultados de dispersión obtenidos por el laboratorio de Rutherford. De ellos se podían deducir algunas cosas interesantes. Para empezar, el tamaño aproximado del núcleo atómico. Supongamos que una partícula α se mueve directamente hacia un núcleo. Su energía cinética se transforma en energía eléctrica potencial: se ralentiza y finalmente se detiene, como una pelota rodando cuesta arriba. Lo más cerca que la partícula estará del núcleo puede calcularse a partir de la energía cinética original de la partícula y las cargas de la partícula y el núcleo. El valor calculado resulta ser de unos 3·10-14 m.
Si la partícula no penetra en el núcleo, esta distancia debe ser, al menos, la suma de los radios de las partículas y el núcleo; de aquí, el radio del núcleo no podría ser mayor que aproximadamente 10-14 m. Pero 10-14 m es solo aproximadamente 1/1000 del radio que establece la teoría cinética para un átomo. Como el volumen total del átomo es proporcional al cubo de su radio, eso quiere decir que el átomo está mayormente vacío, con el núcleo ocupando solo una milmillonésima parte del espacio. Esto explica cómo las partículas o los electrones pueden penetrar miles de capas de átomos en láminas de metal o en gases, con solo una desviación grande ocasional de la trayectoria y muy pocos rebotes.
Con estas condiciones de contorno veamos la aplicación del modelo de Bohr al átomo más sencillo, el hidrógeno que, recordemos, tiene un solo electrón alrededor del núcleo. Bohr supuso que las posibles órbitas de los electrones son circulares por simplicidad. El resultado de Bohr para los radios de las posibles órbitas estables rn fue rn = a·n2, donde a es una constante (a = h2 / 4π2mkqe2) [1] que se puede calcular a partir de valores físicos conocidos, y n representa cualquier número entero, n = 1, 2, 3… .
El resultado de Bohr es muy llamativo. En los átomos de hidrógeno los posibles radios orbitales de los electrones son múltiplos enteros de una constante que se puede calcular fácilmente; es decir, n2 adquiere valores de 12, 22, 32,. . . , y todos los factores a la izquierda de n2 en rn = a·n2 son cantidades conocidas previa e independientemente.
El valor de a es aproximadamente de 5,3·10-11 m. Por lo tanto, según el modelo de Bohr, los radios de las órbitas estables tenía que se n2 veces 5,3·10-11 m. Es decir, para n = 1, la primera órbita permitida el radio era, precisamente, 5,3·10-11 m, 4 veces esta cantidad la segunda y 9 veces la tercera. Entre ellas, simple y llanamente, no podía estar el electrón.
En resumen, las distintas órbitas electrónicas están espaciadas alrededor del núcleo de manera regular, con los radios permitidos cuantificados de manera regular. Por lo tanto, la emisión y absorción de luz debe corresponder a la transición del electrón de una órbita permitida a otra. La emisión de luz ocurre cuando el electrón «cae» de un estado de energía más alto a un estado más bajo; la absorción de luz ocurre cuando el electrón «salta» desde un estado de baja energía hasta un estado de mayor energía. Un resultado muy bonito que indica qué radios son posibles y dónde se encuentran. Pero hasta ahora, todo esto es la construcción de un modelo. ¿Soporta la comparación con los datos conocidos?
En su primer artículo de 1913, Bohr pudo dar al menos un «sí» parcial como respuesta. Hacía tiempo que se sabía que el átomo de hidrógeno normal «no excitado» tenía un radio de aproximadamente 5·10-11 m (es decir, el tamaño del átomo obtenido, por ejemplo, al interpretar las características medidas de los gases en términos de la teoría cinética) [2]. Este valor conocido de aproximadamente 5·10-11 m se corresponde mejor que bien con la predicción de la ecuación para el radio orbital r si n tiene el valor más bajo, es decir 1. El modelo proporcionaba un mecanismo para entender el tamaño del átomo de hidrógeno neutro y no excitado. Para cada átomo, el tamaño corresponde al tamaño de la órbita electrónica más interna permitida.
Nota:
[1] Esta constante, llamada radio de Bohr, comparte el honor con la constante de Boltzman o la constante de Avogadro, de haber sido descritas en realidad por otras personas (respectivamente, Haas, Planck y Cannizaro). Pero esto es otra historia…
[2] Este valor de 5·10-11 m para un átomo de hidrógeno no es más que la mitad del 10-10 m que proporcionaba la teoría cinética para la molécula de hidrógeno.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El tamaño del átomo de hidrógeno se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Las regularidades en el espectro del hidrógeno
- La carga del núcleo y el sistema de periodos
- Un átomo con un centro masivo diminuto
¿Es contagiosa la enfermedad de Alzheimer?

En la actualidad se conocen más de cincuenta demencias resultantes de enfermedades neurodegenerativas, y la enfermedad de Alzheimer es la más extendida. Se estima que cerca de 35 millones de personas la sufren en el mundo, y que el número de enfermos podría alcanzar los 115 millones de personas en los próximos 30 años.
Aunque en algunos casos —pocos— el alzhéimer puede deberse a un problema genético, el factor de riesgo principal es el envejecimiento. Así pues, es lógico que la prevalencia de estas enfermedades guarde relación con el aumento de la esperanza de vida.
No obstante, recientemente se han llevado a cabo trabajos que también apuntan a que, en determinadas condiciones, la enfermedad de Alzheimer podría transmitirse entre personas. Es cierto que su mecanismo recuerda el de las enfermedades producidas por priones, como la enfermedad de Creutzfeldt-Jakob, de la que se produjeron decenas de casos como consecuencia de la crisis de las vacas locas. A continuación ofrecemos algunas explicaciones.
La enfermedad de Alzheimer, un problema de proteínas
Desde un punto de vista sintomático, el alzhéimer se caracteriza por un deterioro drástico de las facultades psíquicas y físicas debido a la muerte de las neuronas cerebrales. Cuando se analizan los cerebros de los pacientes fallecidos, se observa la presencia de dos tipos de depósitos de proteínas.
Las proteínas son moléculas de gran tamaño constituidas por una secuencia de moléculas más pequeñas denominadas aminoácidos. Se trata de componentes esenciales de la vida: las células y los tejidos de los seres vivos contienen miles de proteínas, que cumplen funciones variadas y específicas (hormonas, enzimas, proteínas de estructura como el colágeno, la tubulina, que constituye el “esqueleto” de las células y les da su forma, etc.). En la enfermedad de Alzheimer, algunas de estas proteínas se vuelven anormales y se acumulan.
El primer tipo de depósitos proteicos encontrados en el cerebro de pacientes con esta demencia contiene una proteína denominada “Tau” (del inglés Tubulin-associated unit). En condiciones normales, una de sus funciones es estabilizar la estructura de las neuronas. En la enfermedad de Alzheimer, Tau se modifica y deja de cumplir su función. Las neuronas se degeneran, mientras que las proteínas anormales se agregan unas a otras y se acumulan en las células nerviosas.
El péptido Aβ se produce a partir de un corte en la secuencia de aminoácidos de una gran proteína denominada APP o precursor proteico amiloide. Esta proteína se sitúa en la superficie de las neuronas e interviene sobre todo en su crecimiento, su supervivencia y su reparación.
En condiciones normales, los péptidos Aβ se eliminan, pero en la enfermedad de Alzheimer se acumulan en el exterior de las células nerviosas, en forma de placas amiloides, también denominadas placas seniles. Estos depósitos se encuentran, asimismo, alrededor de los capilares sanguíneos del cerebro y pueden ser causa de microhemorragias cerebrales denominadas angiopatías amiloides cerebrales.

Wikimedia, CC BY
Proteínas capaces de contaminar otras
El aspecto más destacable de los mecanismos que dan lugar al alzhéimer es que la neurodegenerescencia no se deriva de una simple acumulación pasiva de proteínas.
En realidad, las proteínas implicadas cambian de forma, lo que modifica su acción a escala celular. Cabe señalar que la función de una proteína depende generalmente de su forma (que, a su vez, depende en gran medida de la secuencia de los aminoácidos que la compone). Este cambio de morfología es lo que confiere al péptido Aβ propiedades totalmente diferentes de las de su forma normal. Al ser capaz de autoagregarse, puede formar los depósitos de fibras amiloides que, probablemente, causan la muerte de las neuronas.
Pero aún hay más: los investigadores han demostrado que las formas tóxicas son capaces de obligar a sus álter ego normales a imitarlas y a adoptar a su vez una forma patógena. Este fenómeno, denominado “autorreplicativo”, explica cómo una célula enferma que produce la forma tóxica del péptido puede “contaminar” la célula vecina.
Este contagio de una célula a otra también explica por qué, durante la evolución de la enfermedad de Alzheimer, la propagación de las lesiones cerebrales se extiende de forma progresiva a todo el cerebro siguiendo un esquema bien determinado que se observa en todos los pacientes.
¿Qué es la enfermedad de Alzheimer?Mecanismos similares a los de los priones
Este proceso autorreplicativo es similar al que se observa en el caso de otra enfermedad neurodegenerativa, la enfermedad de Creutzfeldt-Jakob. Esta se debe a la propagación en el seno del cerebro de un agente patógeno muy particular: el prion.
Aunque no es una bacteria, ni un parásito, ni un virus, ni un hongo, el prion es, sin embargo, transmisible. El descubrimiento de estas “partículas proteicas infecciosas” (el acrónimo prion procede del inglés proteinacious infectious particule) ha sido objeto de un amplio debate y ha obligado a los investigadores a crear un nuevo concepto, el de “agentes transmisibles no convencionales”. Al contrario de lo que ocurre con los otros agentes patógenos, los priones están desprovistos de genoma (no tienen ADN ni ARN) y se componen exclusivamente de una única proteína.
Como sucede con las proteínas implicadas en la enfermedad de Alzheimer, las células producen de forma natural una versión “normal” del prion. Esta versión cumpliría numerosas funciones biológicas, pero todavía no se conocen bien sus diversas utilidades. También posee la propiedad de replegarse y agregarse para formar partículas infecciosas. En su forma infecciosa, los priones son capaces de infectar a un nuevo individuo tras la ingesta de determinados tejidos contaminados, o a través de la sangre, por ejemplo.
La gran resistencia de los priones a los procesos de destrucción clásicos ha dado lugar a varias crisis económico-sanitarias de gran alcance, como la crisis de las vacas locas en los años ochenta y noventa o el escándalo de la hormona del crecimiento contaminada.
¿Es contagiosa?
Los procesos de agregación del péptido Aβ y de la proteína Tau presentan semejanzas con el proceso observado en los priones. Así pues, ¿es posible que la enfermedad pueda transmitirse entre personas, según un mecanismo idéntico al del prion? Diversos grupos de científicos han intentado responder a esta pregunta.
De forma experimental, varios equipos de investigadores han podido inducir la proliferación de agregados de péptidos Aβ en animales de laboratorio. Por otra parte, más recientemente, se han llevado a cabo diferentes trabajos que apuntan a la existencia de casos de transmisión iatrogénica del péptido Aβ patógeno, lo que ha dado lugar a angiopatías amiloides cerebrales. Las hormonas de crecimiento producidas, en particular, antes de 1977 no solo habrían estado contaminadas por el prion, sino también por el péptido Aβ, y habrían podido intervenir en el desarrollo de la enfermedad de Alzheimer.
Paralelamente a la publicación de estos trabajos, se ha detallado de manera especial otra población llamada “de riesgo”, la de los pacientes que han recibido un trasplante de duramadre. Esta fina membrana fibrosa que protege el cerebro podía extraerse de cadáveres y utilizarse como “gasa” tras la realización de operaciones neuroquirúrgicas invasivas. Esta práctica se prohibió en Francia en 1994, pues los trasplantes de duramadre dieron lugar a casos de transmisión iatrogénica del prion humano.
Se llevaron a cabo tres estudios (suizo, japonés e internacional) que mostraron respectivamente que el 71,4%, el 81% y el 61,5% de los pacientes que recibieron este tipo de trasplante desarrollaron posteriormente angiopatías amiloides cerebrales. Aunque no es posible aportar la prueba formal de la contaminación por causa de los trasplantes, la localización de las lesiones y de los depósitos proteicos indica con claridad que el trasplante es la causa del cambio de forma y de la agregación de los péptidos Aβ del receptor.
Un estudio también ha señalado que los instrumentos quirúrgicos utilizados en neurocirugía tal vez podrían constituir a veces una fuente de contaminación, aunque el riesgo es probablemente muy bajo. No obstante, los autores de estos trabajos proponen que se mejoren los procedimientos de esterilización.
¿Es una enfermedad producida por priones?
Desde un punto de vista mecanístico, queda claro que la enfermedad de Alzheimer se parece a las enfermedades producidas por priones. Si nos atenemos a la definición estricta de la palabra prion —partícula proteica infecciosa—, la enfermedad de Alzheimer debería estar incluida, puesto que ha quedado demostrado el carácter transmisible de los ensamblajes proteicos tóxicos que la causan, al menos de forma experimental.
No obstante, de acuerdo con los resultados de investigación, el concepto de prion se ha ampliado: se ha revelado la existencia de diferentes cepas de priones así como su capacidad para “mutar” y adaptarse a su nuevo huésped. En este aspecto, las enfermedades producidas por priones se diferencian de la enfermedad de Alzheimer. Así pues, de acuerdo con el nivel de conocimientos actual, parece más justo calificar esta última como “enfermedad de tipo prion” o “de amiloides infecciosos”. O ampliar el término de agente transmisible no convencional a los ensamblajes proteicos causantes de la enfermedad de Alzheimer.
Sobre la autora: Angélique Igel-Egalon es ingeniera de investigación del grupo de macroagregados proteicos y enfermedades priónicas del Inra
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Es contagiosa la enfermedad de Alzheimer? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Prevenir y tratar la enfermedad de Alzheimer: Una visión moderna
- El papel de la insulina en la enfermedad de Alzheimer
- El citoesqueleto de las neuronas y el alzhéimer
Sin intimidad genética

Madonna, la conocida cantante, contrata equipos para que limpien de manera concienzuda las habitaciones de hotel en que se ha alojado. Pretende evitar así que alguien consiga muestras biológicas de las que extraer material que pueda ser utilizado para secuenciar su genoma. Puede ser prudencia exagerada, pero no es ninguna extravagancia.
Al lado de la información genética que pueda extraerse de una muestra biológica mínima y, sobre todo, de la forma en que esa información sea transmitida al gran público, las imágenes que capturan hoy los paparazzi de las celebridades serían juegos de patio de colegio. ¿Se lo imaginan?
Angelina Jollie se sometió a sendas operaciones quirúrgicas para extirparse las mamas y los ovarios porque tenía, por causas genéticas, un 87 y un 50% de probabilidades de sufrir cáncer de mama y cáncer de ovario respectivamente. Hizo públicas esas decisiones porque quiso. Pero lo que teme Madonna es que otros, sin que ella pueda ejercer control alguno, puedan hacer pública alguna información de ese estilo relativa a su persona.
¿Se imaginan lo que harían ciertos medios o algunos políticos con información genética relativa a un adversario? Un candidato a ocupar un alto cargo podría ser presentado a la opinión pública como alguien predispuesto genéticamente a adoptar comportamientos de riesgo, por ejemplo. Incluso suponiendo que hubiera algo de verdad en esa supuesta propensión, ¿cómo lo presentaría un medio sensacionalista? ¿cómo se haría alusión a ello en las tertulias de radio o televisión? ¿cómo lo entendería el máximo responsable de su partido? ¿qué pensaráin los votantes de ese partido? Presumo que esas prácticas no serían legales, pero ¿supodría ello una diferencia importante en la práctica?
Análisis genéticos comerciales han servido ya en los Estados Unidos para localizar a la madre de un donante de semen. Cuando esa práctica se generalice, los donantes dejarán de ser anónimos, lo que introducirá cambios importantes en las reglas o podría, incluso, conducir a la desaparición de esa modalidad de donación.
Pero la pérdida del anonimato no se limita al ámbito de los donantes de semen. Solo en Estados Unidos hay del orden de 90 empresas que hacen análisis de ADN para rastrear los ancestros de quienes recurren a sus servicios. Pues bien, el acceso a un porcentaje muy pequeño de la población es suficiente para poder trazar la ascendencia de la gran mayoría. Eso, que resulta sorprendente, es consecuencia de la tupida red de relaciones familiares que tiene cada persona. En los Estados Unidos, por ejemplo, desde el 2% se puede acceder, a traves de primos terceros, a la información genética del 99% de la población.
En esa progresiva pérdida de intimidad, el rizo lo ha rizado Ancestry, una conocida compañía norteamericana de genealogía que comercializa tests genéticos. Tras aliarse con Spotify la conocida firma de música on-line, ofrece, además del correspondiente test de ADN, la lista de música inspirada, supuestamente, en los orígenes del cliente. Nada hay en el ADN de una persona que pueda servir a tal fin. Por mucho que el gusto genérico por la música pueda de alguna forma estar codificado en el genoma, no hay manera de saber qué música escuchaban nuestros ancestros, si es que escuchaban alguna, a partir de su análisis. Porque la particular forma que adquiere la expresión musical es un rasgo cultural y se transmite, por ello, mediante aprendizaje y contagio social.
Envoltorio musical aparte ¿a nadie se le ha ocurrido pensar el uso que una red social como Spotify podría hacer de la información genética de miles de usuarios? Recuerden lo que ha hecho Facebook con información igualmente sensible pero de otra naturaleza.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sin intimidad genética se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Poca influencia genética en el desempeño educativo
- Contra el furtivismo, genética molecular
- Genética en las aulas
Materiales inteligentes y multifuncionales para impulsar el desarrollo tecnológico
Los materiales inteligentes, también denominados activos o multifuncionales, son estructuras capaces de modificar sus propiedades como respuesta a estímulos físicos o químicos externos, como la presión, la temperatura o la humedad del entorno.
Por sus características, estos componentes ofrecen un elevado potencial de aplicación en sectores como el transporte, la energía o la biomedicina. Combinados con técnicas de fabricación avanzada como la fabricación aditiva o las nuevas tecnologías de impresión, estos materiales resultan particularmente relevantes en ámbitos como la Industria 4.0 o el denominado “Internet de las cosas”, con importantes implicaciones sociales, económicas y laborales, entre otras.
El físico Senentxu Lanceros-Mendez, actual director científico del BCMaterials (Basque Center for Materials, Applications and Nanostructures), analizó la relevancia de estos elementos en la conferencia titulada “Importancia de los materiales inteligentes y multifuncionales en el desarrollo tecnológico actual”, que se celebró el pasado 27 de febrero en la Biblioteca Bidebarrieta de Bilbao. El investigador Ikerbasque explica en ella no solo los aspectos más destacados de los nuevos materiales inteligentes, sino también las aplicaciones hasta hace poco inimaginables que estos permiten y sus implicaciones económicas y sociales.
Senentxu Lanceros-Mendez es licenciado en Física por la UPV/EHU y doctorado por la Universidad Julius-Maximilians-Universität Würzburg (Alemania). Su investigación está centrada en el desarrollo de nuevos materiales inteligentes y multifuncionales para su aplicación en sensores, actuadores, energía y biomedicina.
La charla se enmarca dentro del ciclo “Bidebarrieta Científica” una iniciativa que organiza todos los meses la Cátedra de Cultura Científica de la UPV/EHU y la Biblioteca Bidebarrieta para divulgar asuntos científicos de actualidad.
Edición realizada por César Tomé López
El artículo Materiales inteligentes y multifuncionales para impulsar el desarrollo tecnológico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un atlas para materiales 2D
- Ciencia, arte y cultura callejera: materiales y obra artística
- Un algoritmo genético para buscar materiales 2D
¿Son evitables los ataques con drones?
La respuesta corta a la pregunta del título es: ahora mismo, no.
Si algún lector quiere seguir leyendo, desarrollaré un poco más la explicación. Al hilo de los ataques sufridos en las instalaciones de Saudi Aramco, muchas personas se preguntan si el ataque se pudo evitar. O incluso, pensando en el futuro, si se podrá evitar cuando vuelva a pasar. La respuesta es que no será nada fácil. No hay un sistema de contramedidas 100 % fiable.
¿Se acuerdan los lectores de que el año pasado unos drones obligaron a cerrar el aeropuerto de Gatwick? Fíjense en el caos y en la dificultad para tratar estas emergencias, que incluso las autoridades llegaron a pensar que quizás esos drones nunca habían existido. Había tal confusión que, meses más tarde, la policía en uno de sus informes finales recogió más de 100 visiones de estos multirrotores.

El caso de Gatwick es diferente del de Aramco, ya que no se emplearon los drones para el ataque. Estas máquinas se llevan usando para hacer daño al enemigo desde hace bastante tiempo. Ya en el siglo XIII a.C. la dinastia china Song usaba cometas para sobrevolar por encima de sus enemigos, a las que entonces prendía fuego. Ese episodio representa el primer vestigio de la guerra con drones.
Si viajamos a tiempos más recientes, en 2003 la OTAN lanzó un programa que duraría 10 años para el estudio de contramedidas contra esta tecnología. Este informe no ha sido abierto al público. En 2008, el think tank RAND Corporation publicó un informe sobre la amenaza que los robots voladores suponían para la seguridad de Estados Unidos. El ISIS usó con gran éxito estos aparatos en sus ataques. Una de las maniobras más sonadas fue la de enero de 2018, cuando este grupo terrorista coordinó una docena de estos ingenios contra dos instalaciones militares en Rusia.
Además, a los responsables de seguridad les pone los pelos como escarpias la aparente naturalidad con la que los vehículos aéreos no tripulados se acercan a objetivos muy sensibles. Como Pedro por su casa, que dirían. En 2013, por ejemplo, el Partido Pirata alemán voló un drone muy cerca de Angela Merkel, sin ningún peligro, pero dejando muchas dudas sobre la preparación de la seguridad ante estas eventualidades. Incluso en 2015, un hombre estrelló su juguete en los terrenos de la Casa Blanca.
Medidas de defensa
Conviene aclarar que las medidas antiaéreas tradicionales no sirven de nada contra estos aparatos. En 2016, un sencillo drone que sobrevoló el cielo de Israel procedente de Siria no sucumbió ante el ataque de dos misiles Patriot ni de un misil aire-aire lanzado desde un avión israelí. Las medidas antidrones son más sutiles.
Actualmente, los sistemas para combatir a los vehículos aéreos no tripulados los podemos clasificar en los siguientes tipos:
Detección
Los drones son tan pequeños que no son fáciles de detectar con un radar. Se emplean otras tecnologías como sensores de radiofrecuencia, acústicos y ópticos. Estas medidas tienen la desventaja de que necesitan tener línea directa de visión con la máquina voladora. Para solventarlo, existen sensores acústicos, que se valen de grandes librerías que intentan detectar el sonido característico de estos aparatos. Pero la incorporación al mercado de estos drones es muy rápida, y la librería no siempre es fácil de mantener actualizada. Todas estas imprecisiones llevan a que haya un gran número de falsos positivos, lo cual no es nada deseable.
Interceptación
Estas medidas consisten en interrumpir las comunicaciones del drone. Ya sea con el operador que lo maneje, con una estación o con un satélite. Esto tampoco es 100 % efectivo, ya que muchos están programados para navegar de manera autónoma.
Por otro lado, también se contempla la idea de lanzar redes para atascar los rotores del drone. Hay espectaculares vídeos comerciales sobre estas iniciativas de derribo de UAVs con unas armas bastante aparatosas que normalmente requieren un espacio aéreo totalmente despejado.
Vídeo promocional de SkyWall 100, una bazuca anti drones.En esta línea encontramos también el famoso caso de las águilas usadas por la policía holandesa, aunque esta idea se rechazó finalmente.
Algunos fabricantes de drones tienen la opción de configurar en qué área geográfica pueden operar sus productos, tal y como lo demostró la empresa DJI en el conflicto de Siria. Esta medida parece fácilmente salvable por unos terroristas.
Aunque el mayor problema de atacar un drone que transporta una bomba es: ¿qué hacer cuando caiga? Por lo tanto, vuelve a quedar claro que no existen medidas 100 % efectivas de interceptación.
Conclusión
El número y el mercado de contramedidas se ha multiplicado en los últimos años y la amenaza hace tiempo que está detectada. Muchas medidas que he presentado aquí no se pueden usar directamente en un aeropuerto, ya que podría interferir en la comunicación con los aviones, así que un caso como el de Gatwick podría repetirse.
Sin embargo, tanto pero no significa que evitar este tipo de ataques sea imposible. Aunque no sean tan mediáticos, ya existen casos de interceptación de drones, como en el aeropuerto de Londres hace unos pocos días. El interés de las fuerzas de seguridad y los ejércitos en este ámbito va en aumento.
Sobre el autor: Julián Estévez Sanz es profesor ayudante de Robótica e Inteligencia Artificial en el Departamento de Ingeniería Mecánica de la Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Son evitables los ataques con drones? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Adulterar los cigarrillos electrónicos te puede matar

-
805 afectados y 12 muertos
El New York Times alertaba a principios de septiembre de una nueva muerte consecuencia del vapeo en el estado de Oregón. Es la segunda muerte registrada después de la acontecida en Illinois hace casi dos meses.
Cuando el número de afectados ingresados llegó a 53, el Departamento de Salud Pública de Illinois elaboró un informe acerca de las similitudes de estos pacientes. Todos ellos presentaban infiltraciones pulmonares, es decir, tenían sustancias adheridas a los pulmones que dificultaban su normal funcionamiento, provocando inflamación e impidiendo la respiración. Fueron tratados con esteroides para frenar la inflamación, coma inducido, lavado broncoalveolar, antibióticos para tratar las neumonías y con respiración asistida. Los expertos se enfrentan a un nuevo síndrome cuyas causas, aseguran en el informe, requieren un estudio urgente.
Según los CDC (Centros para el Control y la Prevención de Enfermedades de Estados Unidos) los casos de enfermedad pulmonar asociados al mal uso de cigarrillos electrónicos aumentaron un 52% en la última semana. Hay 805 afectados y 12 muertos. En su mayoría adolescentes. En todos los casos parece que los consumidores manipularon los vapeadores para fumar otro tipo de sustancias, diferentes a las que contienen los cigarrillos electrónicos convencionales, y utilizaron cartuchos del mercado negro. La inhalación de sustancias tóxicas es el origen del misterioso síndrome pulmonar.
-
La “epidemia” no es por vapear. Hay algo más.
Lo más importante de este suceso es que los afectados no fumaban con vapeadores normales, sino que los manipularon y usaron cargas irregulares.
Mas del 90% de los afectados reconoció haber utilizado vapeadores cargados con aceites que contenían cannabinoides, como el THC (tetrahidrocannabinol) y el CBD (cannabidiol). Es decir, alteraron las cargas originales de estos dispositivos.
Se están estudiando otros posibles contaminantes como hidrocarburos aromáticos policíclicos, compuestos liposolubles como la vitamina E, nitrosaminas, productos químicos orgánicos volátiles como el formaldehído y productos químicos inorgánicos como metales. También se han detectado endotoxinas y compuestos aromatizantes como el diacetilo y la 2,3-pentanodiona.
En busca de respuestas, NBC News encargó a CannaSafe, un laboratorio experto en análisis de cartuchos de vapeadores, el análisis de 18 cartuchos, 3 comprados en dispensadores legales de California y 15 del mercado ilegal. De los tres comprados en dispensarios legales, la compañía de pruebas CannaSafe no encontró metales pesados, pesticidas o disolventes residuales como la vitamina E. Pero 13 de las otras 15 muestras de cartuchos de THC del mercado negro sí contenían vitamina E.
La vitamina E es una sustancia liposoluble, es decir, en los pulmones puede comportarse como un aceite que se va adhiriendo al árbol respiratorio. El organismo se defiende intentando eliminar ese cuerpo extraño y para ello utiliza las células expertas en ello: los eosinófilos. El resultado de esto puede derivar en neumonía eosinófila aguda.
CannaSafe también probó pesticidas en 10 de los cartuchos no regulados. Los 10 dieron positivo. Todos los productos contenían el fungicida myclobutanil, una sustancia que puede transformarse en cianuro de hidrógeno cuando se quema. El cianuro es tóxico por inhalación, ya que inhibe la respiración celular. Es mortal a partir de 300 ppm de concentración.
Los jóvenes afectados por esta “epidemia” no habían utilizado cápsulas comerciales, sino que las habían adulterado para poder fumar otras drogas o ahorrar dinero.
La razón por la que llevamos meses preguntándonos si el origen de este misterioso síndrome pulmonar está en los cigarrillos electrónicos, es que muchos de los jóvenes afectados ocultaron la información. Los médicos no sabían qué estaban fumando. Esto obstaculiza el tratamiento y el diagnóstico.
-
Composición de los cigarrillos electrónicos convencionales
Los principales componentes de los cigarrillos electrónicos convencionales a base de nicotina incluyen propilenglicol y glicerina, además de la nicotina. También algún aromatizante. En ningún caso contienen aceites.
A excepción de la nicotina, inhalar estas sustancias no supone ningún peligro. Sin embargo, aunque en estos dispositivos no se producen reacciones de combustión, tal y como ocurre con el tabaco convencional, sí se produce calentamiento. El calentamiento sí puede dar lugar a la formación de otras sustancias que están en el punto de mira. Se sigue estudiando la formación de sustancias peligrosas como el formaldehído y las acroleínas como subproducto de reacción en algunos de estos dispositivos. Sea como fuere, los niveles de estas sustancias potencialmente tóxicas que se pueden formar en los cigarrillos electrónicos estarán muy por debajo de las que se forman en el tabaco. Desde el punto de vista exclusivamente bioquímico, atendiendo a las sustancias presentes en el humo y su impacto en la salud, los cigarrillos electrónicos no son totalmente inocuos, pero sí son más seguros que fumar tabaco convencional.
-
Pros de los cigarrillos electrónicos
Durante la combustión del tabaco convencional se producen sustancias relacionadas con el cáncer, como bencenos, alquitrán y amoniaco. Sustancias que no se producen en los vapeadores.
Un estudio de Sigma Dos asegura que el 96,3% de los españoles recurren al cigarrillo electrónico como sustituto del tabaco. De ellos, el 69,8% ha logrado cambiar el humo por el vapor; reemplazar por completo el tabaco por los nuevos dispositivos electrónicos de liberación controlada de nicotina consiguiendo así no volver a fumar tabaco convencional.
Sin embargo, los estudios realizados hasta la fecha no son muy prometedores con respecto al abandono del tabaquismo. Aunque fumar es significativamente más insalubre que vapear, no hay evidencias sobre que el vapeo sea una estrategia útil para dejar de fumar. Al menos no parece ofrecer una tasa de éxito mayor que otras estrategias.
No obstante, en 2015 el Gobierno del Reino Unido decidió autorizar a los médicos de su sistema público de salud a prescribir los vaporizadores como tratamiento alternativo para dejar de fumar, igual que ocurre en España con las terapias de reemplazo de nicotina, como los parches o chicles de nicotina. Una decisión avalada por un informe del Real Colegio de Médicos británicos que asegura que el uso de vaporizadores es «un 95% menos dañino» que el tabaco.
Aunque los autores del trabajo en el que se citaba este dato fueron acusados de conflicto de interés, la evidencia científica nos dice que los cigarrillos electrónicos ofrecen niveles mucho más bajos de carcinógenos que los cigarrillos convencionales. No son inocuos, pero sí suponen una mejora significativa.
Con respecto a la salud cardiovascular, el cigarrillo electrónico no parece ofrecer ventajas frente al tabaco convencional. El riesgo de infarto de miocardio e ictus es prácticamente el mismo.
-
Contras de los cigarrillos electrónicos
Aunque la evidencia científica es escasa, con respecto a enfermedades pulmonares, todo apunta a que el cigarrillo electrónico podría aumentar el riesgo de bronquitis y asma. Pero este no es el contra más importante.

Este tipo de dispositivos se han introducido en el mercado como sustitutos del tabaco, como una transición plácida hasta dejar definitivamente de fumar. Aparentemente es un win-win. Los consumidores van dejando de fumar y esto sigue reportando beneficios a la industria del tabaco. British American Tobacco (BAT), Philip Morris, Japan Tobacco International (JTI) y Altadis, las cuatro grandes del sector, comercializan distintas modalidades de cigarrillos electrónicos.
Pero a su vez, estos dispositivos que se presentaban como una alternativa para dejar de fumar, se han colado en el mercado como un caballo de Troya capaz de persuadir a nuevos clientes. Vapear se ha convertido en una moda que arrasa en las redes sociales. Uno de los más famosos es Austin Lawrence, que cuenta con más de 3 millones de seguidores en Intagram y en Youtube.
Los adolescentes son atraídos mediante técnicas de marketing que van desde el «esto que fumas no hace daño» hasta el «te ofrezco sabores como el de pepino«, claramente dirigidas a los más jóvenes. Las campañas publicitarias son del tipo “glamur y libertad”. Nos recuerdan a las que en su día se hacían con el tabaco convencional. Quienes comienzan a fumar utilizando cigarrillos electrónicos con nicotina no deberían olvidarse de que la nicotina es una sustancia adictiva, y la adicción es contraria a la libertad.
-
Los jóvenes fuman menos y empiezan más tarde, pero vapean más
En la encuesta Estudes sobre consumo de drogas entre estudiantes se muestra que el 20,1% de los alumnos ha utilizado cigarrillos electrónicos alguna vez en su vida, observándose una mayor extensión entre los chicos. Entre los que admiten haber vapeado en alguna ocasión, el 52,6% utilizó cartuchos sin nicotina, el 22,4% con nicotina y el 24,9% admitieron haber utilizado ambos tipos. La proporción de usuarios de cigarrillos electrónicos es considerablemente más alta ente los que fuman tabaco a diario que entre los que no lo hacen.
El 34,7% (31,4 en 2014) de los alumnos ha fumado tabaco en el último año. El consumo diario se sitúa en el 8,8% (8,9% en 2014), cifra mínima de la serie histórica de Estudes. En 2004, el 21,5% de este sector de la población fumaba a diario. Por término medio, el primer consumo de tabaco se produce a los 14,1 años; por primera vez a lo largo de toda la serie histórica de Estudes se supera la frontera de los 14 años. La adquisición del hábito de fumar diariamente, igual que ocurría en 2014, comienza a los 14,6 años de media, apenas medio año después de haberlo probado por primera vez. Parece que la irrupción del cigarrillo electrónico no ha aumentado el número de fumadores adolescentes ni la edad a la que empiezan a fumar. Parece que un hábito ha reemplazado en parte al otro.

Aunque el juguete mi primer vapeador no existe, fue un meme creado por Adam Padilla, sí se comercializaron cigarrillos de chocolate, que vienen a ser lo mismo. Los cigarrillos de chocolate fueron creados por Milton Snavely Hershey en 1906 y se popularizaron en España en la década de los 80, cuando un tercio de la población era fumadora. En 2005 fueron retirados del mercado español debido a la aprobación de la Ley Antitabaco, que especifica: «En particular, se prohíbe la venta de dulces, refrigerios, juguetes y otros objetos que tengan forma de productos del tabaco y puedan resultar atractivos para los menores».
La prohibición de los cigarrillos de chocolate pretendía lanzar el mensaje de que el tabaquismo no es un juego. El meme de Adam Padilla pretende lo mismo con respecto al vapeo. Del mismo modo, decenas de sociedades médicas han firmado la llamada Declaración de Madrid, promovida por el Comité Nacional de Prevención del Tabaquismo, que insta a aplicar la actual regulación sobre espacios sin humo a los cigarrillos electrónicos. El objetivo es doble. Por un lado, evitar la toxicidad pasiva que estos ocasionan, y por otro, conseguir la desnormalización del vapeo en lugares públicos.
-
Reflexión final
La manipulación de cigarrillos electrónicos ha causado la muerte de 12 personas y ya hay 805 afectados por un síndrome pulmonar grave. Los afectados adulteraron deliberadamente estos dispositivos, por lo que no podemos culpar a los cigarrillos electrónicos de esta “epidemia”. Lo responsable desde los medios de comunicación es alertar del peligro que supone adulterar estos dispositivos.
La evidencia científica apunta a que es mucho peor para la salud fumar que vapear. No está tan claro que sea una buena estrategia para dejar de fumar, pero al menos vapear en lugar de fumar sí es un cambio a mejor siempre y cuando se utilice tal y como indica el fabricante y con las recargas oficiales.
Aunque vapear no es totalmente inocuo, el principal contra no está tanto en las sustancias que se inhalan, sino en el hábito al que inducen.
Los cigarrillos electrónicos irrumpieron en el mercado como una estrategia más para dejar de fumar. La intuición nos dice que es una estrategia ganadora, ya que imita el hábito de fumar, cosa que no ocurre con los chicles o los parches de nicotina. El cigarrillo electrónico era un objeto tosco y caro, así que en principio era difícil imaginarse que el vapeo se convertiría en una actividad lúdica. Pero el glamur es muy importante. Los cigarrillos electrónicos son dispositivos cada vez más sofisticados. Además, la nube de vapor que crean al exhalar es muy estética. Permite hacer trucos visuales, como aros y otras formas, muy atractivos para la fotografía. El vapeo es instagrameable. La publicidad ha hecho el resto.
Que los jóvenes vapeen con cigarrillos electrónicos en lugar de fumar tabaco convencional no es el escenario ideal, pero siempre y cuando no manipulen los dispositivos, desde el punto de vista de la salud pública puede verse como una mejora. No obstante, las restricciones legales del tabaco convencional deberían extenderse al cigarrillo electrónico, a fin desincentivar su uso. La situación ideal sería que los jóvenes no fumasen si lo uno ni lo otro. Pero no vivimos en un mundo ideal.
La realidad es que si los cigarrillos electrónicos e Instagram hubiesen existido cuando yo tenía 15 años, en lugar de dar una primera calada a un pitillo, se la habría dado a un cigarrillo electrónico. Porque cuando tienes 15 años, molar es lo más importante. Habría sido mejor, pero no lo mejor. Ojalá hubiese sabido que para molar no hacía falta inhalar mierdas.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Adulterar los cigarrillos electrónicos te puede matar se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Polímeros biocompatibles para integrar dispositivos electrónicos en nuestro cuerpo
- Todo lo que se puede medir en un río
- Lo que la tensión puede hacer en dos capas de grafeno
Dos teoremas de la amistad
Entre los individuos, la amistad nunca viene dada, sino que debe conquistarse indefinidamente.
Simone de Beauvoir
Decir amistad es decir entendimiento cabal, confianza rápida y larga memoria; es decir, fidelidad.
Gabriela Mistral
Recordemos que, en matemáticas, un grafo está definido por un conjunto de vértices y un conjunto de aristas uniendo algunos de estos vértices. Un grafo se llama plano cuando puede dibujarse en el plano sin que ninguna arista se cruce. Los ejemplos más sencillos de grafos no planos son los conocidos como K5 y K3,3.

De hecho, en 1930, el matemático y lógico Kazimierz Kuratowski (1896-1980) demostró este bello teorema que caracteriza la ‘planitud’ de cualquier grafo:
Un grafo es plano si y solo si no contiene ningún subgrafo homeomorfo a K5 o K3,3.
El grafo de la amistad Fnse construye uniendo n copias del grafo cíclo C3 a través de un vértice común.

Se trata de un grafo plano que posee 2n+1 vértices y 3n aristas.

En 1966 Paul Erdős, Alfréd Rényi y Vera T. Sós demostraron el que llamaremos el primer teorema de la amistad, que dice lo siguiente (ver [2]):
Los grafos finitos con la propiedad de que dos vértices cualesquiera tienen exactamente un vértice vecino en común son precisamente los grafos de la amistad.
Una manera de pensar en este teorema –y de allí su nombre– es el siguiente: si un grupo de personas posee la característica de que cada par de ellas tiene exactamente un amigo en común, entonces debe de haber una persona que sea amiga de todas las demás.
El primer teorema de la amistad no funciona para grafos infinitos, es decir, pueden existir grafos infinitos diferentes, con la propiedad de que ‘dos vértices cualesquiera tienen exactamente un vértice vecino en común’ y con el mismo cardinal (ver [3]).
Por cierto, Vera T. Sós (1930) es una especialista en combinatoria. Esa “T.” corresponde al apellido de su marido, Pál Turán (1910-1976). Ambos fueron estudiantes de Lipót Fejér… y ambos poseen número de Erdős igual a 1.
Para establecer el segundo teorema de la amistad, supongamos que en una fiesta hay 6 personas. Si tomamos dos de ellas al azar, o bien se encuentran por primera vez –les llamaremos mutuamente extraños– o bien se conocían previamente –los llamaremos mutuamente conocidos–. El teorema dice entonces lo siguiente:
En cualquier grupo de seis personas, existen tres personas que son mutuamente conocidas o mutuamente desconocidas.
Este problema puede reformularse en términos de teoría de grafos. Recordemos que un grafo se llama completo si es un grafo simple –sin aristas múltiples entre vértices, en particular, sin bucles– donde cada par de vértices está conectado por una arista. Un grafo completo de n vértices se denota Kn –antes hemos hablado de K5–.
K6 contiene 15 aristas.

Cada persona asistente a esa fiesta se puede representar por uno de los vértices. Coloreemos la arista uniendo dos vértices de rojo si las personas correspondientes son mutuamente conocidas y de azul si son mutuamente extrañas.
El segundo teorema de la amistad se reformula entonces en términos de coloreado de grafos:
Si coloreamos con rojo o azul las 15 aristas de K6 siempre habrá un triángulo rojo o un triángulo azul.
La prueba es muy sencilla. Elegimos un vértice cualquiera V. Cinco aristas inciden con V, y serán de color rojo o azul. El principio del palomar garantiza que al menos tres aristas deben ser del mismo color; supongamos que es rojo. Llamemos A, B y C los vértices correspondientes a estas tres aristas. Si alguna de las aristas AB, BC, CA es roja, entonces esta arista junto con las dos aristas incidentes a V forman los lados de un triángulo rojo. Si ninguna de las aristas AB, BC, CA es roja, entonces las tres aristas son de color azul y se tiene el triángulo azul ABC.
El matemático Frank P. Ramsey (1903-1930) demostró un teorema general de combinatoria en su artículo On a problem of formal logic, este fue el origen de la llamada teoría de Ramsey. El segundo teorema de la amistad es un caso particular de este resultado.
Por cierto, el segundo teorema de la amistad no funciona para grupos de menos de 6 personas…
Referencias
[1] Dutch Windmill Graph, Wolfram MathWorld
[2] Paul Erdős, Alfréd Rényi and Vera T. Sós, On a problema of graph theory, Studia Scientiarum Mathematicarum Hungarica 1 (1966) 215-235
[3] Václav Chvátal, Anton Kotzig, Ivo G Rosenberg and Roy O. Davies, Roy O., There are 2ℵα friendship graphs of cardinal ℵα, Canadian Mathematical Bulletin 19 (4) (1976) 431-433
[4] Teorema de la amistad, Wikipedia (consultado el 18 septiembre 2019)
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Dos teoremas de la amistad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El juego del Sim
- Shizuo Kakutani y sus teoremas
- El teorema de los cuatro colores (3): Tras más de un siglo de aventura… ¿un ordenador resuelve el problema?
Los postulados de Bohr

Si suponemos, como hizo Rutherford, que un átomo consiste en un núcleo cargado positivamente rodeado de varios electrones cargados negativamente, ¿qué impide que los electrones y el núcleo se unan debido a la atracción eléctrica? Una posible respuesta es que un átomo podría ser como un sistema planetario, con los electrones girando en órbitas alrededor del núcleo [1]. Podemos pensar en un planeta que orbita alrededor del Sol como sujeto a una fuerza atractiva hacia el centro [2]. Si no fuese así el planeta seguiría en línea recta, de acuerdo con la primera ley del movimiento de Newton. Esta fuerza hacia el centro a menudo se llama fuerza centrípeta. Para los planetas, esta fuerza surge de la atracción gravitacional del Sol sobre el planeta [2]. Para el caso de los electrones en los átomos Rutherford sugirió que, haciendo el papel de fuerza gravitacional, la fuerza de atracción eléctrica entre el núcleo y el electrón suministraría una fuerza centrípeta. Esta fuerza centrípeta mantendría en órbita al electrón en movimiento.
La idea parece ser una buena base para un modelo útil de la estructura atómica. Pero surge un grave problema con respecto a la estabilidad de un átomo «planetario». Según la teoría del electromagnetismo de Maxwell, una partícula cargada pierde energía cuando se acelera. Un electrón que se mueve en una órbita alrededor de un núcleo cambia continuamente su dirección, por lo tanto, también su vector de velocidad. En otras palabras, siempre está siendo acelerado por la fuerza eléctrica centrípeta.
El electrón, por lo tanto, debería perder energía emitiendo radiación y, por lo tanto, acercándose constantemente al núcleo. En muy poco tiempo, el electrón que pierde energía se termina precipitando en el núcleo. [1] Según la física clásica, la mecánica y el electromagnetismo, un átomo planetario no sería estable durante más de una fracción muy pequeña de un segundo. Con todo, y a sabiendas de esta dificultad insalvable desde el punto de vista clásico, la idea de un átomo planetario era muy atractiva.
La comunidad física continuó buscando un modelo que incluyese una estructura planetaria estable y que, entre otras cosas, pudiese explicar los espectros de emisión de los elementos. Niels Bohr, entonces un físico danés desconocido que acababa de recibir su doctorado, logró construir un modelo muy interesante en 1912-1913. Este modelo se conoce como modelo de Bohr o modelo cuántico del átomo [4], porque incorporó con éxito la idea cuántica de Einstein y Planck. Fue ampliamente reconocido como una gran victoria. Aunque tuvo que modificarse más tarde para tener en cuenta muchos más fenómenos, mostró cómo atacar problemas atómicos mediante el uso de la teoría cuántica. Dado que Bohr incorporó la idea de átomo nuclear de Rutherford, algo crucial para el modelo, el nombre más apropiado para éste quizás sería modelo de Rutherford-Bohr.

Bohr introdujo dos nuevos postulados [5] específicamente para explicar la existencia de órbitas de electrones estables y espectros de emisión diferentes para cada elemento. Estos postulados pueden expresarse de la siguiente manera:
1. Contrariamente a las predicciones de la física clásica, que después de todo había sido probada solo para circunstancias relativamente a gran escala, existen estados para un sistema atómico en el que no se emite radiación electromagnética a pesar de la aceleración de las partículas cargadas (electrones) . Estos estados se denominan estados estacionarios del átomo.
2. Cualquier emisión o absorción de radiación, ya sea como luz visible u otra radiación electromagnética, corresponde a una transición repentina de la carga entre dos de estos estados estacionarios. La radiación emitida o absorbida tiene una frecuencia f determinada por la relación hf = Ei – Ef (en esta ecuación h es la constante de Planck, y Ei y Ef son las energías del átomo en los estados estacionarios inicial y final, respectivamente.
La teoría cuántica había comenzado con la idea de Planck de que los átomos emiten luz solo en cantidades definidas de energía. Este concepto fue ampliado por la idea de Einstein de que la luz viaja solo como paquetes definidos, cuantos, de energía. Ahora se extendía aún más por lel postulado de Bohr de que los átomos existen en un estado estable solo en estados de energía definidos y «cuantizados». Pero Bohr también usó el concepto cuántico para decidir cuál de todos los estados estacionarios concebibles son realmente posibles. Veremos un ejemplo en la siguiente entrega de la serie.
Notas:
[1] La imagen del sistema planetario atómico es parte del desarrollo histórico del modelo. Debemos recordar que los átomos NO son sistemas planetarios de la misma forma que no son pudin de pasas.
[2] Este es el modelo newtoniano. Sabemos desde la aparición de la relatividad general que esto es solo una aproximación válida matemáticamente.
[3] Parecido a lo que le ocurre a un satélite artificial, que pierde energía debido a la fricción en la atmósfera superior, y gradualmente se mueve en espiral hacia la Tierra. Caería si no se corrigiese su trayectoria con propulsores.
[4] Se lo conoce así pero, en realidad, el modelo de Bohr es el quinto modelo cuántico construido. Más sobre ello en este vídeo.
[5] Son postulados porque se postulan, es decir, al asumir que son ciertos el modelo arroja resultados coherentes con los datos experimentales. No hay otro razonamiento más que este.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Los postulados de Bohr se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- #Quantum13 Bohr no fue el primero
- 1913-2013: del modelo atómico de Bohr al Higgs
- Bohr y la veneración de la autoridad
Lo prudente es hablar de emergencia climática

Jose y yo Estudio/Shutterstock
No podíamos seguir permitiéndonos en España una falta de atención mediática al cambio climático. Y menos tras haber sufrido una gota fría sin precedentes en diversos puntos de la costa mediterránea.
Se dijo que “era demasiado pronto” para relacionar las lluvias torrenciales con el cambio climático. Y mucha gente nos preguntamos hasta cuándo iba a seguir siendo demasiado pronto y si no era contraproducente guardar cautela a la hora de informar acerca de uno de los mayores retos de nuestro tiempo.
Frente a esa prudencia de no querer atribuir un evento regular como la gota fría al cambio climático, existe el consenso científico de que el aumento de la temperatura está detrás de la intensificación y la recurrencia de estos fenómenos.
Satélites Sentinel del programa europeo Copernicus/SnapPlanet
Dada la inacción política frente a la crisis climática, no querer precipitarse en mencionar el cambio climático solo ha retrasado el momento de poner sobre la mesa medidas urgentes tanto para mitigar emisiones como para adaptarnos a fenómenos extremos. Quizás, lo “prudente” sea informar con frecuencia sobre la emergencia climática.
Signos de una crisis sin precedentes
Si repasamos la actualidad climática, los últimos cinco años han sido los más cálidos jamás registrados. Así lo indica el reciente informe de la Organización Meteorológica Mundial encargado para la cumbre de la ONU sobre Acción Climática que se celebra estos días en Nueva York.

Organización Meteorológica Mundial
El hemisferio norte acaba de experimentar el verano más caluroso desde que se tienen registros. La proporción de ciclones tropicales intensos (categorías 4 y 5) se ha incrementado en el Atlántico Norte desde 1970.
Dorian ha sido el huracán más potente jamás registrado en azotar Las Bahamas. Ha dejado el archipiélago devastado a su paso. En su deriva hacia el norte, Dorian irrumpió en la circulación atmosférica de latitudes medias, generando perturbaciones en la corriente en chorro (chorro polar o jet stream).
Como si fuera el meandro abandonado de un río, de las ondulaciones generadas se descolgó una bolsa de aire frío –una depresión aislada en niveles altos (DANA) o gota fría– que llegó a alcanzar la franja mediterránea.

Sabemos desde hace tiempo que la temperatura superficial del Mediterráneo ha subido 1,27 °C de media en los últimos 35 años. Es una media aritmética, lo que significa que existe una mayor amplitud en eventos puntuales.
Un mar caliente junto con bolsas de aire frío en altura son dos de los ingredientes principales para el desarrollo de fenómenos convectivos adversos, como las intensas tormentas de las pasadas semanas.
Incertidumbre no significa inacción
Pese a la incertidumbre que pueda existir al relacionar los puntos arriba mencionados, no podemos permitirnos el lujo de continuar desperdiciando ocasiones para informar sobre la necesidad de actuar frente al cambio climático. Lo prudente es hablar de soluciones a la emergencia climática.
Si alguien todavía considera que la evidencia científica no es suficiente, las compañías aseguradoras también manejan una gran cantidad de indicadores al respecto.
Dado el grado de inacción, los peores escenarios pueden pasar a ser probables. Y recordemos que la comunidad científica tiende a ser conservadora en sus predicciones.
Hoy sabemos que, lejos de ser alarmistas, los científicos han subestimado la velocidad, la magnitud y la recurrencia de algunos de los impactos que estamos viviendo como consecuencia del cambio climático.
Más allá de la dimensión biofísica, los modelos económicos también han subestimado, o directamente omitido, muchas de las graves consecuencias del fenómeno en los medios de vida de las personas. Así lo pone de manifiesto el reciente informe de perspectiva política publicado por The Earth Institute, The Grantham Research Institute on Climate Change and the Environment y The Postdam Institute for Climate Impact Research.
Un punto de inflexión
La crisis climática no nos va a afectar menos por dejar de mentarla. Sin embargo, aumentar la cobertura mediática es fundamental para el llamamiento a la acción.
Iniciativas recientes como Covering Climate Now (The Nation y Columbia Journalism Review) y la Declaración de los Medios de Comunicación Frente al Cambio Climático (ECODES, MDCS y periodistas especializados) están logrando un punto de inflexión a la hora de informar sobre la emergencia climática.
Se trata del mayor esfuerzo hasta ahora realizado por los medios de comunicación para dar cobertura a la crisis climática. Y se refieren a crisis climática o emergencia climática porque el término cambio climático no reflejaba la urgencia del momento.
“Covering Climate Now es inusual, ambicioso, oportuno y bienvenido, sobre todo porque es raro ver medios de comunicación a menudo altamente competitivos colaborando por un propósito compartido”.
Editorial de Nature (15 de septiembre, 2019).
Llamamiento a la acción política
La atención mediática se suma al poderoso altavoz de la movilización mundial por el clima, que protagonizan los más jóvenes en todos los rincones del planeta. Desde que el año pasado Greta Thunberg comenzara las huelgas escolares Fridays for Future, millones de personas inspiradas por Greta, conscientes de la urgencia climática, se han sumado al llamamiento a la acción en más de 163 países.
¿Ha existido alguna vez una movilización tan extendida en todo el planeta? Probablemente no. Es, sin duda, un movimiento histórico, desde la base de la sociedad y sustentado en la ciencia, que está transformando el mundo a través de la equidad y la justicia intergeneracional.
Las movilizaciones por el clima, el apoyo de los medios de comunicación y la nueva convocatoria de elecciones en España suponen una oportunidad histórica para trasladar, de una vez por todas, la necesidad de acción climática a los responsables políticos.
No permitamos de nuevo que la crisis climática quede omitida o silenciada durante la campaña ni en los debates políticos. Solo así podremos elegir, de manera informada, líderes del lado de la ciencia para hacer frente a los retos del siglo XXI.
Daniel Ortiz Gonzalo es p ofesor e investigador postdoctoral en la Facultad de Ciencias, Departamento de Geociencias y Gestión de los Recursos Naturales, University of Copenhagen
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Lo prudente es hablar de emergencia climática se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
- Los ecosistemas acuáticos de África y el cambio climático
- Hablar de lo que pasa y de lo que pasó
La tabla periódica en el arte: Plata
La plata es un metal de propiedades fascinantes: conduce la electricidad y el calor como ningún otro, es muy maleable y hasta posee propiedades desinfectantes. Sin embargo, quedémonos con un detalle que podría pasar inadvertido: es el único elemento “femenino” de la tabla periódica. A ninguno de los otros 117 elementos le acompaña el artículo la. Precisamente la plata está vinculada a divinidades femeninas en muchísimas culturas, casi siempre asociadas a la luna. Quizás la unión más hermosa sea la de civilización incaica que considera que la plata proviene de las lágrimas de la Mama Killa (Madre Luna), hermana y esposa de Inti, divinidad solar asociada al oro. Vemos, por tanto, que para este pueblo los metales preciosos tenían también valor religioso y no es de extrañar que elaborasen con ellos una gran cantidad de objetos ceremoniales. En la Imagen 1 podemos ver la representación de una llama trabajada en una aleación de plata, aunque en este caso de femenino tiene poco.

Recordemos que una aleación es una mezcla de metales como, por ejemplo, cobre y estaño para formar bronce o cobre y zinc para crear latón. La mayoría de los objetos de plata están elaborados realmente con aleaciones, ya que en su forma pura es excesivamente maleable. Así que si tu collar o brazalete no es cien por cien plata, no te preocupes, se le ha añadido algún otro metal (generalmente cobre) para mejorar sus propiedades mecánicas. Así, cuando leas: realizado en plata de ley 925 (plata esterlina), significa que el 92,5 % de esa aleación es plata. En las joyerías podréis encontrar diferentes aleaciones que indican la proporción de ese metal: 800, 900, 958, etc. Claro que no todas las aleaciones tienen tanta plata. El vellón, por ejemplo, es una aleación que supera el 50 % de cobre. Se empleó mucho para acuñar monedas y, en ausencia de mejores materiales, para elaborar alhajas. Pese al bajo contenido en plata de esta aleación, puede haber casos peores: la plata que no es plata. Nos referimos a la alpaca, una aleación de cobre, zinc y níquel que en apariencia se asemeja al metal precioso que nos ocupa (no en vano también se conoce como plata alemana). Lo podéis juzgar en la Imagen 2.

Posiblemente, al relacionar la plata con el arte, lo primero que nos venga a la cabeza sean objetos como los que acabamos de ver o delicadas piezas de orfebrería (platería, mejor dicho). Sin embargo, el papel de la plata en la Historia del Arte va mucho más allá y abarca ámbitos tan dispares como la fotografía, las vidrieras o el dibujo. Pasen y vean.
Una calle de París
El 19 de agosto de 1839 Louis Daguerre presentaba en la Academia de Ciencias de París una técnica que permitía capturar la realidad en una placa. En un alarde de imaginación la llamó daguerrotipia. Ya desde el siglo anterior se sabía que las sales de plata eran fotosensibles, así que sólo era necesario lograr un método para, valiéndose de esa propiedad, plasmar imágenes en un soporte sólido. Daguerre lo consiguió suspendiendo una placa de plata (o cobre plateado) sobre vapores de yoduro caliente, de modo que en la superficie se crease una capa de yoduro de plata (AgI). A continuación la placa se introducía dentro de una cámara oscura y se exponía a la luz durante varios minutos. Así, la luz provocaba que los iones de plata de la sal se convirtiesen en plata metálica, dando lugar a una imagen latente (con más plata donde más luz incidía). Posteriormente esa imagen latente se hacía visible gracias a la formación de amalgamas de mercurio y plata, para lo que era necesario exponer la placa a vapores del tan tóxico elemento. Finalmente, para que la imagen se fijase, se empleaba una disolución de sal común (que luego se sustituyó por tiosulfato de sodio por sugerencia de John Herschel). Mediante esta proceso fotográfico Daguerre capturó el Boulevard du Temple(Imagen 3), la primera fotografía que se conserva en la que aparecen humanos. Curiosamente sólo podemos ver a dos (en la parte inferior izquierda): un limpiabotas y su cliente, los únicos que permanecieron relativamente estáticos durante los más de diez minutos de exposición.

Nótese que la de Daguerre es la primera fotografía en la que aparecen personas, pero no es la primera fotografía que se conserva. Sería injusto quitarle ese mérito a Nicéphore Niépce con quien Daguerre colaboró hasta la muerte del primero en 1833. Niépce ya había conseguido realizar fotografías hacia 1816, aunque la más antigua que se conserva data de 1826 (Imagen 4). Para ello empleó betún de Judea, un material fotosensible que necesita varias horas de exposición. Sin embargo, tampoco fue Niépce el primero en realizar una fotografía. En 1802, Thomas Wedgwood publicó, nada más y nada menos que junto a Humphry Davy, un artículo en el que describía el uso de nitrato de plata para capturar fotogramas, pero, como no consiguió que la imagen se fijase, no ha tenido tanta transcendencia.

Los daguerrotipos tuvieron un gran éxito en Europa continental hasta 1860 y eclipsaron provisionalmente el trabajo presentado por William Fox Talbot en Inglaterra durante los años 30. El británico había seguido explorando las posibilidades que ofrecía el nitrato de plata y había logrado el primer papel fotográfico. Bajo la exposición a la luz y el posterior fijado, se conseguía una imagen en negativo (Imagen 5) que luego se podía pasar a positivo de una forma relativamente sencilla todas las veces que se desease. A partir de ahí se fue mejorando el método con el desarrollo de papeles fotográficos (colodión, baritado…) y emulsiones fotográficas, por lo que podemos considerar el proceso de Talbot como la base de la fotografía del s. XIX y el s. XX

Y se hizo la luz
Durante el siglo XIII el estilo gótico se extendió por gran parte de Europa. Así, las otrora sólidas paredes se poblaron de ventanales y rosetones decorados con vidrieras en las que se narraban historias de Cristo, la Virgen y los santos. Los artesanos lograron auténticas maravillas pese a una enorme limitación técnica: tenían vidrios de diferentes colores, pero no podían “pintar” otro color sobre ellos. Cada vez que querían cambiar de color tenían que usar un trozo de vidrio diferente, como si de un puzle se tratase. Todo lo que podían hacer era emplear una pasta negra o marrón que servía para realizar dibujos o cambiar las tonalidades y que se fijaba al vidrio tras un proceso de horneado (es decir, trabajaban con grisalla). Entonces llegó el amarillo de plata y lo cambió todo. Con este amarillo se podían colorear las vidrieras sin tener que añadir nuevas piezas al puzle. Puede parecer intranscendente, pero las posibilidades se multiplicaron. Ya no había que recurrir a otros trozos de vidrio para representar coronas, cabellos, nimbos o detalles dorados. Curiosamente las vidrieras se llenaron de oro gracias a la plata. Es más, combinando el amarillo de plata con vidrios azules se lograba verde, por lo que se podía obtener este color sin tener que usar trozos de vidrio verdes. Así se simplificó el arduo trabajo de plomado y el arte de la vidriera se acercó al de la pintura.

Todo esto fue posible gracias al modo en el que el amarillo de plata interacciona con el vidrio. Al contrario de lo que pasa con muchas otras substancias, no se queda en la superficie de la vidriera, sino que penetra al interior hasta formar parte del vidrio. Se trata de un fenómeno fisicoquímico de gran interés que trataremos de resumir. Cuando se deposita una sal de plata (nitrato, normalmente) en la parte trasera del vidrio y se mete al horno (a unos 500 ó 600 ⁰C) los iones de plata viajan al interior reemplazando a iones de potasio o sodio. Poco a poco los iones siguen penetrando por difusión hasta zonas más profundas, por lo que no estamos hablando de un fenómeno superficial. Estos iones tomarán parte en reacciones de oxidación-reducción en las que los iones de plata se transformarán en plata metálica. Finalmente, los átomos de plata que se han creado formarán agregados hasta crear partículas microscópicas entre uno y cien nanómetros (cualquier bacteria es más grande que eso). Estas partículas interaccionan con la luz de diferente forma creando tonalidades que varían del amarillo al naranja. La nanotecnología al servicio del arte en pleno s. XIV.

Cuestión de óxidos
Si tienes un anillo de plata o te regalaron una cubertería de este brillante metal el día de tu boda, sabrás que se oscurece con el tiempo. La formación de esta pátina oscura se debe a un proceso de oxidación (entendido como la pérdida de electrones) en el que se crea una capa oscura de sulfuro de plata (Ag2S) sobre la superficie del metal. Por cierto, existen remedios caseros para devolver el brillo al objeto que se basan en revertir ese proceso empleando algo que todos tenemos en casa: papel de aluminio. El aluminio es un reductor excelente (concede electrones) y en una disolución acuosa junto con bicarbonato o sal permite que la plata recupere los electrones que había perdido volviendo a su estado original.

En cualquier caso, la capa de sulfuro no siempre es algo indeseable. El lustre que otorga a los objetos puede resultar atractivo, por lo que se buscan métodos para provocar el oscurecimiento. Eso es lo que se logra mediante el “hígado de azufre”, un producto rico en sulfuros (normalmente sulfuro de potasio) que se emplea en joyería. También hay una opción más casera: usar huevos cocidos, una excelente fuente de azufre. De hecho, el mal olor de los huevos podridos se debe al ácido sulfhídrico (H2S).

La oxidación de la plata es también un proceso trascendental en una técnica de dibujo antiquísima: la punta de plata. En esta técnica se emplea una varilla del noble metal para realizar trazos sobre un papel previamente preparado para tal uso (de lo contrario la plata no dibuja bien sobre papel). Una vez finalizado, el dibujo será tenue y tendrá el característico brillo grisáceo de la plata, pero, según pase el tiempo, la plata irá oscureciéndose y el dibujo cobrará tonalidades marrones más perceptibles. La punta de plata ya se empleaba en época medieval sobre pergamino y fue muy popular entre grandes artistas del Renacimiento como Leonardo o Durero (Imagen). Quítense el sombrero ante el autorretrato del alemán con tan solo trece añitos.

Para saber más:
D. Stulik y A. Kaplan, Salt Print en The Atlas of Analytical Signatures of Photographic Processes (2013) The Paul Getty Trust, Los Angeles. LINK
J. Delgado et al. Characterisation of medieval yellow silver stained glass from Convento de Cristo in Tomar, Portugal. Nuclear Instruments and Methods in Physics Research Section B: Beam Interactions with Materials and Atoms 269 (20) (2011) 2383-2388. DOI.
JCE Staff. Silver to black and back. Journal of Chemical Education. 77 (3) (2000) 328A-328B. DOI.
Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.
El artículo La tabla periódica en el arte: Plata se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La tabla periódica en el arte: Titanio
- La tabla periódica en el arte: Cobre
- La tabla periódica en el arte: Arsénico
José Ramón Alonso – Naukas Bilbao 2019: Son nuestros amos y nosotros sus esclavos

Hay charlas que te impactan. Y hay charlas que van más allá del impacto, como las de José Ramón Alonso. Seguro que esta no te deja indiferente. Te adelanto que no va de la alienación de los trabajadores que explicaba Marx precisamente. Va de suicidios.
José Ramón Alonso: 'Son nuestros amos y nosotros sus esclavos'Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo José Ramón Alonso – Naukas Bilbao 2019: Son nuestros amos y nosotros sus esclavos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Curso de verano “La ciencia de nuestras vidas”: Neurobiología del amor. ¿Una locura transitoria?, por José Ramón Alonso
- Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
- Naukas Bilbao 2017 – María José Calderón y Belén Valenzuela: Esta física es la leche