Concurso: diseña el primer símbolo que represente la resistencia a los antibióticos
Con motivo de la celebración del Día Europeo del Antibiótico en Estocolmo, se ha lanzado un concurso de diseño para encontrar el primer símbolo global de la amenaza de la resistencia a los antibióticos. No se busca un logotipo, sino algo tangible que cualquier persona, en cualquier lugar, pueda hacer en casa y llevar con orgullo; como el lazo del SIDA.
El concurso está abierto a todo el mundo, sin importar su origen o edad. Todo aquel al que le guste la ciencia, tenga una mente creativa o quiera contribuir a concienciar sobre la amenaza global de la resistencia a los antibióticos, puede participar. Se aceptarán candidaturas hasta el 31 de marzo de 2020, y el diseño ganador, que recibirá un premio de 2.000 €, se anunciará el próximo verano. Todas las reglas del concurso están disponibles en eu-jamrai.eu.
Este concurso es una de las actividades desarrolladas por la Acción Conjunta Europea frente a las Resistencias Antimicrobianas y las Infecciones relacionadas con la Asistencia Sanitaria (EU-JAMRAI, por sus siglas en inglés), para promover el uso prudente de antibióticos con el fin de detener el desarrollo de bacterias resistentes y mantener la efectividad de estos medicamentos.
Los antibióticos son medicamentos utilizados para prevenir y tratar infecciones bacterianas. Su uso excesivo tanto en humanos como en animales, está provocando que las bacterias se vuelvan resistentes a los antibióticos. Sin antibióticos que funcionen, cirugías de rutina como el reemplazo de cadera, enfermedades comunes como la diarrea e incluso pequeños cortes, pueden poner en peligro la vida.
A día de hoy, ya hay gente que está muriendo por infecciones resistentes a los antibióticos, y a medida que más antibióticos dejen de funcionar, más vidas se pondrán en peligro.
La resistencia a los antibióticos es una amenaza global y uno de los mayores retos a los que nos enfrentamos, pero muy poca gente lo sabe. ¡Esto hay que cambiarlo! Sé parte del cambio y participa en nuestro concurso para diseñar el primer símbolo que represente la resistencia a los antibióticos a nivel global.
El artículo Concurso: diseña el primer símbolo que represente la resistencia a los antibióticos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Una nueva vía para la lucha contra la resistencia a los antibióticos
- El camino hacia los antibióticos inservibles
- El papel de la agricultura en la transmisión de la resistencia a antibióticos
Cocinar nos hizo humanos

Hace una década se publicó un libro sobre evolución humana de mucho impacto y cuya influencia no ha dejado de aumentar desde entonces, al menos entre quienes, sin ser profesionales, nos interesa la evolución de nuestra especie. El libro se titula Catching Fire: How Cooking Made Us Human (traducido este año al español con el título En llamas: Cómo la cocina nos hizo humanos).
Sostiene Richard Wrangham, su autor, que Homo erectus surgió hace dos millones de años en la sabana africana gracias, precisamente, a los efectos que tuvo el control y uso del fuego sobre una serie de rasgos fisiológicos y de comportamiento. Por orden de aparición H. erectus es, probablemente, la segunda especie del género Homo, después de H. habilis, aunque el conocimiento sobre ese periodo de nuestra evolución se está enriqueciendo mucho durante estos años y no cabe descartar que se modifique el estatus de esas especie, así como sus fechas de aparición.
Según Wrangham, aumentó tanto la eficiencia con que digerimos y absorbemos el alimento al cocinarlo, que ello tuvo profundas consecuencias evolutivas. Una misma cantidad de alimento cocinado rinde mucha más energía y nutrientes que si se ingiere crudo. Eso ocurre porque cuando se cocina, moléculas de gran tamaño como proteínas o carbohidratos ven alterada su estructura y se hacen más fácilmente accesibles a la acción digestiva. Como consecuencia, se necesita menos cantidad de alimento para vivir, por lo que debe dedicarse menos tiempo a conseguirlo, masticarlo y digerirlo. Y lo que es tan importante o más: para procesar la comida que necesitamos basta con un sistema digestivo mucho más pequeño que el que tenían nuestros antepasados y el que tienen gorilas y chimpancés.
De esa forma –y aquí está el elemento evolutivo clave-, el sistema digestivo pudo reducir mucho su tamaño y ello hizo que dispusiésemos de mucha más energía con la que nutrir al encéfalo, que pudo así aumentar su tamaño hasta el volumen impresionante que tiene en la actualidad. Para valorar esa transición en sus justos términos debe tenerse en cuenta que el tejido digestivo y el nervioso (junto con el renal) son los que consumen más energía por unidad de masa, por lo que encéfalo y aparato digestivo resultan muy caros de mantener. No tanto los riñones, por su pequeño tamaño.
Además, el control del fuego proporciona calor y una forma de mantener a los depredadores a raya. Eso habría propiciado un modo de vida menos arborícola y con más tiempo y actividad sobre el suelo, lo que habría facilitado el desarrollo o perfeccionamiento de la bipedestación.
El problema de la hipótesis de Wrangham cuando la formuló hace una década era que no había evidencias de control del fuego tan antiguas como dos millones de años. Ahora bien, no es lo mismo ausencia de evidencia que evidencia de ausencia. Diez años después todavía no podemos responder la cuestión de cuándo empezaron los seres humanos a controlar el fuego, pero un trabajo recién publicado ha “documentado la asociación entre combustión y comportamiento humano” en al menos un yacimiento arqueológico de 1,5 millones de años de antigüedad en la Formación de Koobi Fora, en el noroeste de Kenia. Y es muy posible que esa asociación también se produjese en otros dos lugares próximos y de la misma época. Es muy difícil contar con pruebas del uso controlado del fuego tantos miles de años atrás. Pero los hallazgos en Koobi Fora apoyan una hipótesis que, como la de Wrangham, resulta muy atractiva por sus fundamentos fisiológicos y, por qué negarlo, por lo que a muchos nos gusta la buena cocina.
Fuente: Hlubik S, Cutts R, Braun D R, Berna F, Feibel C S & Harris J W K (2019): Hominin fire use in the Okote member at Koobi Fora, Kenya: New evidence for the old debate. Journal of Human Evolution 133: 214-229.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Cocinar nos hizo humanos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Qué nos puede decir un elefante del cáncer en humanos?
- Las aves de Prometeo
- Los tipos celulares humanos y su origen embrionario
La innovación educativa actual desde la perspectiva histórica
Vitoria-Gasteiz acogió por primera vez el pasado 18 de octubre el evento Las pruebas de la educación, una jornada que abordó diversos temas educativos desde la evidencia científica. El acto, organizado por el Consejo Escolar de Euskadi y la Cátedra de Cultura Científica de la UPV/EHU, tuvo lugar en el Salón de Actos del Centro de Investigación Micaela Portilla, ubicado en el Campus de la capital alavesa de la UPV/EHU.
La jornada consta de un total de cinco charlas que tratan temas como el rendimiento académico, los métodos de aprendizaje y la innovación educativa, entre otros. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.
Fátima García, diplomada en Magisterio por la USC, licenciada en Filosofía y Ciencias de la Educación por la UNED y doctora en Didáctica e Innovación por la USC, habla en esta charla sobre cómo la perspectiva histórica puede ser un aliado a la hora de tomar decisiones ante el bombardeo de noticias sobre innovaciones educativas.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo La innovación educativa actual desde la perspectiva histórica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La intervención en la dislexia: de la evidencia científica a la práctica educativa
- Las primeras manifestaciones de las funciones ejecutivas y la acción educativa en el aula 0-1
- La letra pequeña de algunos métodos de aprendizaje
El papel de la agricultura en la transmisión de la resistencia a antibióticos
Usue Pérez López y Maite Lacuesta Calvo

El aumento de resistencias a antibióticos en bacterias patógenas se ha convertido en un gran problema de salud a nivel mundial, ya que reduce la eficacia terapéutica de los antibióticos.
Aunque este fenómeno ha ocurrido de forma natural desde épocas remotas, se ha hecho mucho más frecuente en las últimas décadas. Las principales causas son el uso excesivo o inadecuado de los antimicrobiales y su mayor presencia y permanencia en el medio ambiente.
La diseminación de antibióticos en el medio natural se asocia principalmente a su aplicación en medicina y veterinaria.
Sin embargo, no se ha considerado adecuadamente el papel que la agricultura, como base de la cadena trófica, puede desempeñar en la transmisión de antibióticos, de bacterias resistentes a antibióticos y de genes de resistencia a antibióticos a través de los alimentos. Podríamos estar infravalorándolo.
¿Cómo llegan los antibióticos al campo?
En el ámbito anglosajón, el término agricultura incluye la producción de cultivos, pero también la ganadería y la acuicultura, que constituyen la principal entrada de antibióticos en el sistema agrario.
Se estima que la cantidad de antibióticos empleados en la protección de cultivos representa menos del 0,5 % del total empleado en producción animal. Esto excluye a Europa, donde su aplicación en cultivos está prohibida.
Sin embargo, cada vez es más frecuente el uso de estiércol animal, residuos orgánicos o lodos de depuradora como material fertilizante. Este material puede contener una alta carga de antibióticos.
Algunos estudios confirman que entre un 30 y un 90 % de los antibióticos usados en animales aparece en los excrementos. El estiércol contaminado expone a los cultivos, incluso a los orgánicos, a la presencia de antibióticos.
Esto, unido al uso de aguas residuales en el riego, provoca que estos agro-ecosistemas estén expuestos repetidamente, y durante largos periodos de tiempo, a la presencia de una considerable y variada carga de antibióticos.
Estos agentes pueden ser tomados por las plantas y causar efectos fitotóxicos que afecten a la germinación y el crecimiento de los distintos cultivos agrícolas. Además, pueden acumularse en los tejidos vegetales y suponer un riesgo potencial para la salud humana, al ser las plantas el primer eslabón de la cadena alimentaria.
Este riesgo se ha tenido en cuenta solo en las dos últimas décadas y, por tanto, la información sobre su impacto es limitada.

Asier Cantabrana, Author provided
Efectos de los antibióticos en las plantas
Recientes estudios han demostrado que la fitotoxicidad de los antibióticos en los cultivos depende en gran medida de la especie vegetal y del tipo de antibiótico, así como de su concentración en el suelo.
Sin embargo, la mayoría de los estudios fitotóxicos de los antibióticos se han realizado in vitro. Escasean los estudios en campo. Si bien es cierto que se han observado efectos negativos con altas concentraciones, en bajas concentraciones se ha detectado un efecto estimulador.
Además del impacto directo de los antibióticos en el crecimiento vegetal, indirectamente pueden provocar alteraciones en la microbiota del suelo. Esto afecta a su diversidad y a la presencia de bacterias beneficiosas para el cultivo como las bacterias fijadoras de N₂, lo que también puede afectar al rendimiento del cultivo.
¿Qué hacer a partir de ahora?
Las plantas pueden entrar en contacto con los antibióticos de dos maneras:
- Receptoras directas. Cuando los antibióticos se aplican para el control de enfermedades bacterianas.
- Receptoras indirectas. Por la aplicación de enmiendas orgánicas, lodos de depuradoras o aguas residuales.
Como consecuencia, su crecimiento puede sufrir efectos negativos directos e indirectos, por la modificación de los microorganismos del suelo con los que interaccionan. Además, pueden actuar como transmisoras tanto de antibióticos como de resistencias, puesto que son la base de la cadena alimentaria.
Por ello, resulta necesario monitorizar, cuantificar y minimizar el grado de contaminación por antibióticos de los aportes o enmiendas orgánicas y del agua que se aplica a los cultivos.
Aunque se han utilizado diversos tratamientos como el compostaje o la conversión en biochar (carbón vegetal) para reducir la cantidad de antibióticos y subproductos presentes en el estiércol, no se ha conseguido aún una eliminación del 100 %.
Esto se debe a que la eficiencia del proceso depende de múltiples factores (material de partida, microorganismos presentes, temperatura, tiempo, tipo de antibióticos presentes…). Por ello, se necesitan todavía nuevos estudios y mejoras tecnológicas para poder conseguir una eliminación total de los antibióticos que se aplican mediante enmiendas orgánicas en los cultivos.
Paralelamente, es necesario investigar en profundidad cómo los antibióticos entran en las plantas, su transformación y/o acumulación en los diferentes órganos vegetales y su persistencia en los mismos. Sobre todo, de aquellos que van a destinarse para la alimentación, ya sea animal o humana.
Estos estudios ayudarán a reducir su potencial riesgo para la salud de las personas. Además, teniendo en cuenta que estos sistemas de fertilización y riego se llevan a cabo año a año de manera repetida, es importante realizar análisis sistemáticos a largo plazo.
Sobre las autoras: Usue Pérez López es profesora agregada de fisiología vegetal y Maite Lacuesta Calvo, es profesora titular del Departamento de Biología vegetal y Ecología de la Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original. Es un resumen de la charla impartida en el curso de verano de la UPV/EHU organizada por el JRL Environmental Antibiotic Resistence, al que pertenecen las autoras.
El artículo El papel de la agricultura en la transmisión de la resistencia a antibióticos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Una nueva vía para la lucha contra la resistencia a los antibióticos
- Un nuevo mecanismo de resistencia antifúngico
- El camino hacia los antibióticos inservibles
¿Es la música un lenguaje universal?

En “Encuentros en la tercera fase”, cuando los alienígenas llegan a la Tierra, parece haber una única manera manera de comunicarse con ellos: a pesar de la separación de millones de galaxias y otros tantos años luz, la música parece ser el punto de encuentro entre la humanidad y la recién llegada civilización extraterrestre.
La famosa película de Spielberg se estrenó en noviembre de 1977, apenas meses después de que Estados Unidos lanzase sus sondas Voyager al espacio. A bordo viajaba (y aún hoy viaja) el famoso disco de oro, un mensaje flotando en medio de la nada; una botella en un océano interminable y sin corrientes; dispuesto para ser leído por cualquiera que lo encuentre, da igual lo pequeña que sea esa probabilidad. Además de saludos en distintos idiomas y ejemplos de sonidos de la Tierra, el disco lleva grabados ejemplos de canciones de todo el mundo.
Probablemente, todos estemos de acuerdo en que estos dos relatos suponen llevar muy al límite la idea de la música como lenguaje universal. Pero, incluso restringiendo lo universal a la superficie de nuestro planeta, la noción de que la música es capaz de comunicar ideas (y, en particular, emociones) más allá de las barreras culturales no está exenta de polémica.
Por un lado, es fácil comprobar que a lo largo y ancho del planeta existen multitud de culturas con una enorme diversidad musical. Las escalas, los ritmos, las formas musicales… la mayoría de los rasgos de la música occidental que solemos dar por supuestos, desaparecen en cuanto nos alejamos un poco de sus fronteras. Incluso dentro de un mismo contexto geográfico, a menudo se nos resisten los estilos musicales que escuchan los demás, o nos resultan directamente desagradables. A mí a veces me cuesta entender el trap, como para meterme con la ópera china…
Desde otro punto de vista, muchos conceptos musicales sí parecen extenderse más allá de las fronteras culturas. Las escalas musicales del mundo difieren de las occidentales, en general, pero allá donde uno vaya, la música utiliza escalas. Los patrones rítmicos cambian, el hecho de que haya siempre algúna forma de ritmo prevalece. Como prevalecen la existencia de formas musicales, de características similares y utilizadas en contextos que se repiten allá donde uno vaya. En 2018 un estudio basado en 750 oyentes procedentes de 60 países y canciones de 86 sociedades minoritarias del mundo entero, mostró que los oyentes podían adivinar para qué se utilizaba cada tipo de música, su función, (si se trataba de una nana, una danza, música para curar enfermedades, una canción de duelo o una canción de amor) tras escuchar apenas 14 segundos de audio1.
Del mismo modo que existen idiomas muy diferentes en el mundo entero, es posible que la música no sea un lenguaje universal. Pero universalmente, encontramos lenguas y encontramos también sistemas musicales que comparten ciertas propiedades. Y, del mismo modo que las lenguas del mundo son el resultado de la capacidad humana para el lenguaje, las músicas del mundo nacen de la pieza verdaderamente universal en toda esta historia: la capacidad para la música o musicalidad humana2. Los humanos, con nuestro sistema perceptivo y cognitivo, nuestras orejas cartilaginosas, nuestras voces, nuestras sociedades… somos el molde que acoge y define lo que se entiende por lenguaje y también lo que se percibe como música.
No obstante, la noción de la música como “lenguaje universal” no alude, probablemente, a este tipo de cuestiones biológicas sino a algo mucho más cotidiano. Cada vez que escuchamos musica, podemos sentir que la entendemos, aunque no haya nada figurativo en ella. Subjetivamente, parece que la música consigue comunicar emociones de manera no mediada, sin referencias, sin símbolos ni convenciones. ¿Es posible que la música nos emocione, más allá de las fronteras?, ¿que recoja algo común a todos, algo innato, no mediado, no aprendido?
De nuevo, la respuesta no es sencilla y como suele pasar en estos casos, apunta a una mezcla de cultura y natura. A menudo, para dirimir la frontera entre una y otra, se realizan estudios interculturales. Sin embargo, con la creciente globalización, la música occidental está perdiendo su valor como estímulo en las investigaciones interculturales 3. La radio y la televisión llegan ya a todas partes y, con ellas, la música tonal a la que aquí estamos tan acostumbrados.
Para investigar los efectos emocionales de este tipo de música, Thomas Fritz y su equipo4 se vieron obligados a buscar una tribu extremadamente aislada en las montañas al norte de Camerún; los mafa. Sus remotos asentamientos ni siquiera tienen suministro eléctrico y están habitados por personas que siguen un estilo de vida tradicional, por lo que en principio no habían estado expuestos a música que no fuese la de su propia cultura. Los investigadores contaron con 20 alemanes y 21 oyentes de Mafa para juzgar las emociones transmitidas en una muestra de música occidental. Si bien, los alemanes realizaron la tarea con mayor acierto en general, los Mafa clasificaron los fragmentos musicales siempre por encima de lo esperable por azar, identificando tres emociones básicas. Una de esas emociones, junto con la alegría y el miedo, era la tristeza.

Referencias:
1Samuel A. Mehr, Manvir Singh, Hunter York, Luke Glowacki, Max M. Krasnow. “Form and Function in Human Song”. Current Biology, 2018.
2The Origins of Musicality. Edited by Henkjan Honing. MIT Press, 2018.
3Laura-Lee Balkwill and William Forde Thomson. “A cross cultural investigation of the perception of emotion”. Music Perception, 1999.
4Thomas Fritz, Sebastian Jentschke, Nathalie Gosselin, Daniela Sammler, Isabelle Peretz, Robert Turner, Angela D. Friederici and Stefan Koelsch. “Universal Recognition of Three Basic Emotions in Music”. Current Biology, 2009.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo ¿Es la música un lenguaje universal? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Por qué escuchamos música triste?
- #Naukas14 La música de las esferas
- Ciencia, arte y cultura callejera: física y música
La amante cartesiana
No es la primera vez que escribo en la sección Matemoción del Cuaderno de Cultura Científica sobre matemáticas y cómics. He dedicado una serie de entradas a las matemáticas de la novela gráfica Habibi (Astiberri, 2011), de Craig Thompson (véase Habibi y los cuadrados mágicos, parte 1, parte 2 y parte 3), y otra a las matemáticas del cómic Ken Games (Diábolo, 2009-10), de José Robledo (guionista) y Marcial Toledano (dibujante) (véase la entrada Las matemáticas en el cómic Ken Games).
En la entrada de hoy vamos a centrar nuestra atención en la novela gráfica La amante cartesiana (Egales, 2016), escrita por Paloma Ruiz Román y dibujada por Juan Alarcón.

La historia de esta novela gráfica está inspirada en un artículo del matemático José Manuel Rey, de la Universidad Complutense de Madrid, titulado A Mathematical Model of Sentimental Dynamics Accounting for Marital Dissolution (algo así como Un modelo matemático sobre la dinámica sentimental para explicar los divorcios), publicado en 2010, en la revista científica PLOS ONE (esta revista está publicada por la Public Library of Science, que es una organización editorial estadounidense sin ánimo de lucro que tiene como objetivo la publicación de una serie de revistas científicas de contenido abierto).
Este artículo, por su temática, tuvo cierta repercusión en los medios de comunicación. Por ejemplo, en ABC Ciencia se publicó un artículo con el título “El amor para siempre está destinado al fracaso, según una fórmula matemática”. O en el periódico Público apareció otro artículo con un título más destinado a llamar la atención que a describir la realidad de la investigación matemática explicada en el mismo, “El amor no existe, según las matemáticas”, con la volanta más descriptiva, aunque aún un poco exagerada “Un científico español elabora un modelo teórico que sugiere que las relaciones sentimentales duraderas y satisfactorias son prácticamente imposibles”. Y este artículo, con toda probabilidad, fue leído por la autora de La amante cartesiana.
La novela gráfica empieza presentando, en las primeras páginas, la relación sentimental entre la protagonista, una profesora de matemáticas de un instituto de enseñanza secundaria, a la cual se va a ver dando clase en varias páginas de la novela gráfica, y su pareja, una fotógrafa, que más adelante en la historia viajará a Islandia para realizar un reportaje fotográfico durante seis meses.

Presentada la relación sentimental de esta pareja, se muestra un dibujo, de página completa, que ofrece a la persona que lee el cómic la primera pista sobre cuál va a ser el tema de la novela gráfica. En la misma se ve al matemático ruso Lev Poltryagin escribiendo fórmulas matemáticas en una pizarra, además del texto “El matemático ruso Lev Poltryagin elaboró en la década de los cincuenta la teoría de control óptimo, alumbrada para solucionar un contratiempo con un avión de combate soviético. Pero nunca imaginó que unos años más tarde se emplearía para explicar por qué hay un divorcio aproximadamente cada 80 segundos”. Por lo tanto, uno de los puntos de partida de la novela gráfica es el fracaso de las relaciones de pareja.

La historia continúa hasta que la fotógrafa debe emprender su viaje a Reikiavik, dejando a la matemática sola, sumida en una cierta tristeza. Y entonces llega la segunda información relevante, relacionada con el artículo del matemático madrileño José Manuel Rey, sobre la historia que nos están contando. Un dibujo a página completa de la protagonista, acompañada de imágenes de su pareja, de un avión, de una ciudad y de fórmulas matemáticas. Todo ello acompañado de dos textos explicativos.
El primero: “En 2010, fue el matemático José Manuel Rey quien, combinando la segunda ley de la termodinámica con las ecuaciones de control óptimo, sacó a la luz una fórmula de conclusiones poco esperanzadoras: el amor no perdura”.
Y el segundo “Las matemáticas, disciplina capaz de explicar cualquier suceso que se repita, toman como punto de partida en la fórmula lo que se puede considerar un hecho común: las relaciones por sí solas, es decir, la sustancia que las mantiene vivas, tienden a extinguirse”.

El tema para la novela gráfica está servido, la fragilidad de las relaciones de pareja, y su fuente de inspiración es el artículo A Mathematical Model of Sentimental Dynamics Accounting for Marital Dissolution en el que se obtiene un modelo matemático para describir la dinámica de las relaciones sentimentales.
Como se cita en la introducción del artículo publicado por PLOS ONE, la mayoría de las personas mencionan el amor y las relaciones de pareja cuando se les pregunta por los elementos importantes para tener una vida feliz. Además, cuando las personas inician una relación amorosa a largo plazo, lo hacen bajo la premisa de vivir juntas y felices para siempre. Sin embargo, las altas tasas de divorcios, por ejemplo, en Estados Unidos y Europa, donde prácticamente una de cada dos parejas acaba en divorcio, ponen de manifiesto cierto fracaso de las relaciones sentimentales. Es lo que el matemático de la Universidad Complutense de Madrid llama la “paradoja del fracaso”, es decir, aunque en la base de las relaciones sentimentales está el que duren para siempre, muy probablemente fracasarán.
El sicólogo estadounidense John Gottman, que se ha hecho famoso por su trabajo sobre la predicción del divorcio y la estabilidad en las relaciones sentimentales, fue uno de los primeros en utilizar las matemáticas para estudiar las relaciones de pareja, en concreto, utilizó una ecuación diferencial basada en lo que llama la “segunda ley de la termodinámica para las relaciones sentimentales”, es decir, al igual que un recipiente caliente se enfriará si no se le suministra calor, las relaciones sentimentales se deteriorarán si no reciben un aporte de “energía” que compense esa tendencia al enfriamiento. Aunque, como pone de manifiesto el sociólogo estadounidense, sería interesante poder contar con un modelo matemático que describa la dinámica de las relaciones de pareja y esto es lo que hizo el matemático de la Universidad Complutense de Madrid.

Todo modelo matemático intenta describir el “objeto de interés”, en este caso la dinámica de las relaciones sentimentales, simplificando el problema, intentando quedarse con las partes esenciales del mismo. Uno de los ejemplos más ilustrativos de esta situación es el grafo del problema de los puentes de Königsberg, que está en el origen de la teoría de grafos (véase el libro Del ajedrez a los grafos (RBA, 2015) o la entrada El problema de los tres caballeros y los tres criados). Cuanto más se simplifique, más manejable será el modelo, más claras y útiles serán las conclusiones, aunque también puede ocurrir que perdamos parte de la información en el proceso de abstracción; pero si no se simplifica lo suficiente el problema, el modelo puede ser demasiado complejo para tratarlo y las conclusiones serán menos útiles. Algo así como ocurre con los mapas. En los mapas siempre se pierde parte de la información, pero son muy útiles. Por ejemplo, entre los mapas más importantes para su uso en la navegación están los que preservan los rumbos, los ángulos, sin embargo, estos no preservan las áreas, los caminos más cortos, ni las distancias; o los que son buenos para la divulgación o la comunicación de información porque preservan las áreas, fallan con los rumbos, los caminos más cortos o las distancias; y lo mismo ocurre con otros mapas (véase El sueño del mapa perfecto (RBA, 2011) o las entradas Imago Mundi, 7 retratos del mundo, Imago Mundi, otros 6 retratos del mundo, Imago Mundi, finalmente 9 retratos más del mundo). Por otra parte, el mapa de escala 1:1 que es (o sobre) la Tierra misma, como en el texto de Borges Del rigor de la ciencia, es el más exacto de todos, pero inútil e inservible.
Del rigor de la ciencia
…En aquel Imperio, el Arte de la Cartografía logró tal Perfección que el mapa de una sola Provincia ocupaba toda una Ciudad, y el mapa del Imperio, toda una Provincia. Con el tiempo, esos Mapas Desmesurados no satisficieron y los Colegios de Cartógrafos levantaron un Mapa del Imperio que tenía el tamaño del Imperio y coincidía puntualmente con él. Menos Adictas al Estudio de la Cartografía, las Generaciones Siguientes entendieron que ese dilatado Mapa era Inútil y no sin Impiedad lo entregaron a las Inclemencias del Sol y de los Inviernos. En los desiertos del Oeste perduran despedazadas Ruinas del Mapa, habitadas por Animales y por Mendigos; en todo el País no hay otra reliquia de las Disciplinas Geográficas.
SUÁREZ MIRANDA: Viajes de varones prudentes, libro cuarto, cap. XLV, Lérida, 1658.
El matemático José Manuel Rey, para realizar su modelo matemático de la dinámica de las relaciones sentimentales, asume que las parejas estarán formadas por individuos más o menos similares, que se da la “segunda ley de la termodinámica para las relaciones sentimentales” y que dos elementos fundamentales en las relaciones de pareja son el sentimiento de bienestar que se siente dentro de la pareja y el esfuerzo que se va realizando desde que empieza la relación. Entonces, utilizando teoría de control óptimo (que es la que desarrolló el matemático ruso Lev Pontryagin), obtuvo la fórmula que describe la dinámica de las relaciones de pareja, que se incluye también en la novela gráfica.

Esta fórmula está incluida en el cómic, cuando se está produciendo la separación emocional de la pareja protagonista. De nuevo, en un dibujo de página completa, donde se muestra a la fotógrafa trabajando en Islandia, se incluye y se explica la fórmula, que en el texto se denomina “la fórmula matemática del desamor”.

La información que proporciona la fórmula, la variable W, es la “felicidad del matrimonio” (entendiendo matrimonio en un sentido amplio). La fórmula consta de una integral, que como dice el texto “la integral suma las sensaciones cotidianas”. Y dentro de la integral hay dos partes, una positiva, que como dice en el comic “este grupo de variables es el bienestar que se siente dentro de la pareja”, y otra negativa, descrita como “este otro conjunto mide el coste del esfuerzo desde el inicio de la relación”.
Más adelante, cuando la relación entre la protagonista y su pareja ya se ha roto, se incluye otro dibujo con una metáfora sobre el significado del estudio, que seguramente fue fruto de las conversaciones entre la escritora y el matemático. En concreto se añade el texto “Tal y como explica Rey, la manera más sencilla de entender por qué se repite el hecho de que las relaciones no funcionen es a través de la metáfora del jardín”. Y nos la explica: “Para que las plantas se mantengan frondosas durante toda la vida, hay que aportar abono, agua y cuidados. Todo en su justa medida”. Y concluye: “Pero este esfuerzo continuo no es gratuito. Tiene un coste que suele ser excesivo, apocando antes o después a las plantas a un estado marchito”.

En otra página, que vemos en la anterior imagen, la protagonista reflexiona sobre las conclusiones que nos ofrece el modelo matemático de la dinámica de las relaciones de pareja. Recogiendo las palabras del autor del estudio: “el esfuerzo que es necesario para que una relación funcione siempre será mayor que el esfuerzo que esperamos tener que realizar para ello”.
Y se continúa afirmando en La amante cartesiana “o lo que es lo mismo, hagamos lo que hagamos para que una relación salga bien, siempre será insuficiente, ya que la tendencia natural conduce a la dejadez y, con ella, al fracaso”.
Como reacción a este pensamiento negativo que domina a la protagonista, fruto de su ruptura sentimental, la última parte de la novela es un alegato a favor del amor y las relaciones sentimentales.
Aunque el estudio matemático sobre la dinámica de las relaciones de pareja es la parte matemática central de esa novela gráfica de Paloma Ruiz Román y Juan Alarcón, lo cierto es que la ciencia de Pitágoras impregna toda la historia. Veamos algún ejemplo.
La protagonista de La amante cartesiana, que como hemos comentado es profesora de matemáticas en un instituto de enseñanza secundaria, explicará a sus estudiantes propiedades de ciertos números particulares en paralelo a su historia sentimental. Así, explica en clase algunas propiedades del número 2, cuando se presenta a la pareja en las primeras páginas, como que el 2 es el único número primo par y que es el único número tal que la suma consigo mismo es igual al producto consigo mismo, es decir, 2 + 2 = 2 x 2. Por otra parte, cuando la protagonista se queda sola, por el viaje de su pareja, habla a la clase del número 1, mientras que cuando su relación se rompe lo hace sobre el 0.
Por otra parte, cuando una tercera persona entra en escena, la profesora hablará del número pi, que no es 3, pero está muy cerca (3,14159…), y lo hace en relación con la poesía. En concreto, la bailarina a la que conoce la protagonista le lee una poesía con sabor matemático, el poema Escrito con tiza del poeta chileno Oscar Hahn, que incluimos a continuación.
ESCRITO CON TIZA
Uno le dice a Cero que la nada existe
Cero replica que Uno tampoco existe
porque el amor nos da la misma naturaleza
Cero más Uno somos Dos le dice
y se van por el pizarrón tomados de la mano
Dos se besan debajo de los pupitres
Dos son Uno cerca del borrador agazapado
y Uno es Cero mi vida.
Detrás de todo gran amor la nada acecha.
La protagonista tras escuchar el poema, le contesta que “tiene la estructura de una ecuación, de un problema matemático” y realiza un análisis matemático de la misma. Este es el estudio que realizó el chileno Camilo Herrera y que podéis leer aquí.

Tras esa relación entre matemáticas y poesía, en la siguiente escena de la novela gráfica, se ve a la protagonista hablando a sus estudiantes de un poema del ajedrecista español Manuel Golmayo (1883-1973) relacionado con el número pi. En concreto, uno de esos poemas, que en ocasiones son denominados irracionales, en los que cada palabra del poema tiene tantas letras como indican los dígitos del número pi (o también podría ser otro número irracional, como la razón aurea phi o el número e). El poema es el siguiente.
Soy y seré a todos definible, [3,14159]
mi nombre tengo que daros, [26535]
cociente diametral siempre inmedible [8979]
soy de los redondos aros [32384]
Pero en la novela gráfica hay más matemáticas. Descartes, Kepler, la música de las esferas, el azar o la probabilidad son algunas de las cuestiones matemáticas que también encontraréis en esta historia, pero eso lo descubriréis cuando disfrutéis de su lectura. Para terminar, os dejo con el problema de ingenio (relacionado con el problema amoroso de la protagonista) planteado por la profesora de matemáticas en el cómic.
Problema: Supóngase que los dos enunciados siguientes son verdaderos:
(1) Quiero a Elena o quiero a Adriana.
(2) Si quiero a Elena entonces quiero a Adriana.
¿Se sigue necesariamente que quiero a Elena? ¿Se sigue necesariamente que quiero a Adriana?
Bibliografía
1.- Paloma Ruiz Román, Juan Alarcón, La amante cartesiana, Egales, 2016.
2.- José Manuel Rey, A Mathematical Model of Sentimental Dynamics Accounting for Marital Dissolution, PLOS ONE, vol. 5, 2010.
3.- Periódico ABC: El amor para siempre está destinado al fracaso, según una fórmula matemática, Judith de Jorge, 13 de mayo de 2010.
4.- Periódico Público: El amor no existe según las matemáticas, Manuel Ansede, 25 de abril de 2010.
5.- Raúl Ibáñez, Del ajedrez a los grafos, la seriedad matemática de los juegos, El mundo es matemático, RBA, 2015.
6.- Raúl Ibáñez, El sueño del mapa perfecto, cartografía y matemáticas, El mundo es matemático, RBA, 2010.
7.- Camilo Herrera, La solución de la ecuación poética
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo La amante cartesiana se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El diablo y Simon Flagg, una lectura ligera para el verano
- Matemáticas y mundo físico (I): la soberbia cartesiana
- Un kilogramo de novelas y matemáticas
La estructura de la tabla periódica se deduce de la estructura de capas de los átomos
Las consideraciones cualitativas sobre el comportamiento químico de los elementos desde el punto de vista del modelo de Bohr-Sommerfeld llevaron a un cuadro consistente en el que los electrones se distribuían en capas alrededor del núcleo atómico, creando una especie de “núcleo compuesto”. Estos “núcleos compuestos” no eran otra cosa que los gases nobles, que tenían una configuración electrónica especialmente estable.

Así, para cada nuevo metal alcalino en el Grupo 1 de la tabla periódica de Werner-Paneth, se inicia una nueva capa. Cada átomo de metal alcalino tiene un solo electrón alrededor de un núcleo compuesto que tiene la estructura del gas noble precedente. Es esperable que este electrón periférico se “pierda” fácilmente por la acción de los átomos vecinos, y esto concuerda con los hechos. Los elementos litio, sodio y potasio son metales alcalinos. Tanto en compuestos como en disolución, están en forma de iones, como Li+, Na+ y K+. Cada ion es un átomo que ha perdido un electrón y, por lo tanto, tiene una carga neta positiva +e. Otra consecuencia es que en los átomos neutros de estos elementos, el electrón externo es relativamente libre de moverse. Esta propiedad se ha utilizado como base de una teoría de la conductividad eléctrica. Según esta teoría, un buen conductor tiene muchos electrones «libres» que pueden formar una corriente en condiciones apropiadas. Un mal conductor pobre tiene relativamente pocos electrones «libres». Los metales alcalinos son todos buenos conductores. Los elementos cuyas capas de electrones están llenas son conductores muy pobres; no tienen electrones «libres».
En el Grupo 2 de la tabla periódica, podemos esperar que los elementos que siguen inmediatamente después de los metales alcalinos tengan átomos con dos electrones periféricos. Por ejemplo, el berilio (Z = 4) debe tener dos electrones en la capa K, llenándola, y dos en la capa L. Si los átomos de todos estos elementos tienen dos electrones periféricos, deberían ser químicamente similares, como lo son realmente. Por lo tanto, el calcio y el magnesio, que pertenecen a este grupo, deberían formar fácilmente iones como Ca++ y Mg++, cada uno con una carga neta positiva de +2e. Esto también se encuentra que es cierto.
Como último ejemplo, consideremos aquellos elementos que preceden inmediatamente a los gases nobles en la tabla periódica, los del grupo 17. Por ejemplo, los átomos de flúor (Z = 9) deberían tener dos electrones llenando la capa K pero solo siete electrones en la capa L, uno menos que de lo necesarioe para llenarla. Si un átomo de flúor captura un electrón adicional, se convertiría en un ion F– con una carga neta negativa. La capa L estaría llena entonces, y sería análoga a la del átomo neutro del gas noble neón (Z = 10), y por este motivo cabe esperar que el ion F sea relativamente estable. Esta predicción concuerda con lo observado. De hecho, todos los elementos que preceden inmediatamente a los gases nobles tienden a formar en disolución iones estables con carga unidad negativa. En estado sólido, es de esperar que estos elementos carezcan de electrones libres. De hecho, todos ellos son malos conductores de electricidad.

Tal y como se indica en la figura 2, basada en una ilustración de una publicación de Bohr de 1922, las siete capas principales, K, L, M,. . . , Q, se dividen naturalmente en órbitas o subcapas. Las capas se llenan de electrones para minimizar la energía total del átomo. La periodicidad resulta del llenado de las subcapas.
La tabla de Bohr, aún útil, fue un resultado de física teórica y ofreció una base física fundamental para comprender la química: demostró cómo la estructura de la tabla periódica se deduce de la estructura de capas de los átomos.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La estructura de la tabla periódica se deduce de la estructura de capas de los átomos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La tabla periódica en el arte: ¿Qué átomos hay en una obra?
- El modelo de Bohr-Sommerfeld y las propiedades químicas de los elementos
- La tabla periódica en el arte: Plata
Cómo la bomba atómica condicionó nuestra comprensión de la ciencia

Wikimedia Commons
6 de agosto de 1945. El día se presenta como cualquier otro en la ciudad de Hiroshima, Japón. El cielo está despejado y varios ciudadanos de a pie se dirigen a cubrir sus puestos de trabajo. Hiroshima no es una ciudad grande, viven en ella unas 250 000 personas, pero su interés estratégico, industrial y militar es fundamental para el imperio nipón durante la guerra.
A las 8:15 de la mañana, hora local, el Enola Gay, un bombardero B-29 estadounidense, abre sus compuertas para dejar caer la Little Boy, una bomba de uranio-235 con un potencial explosivo equivalente a 13 000 toneladas de TNT, sobre el centro de la ciudad. 55 segundos después, el estallido de la bomba marcará un antes y un después en el devenir de la historia de las sociedades modernas y de la producción científica.
Aunque ampliamente analizada desde diversas perspectivas políticas, científicas y militares, la historia de la bomba atómica apenas ha recibido atención en lo que se refiere a su papel a la hora de configurar la manera misma en que entendemos la división del conocimiento en el mundo moderno.
La comprensión pública de la ciencia como disciplina de conocimiento especial y superior al resto de saberes, o lo que algunos autores han convenido en concebir como el problema de las Dos Culturas, cambiaría radicalmente tras la detonación de las bombas atómicas de Hiroshima y Nagasaki. Sin saberlo, aquella soleada mañana de verano Paul Tibbets, piloto del Enola Gay, alteraría el curso de la cultura misma.
La historia de un debate histórico
Fue el 7 de mayo de 1959 cuando C. P. Snow subió al palco de la “Senate House” en la Universidad de Cambridge para pronunciar su conferencia “Las Dos Culturas y la Revolución Científica”.
En ella, Snow expuso una preocupación latente en varios círculos académicos de la sociedad británica de su época: la división radical entre las ciencias y las humanidades. Según el reconocido físico y novelista inglés, la sociedad intelectual inglesa estaba irremediablemente dividida entre científicos y humanistas, incluyendo entre estos últimos a historiadores, filósofos y literatos.
Afirmaba que los científicos, progresistas y librepensadores por naturaleza, se encontraban en constante pugna con los literatos, conservadores, individualistas y apartados de toda preocupación moral y social. Snow defendía que, para garantizar el futuro de la nación inglesa, era necesario establecer un sistema educativo en el que primasen los valores de libertad, progreso y comunidad propios de la ciencia, no aquellos valores egoístas y desarraigados de los literatos. En otras palabras, era necesaria una reforma cultural.
Uno puede sentirse un tanto sorprendido por las afirmaciones de Snow. ¿Tan poca cabida tenía la ciencia en la educación de su época? ¿Tan egoístas e individualistas eran los literatos? ¿La separación tajante entre las ciencias y las humanidades es tan clara como lo era para Snow?
Varios estudios históricos del problema han sugerido en los últimos años que la respuesta a estas preguntas es negativa. En primer lugar, hay que entender a Snow en su contexto, un contexto de posguerra y declinismo. Podríamos definir el declinismo como esa tendencia general a pensar que todo tiempo pasado fue mejor.

Wikimedia Commons
En el periodo concreto en que Snow pronunció su conferencia (que más tarde se convertiría en su aclamada obra Las Dos Culturas), el Reino Unido aún se estaba recuperando de los horrores y las pérdidas de la guerra. No sólo la economía del país se había visto gravemente afectada por los seis años de encarnizada e ininterrumpida lucha contra Alemania, Italia y Japón, sino también su propia capacidad de producción intelectual.
El Reino Unido, bastión de grandes autores como Shakespeare, Dickens o Shelley, y de naturalistas como Darwin, no fue capaz de hacer frente a las grandes innovaciones técnicas, científicas y militares de naciones como Alemania, Estados Unidos o la URSS. Fue en parte esta situación la que provocó ese sentimiento de declinismo en varios de los intelectuales de la época, que consideraron que la hegemonía cultural de la literatura, el arte y la filosofía habían llevado a Gran Bretaña a convertirse en un país muy leído, pero inútil a la hora de enfrentarse a los retos que la nueva ciencia y las nuevas sociedades planteaban.
Al fin y al cabo, ¿cómo podrían enfrentarse a potencias que habían desarrollado la bomba de uranio si seguían recitando sonetos de Shakespeare en la escuela?
El nacimiento de un mito
Esta fue una de las múltiples razones por las que nació el mito de las Dos Culturas: el miedo a no ser capaz de equipararse técnica y científicamente a las grandes potencias protagonistas de la vigente Guerra Fría. El debate generado por Snow, y que ha llegado hasta nuestros días, acerca de la separación cuasi natural entre científicos y literatos, no queda exento de ser comprendido en un contexto ideológico, social y de declinismo más amplio.
Pero, ¿cuál es la importancia de todo esto? Podemos considerar que sólo advirtiendo la contingencia de este contexto, la historicidad de todos los factores que motivaron a Snow a plantear este problema, seremos capaces de desmontar la falsa dicotomía que existe a día de hoy entre las Dos Culturas.
Si somos capaces de ver que fueron la guerra, un cierto complejo de inferioridad y una actitud pesimista hacia la ciencia de su propia nación las que llevaron a Snow a plantear la división necesaria entre las ciencias y las humanidades, podremos ver que dicha división no es tan natural como parece.
Y, así, podremos quitarnos de una vez de la cabeza la ingenua y anticuada idea de que el progreso intelectual, la innovación cultural y el bienestar social sólo pueden darse desde las ciencias.
Urko Gorriñobeaskoa es doctorando en historia y filosofía de la iencia en la Universidad del País Vasco / Euskal Herriko Unibertsitatea. Este texto ha sido revisado por Ekai Txapartegi, profesor de filosofía en la UPV/EHU.
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Cómo la bomba atómica condicionó nuestra comprensión de la ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cómo descubrimos tres libros venenosos en la biblioteca de nuestra universidad
- Cómo hacer ciencia en un periódico: la experiencia de ‘Público’
- Cómo nos ayuda la ciencia a tomar decisiones correctas
Hay vida en los extremos

Quizás no se haya buscado en todas partes, pero en los lugares de nuestro planeta en los que se ha buscado, se ha encontrado vida.
Se han hallado bacterias en lagos en la Antártida que se encuentran bajo una capa de hielo de 800 m de espesor, y ahora las buscan, también bajo el hielo, a mayor profundidad aún. A la luz de los antecedentes, lo más probable es que también allí las encuentren. Los llamados organismos psicrofílicos –los que sobreviven, crecen y se reproducen a temperaturas inferiores a 15 ºC bajo cero- viven en suelos congelados, en el interior del hielo de glaciares y en aguas marinas extremadamente frías.
También se han encontrado microorganismos a temperaturas superiores a 100 ºC. Los ejemplos más extremos son, quizás, las arqueas Methanopyrus kandleri, que vive a 110 ºC en fumarolas (surgencias hidrotermales) del Golfo de California (y ha sido cultivada a 122 ºC en el laboratorio) y Geogemma barosii, que crece y se reproduce a 121 ºC. Arqueas del género Pyrococcus no solo abundan en fumarolas, también se han encontrado en la Fosa de las Marianas, el enclave más profundo del planeta, donde soporta presiones superiores a los 1000 bares; a estas las llamamos barófilas o piezófilas. Y no son las únicas; además de esas arqueas también hay bacterias capaces de soportar presiones enormes.
Otras arqueas toleran altísimas concentraciones salinas. Las Halobacteriáceas (una familia de arqueas) se caracterizan, en general, por tolerar condiciones extremas por diferentes motivos, pero la mayor parte de ellas viven en lagos hipersalinos, a concentraciones que van desde 10% de sal hasta la sobresaturación, condiciones bajo las que la sal precipita. Los organismos que se exponen a altas concentraciones de sal pueden desecarse, pues el agua tiende a fluir hacia el exterior por ósmosis. Es lo que ocurre, por ejemplo, cuando se sumerge una pieza de carne o de pescado en salmuera para después conservarla mejor. Algunas cianobacterias del género Chroococcidiopsis toleran la desecación extrema, y son capaces de vivir en zonas tan secas como el desierto de Atacama, al norte de Chile, el lugar más árido del planeta.
Microorganismos como las bacterias Deinococcus radiodurans y Rubrobacter radiotolerans toleran altísimas dosis de radiaciones ionizantes (por encima de 1.500 grays) y, al parecer, su tolerancia a la radiación está relacionada con la resistencia a la desecación. Por su parte, la arquea Thermococcus gammatolerans, el microorganismo conocido que mayores dosis de radiación ionizante tolera, fue aislada en una fumarola submarina al oeste de California.
Uno de los enclaves que, a priori, cabría considerar más hostiles a la vida es el río Tinto. Sus aguas discurren por la denominada Faja pirítica ibérica, una amplia zona en el sudoeste ibérico con una alta concentración de sulfuros polimetálicos. En vez de utilizar la luz como hacen las plantas, en el río Tinto hay unas pocas especies de bacterias y arqueas que obtienen su energía de compuestos inorgánicos. Son lo que se denomina organismos quimiolitotrofos. Gracias a la gran abundancia de sulfuro de hierro (II), las comunidades microbianas oxidan los iones sulfuro y hierro (II), produciendo ácido sulfúrico y hierro (III), lo que da lugar a una gran acidez en el medio. El pH se encuentra entre 2 y 2,5. Lo curioso es que son muy pocas las bacterias y arqueas que toleran esa acidez, pero muchas las especies de algas y hongos unicelulares que viven en esas aguas.
Siempre hemos tratado de buscar y conocer los límites de la vida. Nos interesan, entre otras cosas, porque esas condiciones quizás sean las que albergan la vida en otros mundos.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Hay vida en los extremos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Así se distribuye la biomasa de la Tierra
- Los amiloides y el origen de la vida
- La historia de la vida
Liderazgo escolar y rendimiento académico de los alumnos: estado de la cuestión
Vitoria-Gasteiz acogió por primera vez el pasado 18 de octubre el evento Las pruebas de la educación, una jornada que abordó diversos temas educativos desde la evidencia científica. El acto, organizado por el Consejo Escolar de Euskadi y la Cátedra de Cultura Científica de la UPV/EHU, tuvo lugar en el Salón de Actos del Centro de Investigación Micaela Portilla, ubicado en el Campus de la capital alavesa de la UPV/EHU.
La jornada consta de un total de cinco charlas que tratan temas como el rendimiento académico, los métodos de aprendizaje y la innovación educativa, entre otros. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.
María Gil, doctora en Economía por la Universidad Complutense de Madrid, nos habla en esta charla sobre el liderazgo escolar y el rendimiento académico de los alumnos. Según la experta, incrementar la eficiencia de los recursos al sistema educativo y mejorar los resultados académicos de los alumnos constituyen dos objetivos prioritarios de las autoridades educativas. La ponente hace énfasis en el papel relevante que los líderes de los centros pueden jugar en la consecución de ambos objetivos.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Liderazgo escolar y rendimiento académico de los alumnos: estado de la cuestión se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- A favor de la evaluación escolar objetiva
- Criterios de eficacia escolar y factores asociados a la misma
- Estudio de eficacia escolar en el País Vasco
Un comportamiento pavloviano en amebas
Un grupo científico multidisciplinar formado por investigadores pertenecientes a la UPV/EHU y al Hospital Universitario de Cruces, a la Universidad Ben Gurion de Israel y a tres institutos del CSIC (Instituto de Biofisika de Leioa, el Instituto CEBAS de Murcia e Instituto López-Neyra de Granada) y liderado por el Dr. Ildefonso Martínez de la Fuente (profesor de investigación del CSIC) ha demostrado por primera vez la existencia de un comportamiento condicionado de tipo pavloviano en organismos unicelulares.
Siguiendo el enfoque metodológico experimental que Ivan Pavlov realizó con perros, hace más de un siglo, y por el que fue galardonado con el premio Nobel en 1904, estos investigadores han confirmado en dos especies unicelulares distintas (Amoeba proteus y Metamoeba leningradensis) el aprendizaje asociativo celular.
Hasta ahora, el condicionamiento asociativo, el principal tipo de aprendizaje mediante el cual los organismos dotados de sistema nervioso central responden eficientemente a los estímulos ambientales, se ha constatado en diferentes especies animales, desde cefalópodos hasta humanos, pero nunca había sido observado en células individuales.
Para demostrar la existencia de un comportamiento condicionado de tipo pavloviano en organismos unicelulares, los investigadores utilizaron un campo eléctrico como estímulo condicionado y un péptido quimiotáctico específico como estímulo no condicionado y, a continuación, analizaron las trayectorias migratorias de más de 700 células individuales bajo diferentes condiciones experimentales. Los resultados mostraron inequívocamente que los organismos unicelulares eran capaces de aprender nuevos comportamientos mediante asociación de estímulos.
El grupo de investigación ha puesto de manifiesto en sus experimentos que estas células aprenden nuevos comportamientos migratorios, los recuerdan y memorizan durante largos periodos de tiempo (45 minutos en promedio), respecto de su ciclo celular (24 horas, en condiciones óptimas de laboratorio) y posteriormente los olvidan. Nunca hasta ahora se había observado semejantes comportamientos en organismos unicelulares.
La migración celular es un comportamiento sistémico, esencial en el desarrollo y el mantenimiento funcional tanto de las células libres como las de los organismos pluricelulares. En los humanos, la formación de los órganos durante el desarrollo embrionario, la respuesta inmune o la reparación tisular, por ejemplo, requieren de movimientos celulares migratorios muy precisos y complejos. Los errores en el control de estos procesos migratorios celulares pueden tener consecuencias graves, como el retraso mental, el desarrollo de enfermedades cardiovasculares y el cáncer.
El proceso metastático, por el cual las células cancerígenas abandonan un tumor primario y migran hacia otros órganos para formar tumores secundarios, es la principal causa de muerte en los pacientes con cáncer. Según miembros del equipo de investigación que participan en este estudio, “el conocimiento de los procesos que controlan dicha migración contribuirá a reducir significativamente la mortalidad asociada a esta enfermedad, por lo que esta conexión con la medicina aumenta aún más si cabe la importancia del hallazgo”.
Referencia:
De la Fuente, Ildefonso M.; Bringas, Carlos; Malaina, Iker; Fedetz, María; Carrasco-Pujante, Jose; Morales, Miguel; Knafo, Shira; Martínez, Luis; Pérez-Samartín, Alberto; López, José I.; Pérez-Yarza, Gorka; Boyano, María Dolores «Evidence of conditioned behavior in amoebae» Nature Communications doi: 10.1038/s41467-019-11677-w
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Un comportamiento pavloviano en amebas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un nuevo mecanismo de resistencia antifúngico
- Cómo ver todas las células en tejido cerebral vivo
- Cómo criopreservar células madre
La ciencia de la cosmética antioxidante contra los radicales libres

En 1956 se propuso por primera vez que los radicales libres contribuían al envejecimiento de la piel. En su día esta teoría fue muy criticada, sin embargo, en la actualidad está ampliamente demostrado que los radicales libres que se forman en procesos de oxidación son los principales causantes de los signos de la edad: arrugas, manchas y flaccidez. Hemos caracterizado los radicales libres que se forman, cómo se forman y cuál es su mecanismo de acción. La forma más eficaz de combatirlos es mediante el uso de antioxidantes.
-
¿Qué son los radicales libres y cómo se forman?
Los radicales libres (RL) son moléculas que presentan electrones desparejados. Esto hace que sean moléculas muy inestables y reactivas, por lo que destruyen y alteran los compuestos que tienen a su alrededor en busca de estabilidad, de volver a emparejar sus electrones. Se forman en reacciones químicas de oxidación, que son reacciones que implican pérdida de electrones.

Los radicales libres más importantes son las denominadas especies reactivas de oxígeno (ROS) y de nitrógeno (RON), principalmente el radical anión superóxido, el peróxido de hidrógeno y el radical óxido nítrico.
Los radicales libres se originan de forma natural como consecuencia del metabolismo celular; también como consecuencia de algunas patologías que producen inflamación e isquemia; y por agentes externos, sobre todo la radiación ultravioleta, la contaminación, el estrés, el alcohol y el tabaco.
-
Los radicales libres tienen un papel fisiológico importante
Aunque los radicales libres estén implicados en procesos de envejecimiento y sean el origen de algunas enfermedades, entre ellas algunos cánceres, también tienen un papel fisiológico importante. Los radicales libres son indispensables en la relajación muscular, la transmisión celular o la defensa microbiana. También regulan la muerte celular activando cascadas de señalización intracelular que pueden terminar por inducir apoptosis; de esta manera se eliminan las células dañinas, con comportamientos nocivos o mutaciones indeseables.
-
Exceso de radicales libres: estrés oxidativo
Hay varios factores que pueden inducir la formación de un exceso de radicales libres. Para neutralizarlos disponemos de defensas antioxidantes como los sistemas enzimáticos (CAT, SOD, GPs) y no enzimáticos (Glutation, Vitaminas: A, C, E).
Cuando se produce un desequilibrio en la formación de radicales libres, el sistema antioxidante del organismo es incapaz de gestionarlo. Cuando esto sucede hablamos de estrés oxidativo. El estrés oxidativo es consecuencia de factores externos, desde una patología que implica inflamación, a la radiación ultravioleta, la contaminación o el estrés.
- Radicales libres y envejecimiento
A nivel cutáneo, los radicales libres pueden provocar acumulación de lesión oxidativa en moléculas como el colágeno y la elastina (glicación), favorecer la acumulación de pigmentos como la lipofucsina y la melanina causando manchas, y provocar fibrosis en los vasos que nutren la dermis, afianzando las arrugas gestuales.
La glicación es una reacción espontánea de la glucosa sanguínea con las fibras dérmicas de colágeno y elastina. La acumulación de los productos resultantes de la glicación (AGEs) es mayor en las proteínas estructurales, como el colágeno y la elastina, pues tienen un tiempo de recambio lento. La formación de puentes moleculares entrelazados y rígidos entre las fibras proteicas con una reorganización de la red conduce a una pérdida de firmeza, elasticidad y movilidad de la piel. Además, los AGEs expuestos a rayos ultravioleta generan radicales libres de oxígeno que constituyen un factor más de envejecimiento. La glicación aumenta exponencialmente con la edad a partir de los 35 años y se incrementa con la exposición al sol.

Además de envejecimiento cutáneo, estos procesos oxidativos alteran el equilibrio celular e inducen procesos cancerosos. Las sustancias proinflamatorias que se producen de manera sostenida provocan daño al ADN y, junto con la producción de especies reactivas de oxígeno y de nitrógeno, generan más daño celular. Si, además, los sistemas de protección como la apoptosis celular no logran eliminar estas células alteradas, se mantendrá un crecimiento celular incontrolado de clones celulares dañados. De esta forma, la producción excesiva de especies reactivas de oxígeno y de nitrógeno induce diferentes tipos de cáncer cutáneo.
También sabemos que la radiación ultravioleta induce daño directo al ADN y activa la producción de especies reactivas de oxígeno que provocan más estrés oxidativo. El daño en el ADN produce mutaciones y genotipos celulares alterados, lo que permite la expansión tumoral.
-
Los antioxidantes estrella: la Vitamina C y la Vitamina E
Los antioxidantes son sustancias que pueden actuar desde tres frentes: inhibir el estrés oxidativo, neutralizar los radicales libres y paliar los efectos de los radicales libres.

Los antioxidantes convencionales son la vitamina C y la vitamina E. Químicamente ambas sustancias se oxidan con relativa facilidad, por eso suele decirse que son sustancias que se oxidan en lugar de otras, evitando que se formen radicales libres. Esta es la versión corta de su mecanismo de acción. La realidad es que los antioxidantes actúan a más niveles.
—Vitamina C

La vitamina C es el ácido L-ascórbico. La nomenclatura INCI, la que se usa en la lista de ingredientes cosméticos, es ascorbic acid, aunque existen derivados. Es hidrosoluble y es el antioxidante predominante. Neutraliza los radicales libres en los compartimentos acuosos de la piel.
La única manera de obtener grandes cantidades es aplicándola tópicamente, ya que por vía oral los mecanismos de control biológico restringen su absorción y posterior transporte a la piel. Para optimizar su absorción percutánea, la formulación del vehículo de la vitamina C debe tener un pH menor de 3.5, logrando máximas concentraciones en piel al 15%.
Por vía tópica protege a la piel contra eritema e inmunosupresión producida por UVB y UVA, mediante un mecanismo no relacionado con la absorción de radiación ultravioleta. Y reduce la hiperpigmentación al inhibir la tirosinasa implicada en la síntesis de melanina, por lo que previene las manchas.
La vitamina C es un cofactor de enzimas críticas en la síntesis de colágeno. A partir del 3% de concentración es capaz de restaurar las fibras de colágeno en pieles jóvenes e incrementa el número de vasos capilares que nutren la dermis en mujeres postmenopaúsicas.
—Vitamina E

La vitamina E, también conocida como alfatocoferol. La nomenclatura INCI, la que se usa en la lista de ingredientes cosméticos, es tocopherol, aunque existen derivados. Es liposoluble. Su principal función es proteger las membranas celulares del estrés oxidativo. Múltiples estudios han demostrado una reducción del estrés oxidativo, del fotoenvejecimiento, la inmunosupresión y la carcinogénesis.
También inhibe la síntesis de melanina por acción contra la tirosinasa y la tirosina, y posee una modesta absorción de la radiación ultravioleta cerca de los 290 nm, lo que, junto con su efecto antioxidante, podría explicar su acción fotoprotectora.
—Sinergias de la vitamina C y E

Las vitaminas C y E actúan de forma sinérgica, por eso es frecuente encontrarlas juntas en cosméticos antioxidantes. El origen de esta sinergia está en que cuando la vitamina E se oxida es regenerada en la membrana celular por la vitamina C a partir del radical tocoferilo. Es decir, cuando la vitamina E se oxida, la vitamina C revierte ese proceso devolviendo a la vitamina E su forma antioxidante.
Agentes estabilizadores como el ácido ferúlico al 1,5% y la floretina, dos potentes antioxidantes de origen vegetal, aumentan la absorción de las fórmulas combinadas.
Como la vitamina C es hidrosoluble y la E es liposoluble, las encontramos combinadas en productos con fase acuosa y fase grasa que suelen presentarse en forma de emulsión.
Las vitaminas C y E actúan en conjunto para evitar el estrés oxidativo. En comparación con la vitamina C sola, la combinación de ácido L-ascórbico en un 15% con un 1% de alfatocoferol duplica la protección contra la formación de eritema y minimiza el daño al ADN de la radiación ultravioleta. En pieles con daño solar, la cantidad de vitaminas C y E se reduce en un 70%.
-
Conclusión
Los antioxidantes tópicos sirven para suplementar la protección antioxidante innata de la piel y reponer las reservas que se agotan por estrés oxidativo.
En cosmética se utilizan diferentes antioxidantes, siendo los más comunes la vitamina C y la E. En combinación con la protección solar, forman un gran equipo contra el envejecimiento de la piel.
Referencias:
Harman D. Aging. A theory base don free radical and radiation chemistry. J Gerontol. 1956; 11:298-300
M. Florez-White. Antioxidantes tópicos: su papel en el manejo del fotoenvejecimiento. Más Dermatol. 2013; 19:3-4
J. Honorato. Glication’s processes and oxidation in the aging of the skin. Med Cutan Iber Lat Am 2010;38(2):101-104
Sander ChS, Chang H, Salzmann S et al. Photoaging is associated with protein oxidation in human skin in vivo. J Invest Dermatol 2002; 118: 618-25
Halliwell B, Whiteman M. Measuring reactive species and oxidative damage in vivo and cell culture. How should you do it and what does it mean? Br J Pharmacol. 2004;142:231-55
Willcox J, Ash S, Catignani G. Antioxidants and prevention of chronic disease. Crit Rev Food Sci Nutr. 2004;44:275-95
Ghersetich I, Troiano M, De Giorgi V, Lotti T. Receptors in skin ageing and antiageing agents. Dermatol Clin. 2007;25:655-62
Franco R, Schoneveld O, Georgakilas A, Panayiotidis M. Oxidative stress, DNA methylation and carcinogenesis. Cancer Lett. 2008;266:6-11
Sara María Lozada, Lucy García. Oxidative stress and antioxidants: how to keep the balance.Rev Asoc Colomb Dermatol. 2009;17:172-9.
Gissel Ivonne Castellanos Ramos , Daniel Alcalá Pérez. Antioxidants in Dermatology. DermatologiaCMQ2010;8(4):272-277
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo La ciencia de la cosmética antioxidante contra los radicales libres se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Radicales libres, el libro
- Cuando las algas rojas no pueden gestionar los radicales libres
- Así es la mejor crema antiedad según la ciencia
Sobre la superficie de Dios
Gestes et opinions du docteur Faustroll, pataphysicien. Roman Néo-Scientifique –Gestas y opiniones del doctor Faustroll, patafísico: novela neo-científica– es una obra del dramaturgo y novelista Alfred Jarry (1873-1907).
El libro describe las aventuras del patafísicoi Doctor Faustroll, de su babuino hidrocéfalo Bosse-de-Nage y del oficial de justicia René-Isidore Panmuphle, que aparece en la historia para embargar los bienes de Faustroll.
Esta novela es ‘la biblia’ del Colegio de Patafísicaii, que le ha dedicado diferentes exégesis. El texto está plagado de referencias filosóficas, e incluso matemáticas, en muchas ocasiones usando un lenguaje incoherente.
El Doctor Faustroll es un científico verdaderamente singular. Nacido en Circasia a la edad de 63 años –y fallecido ese mismo año– es pionero de la patafísica y curador perpetuo del Colegio de Patafísica desde 1947.
La historia comienza con el desalojo del Doctor Faustrollde su residencia. Junto a Bosse-de-Nage y René-Isidore Panmuphle, el científico realiza un ‘viaje de París a París por mar’, viaje que le conduce a la muerte. Proyectado dentro de la ‘Ethernidad’, Faustroll transmite –a través de una carta telepática– a Lord Kelvin diferentes reglas sobre el tiempo, el Sol, el espacio, etc. También traduce al matemático y astrónomo Hipócrates de Quíos –al que Jarry atribuye el origen de la patafísica– y, para finalizar, calcula la superficie de Dios, concluyendo el libro con la contundente sentencia ‘La Patafísica es la ciencia’.
El libro está dividido en cuarenta y un capítulos distribuidos en ocho ‘libros’:
-
Procédure (Introducción)
-
Éléments de pataphysique (Elementos de patafísica)
-
De Paris à Paris par mer, ou le Robinson belge (De París a París por mar, o el Robinson belga)
-
Céphalorgie (Cefalorgia)
-
Officiellement (Oficialmente)
-
Chez Lucullus (En casa de Lúculo)
-
Khurmookum
-
Éthernité (Ethernidad)
Se reproduce debajo el último capítulo –traducido por la autora de esta anotación– en el que se calcula la ‘superficie de Dios’.
XLI
SOBRE LA SUPERFICIE DE DIOS
Por definición, Dios no posee extensión pero nos permitimos, por la claridad de nuestro enunciado, suponerle un número cualquiera, mayor que cero, de dimensiones, aunque no tenga ninguna si estas dimensiones desaparecen en los dos miembros de nuestras identidades. Nos conformaremos con dos dimensiones, para poder representar fácilmente figuras de geometría plana sobre una hoja de papel.
Simbólicamente se representa a Dios por un triángulo, pero las tres Personas no deben considerarse como los vértices o las aristas. Son las tres alturas de otro triángulo equilátero circunscrito en el tradicional. Esta hipótesis concuerda con las revelaciones de Anne-Catherine Emmerick, quien vio la cruz (que consideramos como símbolo del Verbo de Dios) en forma de Y, y sólo lo explica por esta razón física: ningún brazo de longitud humana podría extenderse hasta los clavos de las ramas de una tau.
Por lo tanto, POSTULADO:
Hasta tener más información y por nuestra comodidad provisional, suponemos a Dios en un plano y bajo la figura simbólica de tres rectas iguales, de longitud a, pasando por un mismo punto y formando entre ellas ángulos de 120 grados. Es del espacio comprendido entre ellas, o del triángulo obtenido uniendo los tres puntos más alejados de estas rectas, del que nos proponemos calcular el área.
Sea x la mediana prolongación de una de las Personas a, 2y el lado del triángulo al que es perpendicular, N y P las prolongaciones de la recta (a+x) en los dos sentidos hacia el infinito.

Tenemos:
x=∞−N−a−P.
Ahora bien
N=∞−0.
y
P=0.
De donde
x=∞−(∞−0)−a−0=∞−∞+0−a−0
x=−a.
Por otro lado, el triángulo rectángulo cuyos lados son a, x e y nos da:
a²=x²+y².
Así, sustituyendo x por su valor (−a)
a²=(−a²)+y²=a²+y².
De donde
y²=a²−a²=0
e
y=√0.
Así la superficie del triángulo equilátero que tiene por bisectrices de sus ángulos las tres rectas a será:
S=y(x+a)=√0(−a+a)
S=0√0.
COROLARIO.- A primera vista del radical √0, podemos afirmar que el área calculada es a lo más una línea; en segundo lugar, si construimos la figura según los valores obtenidos para x e y, observamos:
Que la recta 2y, que ahora sabemos que va a ser 2√0, tiene su punto de intersección sobre una de las rectas aen sentido inverso de nuestra primera hipótesis, ya que x=−a; y que la base de nuestro triángulo coincide con su vértice;
Que las dos rectas a forman con la primera ángulos menores al menos de 60°, y más aún no pueden encontrar 2√0 más que coincidiendo con la primera recta a.
Esto concuerda con el dogma de equivalencia de las tres Personas entre ellas y a su suma.
Podemos decir que a es una recta que une 0 con ∞, y definir Dios:
DEFINICIÓN.- Dios es el camino más corto entre cero e infinito.
¿En qué sentido?, nos preguntaremos.
– Responderemos que Su nombre no es Julio, sino Más-y-Menos. Y debe decirse:
± Dios es el camino más corto de 0 a ∞, en un sentido o en el otro.
Esto concuerda con la creencia en los dos principios; pero es más exacto atribuir el signo + al de la creencia del sujeto.
Pero como Dios no posee extensión, no es una línea.
– Observemos en efecto que, según la identidad
∞−0−a+a+0=∞
la longitud a es nula, a no es una línea, sino un punto.
Así, definitivamente:
DIOS ES EL PUNTO TANGENTE DE CERO Y DEL INFINITO.
La Patafísica es la ciencia…

Parece que este singular cálculo se inspira en el último capítulo del último libro de Pantagruel de François Rabelais. Allí se afirma que: ‘Esa esfera intelectual, cuyo centro está en todas partes y la circunferencia en ninguna, que llamamos Dios’.
Nota:
Por si alguien se encuentra un tanto confundido, los cálculos realizados no se basan en las matemáticas, sino en la patafísica… ‘la ciencia’…
Más información:
-
La obra completa en el repositorio Gallica
i La patafísica –contracción de epí ta metá ta physiká, es decir, «lo que está alrededor de lo que está más allá de la física»– es un movimiento cultural francés de la segunda mitad del siglo XX vinculado al surrealismo. Toma su nombre de las Gestas y opiniones del doctor Faustroll, patafísico, de Alfred Jarry. Basándose en esta novela, algunas personas comenzaron a practicar la ciencia paródica denominada patafísica que se dedicaba «al estudio de las soluciones imaginarias y las leyes que regulan las excepciones».
ii El Colegio de Patafísica fue fundado en París en 1948 como contraposición caricaturesca a Academias de Arte y Ciencias como el Collège de France y en honor al doctor Faustroll.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Sobre la superficie de Dios se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Blaise Pascal, Dios y la cicloide
- La característica de Euler de una superficie: un invariante topológico
- Coloquios escépticos: ¿hijos de dios?, con Francisco Mora
El modelo de Bohr-Sommerfeld y las propiedades químicas de los elementos

En el modelo de Bohr (1913) los átomos de los diferentes elementos difieren en la carga y la masa de sus núcleos y en el número y disposición de los electrones. En 1916 Arnold Sommerfeld generalizó el modelo modificando las órbitas electrónicas [1]: ahora ya no eran solo circulares, también podían ser elípticas; y ya no eran como una serie de anillos concéntricos en un plano, sino figuras geométricas en tres dimensiones. ¿Cómo explica este modelo de Bohr-Sommerfeld las propiedades químicas de los elementos?
Los elementos hidrógeno (número atómico Z = 1) y litio (Z = 3) son algo similares químicamente. Ambos tienen valencia 1. Ambos entran en compuestos de estructura similar, por ejemplo, cloruro de hidrógeno (HCl) y cloruro de litio (LiCl). También hay algunas similitudes en sus espectros. Todo esto sugiere que el átomo de litio se parece al átomo de hidrógeno en algunos aspectos importantes. Bohr especuló que dos de los tres electrones del átomo de litio están relativamente cerca del núcleo, en órbitas que se asemejan a las del átomo de helio (Z = 2), formando lo que se puede describir como una «capa» alrededor del núcleo. Pero el tercer electrón está en una órbita circular o elíptica fuera del sistema interno. Dado que este sistema interno consiste en un núcleo de carga +3e y dos electrones, cada uno de los cuales tiene carga –e, su carga neta es +e. Por lo tanto, el átomo de litio puede representarse aproximadamente con un núcleo central de carga +e. Alrededor de este núcleo gira un electrón, algo así como si fuera un átomo de hidrógeno. Esta estructura física similar sería entonces la razón del comportamiento químico similar de hidrógeno y litio.

El helio (Z = 2) es un gas noble, químicamente inerte [2]. Estas propiedades indican que el átomo de helio debe ser altamente estable y que tiene sus dos electrones estrechamente unidos al núcleo [3]. Parece sensato, entonces, considerar que ambos electrones se mueven en la misma «capa» más interna cuando el átomo no está excitado. Además, debido a que el átomo de helio es tan estable y químicamente inerte, podemos suponer razonablemente que esta capa no puede contener más de dos electrones. Esta capa se llama K [4]. El único electrón del hidrógeno también está en la capa K cuando el átomo no está excitado. El litio tiene dos electrones en la capa K, llenándola completamente; el tercer electrón inicia una nueva capa, llamada L [4]. Este único electrón externo y débilmente ligado es la razón por la cual el litio se combina tan fácilmente con el oxígeno, el cloro y muchos otros elementos.
El sodio (Z = 11) es el siguiente elemento en la tabla periódica que tiene propiedades químicas similares a las del hidrógeno y el litio. Esta similitud sugiere que el átomo de sodio también es similar al hidrógeno al tener un núcleo central sobre el que gira un electrón. Además, así como el litio sigue al helio en la tabla periódica, el sodio sigue al gas noble neón (Z = 10). Podemos suponer que dos de los diez electrones del neón están en la primera capa (K), mientras que los ocho electrones restantes están en la segunda capa (L). Debido a que es químicamente inerte [2] y la estabilidad del neón, podemos suponer además que estos ocho electrones llenan la capa L hasta su capacidad. Para el sodio, entonces, el undécimo electrón debe estar en una tercera capa, llamada la capa M [4].
Si pasamos al potasio (Z = 19), el siguiente elemento del mismo grupo de la tabla periódica, podemos volver a imaginar un núcleo interno y un solo electrón fuera de él. El núcleo consta de un núcleo con carga +19e. Hay dos, ocho y ocho electrones que ocupan las capas K, L y M, respectivamente. El decimonoveno electrón gira alrededor del núcleo en una cuarta capa, llamada N. El átomo del gas noble argón, con Z = 18, aparece justo antes del potasio en la tabla periódica. El argón nuevamente tiene una estructura de electrones firme y estable, con dos en la capa K, ocho en la capa L y ocho en la capa M.
Parece que tenemos un patrón y que la cosa funciona. ¿Podremos construir todo el sistema de periodos usando solo el modelo de Bohr-Sommerfeld?
Notas:
[1] También introdujo velocidades relativistas para el electrón y determinó que las capas posteriores a la primera pueden tener subcapas, lo que introduciría un nuevo número cuántico. Pero esto ya lo contaremos en otra parte.
[2] A todos los efectos prácticos que nos interesan aquí.
[3] Ya que la química depende del intercambio de electrones. Si el átomo no reacciona químicamente es porque no intercambia sus electrones y esto se debe a que el núcleo los agarra con fuerza. Esto es una sobresimplificación, pero, por ahora, nos sirve.
[4] Los nombres de las capas vienen de la espectroscopía. No les busques lógica porque no la tienen más allá del orden alfabético. Tienen historia, pero es irrelevante ahora.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El modelo de Bohr-Sommerfeld y las propiedades químicas de los elementos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El modelo de Bohr explica las regularidades en el espectro del hidrógeno
- El modelo de Bohr explica la fórmula de Balmer
- El tamaño del átomo de hidrógeno
La evolución nos dice que es probable que seamos la única vida inteligente del universo

¿Estamos solos en el universo? La pregunta que se plantea es si la inteligencia es un resultado probable de la selección natural o un improbable golpe de suerte. Por definición, los acontecimientos probables se producen con frecuencia, mientras que los sucesos improbables tienen lugar pocas veces o una sola vez. La historia de nuestra evolución muestra que muchas adaptaciones de carácter crucial –no solo la inteligencia, sino también los animales y las células complejas, la fotosíntesis y la propia vida– fueron sucesos únicos y excepcionales y, por tanto, muy improbables. Nuestra evolución tal vez haya sido como ganar la lotería… solo que con una probabilidad mucho menor.
El universo es inmensamente grande. La Vía Láctea tiene más de 100 000 millones de estrellas, y en el universo observable, es decir, en la diminuta fracción de universo que podemos ver, hay más de un billón de galaxias. Aunque los mundos habitables son escasos, el número por sí solo —existen tantos planetas como estrellas, puede que más— invita a pensar que hay mucha vida ahí fuera. Si es así, ¿dónde se ha metido? Esta es la paradoja de Fermi. El universo es inmenso y viejo, y dispone de tiempo y espacio suficiente para que la inteligencia evolucione; sin embargo, no hay pruebas de que tal cosa ocurra.
¿Cabría pensar, sencillamente, que a lo mejor es poco probable que la inteligencia evolucione? Por desgracia, no podemos estudiar la vida extraterrestre para responder a esta pregunta. Pero sí podemos estudiar los casi 4 500 millones de años de historia que tiene la Tierra y observar cuándo se repite –o no– la propia evolución.
A veces la evolución se repite, de tal forma que pueden observarse especies diferentes que evolucionan de manera convergente hacia resultados similares. Si la propia evolución se repite con frecuencia, nuestra evolución podría ser un acontecimiento probable, incluso inevitable.

Wikipedia
De hecho, existen ejemplos notables de convergencias evolutivas. El tilacino de Australia, también conocido como lobo marsupial o tigre de Tasmania, hoy extinguido, tenía una bolsa semejante a la de los canguros, pero, por lo demás, parecía un lobo, a pesar de que evolucionó a partir de un linaje de mamíferos diferente. También hay topos marsupiales, marsupiales hormigueros y ardillas planeadoras marsupiales. Es sorprendente comprobar cómo toda la historia evolutiva de Australia, con la diversificación que experimentaron sus mamíferos tras la extinción de los dinosaurios, es paralela a la de otros continentes.
Otros casos llamativos de convergencia son el delfín y el extinto ictiosaurio, que evolucionaron de forma similar para deslizarse por el agua, así como las aves, los murciélagos y los pterosaurios, que evolucionaron de manera convergente para volar.

PLoS Biology
También se observan convergencias en órganos independientes. Los ojos evolucionaron no solo en los vertebrados, sino también en los artrópodos, los pulpos, los gusanos y las medusas. Los vertebrados, los artrópodos, los pulpos y los gusanos, cada uno por su cuenta, desarrollaron mandíbulas. Por su parte, las patas evolucionaron de forma convergente en los artrópodos, los pulpos y cuatro tipos de peces (tetrápodos, peces sapo, rájidos, peces del fango).
Aquí está la trampa. Toda esta convergencia tuvo lugar dentro de un mismo linaje, los eumetazoos, que son animales complejos dotados de simetría, boca, tubo digestivo, músculos y un sistema nervioso. Hubo eumetazoos diferentes que desarrollaron soluciones similares a problemas similares, pero la compleja estructura corporal que lo hizo posible es única. Los animales complejos evolucionaron una sola vez en la historia de la vida, lo que da a entender que son improbables.
Sorprende constatar que muchos acontecimientos fundamentales de la historia de nuestra evolución son únicos y, seguramente, improbables. Uno es el esqueleto óseo de los vertebrados, que permitió que los animales grandes se desplazaran hacia la tierra. Las complejas células eucariotas de las que están compuestos todos los animales y plantas, y que contienen núcleos y mitocondrias, evolucionaron una sola vez. El sexo evolucionó una única vez. La fotosíntesis, que aumentaba la energía disponible para la vida y producía oxígeno, es un acontecimiento único. A este respecto, también lo es la inteligencia humana. Existen lobos y topos marsupiales, pero no hay humanos marsupiales.

Smithsonian Institution
Hay lugares donde la evolución se repite y otros donde no. Si solo nos fijamos en la convergencia, se crea un sesgo de confirmación. La convergencia parece ser la norma y nuestra evolución se presenta como algo probable. Sin embargo, cuando se presta atención a la no convergencia, se observa que está en todas partes, y las adaptaciones decisivas y complejas parecen ser las que menos se repiten, por lo que adquieren carácter improbable.
Además, estos acontecimientos dependían unos de otros. Los seres humanos no pudieron evolucionar hasta que los peces desarrollaron huesos que les permitieron arrastrarse hasta la tierra. Los huesos no pudieron evolucionar hasta que aparecieron los animales complejos. Los animales complejos necesitaban células complejas, y las células complejas necesitaban oxígeno, producido por la fotosíntesis. Nada de esto sucede sin la evolución de la vida, un acontecimiento singular entre acontecimientos singulares. Todos los organismos provienen de un solo antepasado; por lo que sabemos, la vida ocurrió una sola vez.
Es curioso observar que todo este proceso requiere un tiempo sorprendentemente largo. La fotosíntesis evolucionó 1 500 millones de años después de la formación de la Tierra; las células complejas, tras 2 700 millones de años; los animales complejos, al cabo de 4 000 millones de años; y la inteligencia humana, 4 500 millones de años después de que se formara la Tierra. El hecho de que estas innovaciones sean tan útiles pero tardaran tanto en evolucionar implica que son increíblemente improbables.
Una sucesión improbable de acontecimientos
Es posible que estas innovaciones puntuales, casualidades de importancia crucial, crearan una cadena de obstáculos o filtros evolutivos. De ser así, nuestra evolución no fue como ganar la lotería; fue como ganar la lotería una vez y otra y otra y otra. En otros mundos, es posible que estas adaptaciones decisivas hubieran evolucionado demasiado tarde para que la inteligencia apareciera antes de que sus soles se convirtieran en novas, o que no hubieran evolucionado en absoluto.
Supongamos que la inteligencia depende de una cadena de siete innovaciones improbables –el origen de la vida, la fotosíntesis, las células complejas, el sexo, los animales complejos, los esqueletos y la propia inteligencia–, y que cada una tiene un 10 % de posibilidades de evolucionar. Las probabilidades de que la inteligencia evolucione pasan a ser 1 entre 10 millones.

Nick Longrich
Pero las adaptaciones complejas podrían ser incluso menos probables. La fotosíntesis necesitó una serie de adaptaciones en cuanto a proteínas, pigmentos y membranas. Los animales eumetazoos requirieron de múltiples innovaciones anatómicas (nervios, músculos, boca). Por tanto, es posible que cada una de estas siete innovaciones cruciales evolucione solo el 1 % de las veces. En tal caso, la inteligencia evolucionará solamente en 1 de cada 100 billones de mundos habitables. Teniendo en cuenta que los mundos habitables son escasos, podríamos ser la única vida inteligente de la galaxia, o incluso del universo observable.
Así y todo, estamos aquí, y este hecho tiene que valer para algo, ¿no? Si la evolución tiene suerte 1 de cada 100 billones de veces, ¿cuáles son las probabilidades de que nos hallemos en un planeta donde la evolución tuvo lugar? En realidad, las probabilidades de estar en ese mundo improbable son del 100 %, porque no podríamos tener esta conversación en un mundo donde la fotosíntesis, las células complejas o los animales no evolucionaran. Es el principio antrópico. La historia de la Tierra tiene que haber permitido que la vida inteligente evolucionara, pues, de lo contrario, no estaríamos aquí para plantearnos estas cuestiones.
La inteligencia depende, al parecer, de una cadena de acontecimientos improbables. Pero teniendo en cuenta la enorme cantidad de planetas, e igual que un número infinito de monos que golpean un número infinito de máquinas de escribir para redactar Hamlet, está destinada a evolucionar hacia alguna parte. El resultado improbable fuimos nosotros.
Sobre el autor: Nick Longrich es profesor titular (senior lecturer) en el departamento de paleontología y biología evolutiva de la University of Bath
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo La evolución nos dice que es probable que seamos la única vida inteligente del universo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La evolución de la vida inteligente: ¿Azar o necesidad?
- Vida alienígena inteligente, una historia terráquea
- El universo en un día: Vida y diversidad, por Carlos Chordá
Breve historia de las ciencias del clima

La climatología es una ciencia peculiar: no hay que confundirla con la meteorología. Por una parte, se considera una rama de las ciencias atmosféricas, y por tanto perteneciente a las ciencias físicas. Por otro lado, se trata de un subcampo de la geografía perteneciente a las llamadas Ciencias de la Tierra. Sin embargo, la climatología también incluye aspectos de la oceanografía y la biogeoquimica, al igual que de otras ciencias como la geofísica, la glaciología, ecología, ciencias computacionales, meteorología, la economía y… también la historia. Y es que el clima, como es natural, está presente en nuestro planeta mucho antes que la especie humana. Es a lo que se dedica la paleoclimatología, que entre otras cosas trata de hacer arqueología de fósiles u otros signos que permitan comprender cómo fueron los climas a lo largo de la historia de la Tierra.
Hoy en día, la ciencia climática utiliza modelos computacionales que permiten estudiar la evolución del clima e, incluso, realizar proyecciones de cómo será en el futuro. No hay duda de que esta ciencia ha cobrado una gran relevancia social, especialmente desde que la concienciación medioambiental se hizo presente en el debate público durante la segunda mitad del siglo XX. De hecho, la historia que tiene detrás muestra que, en realidad, nunca ha sido una disciplina bien definida y que probablemente no existiría de no ser por los aspectos sociales, culturales y tecnológicos que contingentemente la han llevado a coronarse como una de las ciencias de mayor impacto en la vida diaria actual de muchas personas.

En la época clásica, por “clima” se entendía una cosa bien distinta a lo que hoy conciben los climatólogos. Su significado estaba acotado a cuestiones de geografía, un invento de los trabajos de cartografía del siglo III a.C en la Grecia Antigua. No tenía prácticamente nada que ver con la meteorología o la atmósfera, pues hablar del “clima” de un lugar era equivalente a dar sus coordenadas geográficas más que explicar si hacía frío o calor, su humedad o la frencuencia con que llovía en la zona. De hecho, el término “clima” proviene del griego (κλίμα) y significa “zona” o “lugar”.
El concepto “clima” tuvo que esperar hasta el siglo XVIII, momento en el que fue definido como la media de los estados meteorológicos en un lugar a lo largo del tiempo. Sin embargo, sólo se volvió un objeto de la práctica científica cuando los servicios meteorológicos nacionales pudieron proveerse de grandes cantidades de datos para hacer estadística con ellos, lo cual no ocurrió hasta mediados del siglo XIX.
Esta concepción física del clima vino, además, de la mano de la hipótesis científicas del cambio climático. Antes, los colonos del siglo XVII ya auguraban variaciones antropogénicas en el tiempo, cuando en sus observaciones metereológicas se daban cuenta de cambios en zonas particulares. Ellos los atribuían a sus esfuerzos en el cultivo de la tierra, para lo cual tenían que transformar los ecosistemas y, de algún modo, sospechaban que eso tenía su impacto en la meteorología. No obstante, no era una discusión científica, sino más bien una preocupación por la prosperidad de sus cultivos.

Fue con la entrada de la segunda mitad del siglo XVIII cuando empezaron a emerger los debates científicos acerca de si realmente existía un cambio climático y, de existir, cuáles podrían ser las causas de este. La emergencia y desarrollo de la climatología moderna, en sintonía con las nuevas ciencias surgidas con la Revolución Científica, había empezado a aplicar la metodología y formalismos propias de la nueva forma de conocimiento. La matematización y la experimentación eran piezas claves a la hora de comprender científicamente el mundo, y ello llegó al estudio del clima a través de las nuevas teorías de la distribución del calor y la humedad, que reemplazaron a la antigua astrometeorología. El clima empezó a ser estudiado en dimensiones más extensas y escalas temporales más amplias, especialmente cuando descubrieron las eras glaciares pasadas y la discusión de sus causas empezó a cobrar importancia.
Todas esas investigaciones que llevaron científicos como Fourier, Tyundall o Arrhenius, se vieron radicalmente aceleradas a lo largo del siglo XX, sobre todo en su segunda mitad. Hasta entonces, el imperalismo europeo y estadounidense hizo que la climatología se centrara en las geografías pendientes de exploración y zonas concretas de interés, aparte de que la instrumentación disponible no permitía grandes avances ante un objeto tan inmenso y complejo. Sin embargo, entrado el siglo XX el clima se empieza a poder concebir como una entidad global, como una entidad planetaria. Ello vino de la mano de los primeros modelos computacionales, junto con la aparición de otras tecnologías como los satélites artificiales, el radar, los espectómetros, las radiosondas y, en general, la tecnología computacional. Las nuevas capacidades instrumentales permitieron investigar las capas más altas de la atmósfera y mejorar el entendimiento de la física de los procesos atmosféricos. Junto a la información proporcionada por satélites artificiales y la red distribuida de centros meteorológicos, los climatólogos empezaron a tener una visión de conjunto y el clima pasó a convertirse en un objeto científico de escala planetaria.
La actividad climatológica también se transformó por influencia de los cambiantes contextos políticos y culturales durante las guerras mundiales y la guerra fría y, a partir de 1970, por el medioambientalismo y la emergencia de los intereses medioambientales. No sólo apareció una nueva ciencia del clima, sino que también acontenció un nuevo problema político, social y cultural en todas las dimensiones de su práctica. Aparecieron instituciones sin precedentes, como el IPCC, encargada de informar con conocimiento científico a las políticas medioambientales. Así, el consenso científico sobre el calentamiento global antropogénico empezó a consolidarse y los intereses y objetivos de la climatología pasaron a tener un uso político y anticipatorio a problemas medioambientales, marginando los enfoques y preocupaciones de esa misma ciencia durante la preguerra.

Algunos autores han denominado a este tipo de ciencia como ciencia posnormal, una modalidad de ciencia en la que hay valores en disputa, altos riesgos y decisiones urgentes. Una etapa de la ciencia donde se cuestiona su metodología, su producción y su uso. La compleja relación entre ciencia y política, la comunicación de la incertidumbre o la evaluación de la calidad son nuevos elementos que hacen tan particular a esta actividad científica, que no ha de confundirse con la meteorología. Una estudia el tiempo a corto plazo. La otra cuánto plazo queda para que se nos acabe el tiempo.
Referencias:
Heymann, M., G. Gramelsberger, M. Mahony (Eds.) (2017): Cultures of Prediction in Atmospheric and Climate Sciecne: Epistemic and Cultural Shifts in Computer-based Modelling and Simulation, New York: Routledge.
Funtowicz, S., J. Ravetz (1993): “Science for the post-normal age”, Futures, Vol 25, Issue 7, pp. 739-755.
White, S., C. Pfister, F. Mauelshagen (Eds.) (2018): The Palgrave Handbook of Climate History, London: Palgrave McMillan.
Winsberg, E. (2018): Philosophy and Climate Science, Cambridge (UK): Cambridge University Press.
Sobre el autor: José Luis Granados Mateo (@JoisDo) desarrolla una tesis doctoral en Historia y Filosofía de la Ciencia en la UPV/EHU, becado por la Dirección de Medio Ambiente de la Diputación Foral de Gipuzkoa.
El artículo Breve historia de las ciencias del clima se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Una breve historia del método de la hipótesis
- Una breve historia del concepto de trastorno bipolar
- Breve historia del trastorno bipolar (II): neurobiología y tratamiento
La letra pequeña de algunos métodos de aprendizaje
Vitoria-Gasteiz acogió por primera vez el pasado 18 de octubre el evento Las pruebas de la educación, una jornada que abordó diversos temas educativos desde la evidencia científica. El acto, organizado por el Consejo Escolar de Euskadi y la Cátedra de Cultura Científica de la UPV/EHU, tuvo lugar en el Salón de Actos del Centro de Investigación Micaela Portilla, ubicado en el Campus de la capital alavesa de la UPV/EHU.
La jornada consta de un total de cinco charlas que tratan temas como el rendimiento académico, los métodos de aprendizaje y la innovación educativa, entre otros. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.
En esta primera charla es precisamente Marta Ferrero quien aborda algunas ideas erróneas que existen sobre la educación en el profesorado y revisa los estudios existentes sobre la eficacia de diferentes métodos educativos. En este sentido, el objetivo de la ponencia es “leer detenidamente la letra pequeña” de dos métodos actualmente muy extendidos en las aulas: el aprendizaje basado en proyectos y la aplicación de intervenciones inspiradas en la teoría de las inteligencias múltiples para la adquisición de nuevos aprendizajes.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo La letra pequeña de algunos métodos de aprendizaje se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El error como ocasión de aprendizaje
- Del mito al hecho: hemisferios, gimnasia cerebral y estilos de aprendizaje
- Educación basada en la evidencia: retos y propuestas de mejora
Alcanzada la escala atómica en la detección magnética
Los resultados, publicados en Science, abren un nuevo camino para obtener información crucial para la comprensión fundamental de las estructuras a escala atómica y para el diseño de futuros dispositivos a escala atómica así como de almacenamiento a nanoescala, o simuladores cuánticos entre otros. Nicolás Lorente, investigador del Centro de Física de Materiales (CFM, centro mixto UPV/EHU–CSIC) y del Donostia International Physics Center (DIPC), y Roberto Robles, también del CFM, son parte del equipo internacional que ha llevado a cabo el trabajo, junto a miembros de las Universidades de Estrasburgo (Francia), y Jülich (Alemania).
Los clásicos microscopios ópticos que utilizan un rayo de luz o de electrones son ciegos e inútiles en la exploración del mundo de los átomos y de las moléculas individuales. En su lugar, se utilizan otras técnicas que pueden ser vistas como una versión diminuta y ultraprecisa de un tocadiscos. Estos instrumentos llamados microscopios de sonda de barrido utilizan el extremo de una aguja afilada como punta para «leer» los surcos creados por los átomos y las moléculas en la superficie de apoyo.
“Para sentir la proximidad entre la punta y la superficie, los científicos utilizamos una pequeña corriente eléctrica que comienza a fluir cuando ambas están separadas por una fracción de millones de milímetros, es decir, un nanómetro. La regulación de la punta para mantener esta distancia permite la obtención de imágenes topográficas mediante el escaneado de la superficie” comenta el Dr. Lorente.
Mientras que los principios básicos de tales microscopios se desarrollaron ya en 1980, solo durante la última década la comunidad científica ha aprendido a ampliar las capacidades de estos microscopios elaborando diseños inteligentes del extremo de su punta de sondeo. Por ejemplo, uniendo una pequeña molécula, como el monóxido de carbono (CO) o el hidrógeno (H2), se logra un aumento sin precedentes en la resolución espacial, en el que la flexibilidad de la molécula hace visibles incluso los enlaces químicos.
De manera similar, los autores de la reciente publicación en Science, presentan un diseño de la afilada punta que aporta una función novedosa: la hace sensible a los momentos magnéticos. Esto se consigue mediante la colocación de un imán molecular que contiene un único átomo de níquel en el ápice. Esta molécula puede ser llevada eléctricamente a diferentes estados magnéticos que tienen en cuenta la dirección en la que señala el imán molecular. La dirección del imán se puede determinar midiendo la conductancia electrónica en el microscopio. Al modo de una pequeña brújula, la punta molecular reaccionará a la presencia de pequeños campos magnéticos en la superficie medida, cambiando la conductancia del microscopio.
“Es la magnitud del dipolo magnético (del imán) de forma que si los dos dipolos se miran con sus lados norte, se repelen con una fuerza proporcional al producto de los momentos magnéticos, y si se miran con polos opuestos se atraen con la misma magnitud”
La importancia de este logro es triple. En primer lugar, el uso de una molécula como sensor activo hace que sea muy reproducible y fácil de implementar en instrumentos utilizados por otros grupos de todo el mundo que trabajan en este campo. En segundo lugar, la técnica no es destructiva ya que las interacciones son muy débiles. En tercer lugar, el esquema de detección se basa únicamente en propiedades fácilmente observables en la punta del sensor de forma que pequeñísimos imanes atómicos que normalmente son difíciles de medir, se vuelven accesibles.
Con este trabajo los científicos han ampliado su caja de herramientas a nanoescala con una nueva técnica sensible a las propiedades magnéticas que será importante para futuras aplicaciones que van desde dispositivos de memoria a nanoescala hasta nuevos materiales o aplicaciones en el campo de la simulación cuántica y la computación.
Referencia:
B. Verlhac, N. Bachellier, L. Garnier, M. Ormaza, P. Abufager, R. Robles, M.-L. Bocquet, M. Ternes, N. Lorente, L. Limot (2019) Atomic-scale spin sensing with a single molecule at the apex of a scanning tunneling microscope Science doi: 10.1126/science.aax8222
El artículo Alcanzada la escala atómica en la detección magnética se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La óptica se hace atómica: la lente más pequeña del mundo
- Construcción de heteroestructuras de grafeno con precisión atómica
- Biomarcadores para la detección precoz del melanoma
A más datos, mejor servicio público

La digitalización es un aspecto imparable de nuestras sociedades modernas. Cada vez más datos personales acaban en manos de grandes empresas tecnológicas que, en contraprestación, nos ofrecen cada vez nuevos y mejores servicios. Esto, no obstante, conlleva unos riesgos para la privacidad y una preocupación creciente de la ciudadanía, que ya ha visto saltar a los medios diversos escándalos por una gestión poco ética, o directamente ilegal, de esos datos. Leyes como la nueva GDPR europea responden a esa preocupación, y tratan de asegurar que la explotación de nuestros datos se realice con las máximas garantías, aunque todavía queda mucho por hacer.
Recientemente, saltaba la polémica ante la noticia de que diversos organismos públicos, como el INE o el Ministerio de Fomento, están llevando a cabo proyectos para estudiar la viabilidad de obtener un beneficio público de datos procedentes de operadoras de telefonía, ya sea subcontratando estudios o mediante la compra de datos anónimos. En este caso, se trataba de una alarma injustificada provocada por titulares de medios más preocupados por las visitas que por el interés de la ciudadanía. Efectivamente, como muestran muchos estudios científicos, existe un enorme potencial para que la explotación de estos y otros datos mejore la función pública al mismo tiempo que reduzca los costes. Pero además, estos recientes estudios se llevan a cabo con las máximas garantías para preservar nuestro derecho a la privacidad.
El caso del Censo
Un censo es un procedimiento sistemático para adquirir información de una población. Antiguamente, el objetivo era exclusivamente contar a la población. Hoy en día, el registro del Padrón tiene un recuento permanentemente actualizado, y el objetivo de los censos es el de conocer las características de esa población. Se trata de una herramienta de gran tradición (se remonta al siglo XVIII) que aporta una información estadística fundamental para fines no solo gubernamentales, de planificación económica y social, sino también para el tejido empresarial y económico de los países. Tanto es así que su realización es obligatoria por normativa comunitaria, y el ciudadano tiene la obligación por ley de aportar información veraz cuando es encuestado.
En España, el Instituto Nacional de Estadística (INE) es el organismo público encargado de los Censos de Población y Viviendas, que se realizan cada 10 años. La última edición, de 2011, incorporaba una novedad con respecto a la anterior, de 2001: se realizaron encuestas a una muestra representativa (el 10% de la población, unos 4 millones de personas), en lugar de enviar cuestionarios a todas las viviendas del país. Se partía de muy pocos datos por habitante empadronado (tan solo cuatro variables administrativas), y se ideó un procedimiento para inferir todos los demás datos (sociales, familiares, económicos) a partir de la encuesta a esta muestra. Como resultará evidente, se trata de un procedimiento muy complejo y muy costoso.
Los nuevos Censos 2021, en cambio, vendrán cargados de novedades dirigidas a mejorar estas estadísticas y la eficiencia con la que se compilan. El objetivo principal del INE desde 2014, cuando se finalizaron los trabajos de los Censos 2011, es el de aumentar las variables de partida (el INE estima que llegarán hasta el 90%) para disminuir el número de preguntas de la encuesta, haciéndole la vida más fácil al ciudadano, reduciendo el trabajo de procesar todos esos cuestionarios y aumentando la calidad de la información recopilada. Para ello, no solo se cuenta en la actualidad con muchos más registros administrativos (tributarios, seguridad social), aparte del Padrón, sino que se estudia la viabilidad de conseguir parte de esas variables mediante el análisis de datos en manos de compañías privadas.
En concreto, recientemente se ha materializado un acuerdo pionero en Europa entre el INE y tres de las mayores operadoras de telefonía en España. En próximas fechas, se realizará un estudio piloto en el que estas operadoras reportarán al INE recuentos de la presencia de teléfonos móviles para ciertas franjas horarias en una serie de “áreas INE” en las que han dividido el país. Estas áreas se han definido bajo el criterio de que contengan un mínimo de 5000 habitantes para ofrecer las máximas garantías en cuanto a anonimidad de los datos, y el INE ha desarrollado una metodología para su aprovechamiento con tres objetivos fundamentales: obtener 1) dónde vive la población, 2) adónde se mueve diariamente (principalmente por motivos de trabajo), y 3) con qué otras zonas está vinculada (por ejemplo, viaje al pueblo en Navidad). Los dos últimos objetivos están relacionadas con dos preguntas referentes a movilidad que ya estaban presentes en los dos últimos censos, mientras que el primero es una estimación complementaria de la población que servirá para cuantificar y corregir posibles sesgos.
El caso de la movilidad
Otro aspecto tanto o más importante para las políticas públicas que las características de la población es cómo nos movemos. Muchos investigadores estamos convencidos de que la cantidad masiva de datos que generamos con nuestra actividad diaria puede analizarse de forma ética para obtener grandes beneficios sociales en este aspecto. No en vano, la mayor parte del conocimiento que tenemos de nuestras ciudades se basa en estos censos que se realizan cada 10 años y contienen información estática. Investigaciones como el Atlas de la Desigualdad, del profesor Esteban Moro (Universidad Carlos III de Madrid, profesor visitante en el MIT Media Lab), tratan de ir un paso más allá y combinar la información censal con datos de geoposicionamiento para tener una visión más granular de los problemas de las ciudades modernas.
El Ministerio de Fomento también empieza a ser consciente del potencial de este tipo de datos en beneficio de todos, y en concreto para estudiar la movilidad de los ciudadanos y planificar las infraestructuras y sistemas de transportes. Al igual que con el censo, hasta ahora la fuente principal de información también eran encuestas. La última gran encuesta, Movilia 2006/2007, nos costó 5 millones de euros. Sin embargo, en 2018 se contrató un estudio con objetivos similares a partir de datos telefónicos, cuyo coste fue de tan solo 150 mil euros, aunque todavía no son públicos sus resultados.
Datos para el bien social
Toda esta información estadística es un bien público necesario para el buen funcionamiento de un país, para el diseño, evaluación y mejora de las políticas públicas. La empresa privada ya hace tiempo que se subió al carro de la digitalización, y hace cada vez un mayor uso de la ciencia de datos para optimizar sus procesos internos y tomar decisiones basadas en datos, para crecer y aumentar su competitividad en el mercado. Es el momento de que la administración pública tome el mismo camino y se modernice en beneficio de todos.
Como ciudadanos, no solo deberíamos alegrarnos de que por fin se tomen estas iniciativas, sino que deberíamos exigir activamente que nuestros datos se usen para el bien social; eso sí: siempre con las máximas garantías y transparencia, de forma ética y respetuosa con nuestro derecho a la privacidad. Es el momento de exigir políticas y una gestión basadas en datos.
Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute.
El artículo A más datos, mejor servicio público se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Datos que entran por los ojos
- Los orígenes de la visualización de datos
- Humildemente, el mundo es mejor gracias a mí
El puzzle Stomachion y el palimpsesto de Arquímedes (2)
En la primera entrada de esta mini-serie de la sección Matemoción del Cuaderno de Cultura Científica, El puzzle Stomachion y el palimpsesto de Arquímedes (1), habíamos descrito el rompecabezas conocido como Stomachion, o caja de Arquímedes, e incluso analizado las áreas de las piezas que lo componen, pero, sobre todo, habíamos contado la sorprendente historia del palimpsesto de Arquímedes, que incluye la copia más extensa de la obra Stomachion del gran matemático griego Arquímedes de Siracusa (aprox. 287 – 212 a.n.e.). Por otra parte, en la presente entrada vamos a centrarnos en algunos aspectos matemáticos del Stomachion.

Empecemos recordando que el Stomachion es un rompecabezas de tipo Tangram formado por 14 piezas, en concreto, 11 triángulos, 2 cuadriláteros y 1 pentágono, que podemos ver en la imagen anterior.
Si consideramos que el cuadrado generador tiene unas dimensiones de 12 unidades de longitud (por ejemplo, centímetros) de lado y trazamos la cuadrícula 12 x 12 sobre el mismo, como hicimos en la entrada anterior, se puede observar que todos los vértices de las piezas descansan sobre los puntos de intersección de la cuadrícula. Notemos además que, en la cuadrícula, la distancia entre un punto de la misma y el siguiente, en horizontal o vertical, es una unidad de longitud. Esto, además de dejar claro que esta descomposición del cuadrado no es caprichosa, nos permite calcular fácilmente las áreas de las 14 piezas del rompecabezas, todas con valores enteros (desde arriba a la izquierda, siguiendo el orden de las agujas del reloj, más o menos): 12, 6, 12, 24, 3, 9, 6, 12, 6, 21, 3, 6, 12 y 12.

El cálculo de las áreas es sencillo y puede ser un interesante problema para el aula de matemáticas, pero aún le podemos sacar un poco más de partido al tema de las superficies, comprobando que los anteriores resultados son correctos mediante el teorema de Pick, como nos sugiere el grupo Alquerque de Sevilla en su artículo sobre el Stomachion en la revista Suma.
Teorema de Pick (1899): si un polinomio P tiene sus vértices sobre una cuadrícula, entonces su área es igual a
donde B es un número de puntos de la cuadrícula que están en el borde del polígono e I los que están en el interior del mismo.
En la siguiente imagen podemos ver la comprobación del teorema de Pick para las piezas verde y azul. Hemos pintado los puntos del borde de los polígonos (cuyo número es B) de amarillo y los del interior de verde (cuyo número es I).

A continuación, vamos a analizar los ángulos de las piezas de la caja de Arquímedes. Esta es una cuestión importante también, puesto que cuando se trabaja la resolución de puzzles geométricos como el Tangram, los rompecabezas de letras, como T y M, u otros similares, el razonamiento sobre los ángulos es fundamental para la resolución de los mismos. Por ejemplo, en estos puzzles cuadrados, en las esquinas debe ir una pieza rectangular o la suma de los ángulos de las piezas que tocan la esquina debe ser 90º, los ángulos en los vértices que están en los lados del cuadrado deben sumar 180º, mientras que en los vértices interiores deben sumar 360º (véase en la imagen algunos ejemplos).
Para empezar, fijémonos en la pieza que es un triángulo rectángulo, de área 3 en la cuadrícula 12 x 12, que está en la parte derecha de la imagen anterior del puzzle (de color azul grisáceo en la imagen coloreada). Si estudiamos los ángulos de esta figura, uno es 90º (ángulo recto), pero los otros son alpha = arctan (2/3) = 33,69º (aprox.) y beta = 90º – alpha = 90º – 33,69º = 56,31º (aprox.). Como veremos más adelante, la mayoría de los ángulos de las piezas del Stomachion están relacionados con el ángulo delta = arctan (1/2) = 26,57º (aprox.) y los ángulos alpha y beta de este pequeño triángulo rectángulo solo encajan con los ángulos alpha’ y beta’ de la pieza que es un cuadrilátero con un ángulo recto (la pieza verde oscuro en la imagen coloreada). Como consecuencia de esto las dos piezas anteriores, el cuadrilátero con un ángulo recto y el pequeño triángulo rectángulo, siempre irán juntas en cualquier solución del juego original, es decir, colocar las piezas del rompecabezas para montar un cuadrado.
Un análisis similar puede realizarse con las piezas verde claro y naranja, que irán juntas en cualquier solución de la caja de Arquímedes. Y lo mismo las piezas morada y marrón. Por este motivo, en los análisis matemáticos de este juego geométrico se suele juntar cada una de estas parejas de piezas para formar una pieza común. De hecho, la matemática estadounidense nacida en Taiwán Fan Chung y el matemático estadounidense Ron Graham llaman a este nuevo puzzle el Stomach (le han quitado tres letras al nombre, al igual que el nuevo rompecabezas ahora tiene tres piezas menos), y veremos más adelante el análisis que hacen del mismo.

Ahora, de nuevo con un poco de trigonometría básica (de hecho, basta la definición geométrica de la tangente de un ángulo y que la suma de los ángulos de un triángulo es 180º) se pueden calcular los ángulos de las piezas del Stomach (en general, del Stomachion), que como hemos comentado están la mayoría expresados en función del ángulo delta = arctan (1/2) = 26,57º (en la imagen siguiente puede verse, por ejemplo, en el triángulo rosa que el ángulo delta es aquel cuya tangente vale 3/6 = 1/2).
A continuación, mostramos en una tabla los valores de los ángulos de las piezas del Stomach (que son las del Stomachion, con la salvedad de las tres uniones que hemos realizado). Empezamos por las piezas de arriba a la derecha, desde la pieza A, y enumeramos los ángulos desde la derecha y en el sentido de las agujas del reloj.
Pero volvamos a la obra Stomachion de Arquímedes, dedicada al rompecabezas homónimo. Como comentamos en la anterior entrada El puzzle Stomachion y el palimpsesto de Arquímedes (1), el mayor fragmento conservado de esta obra, aunque es solamente una página y además la parte introductoria de la misma, apareció en el palimpsesto de Arquímedes. Esta obra despistó completamente a los expertos, ya que aparentemente trataba sobre un juego infantil sin ningún interés científico, lo cual no se correspondía con la profundidad científica de sus demás obras.
El historiador de las matemáticas israelí Reviel Netz, profesor de la Universidad de Stanford en California, después de investigar el Stomachion concluyó que, en su opinión, no era simplemente una sencilla obra sobre un juego infantil, sino que se trataba realmente de un tratado de combinatoria.
La combinatoria es una rama de las matemáticas, que entre otras cuestiones incluye el estudio de métodos para contar las estructuras o configuraciones de un conjunto de un determinado tipo o tamaño. Por ejemplo, son problemas de la combinatoria el contar cuántos cuadrados latinos existen de un orden dado (véase la entrada Cuadrados latinos, arte y matemáticas), cuántas soluciones tiene una ecuación lineal (véase Aprendiendo técnicas de contar: lotería primitiva y bombones), cómo se pueden distribuir una serie de elementos con unas ciertas condiciones (véase El problema matemático de las cartas extraviadas o El problema de las estudiantes de Kirkman), o cuántas soluciones tiene un juego o puzzle (véase Cubo soma: diseño, arte y matemáticas o el libro Del ajedrez a los grafos).
En opinión de Reviel Netz la cuestión que le interesaba a Arquímedes en relación al rompecabezas era cuántas soluciones existen del mismo, es decir, de cuántas formas distintas se pueden colocar las 14 piezas para formar un cuadrado. Mientras que para el Tangram solo hay una manera de construir el cuadrado, es decir, solo existe una solución, más allá de rotaciones (girar el cuadrado), reflexiones (darle la vuelta) o cambiar las piezas de igual forma entre sí, las piezas geométricas del Stomachion se pueden combinar de diferentes formas para dar lugar al cuadrado, esto es, tiene muchas soluciones. Este era el problema combinatorio del tratado de Arquímedes, por lo tanto, de una profundidad mayor de la que aparentaba.
Por lo tanto, el problema combinatorio quedaba abierto, ¿de cuántas formas distintas se puede resolver la caja de Arquímedes? El profesor Netz no sabía cómo de difícil podía ser este problema y si Arquímedes pudo resolverlo en su tratado, por lo que se lo planteó a algunos colegas de su universidad, la profesora de estadística Susan Holmes y el matemático Persi Diaconis, conocido por su trabajo en magia y matemáticas. Como explica la propia Susan Holmes: “al principio pensamos que podíamos sentarnos y resolver en un día cuántas soluciones tenía. Entonces nos dimos cuenta de que eran muchas más de las que podíamos haber imaginado”. Entonces, junto con la pareja de profesores de la Universidad de California, Ron Howard y Fan Chung, dedicaron varios meses a resolver esta cuestión combinatoria. Finalmente, obtuvieron la respuesta buscada, hay 17.152 configuraciones distintas de todas las piezas del Stomachion que forman un cuadrado, que se reducen a 536, si no tenemos en cuenta rotaciones, reflexiones o el intercambio de las piezas que son iguales (las piezas A y B en la imagen del Stomach), 536 x 32 = 17.152.

Aunque un poco antes, en noviembre de 2003, el informático Guillermo H. Cutler, que había diseñado un programa informático para resolver el problema, encontró las 536 formas distintas de combinar las 14 piezas del rompecabezas para formar el cuadrado.

Por otra parte, la profesora Chung y el profesor Graham visualizaron las soluciones de la caja de Arquímenes, y las relaciones entre las mismas, a través de un grafo, que vamos a explicar brevemente en lo que queda de entrada. La construcción es delicada, pero de una gran profundidad y belleza.
Para empezar, Fan Chung y Ron Howard no estudiaron directamente las soluciones del Stomachion, sino de un nuevo rompecabezas que llamaron Stomach y que hemos mostrado más arriba. Las soluciones son prácticamente las mismas. De hecho, cada solución del Stomach da lugar a dos soluciones del Stomachion ya que la pieza E rosa, se puede intercambiar con la pieza E morada, la cual está formada por dos piezas del Stomachion original. De hecho, el Stomach tiene 268 configuraciones básicas, que dan lugar a las 268 x 2 = 536 configuraciones básicas del Stomachion.
Para visualizar las soluciones del Stomach, Chung y Howard construyeron un grafo. Recordemos que un grafo está formado simplemente por puntos –llamados vértices del grafo- y líneas que unen algunos de esos puntos –llamadas aristas del grafo- (véase, por ejemplo, El problema de los tres caballeros y los tres criados [https://culturacientifica.com/2016/05/04/problema-los-tres-caballeros-los-tres-criados/], El grafo de Marion (gray) [https://culturacientifica.com/2019/07/31/el-grafo-de-marion-gray/] o El juego de Sim [https://culturacientifica.com/2017/04/19/juego-del-sim/], entre otros), y que es una estructura matemática muy sencilla, pero a la vez muy versátil.
En el grafo introducido por Chung y Howard, asociado al rompecabezas geométrico, cada vértice es una de las configuraciones de las piezas formando el cuadrado, es decir, una de las 268 soluciones del rompecabezas, mientras que dos vértices están unidos por una arista si existe un movimiento, local o global (cuyo significado explicaremos un poco más adelante), que transforma una configuración en otra.
Para empezar, describamos lo que esta pareja de matemáticos denomina “núcleo” del grafo, que está formado por 24 configuraciones particulares y los movimientos entre ellas.
Si se consideran las 11 piezas del Stomach, solo existe una forma de dividirlas en cuatro grupos para formar cuatro triángulos rectángulos básicos, que juntos dan lugar al cuadrado del rompecabezas, que llamaremos triángulos básicos 1, 2, 3, 4, siguiendo la notación de Chung y Howard. Estos triángulos son:
El núcleo del grafo está formado por las 24 soluciones básicas que se obtienen juntando estos cuatro triángulos, tomados tal cual están, salvo que los rotemos, o volteados. La notación que vamos a utilizar es la siguiente. Cada configuración básica estará nombrada por los cuatro números de los cuatro triángulos básicos en el orden que están colocados desde la izquierda a la derecha, y si un triángulo está volteado utilizamos un signo prima para marcarlo. Por ejemplo, la solución inicial del Stomach que está más arriba, coloreada, sería 1’ 2’ 3 4, ya que la pieza 1 está a la izquierda, pero volteada, lo mismo que la siguiente, que es la 2, mientras que luego van, sin voltear, las piezas 3 y 4.
A continuación, mostramos la imagen con las 24 configuraciones del núcleo, con la correspondiente notación.
Además, estas configuraciones del núcleo están conectadas por movimientos globales (que van a ser las aristas del grafo) que consisten en intercambiar dos de los cuatro triángulos básicos (la pieza 1 la podemos mantener sin dar la vuelta y siempre en la parte de la izquierda, respecto al centro).
Por ejemplo, la configuración 1234 está conectada, con una arista, a las configuraciones 1324, 1243, 124’3’, 123’4’ y 2134, puesto que se puede llegar a ellas intercambiando dos de los triángulos básicos de 1234, como se ve fácilmente. En teoría de grafos se dice que el vértice 1234 tiene grado 5, ya que hay 5 aristas conectadas con el mismo (por ahora).
Podemos formar ahora la parte de este grafo que es el núcleo, cuyos vértices son las 24 configuraciones anteriores y las aristas están dadas por los movimientos globales que acabamos de describir. El resultado sería el siguiente.
Por otro lado, cada una de esas 24 configuraciones básicas está conectada, mediante aristas que vienen de movimientos locales, con otras configuraciones del cuadrado. Un movimiento local de una configuración consiste en rotar o voltear una subregión simétrica del cuadrado formada por un grupo de piezas contiguas. Por ejemplo, en la imagen de abajo el grupo de piezas formado por los dos triángulos azules, que es un triángulo isósceles, ha sido volteado para dar lugar a otra solución distinta del rompecabezas, otra configuración.
Dada una de las 24 configuraciones básicas, llamémosle B, la estructura de las configuraciones que se pueden alcanzar a partir de ella, mediante movimientos locales, es denominada por Chung y Howard el “cluster” de B. En la siguiente imagen vemos el cluster de la configuración básica 1234, con el grafo asociado al mismo, que es un grafo con 7 vértices/representaciones (podéis descubrir en la imagen el movimiento local que se produce entre una configuración y otra conectada). Notemos que se han coloreado los vértices en función de la distancia a la configuración básica del núcleo (cada arista recorrida aumenta una unidad la distancia), en este ejemplo, la distancia a 1234.
Los clusters de las configuraciones básicas no son siempre iguales. Por ejemplo, el cluster de la configuración 1324 tiene diez vértices, como vemos en la siguiente imagen.
Además, la arista entre dos vértices del núcleo, es decir, entre dos configuraciones básicas, se extiende a aristas entre los vértices de sus clusters. Si los clusters tienen la misma estructura, como los de los vértices 1234 y 2134, las aristas se extienden de forma paralela, como se ve en la siguiente imagen.
Mientras que, si los clusters tienen distintas estructuras, entonces las aristas que unen vértices de los dos clusters son más particulares, como entre los vértices 1234 y 1324.
Existen seis estructuras diferentes de clusters, aunque la mayoría de las configuraciones básicas están relacionadas con tres de ellos. La estructura del cluster de las ocho configuraciones básicas que están en la parte superior de la imagen del grafo del núcleo (1234, 1243, 2143, 2134, 213’4’, 123’4’, 124’3’, 214’3’) es la misma. La llamaremos “estructura de cluster A” y tiene 7 vértices. También comparten estructura de cluster seis de las ocho configuraciones básicas que están en la parte izquierda de la imagen del grafo del núcleo (1324, 3124, 3142, 132’4’, 312’4’, 314’2’). La llamaremos “estructura de cluster B” y tiene 10 vértices. Y la otra estructura de cluster repetida, que llamaremos “estructura de cluster C”, tiene 14 vértices y es compartida por 7 de las ocho configuraciones básicas que están en la parte derecha de la imagen del grafo del núcleo (1423, 4123, 4132, 143’2’, 142’3’, 412’3’, 413’2’). Estas tres estructuras de clusters son las que aparecen en la siguiente imagen.
Mientras que hay tres configuraciones básicas, cada una de las cuales tiene su propia estructura particular de cluster. La configuración 1432 tiene la siguiente estructura de cluster, que llamaremos D, con 18 vértices.
La configuración 1342 tiene la estructura de cluster que llamaremos E, con 16 vértices.
Y la configuración 134’2’ tiene la estructura de cluster más raras de todas, también con 18 vértices, que llamaremos F.
En resumen, el grafo gigante que hemos generado con soluciones/configuraciones del Stomach posee 266 vértices (que recordemos que son las soluciones del rompecabezas geométrico) y 936 aristas (que recordemos que están generadas a partir de movimientos locales y globales sobre las soluciones del Stomach). Pero resulta que hemos generado un grafo (conexo, es decir, no hay grupos de vértices desconectados, mediante las aristas, del resto) con 266 vértices, pero recordemos que el número de soluciones básicas del Stomach son 268. ¿Qué ocurre con las otras dos soluciones/configuraciones del puzzle? Resulta que esas dos configuraciones, están conectadas entre ellas mediante un movimiento local, es decir, son dos vértices con una arista entre ellas, pero están desconectadas del resto de soluciones del rompecabezas. Estas configuraciones son las que aparecen en la imagen siguiente.
En la siguiente imagen, para comprender un poco mejor la estructura de este enorme grafo asociado con el puzzle geométrico Stomach, hemos vuelto a dibujar el núcleo, indicando en cada configuración básica cual es la estructura de cluster que se agrega a la misma, así como las dos configuraciones aisladas, que no están en el núcleo o conectadas con el mismo, que hemos denominado “configuración 267” y “configuración 268”.
Todos los detalles de esta construcción, incluidas las aristas entre clusters de diferente estructura que no hemos incluido aquí, pueden encontrarse en la página A tour of Archimedes’ Stomachion, de la matemática Fan Chung y el matemático Ron Graham. Además, se incluyen interesantes propiedades matemáticas del grafo, como las dos con las que concluimos esta entrada.
Si consideramos la componente más grande del grafo del Stomach, con 266 vértices y 936 aristas, esta tiene un diámetro de 11, es decir, la distancia más grande entre dos vértices del grafo es de 11 aristas. Además, este subgrafo es un grafo de los llamados hamiltonianos, es decir, existe un camino (sucesión de vértices y aristas) que pasa por todos los vértices y en el que no se repite ningún vértice. Uno de esos caminos se muestra en la página A tour of Archimedes’ Stomachion, para quien esté interesado.
Y, para terminar, una escultura relacionada con los caminos hamiltonianos.

Bibliografía
1.- Reviel Netz, Fabio Acerbi, Nigel Wilson, Towards a Reconstruction of Archimedes’ Stomachion, SCIAMV 5, pp. 67-99, 2004.
2.- Grupo Alquerque de Sevilla (Juan Antonio Hans, José Muñoz, Antonio Fernández-Aliseda), Stomachion, el cuadrado de Arquímedes, SUMA, n. 50, pp. 79 – 84, 2005.
3.- Fan Chung, Ron Graham, A tour of Archimedes’ Stomachion
4.- Raúl Ibáñez, Del ajedrez a los grafos, la seriedad matemática de los juegos, colección El mundo es matemático, RBA, 2015.
5.- Erica Klarreich, Glimpses of genius, Science News, n. 15, vol. 165, 2004.
6.- Wolfram Mathworld: Stomachion
7.- Tom Verhoeff, Koos Verhoeff, Three Mathematical Sculptures for the Mathematikon, Proceedings of Bridges 2016: Mathematics, Music, Art, Architecture, Education, Culture, pp. 105-110, 2016.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El puzzle Stomachion y el palimpsesto de Arquímedes (2) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El puzzle Stomachion y el palimpsesto de Arquímedes (1)
- Un delicioso puzzle de chocolate
- Un puzzle sencillo