Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 1 hour 55 min ago

Los homínidos de Atapuerca maduraban antes que nosotros

Sun, 2022/07/03 - 11:59

Un nuevo estudio realizado en Atapuerca ha llegado a la conclusión de que los homínidos que vivieron allí hace entre 1,2 y 0,4 millones de años llegaban a la madurez antes que los seres humanos modernos. A esta conclusión se llega tras analizar y comparar las coronas de sus dientes.

atapuercaDiferencias en la maduración de los homínidos. Comparación de la maduración de los homínidos de Atapuerca y de los humanos actuales tomando como referencia las estrías largas y cortas de las coronas de sus dientes. Ilustración: Nerea Goikoetxea Zabala.

La corona de los dientes crece de manera circular, formando anillos concéntricos a intervalos regulares, al igual que los troncos de los árboles, las cebollas o el pelo. Este crecimiento crea líneas que aparecen en la superficie del esmalte de los dientes. Podemos diferenciar dos tipos de estrías: largas y cortas.

Estas últimas (también llamadas estrías transversales) tienen un crecimiento circadiano, es decir, se generan cada veinticuatro horas. Los ameloblastos, aquellas células encargadas de la formación del esmalte, detienen su actividad durante un corto período de tiempo de manera periódica, dando lugar a las estrías largas, estrías de Retzius o perikymata (plural de perikyma). El número de estrías cortas entre dos estrías largas sucesivas varía entre seis y once, es constante para el mismo individuo y diferente en cada especie de homínidos. Gracias al conteo de estas líneas, puede conocerse con gran precisión el tiempo de desarrollo del esmalte de los dientes.

Para este estudio, un equipo de científicos del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH) analizó una amplia muestra de dientes de diferentes homínidos del Pleistoceno Inferior y Pleistoceno Medio de Europa, concretamente de la sierra de Atapuerca.

El desarrollo dentario de estos homínidos se estudió desde dos puntos de vista complementarios. El primero trata de la evaluación del momento absoluto de la formación de la corona utilizando las marcas de crecimiento presentes en la microestructura del esmalte. El segundo evalúa el tiempo relativo de formación de todos los dientes en un espécimen específico en comparación con los humanos modernos.

Para ello se utilizaron diferentes herramientas: el número de perikymata, la distribución de perikymata (medido como el número de perikymata por decil de altura) y la periodicidad de perikymata (que es la cantidad de estrías cortas entre dos estrías largas).

Por un lado, se examinaron el número y la distribución de perikymata de 286 piezas dentales: 96 del yacimiento de la Sima de los Huesos (430 000 años), 22 de Homo antecessor y 68 dientes no desgastados de una muestra de diferentes poblaciones de Homo sapiens. Por otro, se calculó la periodicidad de perikymata de 14 dientes (fracturados de manera natural) de homínidos de los tres yacimientos: el nivel TE9 de la Sima del Elefante (1,2 millones de años), el nivel TD6.2 de Gran Dolina (850 000 años) y la Sima de los Huesos.

Una novedad de esta investigación, a diferencia de los estudios anteriores, es que se han analizado dientes molares y premolares cuando antes solo se habían utilizado incisivos y caninos. Además, los métodos usados para reconstruir los dientes desgastados son ahora mucho más precisos. Estos estudios previos carecen de observaciones directas sobre el incremento del crecimiento en el esmalte de período corto (estrías transversales) en individuos, así como de los números observados entre estrías adyacentes de período largo de Retzius, la denominada periodicidad.

El principal problema al que se enfrentaron los científicos es el desgaste dental, efecto de la masticación. Las alturas de sus coronas originales se estimaron empleando un nuevo método de reconstrucción, una técnica estadística basada en regresiones polinomiales que permite estimar el porcentaje de esmalte perdido.

Los resultados indican que el crecimiento del esmalte de los homínidos de Atapuerca podría ser hasta un 25 % más rápido que en el Homo sapiens. Lo que significa que estos homínidos llegaban a la edad adulta varios años antes que nosotros.

Referencias consultadas:

Modesto-Mata, M., Dean, M.C., Lacruz, R.S. et al. (2020, marzo 13). Short and long period growth markers of enamel formation distinguish European Pleistocene hominins. Scientific Reports, 10. doi: 10.1038/s41598-020-61659-y

SINC. (2020, marzo 13). El esmalte de los homínidos de Atapuerca crecía más rápido que el de los humanos modernos. Agencia SINC.

Smith, T.M. et al. (2010, diciembre 7). Dental evidence for ontogenetic differences between modern humans and Neanderthals. Proceedings of the National Academy of Sciences. doi: 10.1073/pnas.1010906107

Ramírez, F.V., (1996). Líneas de crecimiento en el esmalte dentario. Aplicación a los homínidos del Plio-Pleistoceno. Revista Argentina de Antropología Biológica, 1 (1), 182-197.

 

Autora: Nerea Goikoetxea Zabala (@goikoilustra). Graduada en arte. Especialista en Ilustración Científica, UPV/EHU. Curso 20/21.

Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión centrada en la propia ilustración

El artículo Los homínidos de Atapuerca maduraban antes que nosotros se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

IV Jornada Nacional de Evolución y Neurociencias: Luis Caballero – Trastornos delirantes desde una perspectiva evolucionista

Sat, 2022/07/02 - 11:59

delirantes

¿Estamos realmente diseñados para conectar con los demás? Si es así, ¿por qué siguen existiendo los psicópatas? ¿Se pueden tratar trastornos delirantes como la paranoia desde el punto de vista de la evolución? O ¿cómo ha cambiado la atracción sexual desde la época de nuestros ‘abuelos’ homínidos hasta ahora?

A estas y otras cuestiones relativas a la evolución del comportamiento humano se trató de dar respuesta durante la IV Jornada Nacional de Evolución y Neurociencias, evento organizado por la Cátedra de Cultura Científica de la UPV/EHU y la Red de Salud Mental de Bizkaia, que tuvo lugar los días 28 y 29 de abril en el Bizkaia Aretoa – UPV/EHU de Bilbao.

Desde que en 2017 un grupo de psiquiatras de la Red de Salud Mental de Bizkaia organizara la primera edición de esta jornada, la cita se ha convertido en un punto de encuentro para profesionales de distintos ámbitos científicos como la psiquiatría, la psicología, la biología o la filosofía con un interés común: la conducta humana desde una perspectiva evolucionista y su divulgación científica en un formato accesible y ameno para todos los públicos, a la par que riguroso y actualizado.

La enfermedad mental, como el resto de enfermedades, tiene un sustrato biológico. Las paranoias, las ideas delirantes, tienen estabilidad en el tiempo porque, a pesar de su aparente heterogeneidad, responden a alteraciones en determinadas estructuras cerebrales. La posibilidad de estas alteraciones es consecuencia directa de la evolución. Luis Caballero, jefe de la Sección de Psiquiatría en el Hospital Universitario Puerta de Hierro y profesor asociado del Departamento de Psiquiatría de la Universidad Autónoma de Madrid, expone el caso.



Para saber más:

El gran encéfalo humano es un “encéfalo social”
Nuestro cerebro no piensa (y el de usted, tampoco)

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo IV Jornada Nacional de Evolución y Neurociencias: Luis Caballero – Trastornos delirantes desde una perspectiva evolucionista se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Por qué necesitamos una ética espacial

Fri, 2022/07/01 - 11:59

Jorge Hernández Bernal y Santiago Pérez Hoyos

espacialSalida de la Tierra, fotografía tomada por William Anders ​durante la misión del Apolo 8 a la Luna el 24 de diciembre de 1968. Fuente: NASA

 

Hace no tanto tiempo las noches eran oscuras y llenas de estrellas. La Luna parecía inalcanzable y los astros eran nuestro modo de orientarnos. Impulsado por el uso que hacemos de la ciencia y la tecnología, hoy el mundo ha cambiado. Las noches ya no son oscuras y las estrellas palidecen, hemos alcanzado la Luna y contamos con avanzados sistemas de geolocalización por satélite.

El espacio está cada vez más presente en nuestras vidas. En los últimos años el sector ha crecido rápidamente con la llegada de nuevas potencias y empresas privadas. Gran parte de este desarrollo se ha producido sin el escrutinio del conjunto de la sociedad civil. Y sin una reflexión que nos permita elegir conscientemente la forma de relacionarnos con estas nuevas realidades. Por ello es necesaria una ética espacial, una ética aplicada al espacio y análoga de la bioética. A través de ella podemos intentar responder cuestiones que van tomando forma. En algunos casos, hipotéticas; en otros, acuciantes.

Problemas que piden una ética espacial

Algunos de los problemas que aborda la ética espacial son bastante conocidos. Es el caso de la basura espacial. ¿Cómo deberíamos regular las actividades espaciales en la órbita terrestre? ¿Deberían seguir lanzándose megaconstelaciones de satélites?

Otras problemáticas son menos conocidas, pero ya están presentes: los lanzamientos espaciales suponen una creciente huella ecológica. ¿Es igual de aceptable contaminar para practicar turismo espacial que para lanzar un satélite meteorológico?

Multitud de iniciativas actuales buscan enviar humanos a la Luna y a Marte. ¿Sería correcto habitar estos astros permanentemente, o las actividades deberían limitarse a expediciones científicas temporales? ¿Qué grado de impacto ambiental es tolerable? ¿Se pueden extraer recursos naturales de estos astros? E, incluso, ¿se pueden comercializar esos recursos?

La minería espacial es una de las grandes problemáticas a medio plazo. Los asteroides del sistema solar contienen multitud de recursos con valor económico. Varias empresas están ya trabajando en ello, y algunos países se han apresurado a introducir legislaciones que respalden este tipo de actividades, cuyo encaje en los tratados internacionales vigentes es confuso.

¿Deben estos recursos ser de quien primero los alcance o debe haber algún tipo de reparto global? ¿Qué efectos puede tener sobre la economía y los equilibrios geopolíticos la introducción de nuevos recursos actualmente escasos? Si usamos estos recursos para continuar con el crecimiento extractivista, ¿no acabaríamos chocando con los límites del sistema solar como chocamos actualmente con los de la Tierra?

Ya existen proyectos para extraer y comercializar agua en el espacio. El agua, previamente separada en hidrógeno y oxígeno, podría ser un combustible muy conveniente para futuras naves espaciales. En la Tierra el agua es un recurso renovable, pero en el espacio, al ser expelida por los motores de las naves espaciales, se perdería para siempre. Por lo que a largo plazo se convertiría en un recurso estratégico y no renovable, además de esencial para la vida. ¿Cómo garantizar el derecho al agua en estas condiciones?

Si algún día establecemos colonias humanas en el espacio, ¿cómo garantizamos el bienestar de los colonos? ¿Cómo evitar situaciones cercanas a la esclavitud como las que se dan actualmente en alta mar? ¿Habrá que actualizar los Derechos Humanos para adaptarlos a las condiciones específicas del espacio?

Otra consecuencia de las actividades espaciales puede ser la alteración de los entornos espaciales. ¿Qué grado de alteración es tolerable? ¿Sería aceptable terraformar Marte? ¿Qué tratamiento deberíamos darle a la vida extraterrestre? ¿Deberíamos proteger la cara visible de la Luna para que las futuras generaciones sigan viendo la misma Luna que ha fascinado a tantas culturas durante milenios?

espacialLa cara visible de la Luna tiene un gran valor cultural para los habitantes de la Tierra. ¿Cambiaremos su aspecto a través de la minería o la edificación? ¿Deberíamos conservar este patrimonio cultural para las futuras generaciones o renunciar a él?Una reflexión necesaria en español

El futuro del sector espacial, como el de la humanidad en su conjunto, depende de la gestión que hagamos en los próximos años de la crisis climática y ecológica. La reflexión de la ética espacial es necesaria para que la exploración del espacio sea una aventura sensata y acorde al interés general. Los problemas del espacio deben estar al alcance de la opinión pública.

Hace tiempo que existe una reflexión sobre este tema en lengua inglesa. Ahora un grupo de académicos y profesionales nos hemos propuesto traer esta reflexión a la lengua española. Con este fin, los días 11 y 12 de julio de 2022 organizaremos en Bilbao un curso de verano de la Universidad del País Vasco. Este curso constituye la primera aproximación en lengua española a la ética espacial, y está abierto a la participación, presencial u online, de todo tipo de público.The Conversation

Sobre los autores: Jorge Hernández Bernal y Santiago Pérez Hoyos son investigadores en el Grupo de Ciencias Planetarias, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

Para saber más:

Rusia contra Estados Unidos: por qué la exploración espacial debe contar con todos
¿Cuál es la huella ecológica del turismo espacial?

El artículo Por qué necesitamos una ética espacial se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

En busca del la universal

Thu, 2022/06/30 - 11:59

Pasaron otros treinta años desde que a Günther Christoph Schelhammer se le ocurrió a utilizar un tenedor para diagnosticar la sordera de sus pacientes, hasta que el diapasón adquirió su forma actual. Cuando lo hizo, no fue en manos de los otorrinos, sino gracias a un trompetista inglés.

A principios del siglo XVIII, Londres se había convertido en uno de los principales centros musicales del Barroco. Allí compusieron algunas de sus obras más conocidas compositores de la talla de Henry Purcell1 o Georg Friedrich Händel. Curiosamente, ambos le dedicaron varias partituras a una familia de músicos de apellido Shore: Matthias Shore, su hermano William y su hijo John eran trompetistas en la Capilla Real de Londres. Su hija, Katherine Shore fue cantante, actriz y tocaba también el clave. Todos fueron músicos destacados, pero además John Shore saltó a la fama por su virtuosismo como solista, o bien tocando a dúo junto a su hermana Katherine y otros cantantes de la época. Tenía un control y una agilidad con la trompeta que se consideraban únicos.

Todo cambió por culpa de un concierto. John debió de hacer un sobreesfuerzo tocando la trompeta y su labio, de repente, se desgarró. La herida resultó ser irreparable y Shore tuvo que abandonar su carrera como solista. Por suerte, además de un gran virtuoso, era también un tipo versátil. Había recibido una gran formación musical desde joven. Sabía tocar el laúd, reparar instrumentos, y le gustaba innovar y aprender técnicas nuevas. Después del accidente, se volcó en su faceta de laudista, y fue para afinar su instrumento que, en 1711 dio con la idea del diapasón. Se cuenta que desde entonces, antes de cada concierto y de forma muy teatral, sacaba esta curiosa horquilla metálica ante el público y repetía: “Nunca voy a ningún lado sin mi diapasón”2. ¡Eso sí que debió de ser una campaña de promoción!

El diapasón pronto se popularizó por toda Europa —aunque no necesariamente gracias al eslogan de Shore. Hasta entonces, los músicos habían recurrido a tubos de madera en busca de una referencia tonal. Pero estos eran poco fiables y se veían muy afectados por los cambios de temperatura y humedad del ambiente. El diapasón, por el contrario, era manejable y robusto, mantenía su tono constante independientemente de las condiciones ambientales y, además, produce un tono muy puro, sin apenas armónicos, que resulta muy fácil de identificar.

El diapasón de Händel

El mismo Händel acogió enseguida el invento. Debió de regalárselo el mismísimo John Shore, y a día de hoy, su diapasón es el más antiguo que se conserva. Sin embargo, si alguien lo hiciera sonar, notaría una diferencia muy importante respecto a uno actual. Para empezar, porque no dan la misma nota: los diapasones actuales suelen dar un la (A4003), mientras que el de Händel sonaba como un do (C512 Hz). Pero además, resulta que ese do nos sonaría bastante desafinado, casi un cuarto de tono más grave que el actual (C523 Hz)4.

La existencia de este diapasón permite a los musicólogos identificar la afinación exacta a la que Händel y sus contemporáneos deseaban escuchar sus obras (el tono de los diapasones ha permanecido estable hasta hoy). Pero además, nos da pistas sobre los cambios que han experimentado los sonidos musicales a lo largo de los últimos siglos5. En 1880, el erudito musical inglés A. J. Ellis6 hizo un viaje por toda Europa y examinó 74 órganos y diapasones de entre los siglos XVI y XIX, incluidos el diapasón de Händel y el del fabricante de pianos Stein, que construyó los pianos para Mozart en Viena. Descubrió que la frecuencia de afinación del la entre estos 74 instrumentos variaba en un rango de 374 a 567 vibraciones por segundo: el equivalente a un intervalo de quinta, o lo que en términos musicales viene a ser mogollón.

Este es el drama, la paradoja de toda esta historia: si bien el diapasón podía ayudar a producir un tono estable, constante a lo largo del tiempo, decidir qué frecuencia debía tener ese tono iba a ser mucho más complicado. Por eso, aunque los diapasones pronto estuvieron presentes en todos los centros musicales de Europa, no compartieron un estándar común hasta mucho tiempo después. A este invento le sucedió algo parecido que a los relojes: una cosa es aprender a medir el tiempo de forma precisa y estable, y otra muy distinta, ponerse de acuerdo en qué hora es. Resulta que el segundo problema es mucho más complicado, porque requiere poner de acuerdo a un montón de humanos. En el caso del reloj, el ferrocarril fue la clave para transportar la hora de un punto a otro del mapa y unificarla —la gente tenía que saber en qué momento llegar a la estación y para eso era necesario que distintas ciudades y países se pusiesen de acuerdo en un estándar. En el caso del diapasón, el encargado de hacer viajar ese buscado la universal, fue la radio.

El la universal de la BBC la universalFoto: Alessandro Cerino / Unsplash

Antes de ese momento, hubo varios intentos de estandarización, pero ninguno llegó a triunfar del todo. Durante el siglo XIX, la música se fue haciendo más aguda, un semitono aproximadamente. Esta tendencia al alza respondía a una competición entre los propios músicos por conseguir un sonido “más brillante”, pero ocasionaba problemas a los cantantes, que no podían tensar sus cuerdas vocales indefinidamente. En 1859, el gobierno francés intentó ponerle freno y decretó que en adelante se aplicaría un la de 435 Hz en todo el país. Fue el primer intento de establecer un la común para todos, y aunque no logró imponerse por completo fuera de las fronteras francesas (de hecho, pasó a ser conocido como “tono francés”), sí frenó la escalada rampante de los sonidos musicales. A finales de siglo, los ingleses definieron su propio la en 439 Hz (supongo que por llevarle la contraria a los franceses, mayormente).

La aparición de la radio y su uso para difundir conciertos en Europa y Estados Unidos, hicieron más necesario que nunca fijar un estándar realmente internacional. En mayo de 1939, una conferencia en Londres acordó el estándar actual de A440. Se eligió esta nueva cifra en busca de una mayor precisión, ya que 439 es un número primo y resultaba más difícil de generar electrónicamente. El estándar A440 fue aprobado por el Instituto Británico de Estándares en 1939 y por la Organización Internacional de Estándares en 1955 y 1975. A partir de ese momento, la BBC comenzó a transmitir una señal de 440 Hz como tono de sintonización, el primer la realmente universal.

Y por fin todo fue unión y armonía en el mundo de las ondas… ¿o no? De hecho, y a pesar del estándar vigente, hoy en día la mayoría de las orquestas europeas afinan a A442. ¡Si es que no tenemos remedio!

Notas y referencias:

1Si no conoces nada suyo, te recomiendo echarle una oreja a esto.

2Bickerton, R. C., and G. S. Barr. “The origin of the tuning fork.” Journal of the Royal Society of Medicine, vol. 50, 1987, pp. 771-773.

3La afinación se suele designar con una letra, que sirve para nombrar las notas de la escala musical en el sistema anglosajón, seguida por su frecuencia en hercios. En este caso, A es la, por lo que A440 significa que el la se afina a 440 Hz. C512 indica la frecuencia del do.

4Si usásemos el diapasón de Händel para afinar, el la sonaría a 430 Hz.

5Feldmann, H. (1997). History of the tuning fork. I: Invention of the tuning fork, its course in music and natural sciences. Pictures from the history of otorhinolaryngology, presented by instruments from the collection of the Ingolstadt German Medical History Museum. Laryngorhinootologie, 76(2), 116–122. DOI: 10.1055/s-2007-997398

6Elis, A. J. The History of Musical Pitch. Nature 21(1880)50-54

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo En busca del la universal se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Fracciones pandigitales

Wed, 2022/06/29 - 11:59

En la anterior entrada del Cuaderno de Cultura Científica, titulada Universo pandigital, estuvimos hablando de números pandigitales, tanto de sus curiosas propiedades, como de algunos números pandigitales sorprendentes, así como de expresiones aritméticas pandigitales que se han utilizado para crear rompecabezas matemáticos, como las sumas o productos pandigitales. En esta entrada vamos a seguir en esta línea con las denominadas fracciones pandigitales, de las que ya hablamos de pasada en la entrada Fracciones sorprendentes.

El primer problema de ingenio publicado que esté relacionado con las fracciones pandigitales está recogido, según el matemático estadounidense David Singmaster, en el libro Mathematische Kurzweil (Diversión matemática) del alemán Louis Mittenzwey, publicado en Leipzig en 1880.

Problema 141 (Louis Mittenzwey): Utilizar las cifras 1, 2, …, 9 para formar tres fracciones cuya suma sea uno (1).

Las soluciones que aparecen en el texto son:

Fracciones

El inventor, coleccionista y comunicador de rompecabezas matemáticos y juegos de ingenio japonés Nob Yoshigahara (1936-2004), quien recibió el Premio Sam Loyd en 2003, recuperó este problema, pero solo para fracciones de la forma a/bc, de manera que es problema se podría plantear de la siguiente forma.

Problema (Nob Yoshigahara): Colocar las cifras 1, 2, 3, …, 9 en las casillas para que la siguiente suma de fracciones tenga sentido.

La única solución es la de este tipo que aparece como solución al problema 141, de Louis Mittenzwey.

Con motivo de mi entrada Universo pandigital, alguien me comentaba en Facebook que el matemático colombiano Bernardo Recamán Santos (imagino que en su libro Las nueve cifras y el cambiante cero, publicado por la editorial Gedisa) incluía una versión más extendida de este, ya que permitía que la suma fuese no solo 1, sino cualquier número natural N.

Para las personas que estáis leyendo esto queda este problema, para los casos en los que N no es 1. ¡A divertirse!

La siguiente aparición de fracciones pandigitales en libros de rompecabezas matemáticos fue en el texto Libro de puzzles estándar del siglo XX (1907), de Arthur Cyril Pearson. Curiosamente no aparecen como un problema abierto, sino como una anécdota numérica, titulada Malabares con las cifras.

Malabares con las cifras: Las nueve cifras básicas 1, 2, 3, …, 9 pueden ser colocadas de forma que se obtengan fracciones equivalentes a una de las siguientes 1/2, 1/3, 1/4, 1/5, 1/6, 1/7, 1/8 y 1/9, como

Por supuesto, que hay más formas de conseguirlo. De hecho, David Wells en su libro The Penguin Dictionary of Curious and Interesting Numbers comenta que existen existen 12 formas curiosas de utilizar las 9 cifras básicas, 1, 2, 3, 4, 5, 6, 7, 8, 9, para escribir la fracción 1/2. Las formas, más pequeña y mayor, son: 6729/13458 y 9327/18654.

Como no podía ser de otra forma, volvemos a encontrarnos al inventor de rompecabezas matemáticos y juegos de ingenio británico Henry E. Dudeney (1857-1930). En su celebrado libro Amusements in Mathematics / Diversiones matemáticas (1917) aparecen varios problemas, como el problema 88, llamado división digital.

División digital (Henry E. Dudeney): Otro buen rompecabezas consiste en ordenar las nueve cifras (excluyendo el cero) en dos grupos, de modo que uno de ellos, al ser dividido por el otro, produzca un número determinado sin resto. Por ejemplo, 13.458 dividido por 6.729 da 2. ¿Puede el lector encontrar distribuciones similares que produzcan 3, 4, 5, 6, 7, 8 y 9 respectivamente? Además, ¿puede encontrar los pares de números más pequeños posibles en cada caso? Así, 14.658 dividido por 7.329 es tan correcto para 2 como el anterior ejemplo que hemos dado, pero los números son mayores.

Antes de adentrarnos en la solución a este problema (que obviamente está ligado al anterior), comentar que existen algunas curiosidades más relacionadas con este problema. Por ejemplo, si tomamos la fracción 14.865/2.973, que es igual a 5, resulta que reordenando los dígitos de numerador y denominador obtenemos de nuevo una fracción pandigital cuyo valor es también 5, en concreto, 18.645/3.729. Aunque ninguna de ellas es la buscada, la fracción de números más pequeños posibles. Esta es 13.485/2.697, que también podemos reordenar para obtener una cuarta fracción pandigital de valor 5, 13.845/2.769.

La solución al rompecabezas de la división digital es la siguiente:

A este problema le seguían otros en el libro, como el problema 90, llamado el rompecabezas del siglo.

El rompecabezas del siglo: ¿Puede el lector escribir 100 en forma de un número mixto, utilizando cada una de las nueve cifras, una vez y sólo una vez? El distinguido matemático francés Edouard Lucas, ya fallecido, encontró siete formas diferentes de hacerlo, y expresó sus dudas sobre la existencia de otras formas. De hecho, sólo hay once formas y ninguna más. Aquí está una de ellas, 91 5.742/638. Nueve de las otras formas tienen igualmente dos cifras en la parte integral del número, pero la undécima expresión sólo tiene una cifra. ¿Puede el lector encontrar esta última forma?

Antes de continuar, recordemos a qué se refiere el autor con un número mixto y por qué el número 91 5.742/638 lo es. Para empezar, en la entrada Números errores de impresión), estuvimos hablando de lo que se conoce como fracciones mixtas. Una fracción mixta es una fracción impropia, es decir, el numerador es mayor que el denominador (ambos positivos), luego su valor es mayor que 1, que se representa como un número entero y una fracción propia. Por ejemplo, 3/2 es una fracción impropia, que se representa como 3/2 = 1 1/2, queriendo indicar que es la suma de 1 y 1/2 (esto es, 3/2 = 1 + 1/2, pero en la representación de la fracción mixta se omite el +). Cuando Dudeney habla de un número mixto sería una expresión de ese tipo, pero tal que la parte de la fracción no es una fracción propia, sino que su valor es un número natural. Así, el número mixto que aparece en el enunciado del rompecabezas es 91 5.742/638, cuyo valor es 91 + 5.742/638 = 91 + 9 = 100.

La solución a este problema la podéis intentar buscar vosotros mismos, ya que es la diversión que esconden los rompecabezas matemáticos. En cualquier caso, para quienes quieran consultarla o comprobar si la han obtenido, aquí la tenéis.

Pero Dudeney plantea, en el problema 91 (llamado Más números mixtos), también obtener números mixtos pandigitales cuyo valor sea cualquier número menor que 100.

Más números mixtos: Cuando publiqué por primera vez mi solución al último acertijo, me vi obligado a intentar la expresión de todos los números sucesivos hasta el 100 mediante una fracción mixta que contuviera las nueve cifras. Aquí hay doce números para que el lector pruebe su mano: 13, 14, 15, 16, 18, 20, 27, 36, 40, 69, 72, 94. Utilice cada una de las nueve cifras una vez, y sólo una vez, en cada caso.

Dudeney da las soluciones para esos números que plantea, por ejemplo, para 13 sería el número mixto 9 5.472/1368 = 13, aunque también puede haber soluciones para otros números menores que 100. Dejamos este rompecabezas sin resolver para las personas que estáis leyendo esta entrada.

Por otra parte, el gran matemático italiano Giuseppe Peano (1858-1932), a quienes muchos relacionan con la curva de Peano o los axiomas de Peano, entre muchas otras aportaciones matemáticas, publicó en 1925 el libro Giochi di aritmetica e problemi interessanti / Juegos aritméticos y problemas interesantes, que contenía la siguiente cuestión interesante relacionada con las expresiones aritméticas pandigitales. Daba las seis formas de expresar 9 como ABCDE/FGHIJ, utilizando las 10 cifras básicas, del 0 al 9 (en tres de ellas F = 0).

Y con estas curiosas fracciones pandigitales concluimos esta entrada del Cuaderno de Cultura Científica.

Bibliografía:

1.- Raúl Ibáñez, La gran familia de los números, Catarata, 2021.

2.- David Singmaster, Sources in recreational mathematics, an annotated bibliography

3.- A. Cyril Pearson, Twentieth Century Standard Puzzle Book (Libro de puzzles estándar del siglo XX), George Routledge & Sons, 1907.

Versión digital en la Librería Gutenberg: The Project Gutenberg EBook of Twentieth Century Standard Puzzle Book, by Cyril Pearson.

5.- Henry E. Dudeney, Amusements in Mathematics, Thomas Nelson and sons,1917 (el original puede verse en la librería Internet Archive).

6.- David Wells, The Penguin Dictionary of Curious and Interesting Numbers, Penguin Books, 1986.

7.- Giuseppe Peano, Giochi di aritmetica e problemi interessanti, Paravia, 1925 (el original puede verse en la librería Internet Archive ).

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Fracciones pandigitales se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Einstein y Max Planck

Tue, 2022/06/28 - 11:59

Las ideas de Max Planck fueron el germen de algunas de las aportaciones más importantes de Einstein a la física. Planck fue el primero en afirmar explícitamente que la energía no es continua, sino que está constituida por trocitos indivisibles llamados cuantos, una idea sobre la que Einstein se basó para afirmar que la luz también estaba formada por paquetes similares, hoy conocidos como fotones. Esta relación paterno-filial se extendió también al mundo académico: los dos hombres estaban muy próximos y el aliento de Planck fue una gran ayuda para la ciencia y la carrera de Einstein, ya que Planck adoptó un papel muy activo tanto en la promoción de la teoría de la relatividad como en conseguir que Einstein avanzase profesionalmente.

PlanckAlbert Einstein recibe la Medalla Max Planck de manos de…Max Planck (1929). Era la primera vez que se entregaba la distinción creada por la Sociedad Alemana de Física; se otorgó en esta primera edición a los dos teóricos. El primero en recibirla fue Max Planck, quien, acto seguido, hizo entrega de la suya a Einstein. Fuente: Institute for Advanced Study.

La principal contribución a la física de Max Planck llegó en 1901, cuando resolvió un problema conocido hoy como la “catástrofe del ultravioleta” (este nombre se lo dio Ehrenfest en 1911). Los físicos habían descubierto que cuando se trataba de luz y radiación las leyes de la mecánica clásica de Newton simplemente no servían. Un ejemplo es la llamada radiación del cuerpo negro. Un cuerpo negro es un cuerpo que absorbe toda la radiación electromagnética que incide sobre él que, a su vez, emite en forma de radiación térmica, cuyo espectro puede medirse. Pero la mecánica newtoniana predecía que las longitudes de onda ultravioletas deberían aumentar infinitamente, algo que no parecía probable y que los experimentos desmentían. Planck, que era muy creativo desde el punto de vista matemático, propuso una solución que partía de la hipótesis de que la luz sólo podía existir en paquetes específicos, cuantos, de energía. En vez de tener una onda continua de energía, como una onda sonora, Planck sugería que la energía era discontinua. La idea era parecida a una ola del mar que está compuesta por diminutas moléculas de agua, incluso si no son visibles al ojo humano. Una vez introducidos los cuantos la teoría modificada sí se correspondía con los datos experimentales de la radiación del cuerpo negro. La catástrofe del ultravioleta dejó de ser un problema, nacía la mecánica cuántica.

Pero Planck no sabía muy bien cómo interpretar esta nueva descripción de la radiación, o ni siquiera cómo esta innovadora técnica matemática podría ser aplicada a otra situación. De hecho llegó a decir que había introducido los cuantos en “un acto de desesperación”, por el que ganaría el premio Nobel en 1918. Pero fue un revolucionario reticente y no dio el siguiente paso: intentar averiguar qué significaba esta nueva idea.

Eso quedó para Einstein. Años después, Einstein recordaría que leyó el artículo revolucionario de Planck mientras estaba en la universidad y que dejó una profunda huella en él. Einstein se dio cuenta de que ninguna de las dos teorías fundamentales del momento, la mecánica newtoniana y la teoría electromagnética de Maxwell, describían exactamente el universo. Einstein empleó buena parte de los años siguientes en tratar de resolver este problema. Como consecuencia de este trabajo, en 1905, incorporó las ideas de Planck a una teoría completamente nueva de la luz. La teoría de Einstein decía que la luz visible, igual que la ultravioleta, estaba formada por cuantos. Este concepto fue el que terminó dándole el premio Nobel, pero también fue la teoría que tardó más tiempo en ser aceptada. Al principio, igual que la pasó a Planck antes que a él, Einstein no afirmaba rotundamente que estos “cuantos de luz” fuesen algo más que una herramienta matemática. Sin embargo, pasados unos años llegó a creer realmente que la luz estaba constituida por partículas igual que eran los electrones.

Planck, el facilitador

Es mérito de Planck haber sido uno de los responsables de que el novedoso artículo de Einstein se publicase. Planck era uno de los editores de la prestigiosa revista alemana Annalen der Physik. Llevaba su sección con una increíble apertura de mente: si un autor había publicado antes tenía prácticamente garantizado que podría volver a publicar en la revista, independientemente de lo que Planck opinase personalmente del trabajo. En este caso, a Planck no le gustaba demasiado la nueva teoría, pero movió hilos para que se publicase.

Einstein veía, como no podía ser de otra manera, las raíces de su trabajo en el previo de Planck, pero a Planck le llevó un tiempo poder aceptar la idea. Justo después de la primera Conferencia Solvay, celebrada en el otoño de 1911, Einstein escribió a un amigo: “He tenido bastante éxito a la hora de convencer a Planck que mi concepción [de los cuantos de luz] es correcta, después de su lucha en contra de ella de tantos años”. Si bien Planck terminó aceptando la existencia de los fotones, siempre mantuvo algo de distancia con la física cuántica que él había generado, dejando a sus colegas más jóvenes que trabajasen en los detalles.

Sin embargo, con la teoría especial de la relatividad Planck mantuvo una posición mucho más favorable y activa. El mismo año en que Einstein publicó su teoría de los cuantos de luz, también publicó su artículo sobre la teoría especial de la relatividad. Ese mismo otoño Planck ya daba conferencias sobre los detalles de la nueva teoría de Einstein. Planck era, ya en esa época, un científico de enorme influencia y para el joven Einstein contar con su apoyo fue un éxito importantísimo. En 1910, Planck fue aún más lejos en su apoyo a Einstein, llegando a compararlo públicamente con Copérnico, diciendo. “Este principio [de la relatividad] ha traído una revolución en nuestra representación física del mundo, que, en extensión y profundidad, solamente puede ser comparada con la que produjo la introducción del sistema copernicano”.

Y, con todo y como buen camarada, Planck no podía evitar mofarse educadamente de Einstein: tras leer un intento de éste de escribir un artículo de divulgación de la teoría de la relatividad dirigido al público en general, Planck dijo que Einstein parecía pensar que podía convertir una frase compleja en algo entendible simplemente introduciendo frecuentes interjecciones de “querido lector”.

Planck, el héroe

Planck se convirtió en un defensor de las ideas y la persona de Einstein, llegando a extremos que rayan el heroísmo. Empezando por su carrera profesional, Planck ayudó a Einstein a conseguir un trabajo en los recientemente creados Institutos Kaiser Wilhem en Berlín, llegando a negociar en su favor para que le concedieran los aumentos de sueldo anuales. Planck también era secretario de la Academia Prusiana de Ciencias en la que se dedicaba a promover la ciencia alemana. Al aumentar el nacionalismo y el antisemitismo alemanes, Einstein le prometió a Planck, para entonces un íntimo amigo, que no abandonaría Berlín si no era absolutamente necesario.

Einstein terminaría abandonando Berlín y renunciando a su pertenencia a la Academia Prusiana en 1933, justo después de que se le otorgasen a Hitler plenos poderes sobre Alemania. Para entonces Planck tuvo que admitir que era “la única salida”, pero no se quedó callado como muchos de sus colegas. Permaneció en Alemania y mantuvo su posición en la Academia desde la que intentó desesperadamente contener los ataques contra la “ciencia judía” y los científicos judíos. Tras la marcha de Einstein en 1933, Planck continuó alabando en público su trabajo y a su persona, a pesar de haberse convertido Einstein en el objetivo principal de los ataques y del riesgo que ello suponía para el propio Planck y su familia: “Herr Einstein no es uno más entre muchos físicos sobresalientes, sino que Herr Einstein es el físico a través de cuyos ensayos, publicados en nuestra Academia, el conocimiento físico en este siglo ha sido profundizado de una manera cuya importancia sólo puede compararse con los logros de Johannes Kepler o Isaac Newton”. Planck, llegó a solicitar y conseguir entrevistarse con Hitler para intentar convencerle, sin éxito, de que su política contra los judíos perjudicaba el avance científico alemán.

Tras una vida de prestigio en Alemania, la Segunda Guerra Mundial fue, en lo personal, devastadora para Planck. Su hijo fue asesinado por la Gestapo por su participación en el intento de atentado contra Hitler de 1944. Otros tres hijos de Planck y su primera esposa habían muerto ya y este fue el mazazo final. Le quedaban aún se segunda mujer y el hijo de ambos, pero la vida dejó de interesarle. Moriría tres años después.

Si bien siempre fue un líder de la comunidad científica internacional, Planck no publicó ningún artículo relevante desde el de 1901. Sus escritos se volvieron cada vez más hacia la filosofía de la ciencia y a la descripción de cómo cambiaban las teorías científicas: “Una nueva verdad científica no triunfa porque convence a sus opositores y les hace ver la luz, sino más bien porque sus opositores terminan muriendo y una nueva generación crece familiarizada con ella”. Planck escribía esto en una época en la que otros filósofos estaban desarrollando ideas sobre cómo se desarrolla la ciencia, ideas que todavía perviven en el pensamiento filosófico actual, pero el principio de Planck parece que es especialmente relevante para la mecánica cuántica. Einstein y Planck fueron dos de los pocos físicos que levantaron su voz en contra de la nueva física, mientras que una nueva cosecha de veinteañeros la abrazaba con entusiasmo. Tras las muertes de Einstein y Planck, la mecánica cuántica que fundaron, pero siempre cuestionaron, se enseña, con la convicción de la teoría aceptada, a las nuevas generaciones de estudiantes.

Para saber más:

Las constantes de Planck y el caballo blanco de Santiago

Átomos (serie sobre el descubrimiento de la estructura atómica)

Cuantos (serie sobre la creación de la mecánica cuántica)

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este artículo se publicó en Experientia Docet el 26 de septiembre de 2010.

El artículo Einstein y Max Planck se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Rumbo a Psique

Mon, 2022/06/27 - 11:59

Las misiones espaciales nos permiten estudiar el resto de los cuerpos de nuestro Sistema Solar, aunque a veces sea únicamente desde su órbita, pero lo suficiente como para descubrir detalles importantes sobre su estructura y composición, detalles que, desde la Tierra, debido a su lejanía, son muy difíciles de apreciar.

Algunos de los objetos más interesantes dentro del estudio de la geología planetaria son los asteroides, el material «sobrante» de la formación del Sistema Solar. En ellos podemos encontrar reflejados distintos momentos evolutivos, como fósiles que nos muestran las distintas etapas de la construcción de los planetas, con una gran diversidad que va desde los asteroides más primitivos y sin alterar hasta aquellos que podrían haber formado parte de cuerpos mucho más grandes, pero que a causa de los impactos sufrieron una fragmentación catastrófica.

De ahí que su estudio sea tan relevante, porque podríamos encontrar pistas que nos ayudasen a reconstruir todas las etapas de la formación de nuestro sistema planetario, especialmente aquellas que pueden no haber quedado preservadas en los planetas o satélites por todos los cambios que han sufrido a lo largo de 4500 millones de años de historia.

PsiquePsique observado desde el Very Large Telescope. Aunque la resolución debido a la distancia no es muy grande, se pueden apreciar importantes variaciones en su albedo (proporción de luz incidente que se refleja). Fuente: ESO/LAM.

Una de las piezas de este puzle podría ser el asteroide 16 Psique, descubierto en 1852 por el astrónomo italiano Annibale de Gasparis, quien descubrió al menos otros nueve asteroides más. Este cuerpo, de unos 226 kilómetros de diámetro, llamó la atención de los astrónomos por como reflejaba la luz del Sol, en una proporción mucho más alta que otros asteroides, haciéndoles pensar que en realidad era un cuerpo principalmente metálico.

¿Y dónde podemos encontrar la mayor parte de los elementos metálicos que forman un planeta? Pues en el núcleo de estos, ya que, durante la etapa de diferenciación planetaria, los planetas todavía a muy alta temperatura empiezan a separar sus componentes químicos por densidad, hundiéndose los elementos más densos y ascendiendo los menos densos, dando lugar a la estructura por capas y la formación del núcleo metálico.

¿Cómo podría ser, entonces, que Psique fuese un cuerpo eminentemente metálico? Al principio, los científicos supusieron que podría ser el núcleo de un planeta que había sufrido colisiones tan violentas que habían arrancado la corteza y una gran parte del manto, dejando expuesto ese núcleo metálico que ahora se observaba. Pero la historia no acababa aquí.

Los estudios sobre su masa y densidad, en cambio, contaban una historia muy diferente: la densidad media estaba en torno a los 4 g/cm3, muy alejado de lo que sería un asteroide monolítico formado por metales. Las perturbaciones gravitatorias que ejercía sobre otros cuerpos cercanos corroboraban ese dato de densidad, por lo que no podía ser exclusivamente un cuerpo metálico o al menos monolítico.

¿Cómo era posible esa discrepancia tan importante entre los datos visuales y los de su masa? Pues era francamente difícil reconciliarlos: algunos autores comenzaron a pensar que podría ser un cuerpo muy poroso debido a los impactos, superando el 50% de porosidad. Esta porosidad podría haber sido la responsable de la baja densidad, pero los modelos físicos hasta el momento consideran poco probable que esto hubiese ocurrido.

Otras teorías apuntaban que podría ser el resultado de varias colisiones en las cuales se mezclase el componente rocoso y metálico de distintos cuerpos, generando una superficie mixta y variada.

Y desde luego, las últimas observaciones de radar muestran que es un cuerpo formado por una mezcla de componentes rocosos y metálicos, lo que parece que es el hecho responsable de que su densidad sea lo baja que parecen mostrar los demás datos, pero, si es así, ¿cómo está formado realmente?

PsiqueLos datos de ALMA sugieren una superficie muy heterogénea, probablemente como fruto de una historia muy compleja. Imagen cortesía de Cambioni et al. (2022).

Uno de los modelos más recientes afirma que, en realidad, Psique es un cuerpo diferenciado, con su corteza y mantos probablemente rocosos… como por ejemplo nuestro planeta. Pero aquí es donde viene lo interesante. Es posible que, tras su formación, Psique tuviese una gran actividad geológica fruto de su calor interno, parte de la cual se traduciría en fenómenos volcánicos.

Estos volcanes podrían haber emitido una lava metálica que provendría del núcleo de Psique, cubriendo parte de la superficie y dando ese aspecto tan reflectante que llamó la atención de los científicos. Eso no quiere decir que antes no hubiese lavas con un componente más silicatado, por ejemplo, simplemente que puede haber otro tipo de vulcanismo que en nuestro planeta no conocemos, por exótico que nos parezca.

De hecho, para comprobar esta hipótesis, un equipo de científicos ha fundido basaltos ricos en hierro, esperando que se segregasen por densidad los distintos elementos. Posteriormente, simularon una erupción para ver qué tipo de relieves podrían generarse en Psique a causa de la interacción entre coladas de lava “rocosas” y las metálicas, pero también las formas que estas lavas podrían generar independientemente sobre la superficie, para que cuando podamos ver la superficie de cerca podamos interpretar de la mejor manera lo que observamos.

No obstante, cabe la posibilidad que la historia de Psique sea todavía más compleja y que los modelos propuestos no sean más que capítulos en la agitada historia de un asteroide que puede ayudarnos a comprender mucho más sobre el nacimiento de nuestro Sistema Solar.

PsiqueIlustración de la misión Psique. Fuente: NASA/JPL-Caltech/ASU.

Desgraciadamente, el pasado día 24 de junio se retrasó la misión que debía visitar este asteroide, llamada Psique también y que tenía que despegar este año, hasta, probablemente, 2023 o 2024, por lo que tendremos todavía que esperar a acercarnos a este mundo tan apasionante.

Referencias:

Soldati, A., Farrell, J. A., Wysocki, R., & Karson, J. A. (2021). Imagining and constraining ferrovolcanic eruptions and landscapes through large-scale experiments. Nature Communications, 12(1). doi: 10.1038/s41467-021-21582-w

Matter, A., Delbo, M., Carry, B., & Ligori, S. (2013). Evidence of a metal-rich surface for the Asteroid (16) Psyche from interferometric observations in the thermal infrared. Icarus, 226(1), 419–427. doi: 10.1016/j.icarus.2013.06.004

Cambioni, S., de Kleer, K., & Shepard, M. (2022). The Heterogeneous Surface of Asteroid (16) Psyche. Journal of Geophysical Research: Planets, 127(6). doi: 10.1029/2021je007091

Para saber más:

Choques de asteroides, arte islámico y cuasicristales
De guijarro a asteroide en una trampa de polvo

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Rumbo a Psique se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Familiares, amigos, amigas y personas conocidas

Sun, 2022/06/26 - 11:59
personasFoto:  StockSnap / Pixabay

En promedio, dedicamos una quinta parte de nuestro tiempo de vigilia a relacionarnos con los demás. Pasamos alrededor de tres horas y media al día con otras personas en contextos sociales. Aunque ese tiempo puede parecernos mucho, lo cierto es que no lo es tanto, máxime si tenemos en cuenta con cuántas personas nos relacionamos habitualmente.

Hace ya unos cuantos años, Robin Dunbar propuso que el número aproximado de personas con el que nos relacionamos de forma habitual es de ciento cincuenta (el llamado número de Dunbar). En esa cifra se incluyen las personas con las que nos relacionamos en casa, el trabajo o la calle, y también aquellas con las que interactuamos en las redes sociales de internet.

Ahora bien, no nos relacionamos con todas ellas del mismo modo. Hay diferentes niveles de interacción. Las relaciones pueden, de hecho, visualizarse en una estructura de esferas concéntricas. En la más interna se encuentra la familia o, dependiendo de los casos, el núcleo de apoyo, el puñado de personas que ayudan en los momentos difíciles. Ese grupito lo forman alrededor de cinco personas. No obstante, quienes tienen una familia grande tienden a tener menos amistades cercanas y ocurre lo contrario con quienes no tienen apenas familiares. Otras diez personas, en promedio, son las amistades más cercanas. Treinta y cinco personas más son las que consideramos amigos o amigas. Y las cien que quedan hasta los ciento cincuenta, son las conocidas con las que tenemos trato frecuente.

Si hacemos el cálculo simple de dividir las tres horas y media entre las ciento cincuenta personas con las que nos relacionamos, obtenemos, en promedio, cerca de minuto y medio con cada una de ellas. Pero ese dato, en realidad, no dice gran cosa. El 40% del tiempo que dedicamos a relacionarnos con los demás, lo empleamos con el círculo más próximo. Eso significa que a cada una de esas personas le dedicamos unos diecisiete minutos al día. Igualmente, al grupo de buenos amigos le dedicamos el 20% del tiempo o, lo que es lo mismo, algo más de cuatro minutos diarios a cada uno. Por último, a cada una de las personas de las dos últimas esferas le dedicamos algo más de medio minuto diario.

A la hora de valorar esos datos, hay que tener en cuenta dos cosas. Por un lado, sobre todo en el caso de las personas pertenecientes a la categoría de amigos y conocidos, es muy normal que no se interactúe con ellos todos los días. Pueden pasar semanas, incluso, sin que se mantenga una conversación. Por lo tanto, en las ocasiones en que se mantiene, el tiempo de interacción puede ser bastante más largo. Por otro lado, muchas de esas interacciones no se desarrollan cara a cara, sino a distancia, ya sea por teléfono, mediante mensajería instantánea o a través de redes sociales de internet.

Otro elemento importante es la distancia a la que nos encontramos de todas esas personas. En este aspecto opera la regla de la media hora, el tiempo durante el que estamos dispuestos a desplazarnos para estar con alguna persona de nuestros círculos. Pero, curiosamente, la frecuencia con la que interactuamos a distancia con alguien es mayor cuanto más cerca de nosotros vive.

Por último, las relaciones cambian a lo largo de la vida: las personas entran o salen de esas esferas. Cuanto mayor sea la frecuencia con la que nos relacionamos con alguien, más probable es que la relación se prolongue. Por eso, si queremos que una relación se mantenga, conviene que la cultivemos. No sobrevive sin atención.

Fuente: Robin Dunbar (2021): Friendship-ology. New Scientist 249 (3324): 36-40.

Para saber más:

Nos relacionamos con ciento cincuenta personas 

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Familiares, amigos, amigas y personas conocidas se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

IV Jornada Nacional de Evolución y Neurociencias: Manuel Martín Loeches – Carácter emocional e hipersocial del cerebro

Sat, 2022/06/25 - 11:59

hipersocial

¿Estamos realmente diseñados para conectar con los demás? Si es así, ¿por qué siguen existiendo los psicópatas? ¿Se pueden tratar trastornos delirantes como la paranoia desde el punto de vista de la evolución? O ¿cómo ha cambiado la atracción sexual desde la época de nuestros ‘abuelos’ homínidos hasta ahora?

A estas y otras cuestiones relativas a la evolución del comportamiento humano se trató de dar respuesta durante la IV Jornada Nacional de Evolución y Neurociencias, evento organizado por la Cátedra de Cultura Científica de la UPV/EHU y la Red de Salud Mental de Bizkaia, que tuvo lugar los días 28 y 29 de abril en el Bizkaia Aretoa – UPV/EHU de Bilbao.

Desde que en 2017 un grupo de psiquiatras de la Red de Salud Mental de Bizkaia organizara la primera edición de esta jornada, la cita se ha convertido en un punto de encuentro para profesionales de distintos ámbitos científicos como la psiquiatría, la psicología, la biología o la filosofía con un interés común: la conducta humana desde una perspectiva evolucionista y su divulgación científica en un formato accesible y ameno para todos los públicos, a la par que riguroso y actualizado.

El cerebro humano es una máquina especializada en desentrañar mentes. Y lo hace casi siempre inconscientemente, de manera rápida y eficaz. ¿Cómo? Sintiendo lo mismo que los otros. El cerebro humano es hipersocial y emocional mucho más que racional. Nos los cuenta Manuel Martín Loeches, catedrático de psicobiología de la Universidad Complutense de Madrid y responsable de la Sección de Neurociencia Cognitiva del Centro Mixto UCM-ISCIII de Evolución y Comportamiento Humanos.



Para saber más:

El gran encéfalo humano es un “encéfalo social”
Nuestro cerebro no piensa (y el de usted, tampoco)

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo IV Jornada Nacional de Evolución y Neurociencias: Manuel Martín Loeches – Carácter emocional e hipersocial del cerebro se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El comportamiento social de una gota de saliva

Fri, 2022/06/24 - 11:59

saliva

La capacidad de transmisión de un virus es uno de los factores más importantes a tener en cuenta en el estudio de enfermedades infecciosas. La gran mayoría de virus se transmiten por vía oral. Cuando una persona tose, habla o estornuda, exhala al ambiente una serie gotas de saliva que contienen el virus y, por tanto, tienen una gran capacidad de contagio. El tiempo que estas gotas van a permanecer en el aire depende de la velocidad de evaporación que, a su vez, depende de diferentes variables. Estas variables, en consecuencia, afectan a la transmisión del virus. Como se suponía, y ahora se confirma, temperatura y humedad son las más relevantes.

“El objetivo de este trabajo es estudiar mediante simulaciones computacionales el comportamiento de una partícula de saliva expuesta a diferentes características ambientales de un entorno social”, señalan Ainara Ugarte Anero y Unai Fernández Gamiz, investigadores del Departamento de Ingeniería Nuclear y Mecánica de Fluidos de la UPV/EHU, en la Escuela de Ingeniería de Vitoria-Gasteiz.

Para estudiar cómo se comporta la gota de saliva a través del aire, los investigadores crearon una simulación computacional basada en la dinámica de fluidos (CFD-Computational Fluid Dynamics) que examina el estado de una gota de saliva que se mueve por el aire cuando una persona habla, tose o estornuda. “Esta simulación se realizó en un entorno controlado y simplificado, es decir, en lugar de analizar un estornudo general con una serie de partículas, nos centramos en el estudio de una sola partícula en un entorno cerrado. Para ello, lanzamos gotas de entre 0 y 100 micras de una altura de unos 1,6 metros —distancia a la que se encuentra más o menos la boca de un humano— y se consideraron los efectos de la temperatura, la humedad y el tamaño de la gota”, explica Unai Fernández Gamiz.

“Los resultados demuestran que la temperatura ambiente y la humedad relativa son parámetros que afectan significativamente al proceso de evaporación. El tiempo de evaporación tiende a ser mayor cuando la temperatura ambiente es menor. Y las partículas con menor diámetro se evaporarán rápidamente, mientras que a las de mayor diámetro les cuesta más. Algunas partículas grandes, de alrededor de 100 micras, pueden permanecer en el ambiente entre 60-70 segundos y en principio se transportan a una mayor distancia; por lo tanto, por ejemplo, puede que una persona estornude en un ascensor, salga del ascensor y las partículas sigan ahí. De ahí la importancia de la distancia de los dos metros de distancia de seguridad en entornos cerrados en el caso de la COVID-19. Según lo estudiado, parece que esa distancia puede resultar razonable para evitar más contagios en el caso de la Covid-19”, indica la primera autora del trabajo.

A esto hay que sumarle también la humedad. “En un ambiente húmedo la evaporación se produce más lentamente, por lo que el riesgo de contagio es mayor, ya que las partículas permanecen más tiempo en suspensión”, añade Ugarte.

Referencia:

Ainara Ugarte Anero, Unai Fernandez Gamiz, Koldo Portal Porras, Ekaitz Zulueta y Oskar Urbina Garcia (2022) Computational characterization of the behavior of a saliva droplet in a social environment Scientific Reports doi: 10.1038/s41598-022-10180-5

Para saber más:

Saliva, bacterias y oxitocina: ¿por qué nos gusta tanto besarnos?
Lo que funciona, y lo que no, contra la Covid-19

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El comportamiento social de una gota de saliva se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Historias (geológicas) de la cripta

Thu, 2022/06/23 - 11:59

Una de las principales características que definen la saga de videojuegos de Silent Hill es su atmósfera. Para crear ese ambiente psicológicamente opresor típico de cualquier survival horror que se precie, aquí nos encontramos perdidos en un pueblo cubierto por una espesa niebla que te impide discernir si lo que tienes a escasos metros de distancia es un poste de teléfonos o un ser horrendo que no pretende darte un abrazo, precisamente. Cuando Silent Hill se llevó a la gran pantalla en 2006, el equipo técnico que desarrolló el film cambió ligeramente la historia original, haciendo que la protagonista se perdiera por un pueblo fantasma sobre el que cae, de manera constante, una fina lluvia de ceniza que lo envuelve todo con un manto grisáceo. Y le dan una explicación basada en hechos reales que, aunque no os lo creáis, tiene una base geológica, como no podía ser de otra manera.

geológicaDetalle de la carretera de entrada a la localidad de Centralia, Pensilvania, donde se observan diversas fracturas a través de las que surge el humo producido por la combustión del carbón subterráneo. Foto: JohnDS / Wikimedia Commons.

Para ello debemos viajar a un pueblecito bucólico de Pensilvania, Estados Unidos, llamado Centralia. Nacido a mediados del siglo XIX gracias al descubrimiento de importantes yacimientos de carbón en toda la zona, la industria minera y extractora de este material se convirtió en su principal impulso económico. Pero, a comienzos de la década de los sesenta del siglo pasado, todo se convirtió en una pesadilla, al más puro estilo de las introducciones de los videojuegos de terror. Se produjo un incendio en una de las antiguas minas que alcanzó una de las vetas superficiales de carbón y el fuego se extendió sin control por todas las minas excavadas por debajo de la ciudad. Se abrieron grietas por el pavimento que se tragaban todo lo que pillaban por su camino, los depósitos subterráneos de combustible de la gasolinera alcanzaron temperaturas que presagiaban tremendas explosiones y surgieron gases tóxicos, humo y una lluvia constante de ceniza que empezó a cubrir toda la ciudad. Se intentó sofocar el incendio en múltiples ocasiones, pero todas infructuosas, porque mientras haya carbón bajo la tierra, el fuego permanecerá incontrolable durante décadas, incluso, siglos. A día de hoy, Centralia es un pueblo fantasma en el que apenas permanecen un puñado de habitantes.

geológicaCartel turístico junto al cementerio de la Iglesia de San Andrew, en Birmingham. El texto dice: El carbón sobre el que se asienta la Iglesia de San Andrew era muy volátil. Era habitual que el carbón entrara en combustión bajo tierra, emitiendo humo y llamas por el cementerio. Parecían “los fuegos del Infierno”. Foto: Marta Pascual.Fuegos fatuos de base geológica

Nos toca ahora cambiar de continente para conocer otra historia muy similar y también bastante tétrica. Para ello, debemos desplazarnos a la ciudad inglesa de Birmingham, la segunda más poblada del Reino Unido y cuna de la Revolución Industrial a mediados del s. XVIII debido a que se asienta en una zona con una abundante acumulación de depósitos de carbón. A las afueras de la ciudad encontramos una pequeña colina en cuya cima construyeron la Iglesia de San Andrew, con un cementerio con las tumbas excavadas en la tierra y las lápidas de piedra. Pues esa colina tiene niveles de carbón muy rico en gases inflamables que afloran casi en superficie, hasta el punto de que la caída de un rayo provoca que se prendan fuego. Y los gases, humo e incluso llamas resultantes de la combustión salen a la superficie… entre las lápidas del cementerio. Obviamente los habitantes de Birmingham de hace un par de siglos debían creer que se encontraban a la entrada del infierno cuando veían esto. Eso, o en la mismísima Racoon City de Resident Evil.

geológicaReconstrucción de una zona pantanosa bordeada por bosques de helechos arborescentes, licopodios, equisetos y coníferas de finales del Carbonífero. Ilustración: Sergey Krasovskiy.

Pero la interrelación entre los depósitos de carbón estadounidenses y británicos no se queda en una mera anécdota terrorífica. El carbón es una roca sedimentaria de origen orgánico, formada por restos vegetales continentales acumulados y enterrados en zonas pantanosas o estuarinas y que han sufrido una descomposición en ausencia de oxígeno. Tras el paso de millones de años y debido a la compactación por enterramiento, esta materia orgánica termina por consolidarse, dando lugar a las rocas sedimentarias. Estas rocas, formadas principalmente por carbono, son capaces de generar energía por combustión, por lo que se emplean como combustible fósil desde hace milenios. Los principales depósitos de carbón se han formado a partir de los restos vegetales que poblaron los pantanos y el litoral de nuestro planeta a finales de la Era Paleozoica, en un Periodo geológico ocurrido hace entre unos 359 y 299 millones de años. Y el nombre de ese Periodo fue acuñado por dos geólogos británicos a comienzos del siglo XIX estudiando las rocas que afloraban en su tierra. Como no podía ser de otra manera, lo llamaron Carbonífero, del latín “portador de carbón”. Pues siguiendo con la tradición geológica de subdividirlo todo, en Estados Unidos partieron en dos mitades al Periodo Carbonífero y, a la parte final del mismo (desde hace unos 323 a 299 millones de años), la denominaron Pensilvaniense en honor al estado de Pensilvania por la enorme abundancia de depósitos de carbón de esa zona. Y si aún queréis unir más a las ciudades de Birmingham y Centralia, a finales del Carbonífero Norteamérica y las Islas Británicas formaban parte de una misma masa continental, Laurrusia, a lo largo de la cual se desarrollaron las enormes masas vegetales que circundaban extensos pantanos bajo un clima subtropical y que, millones de años después, dieron lugar a los depósitos de carbón explotados en ambas localidades.

No siempre es fácil verlo, pero la Geología impregna por completo todo nuestro sesgo cultural, independientemente de la época en la que nos encontremos. Así, una curiosidad geológica puede convertirse tanto en una leyenda demoníaca como en inspiración para la ambientación terrorífica de una película basada en un videojuego. Lo más divertido es buscar el origen científico de todo ello.

Para saber más:

Una extinción de novela policiaca

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Historias (geológicas) de la cripta se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Mary Wynne Warner, la matemática viajera que pasó de la topología algebraica a la difusa

Wed, 2022/06/22 - 11:59

No es sencillo dedicarse a la investigación cuando, por necesidades familiares, los cambios de domicilio son continuos, y a lugares con culturas diversas. No es fácil pasar de las matemáticas abstractas a las aplicadas. Mary Wynne Warner brilló como investigadora a pesar de sus obligaciones como “esposa de un diplomático”, de ser madre de dos hijas y un hijo, y de tener que cambiar de la topología algebraica a la topología difusa. ¿Su receta? Talento, capacidad de adaptación y un admirable empeño.

Mary Wynne WarnerMary Wynne Warner. Fuente: 100WelshWomen.

 

Mary Wynne Davies nació el 22 de junio de 1932 en Carmarthen, en el sur de Gales. Su madre se llamaba Esther (1899-1982) y su padre Sydney (1901-1978); Mary era la mayor de las dos hijas del matrimonio. Cuando Mary tenía 6 años, la familia se mudó a Llandovery; el padre había sido nombrado director de una escuela primaria, a la que Mary asistió como alumna, una alumna muy destacada.

Estaba decidida a estudiar matemáticas, y en 1951 ingresó en la Universidad de Oxford para cumplir su sueño, graduándose en 1953. Obtuvo una beca de investigación para realizar su trabajo de doctorado en Oxford. Su supervisor fue el conocido matemático Henry Whitehead (1904-1960), quien lideraba un grupo muy activo en topología algebraica. Mary se incorporó a este equipo, y realizó grandes progresos en su investigación. En 1956 publicó su primer trabajo, A note on Borsuk’s antipodal point theorem, en la revista Oxford Quarterly Journal of Mathematics.

Un doctorado fallido y otro diez años más tarde

Lamentablemente, Mary no completó su doctorado bajo la supervisión de Whitehead. Había conocido a un estudiante de historia en Oxford, Gerald Warner, quien se graduó en 1954 y se unió al Servicio Diplomático en la Rama de Inteligencia. Cuando le destinaron a China, Mary y Gerald decidieron casarse. Lo hicieron en 1956, y poco después partieron hacia Beijing.

La vida de Mary cambió radicalmente, su apellido pasó a ser Warner, era la esposa de un diplomático, terminar la tesis no era posible lejos de Oxford y con sus nuevos compromisos. Aunque no renunció a las matemáticas: en Beijing conoció al topólogo chino Chang Su-chen, otro discípulo de Whitehead.

Sus reuniones de trabajo duraron poco tiempo. China estaba sufriendo un profundo cambio; entre 1955 y 1957, Mao Zedong impulsó el movimiento Sufan y el movimiento antiderechista: más de medio millón de personas fueron perseguidas, la mayoría intelectuales y disidentes. Chang Su-chen le comunicó a Mary que sus reuniones para hablar de matemáticas resultaban sospechosas para su gobierno y podían causarles graves problemas. Las matemáticas terminaron en 1958 en Beijing, año en el que nació la primera hija de los Warner, Sian. Poco después, la familia regresó a Inglaterra.

En Londres, Mary fue contratada como profesora a tiempo parcial en el Bedford College. En 1959, y en Reino Unido, nació su segundo hijo, Jonathan. Al poco tiempo Gerald fue destinado a Birmania. Allí, en Rangún, nació su tercera hija, Rachel, en 1961. Y Mary fue contratada como profesora en la Universidad de Rangún.

La familia regresó a Londres por un tiempo y Mary volvió a ocupar su puesto en el Bedford College. En 1964, el trabajo de su marido la llevó a Polonia, donde se unió a la escuela de Karol Borsuk (1905-1982) en Varsovia. Mary Warner comenzó a trabajar en una tesis doctoral bajo la supervisión de Andrzej Białynicki-Birula (1935-2021). Tras dos años en Varsovia, la familia de Mary se trasladó otros dos años a Ginebra durante los cuales completó su tesis doctoral, The homology of Cartesian product spaces, que presentó a la Academia de Ciencias de Polonia. ¡Por fin era doctora en matemáticas!

En 1968, la familia Warner regresó a Londres; Mary fue contratada como profesora de matemáticas en la City University. Al año siguiente apareció su segundo artículo The homology of tensor products. Entre 1974 y 1976, su marido fue destinado a Malasia; fue su último destino fuera del Reino Unido. Allí, en la revista Bulletin of the Malaysian Mathematical Society, Mary publicó sus dos siguientes artículos Some separation axioms weaker than T1(1975) y A note on the reduction of the general equation of a quadratic surface (1976).

Un cambio radical de tema de investigación

Al regresar a Londres, Mary recuperó su trabajo en la City University, y se concentró en la investigación matemática, en particular en la matemática difusa, área de la que se convirtió en una respetada investigadora.

Entre 1980 y 1985, Mary Warner escribió una veintena de artículos sobre espacios de tolerancia y teoría de autómatas. Generalizó ambos conceptos en el ámbito de la teoría de retículos en 1984.

La brillante actividad investigadora de Mary Warner la llevó a ser nombrada catedrática en la City University en 1996. Aunque profesionalmente estos éxitos le proporcionaron grandes alegrías, tardías por todas las dificultades que encontró, su vida privada estuvo rodeada de tragedia. Su hija Sian y su hijo Jonathan se suicidaron en la década de 1990.

Mary se jubiló en 1996, aunque continuó supervisando estudiantes de doctorado y trabajando en su investigación. Falleció inesperadamente, mientras dormía, el 1 de abril de 1998.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Mary Wynne Warner, la matemática viajera que pasó de la topología algebraica a la difusa se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Einstein y Alexander Friedmann

Tue, 2022/06/21 - 11:59

El meteorólogo ruso Alexander Friedmann fue uno de los primeros científicos en aplicar las ecuaciones de la relatividad de Einstein a un modelo del universo. Friedmann creó un modelo que mostraba un universo en expansión, un modelo que más tarde se probó que es correcto. Pero Einstein rechazó el modelo de Friedmann, llegando a publicar que los cálculos estaban mal hechos. Tuvo que rectificar.

FriedmannAleksandr Aleksándrovich Fridman, más conocido en los ambientes como Alexander Friedmann.

Alexander Friedmann* fue testigo de las primeras semillas de una revolución en la cosmología mientras vivía la revolución en Rusia. Nació en San Petersburgo en 16 de junio de 1888 y murió en la misma ciudad con tan solo 37 años, pero ahora la ciudad se llamaba Leningrado. Friedmann, por formación, era meteorólogo y, en sus últimos años bromeaba de vez en cuando diciendo que los matemáticos malos se hacen físicos, y que los físicos malos se hacen meteorólogos. Pero Friedmann tenía poco de mal físico y siempre estuvo a la última en los avances de su ciencia. Su apertura a nuevas ideas se la debió en parte a Paul Ehrenfest, que estableció un seminario de física en San Petersburgo en 1906 al que asistió Friedmann, y con quien desde entonces mantuvo una correspondencia fluida.

En 1920, Friedmann, tras un periodo en la Universidad de Perm, vuelve a su ciudad, entonces llamada Petrogrado, para enseñar matemáticas y física en la Universidad de Petrogrado y en el Instituto Politécnico. La Primera Guerra Mundial (1914-1918) había dejado aislada a Rusia de los últimos adelantos en la física, sobre todo alemana. Friedmann descubre en esta época la teoría general de la relatividad que Einstein había publicado en 1915. Se enseñó a sí mismo relatividad general leyendo directamente los artículos de Einstein, a pesar de que la mayoría de los físicos rusos ignoraron el asunto, y pronto empezó a sacar sus propias conclusiones que fue avanzando por carta a Ehrenfest.

El modelo Friedmann

Usando la relatividad general, Friedmann propuso un nuevo modelo del universo. Creyendo en la belleza y simplicidad perfectas de las matemáticas de Einstein, Friedmann se negó a ajustar las ecuaciones de la relatividad, como hiciese el propio Einstein, para incorporar una arbitraria “constante cosmológica” que permitiese garantizar la estabilidad del tamaño del universo. En vez de eso, el modelo de Friedmann tiene una distribución uniforme de materia. Este universo podría cambiar de tamaño, ya sea expandiéndose o, posiblemente, expandiéndose para luego contraerse para expandirse otra vez, cíclicamente. Un universo que se expande implica un universo que antes ha sido más pequeño. Llevando esto a su conclusión lógica el universo debió haber comenzado como un puntito minúsculo que se hizo mayor con el paso del tiempo. La idea de que el universo comenzó en un solo punto fue lo que más tarde evolucionaría hasta conocerse como teoría del Big Bang, Friedmann fue una de las primeras personas que consideró esta idea (el primero en proponerlo formalmente, sin embargo, fue Georges Lemaître en 1927 basándose, no en las ecuaciones de Einstein, sino en las leyes de la termodinámica).

Friedmann sabía que su modelo era una representación simplificada del universo y que no era la única solución a las ecuaciones de Einstein (de Sitter había publicado uno en el que universo no tenía materia, por ejemplo). Hasta qué punto creía realmente Friedmann que el universo había comenzado en un momento dado no está claro, pero sí es evidente que creía que su modelo era matemáticamente consistente y científicamente interesante, una herramienta más para ayudar a interpretar nuestro mundo. Friedmann publicó su modelo (“Sobre la curvatura del espacio”) en Zeitschrift für Physik en 1922 [1]. Einstein respondió en la misma revista tres meses más tarde con un sólo párrafo: “Los resultados concernientes al mundo no-estacionario, contenido en el trabajo [de Friedmann], me parecen dudosos. En realidad resulta que la solución dada en él no satisface las ecuaciones de campo”.

Friedmann escribió una carta muy cortés a Einstein en la que probaba las bases matemáticas de su trabajo:

“Considerando que la posible existencia de un mundo no-estacionario tiene un cierto interés, me permitiré presentarle aquí los cálculos que he hecho…para verificación y evaluación crítica. […] Si encontrase los cálculos presentados en mi carta correctos, por favor sea tan amable de informar a los editores de Zeitschrift für Physik acerca de ello; quizás en este caso publicará usted una corrección a su afirmación o dará la oportunidad de que una parte de esta carta se publique”.

Sin embargo, para cuando llegó la carta a Berlín, Einstein ya se había marchado de viaje a Japón. No volvería a Berlín hasta marzo, pero no parece que leyese la carta de Friedmann. Solo cuando Krutkov, un colega de Friedmann en Petrogrado, se encontró con Einstein en la casa de Ehrenfest en Leiden en mayo de 1923 y le contó los detalles de la carta de Friedmann, Einstein reconoció su error. Escribió inmediatamente a Zeitschrift für Physik:

“En mi nota previa he criticado [el trabajo de Friedmann sobre la curvatura del espacio]. Sin embargo, mi crítica, al convencerme por la carta de Friedmann que me comunicó el señor Krutkov, estaba basada en un error en mis cálculos. Considero que los cálculos del señor Friedmann son correctos y arrojan nueva luz”.

A pesar de ello, Einstein siguió rechazando la validez del modelo de Friedmann basándose en aspectos más metafísicos. Einstein simplemente no estaba cómodo con la idea de un universo que cambiase con el tiempo. Y no estaba solo; la mayoría de los científicos contemporáneos tenía unas opiniones igual de enraizadas sobre la eternidad del universo, de que sólo podía ser estático y de que sólo podía haber existido durante eones en la forma y tamaño que tenía en ese momento.

En 1924, Friedmann publicó otro artículo (“Sobre la posibilidad de un mundo con una curvatura negativa constante del espacio”) [2] que completaba el de 1922 y con el que demostraba que tenía un dominio de las tres posibles curvaturas del modelo (positiva, nula y negativa) una década antes de que Robertson y Walker publicasen su análisis.

En 1929, cuando Edwin Hubble demostró mediante observaciones astronómicas que el universo se está expandiendo, Einstein aceptó por fin la posibilidad de que el modelo de Friedmann, y el de otros como el suyo, pudiesen ser interpretaciones razonables de la relatividad. Friedmann no viviría para verlo: había muerto en 1925 de fiebre tifoidea. En la actualidad su modelo, completado por las aportaciones posteriores, se conoce como métrica Friedmann-Lemaître-Robertson-Walker.

Referencias:

[1] Friedman, A. (1922). Über die Krümmung des Raumes Zeitschrift für Physik, 10 (1), 377-386 DOI: 10.1007/BF01332580

[2] Friedmann, A. (1924). Über die Möglichkeit einer Welt mit konstanter negativer Krümmung des Raumes Zeitschrift für Physik, 21 (1), 326-332 DOI: 10.1007/BF01328280

Nota:

* Mantenemos la grafía Friedmann por ser la más extendida; firmó sus publicaciones en alemán tanto como Friedman como Friedmann. La transliteración al castellano de su nombre ruso es Aleksandr Aleksándrovich Fridman; de hecho, el cráter lunar en su honor es el cráter Fridman.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este artículo se publicó en Experientia Docet el 18 de octubre de 2009.

El artículo Einstein y Alexander Friedmann se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Basura electrónica y economía circular

Mon, 2022/06/20 - 11:59

Mireia Martín, Erlantz Lizundia y Estibaliz Saez de Camara

Cuando decidimos cambiar de teléfono móvil valoramos distintos modelos en base a sus características y precios, pero, ¿sabemos el impacto ambiental y social de estos teléfonos? ¿sabemos cuántos móviles se desechan al año en el estado español? ¿por qué desechamos móviles que todavía funcionan? Es difícil saberlo con certeza, pero se estima que ronda los 20 millones de unidades, unas 2.000 toneladas de residuo. Dentro de esas 2.000 toneladas podemos encontrar una gran variedad de materiales, entre ellos el coltán u “oro negro”, un mineral compuesto principalmente por columbita y tantalita. Para conseguirlo, cientos de congoleños se encuentran en condiciones infrahumanas, trabajando de sol a sol entre 12 y 13 horas diarias, bajo la ausencia de prevención de riesgos laborales [1]. Sin embargo, muchos de esos dispositivos que se desechan todavía tienen valor comercial, ya sea porque funcionan o porque tienen en su interior materiales valiosos que se pueden reutilizar o reciclar. Es posible que de aquí a uno o dos años (por no decir meses) nuestros teléfonos móviles actuales parezcan anticuados, eso se debe a la obsolescencia percibida. Sale un nuevo modelo al mercado y ves que han mejorado todavía más la calidad de la cámara y, además, han aumentado la memoria interna. El móvil que hasta hace dos días te parecía como nuevo, ahora ya no te lo parece tanto y no sabes cuánto tardarás en desecharlo para comprar esa nueva versión. Y ahora viene la gran pregunta: ¿qué ocurre con estos residuos?

basuraFoto: John Cameron en Unsplash

Global e-waste Monitor estimó que durante el año 2019 se produjeron alrededor de 53,6 Mt de Residuos de Aparatos Eléctricos y Electrónicos (RAEE) a nivel mundial, pudiendo alcanzar los 74 Mt en el año 2030 debido a la rápida evolución de la tecnología y por consiguiente las altas tasas de eliminación [2]. En el caso de la Unión Europea, sólo se procesa el 35% de los residuos electrónicos, el 65% restante forman parte de las «exportaciones mixtas no documentadas» que acaban en países como Nigeria, Ghana, Brasil, México, China, India, Vietnam, Filipinas y Pakistán. Estos países no cuentan con infraestructuras para llevar a cabo una correcta gestión, ni marcos regulatorios efectivos para tratar las fracciones de los RAEE que están clasificados como residuos peligrosos por contener compuestos tóxicos (tierras raras, mercurio…), halógenos y otros elementos metálicos como el oro y el cobre [3].

Fuente: Mireia Martín. Elaboración propia

La gestión inadecuada de estos residuos peligrosos, al igual que el reciclaje de hidrocarburos, la quema de residuos a cielo abierto o el depósito en vertederos, puede derivar en una acumulación de compuestos tóxicos en el medio terrestre y marino. Además, puede conllevar la liberación de hidrocarburos aromáticos policíclicos, generando un gran impacto en la salud de las personas, flora y fauna y el medio ambiente en general [4].

Clasificando la basura

Los RAEE se clasifican en función de la similitud funcional, la composición de los materiales y las características de obsolescencia. En el Anexo VIII del Real Decreto 27/2021, de 19 de enero, donde se modifica el Real Decreto 110/2015 sobre residuos de aparatos eléctricos y electrónicos se especifica la clasificación en 7 agrupamientos: equipos pequeños, equipos grandes, dispositivos de intercambio de temperatura, dispositivos de pantalla y monitor, equipos de iluminación, dispositivos informáticos y de telecomunicaciones y paneles fotovoltaicos [5]. La categoría con mayor contribución al flujo de residuos proviene de los equipos pequeños, con un total de 17,4 Mt registrados en 2019 [6].

Existe una segunda clasificación de los RAEE en función de los compuestos presentes: férricos, no-férricos (aluminio, cobre, etc.), plástico y otros materiales. Se estima que desechamos un total de 4000 toneladas de basura electrónica cada hora a nivel mundial [4]. En esos desechos podemos encontrar un conjunto de metales básicos, elementos preciosos y tierras raras o Rare-Earth Elements (REE). En este sentido, viendo que los REE son necesarios para una gran cantidad de aplicaciones eléctricas y electrónicas, la gran demanda actual y prevista y que, tras su uso, la tasa de reciclaje mundial es baja (17,4%), puede afirmarse que estos recursos se estén agotando. Un ejemplo es el neodimio (Nd) que se usa tanto en discos duros como en dispositivos de audio, automóviles y turbinas eólicas como imanes permanentes. Además del Nd, se pueden destacar muchos otros elementos del tipo REE en estos imanes: praseodimio (Pr), terbio (Tb), disprosio (Dy), gadolinio (Gd) y holmio (Ho). No obstante, a día de hoy sólo el 1% de los REE son reciclados, y el resto acaba en distintos vertederos eliminándose así el ciclo de los materiales [7].

Reciclar no es fácil

El reciclaje de estos componentes no es tarea fácil debido a la cantidad de elementos distintos que lo componen. Sin embargo, mediante la recuperación de estos elementos se podría mejorar en 3 niveles: ambientalmente, se minimiza el impacto que suponen las actividades de extracción; socialmente, se disminuye la dependencia actual en la cadena de suministro de REE; y económicamente, se estarían recuperando Elementos Tecnológicos Críticos (ETC) que son necesarios para sectores como el sanitario, las tecnologías de información y la comunicación y las tecnologías de energías limpias [4].

En 2019, únicamente se establecía una legislación sobre residuos electrónicos para el 68% de la población mundial (repartida en 78 países). Para 2023 se estima que exista legislación específica en 97 países. Además, en respuesta a la creciente tendencia con los residuos electrónicos, algunos países han aprobado normativa, políticas y están respaldando iniciativas como las de la Asociación para la Acción sobre Equipos de Cómputo (PACE), la Iniciativa Nacional de Administración de Productos Electrónicos (NEPSI) y la iniciativa de la Asociación de Teléfonos Móviles (MPPI) [4]. La UE cada vez está más cerca de introducir un cargador universal para dispositivos electrónicos pequeños, ya que tener distintos cargadores para distintos dispositivos produce una cantidad innecesaria de residuos electrónicos [8].

La extensión de la normativa traccionará avances en la gestión de estos residuos. Para estos avances resulta necesaria la I+D+i en el ámbito de reciclaje de los RAEE y sus componentes. Los RAEE son una mezcla compleja que consta de componentes como REE, otros elementos tecnológicamente críticos (como litio, níquel, platino, etc.), metales y plásticos. La mayoría de los procesos de reciclaje de estos componentes requieren el uso de ácidos fuertes y/o disolventes tóxicos y, además, operan a altas temperaturas, a expensas de la sostenibilidad ambiental. Los subproductos tóxicos resultantes del reciclaje de los REE plantean impactos ambientales negativos, por lo que únicamente se pueden lograr estrategias distintivas mediante la separación selectiva de los RAEE. Otro problema que dificulta el reciclaje de los REE es la falta de métodos rentables para purificar la mezcla de RAEE resultante. A todo lo anterior se suma una normativa ambiental laxa y no aplicada, los problemas de diseño y la negligencia por parte de las empresas mineras. Existe la necesidad de una mayor sensibilización de las personas y organizaciones productoras y consumidoras a todos los niveles a través de publicidad, campañas y otras herramientas [4].

Procesos para reducir el impacto ambiental

Una de las estrategias exitosas y ya implementadas para reducir el impacto ambiental de la extracción de REE son los procesos biológicos de biosorción y biolixiviación. En este sentido, los biomateriales orgánicos, como bacterias, algas, hongos, así como resinas y carbón activado, tienen la capacidad de adsorber REE durante el reciclaje. Los biomateriales, a pesar de ser menos eficientes en comparación con los productos químicos convencionales, tienen un impacto significativamente menor en el medio ambiente. Además, con las mejoras en la utilización de biomateriales aún están en curso, incluida la optimización de procesos, la mejora de cepas microbianas a través de técnicas de mutación, etc. se espera que sustituyan a los productos químicos convencionales a corto plazo [9].

La elección del método de reciclaje depende de la materia prima, el contenido de REE, la composición química de los RAEE, el coste económico y la huella ambiental del método. Para que la recuperación de los materiales sea económicamente viable, los costes operativos deben ser bajos. Asimismo, se requiere un enfoque de economía circular ambiental y socialmente asumible y que cumpla con la normativa actual y en desarrollo. La economía circular persigue la transición de sistemas lineales tradicionales a ciclos circulares, optimizando los ciclos de vida de los productos para avanzar hacia patrones de producción y consumo sostenibles y eficientes [9] en línea con el Objetivo de Desarrollo Sostenible (ODS) 12 de la Agenda 2030. Para ello, los productos deben haber sido diseñados previamente pensando en su fin de vida, se debe buscar la modularidad, el desmontaje, y evitar los elementos multimateriales en la medida de lo posible. Asimismo, la introducción de nuevos modelos de negocio que intensifiquen el uso de los equipos se deberá de mejorar el mantenimiento y la reparabilidad de los mismos, con lo que se alargará la vida útil de los productos y los materiales permanecerán en el ciclo económico el mayor tiempo posible.

Todo ello viene recogido en el marco estatal dentro del Plan de acción de Economía Circular de 2020 [10]. En la Iniciativa sobre la Economía Circular se especifican una serie de acciones para prolongar la vida de los productos. Conforme a la Directiva sobre diseño ecológico, los dispositivos deben estar diseñados bajo unos criterios de eficiencia energética y de durabilidad, reparabilidad, actualizabilidad, mantenimiento, reutilización y reciclado, siendo uno de los sectores prioritarios para la aplicación del«derecho a reparación». Así como medidas reguladoras para los cargadores e incentivos para disociar la compra de cargadores de la compra de nuevos dispositivos. La mejora de la recogida, el tratamiento de las RAEE, la exploración de las distintas opciones para un sistema de restitución que permita la devolución o reventa también queda recogida junto con las restricciones en cuanto a sustancias peligrosas.

Referencias

[1] Villaécija, R. y Rojas, A. (16 de febrero de 2014). Morir por un puñado de arena. EL MUNDO.

[2] Forti, V., Baldé, C. P., Kuehr, R., & Bel, G. (2020). The Global E-waste Monitor 2020. United Nations University (UNU), International Telecommunication Union (ITU) & International Solid Waste Association (ISWA), Bonn/Geneva/Rotterdam120.

[3] Huisman, J., Botezatu, I., Herreras, L., Liddane, M., Hintsa, J., Luda di Cortemiglia, V., … & Zan, A. (2015). Countering WEEE illegal trade (CWIT) summary report, market assessment, legal analysis, crime analysis and recommendations roadmap. Lyon, Frankreich3(38), 157.

[4] Ramprasad, C., Gwenzi, W., Chaukura, N., Azelee, N. I. W., Rajapaksha, A. U., Naushad, M., & Rangabhashiyam, S. (2022). Strategies and options for the sustainable recovery of rare earth elements from electrical and electronic waste. Chemical Engineering Journal, 135992.

[5] Real Decreto 27/2021, de 19 de enero, por el que se modifican el Real Decreto 106/2008, de 1 de febrero, sobre pilas y acumuladores y la gestión ambiental de sus residuos, y el Real Decreto 110/2015, de 20 de febrero, sobre residuos de aparatos eléctricos y electrónicos. Boletín Oficial del Estado, 17, de 20 de enero de 2021. 

[6] Forti, V., Baldé, C.P., & Kuehr, R. (2018). E-waste statistics: guidelines on classifications, reporting and indicators.

[7] Dang, D. H., Thompson, K. A., Ma, L., Nguyen, H. Q., Luu, S. T., Duong, M. T. N., & Kernaghan, A. (2021). Toward the circular economy of Rare Earth Elements: a review of abundance, extraction, applications, and environmental impacts. Archives of environmental contamination and toxicology81(4), 521-530.

[8] La UE está más cerca de introducir un cargador común. (2022, 4 de mayo). Noticias Parlamento Europeo.

[9] de Oliveira, R. P., Benvenuti, J., & Espinosa, D. C. R. (2021). A review of the current progress in recycling technologies for gallium and rare earth elements from light-emitting diodes. Renewable and Sustainable Energy Reviews145, 111090.

[10] Comunicación de la comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones. (2020, 11 de marzo). Nuevo Plan de acción para la economía circular por una Europa más limpia y más competitiva.

Para saber más:

Actúa localmente: electrónica de papel
Dando valor a los residuos marinos para cuadrar la economía circular
El verdadero reciclado de los plásticos

Sobre los autores: Mireia Martín es ingeniera y gestiona la actividad del Aula de Transición energética de Fundación Repsol sobre «Economía Circular» de la Escuela de Ingeniería de Bilbao de la UPV/EHU; Erlantz Lizundia es doctor en Ingeniería de Materiales Avanzados y  forma parte del Grupo de Investigación Life Cycle Thinking de la UPV/EHU; Estibaliz Saez de Camara  es doctora en Ingeniería Ambiental y forma  parte del Grupo de Investigación Atmosférica de la UPV/EHU..

El artículo Basura electrónica y economía circular se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Si Maurice Hilleman es la persona que más vidas ha salvado, ¿por qué no le conoces?

Sun, 2022/06/19 - 11:59

¿De qué depende la fama en ciencia? Todo el mundo sabe quiénes fueron Einstein o Curie, sin embargo pocos identifican a Hilleman, que desarrolló más de 40 vacunas, entre ellas, la gran mayoría de las infantiles. Su anonimato, según los expertos, puede deberse a que dedicara su carrera a la industria, pero hay otros factores en la popularidad de una figura científica, como su exposición a la prensa.

HillemanMaurice Hilleman en el Centro Médico del Ejército Walter Reed. / Cortesía de Merck, historyofvaccines.org

En marzo de 1963, una niña de cinco años se despertó en mitad de la noche por un dolor de garganta, fue hasta la habitación de su padre y, sin saberlo, inició el proceso que llevaría a conseguir la vacuna más rápida de la historia hasta la llegada de la covid.

El padre no tardó mucho en reconocer que la niña tenía paperas, una enfermedad muy frecuente por entonces y poco grave en general, pero que en algunos casos podía dar lugar a meningitis o sordera. Esa misma noche fue hasta el laboratorio donde trabajaba, recogió el material necesario y, de vuelta a casa, tomó muestras de la garganta de su hija con las que luego cultivaría el virus.

Tres años después, y tras lograr debilitarlo, ensayaba con él una vacuna en voluntarios más o menos forzosos como su hermana mayor, y solo uno más tarde se aprobaba su uso. Con el tiempo pasaría a formar parte de la triple vírica, con la que millones de niños y niñas se vacunan cada año. Como luego escribiría el periodista Alan Dove, “Jeryl [así se llamaba la niña] se recuperó del virus de las paperas, pero el virus nunca se recuperó de haber infectado a Jeryl”.

El padre se llamaba Maurice Hilleman, y la escena de esa noche es algo más que anecdótica, es reveladora. Hilleman participó directamente en el desarrollo de más de 40 vacunas, además de la de las paperas. Hasta nueve de las catorce que conforman los calendarios vacunales tienen que ver con él.

Para el inmunólogo y ahora icónico Anthony Fauci, “sus contribuciones son el secreto mejor guardado para el público lego (…). Maurice fue quizá la figura de la salud pública más influyente del siglo XX, si se tienen en cuenta los millones de vidas salvadas y el sufrimiento evitado gracias a su trabajo”.

Se calcula que sus vacunas evitan ocho millones de muertes al año, pero al revisar la hemeroteca los titulares mezclan conceptos como “la persona que más vidas ha salvado” con apelativos como “el gran desconocido”. Para Luis Ignacio Martínez Alcorta, vocal de la Asociación Española de Vacunología, “Hilleman fue un genio, una figura única y destacada que surge ocasionalmente, y puede ser considerado el vacunólogo más prolífico de la historia de la humanidad”.

¿De qué depende la fama?

Hilleman, una vida de vacunas y conflictos

“Todo lo que tocaba lo convertía en una vacuna”, decía de él Adel Mahmoud, el que fuera presidente de la División de Vacunas de la compañía Merck y donde Hilleman desplegó la mayor parte de su carrera.

Él y su equipo desarrollaron o mejoraron entre muchas otras las vacunas de la hepatitis A y B, del neumococo, la de la bacteria Haemophilus influenzae de tipo B, las de distintos tipos de meningococo, la de la varicela y la triple vírica que incluye la de la parotiditis, la rubeola y el sarampión.

Todas ellas forman parte de los calendarios vacunales infantiles, y solo la del sarampión salvó 20 millones de vidas entre los años 2000 y 2015, según la Organización Mundial de la Salud (OMS).

Un día, seis años antes de que su hija despertara con paperas, leyó una noticia en The New York Times sobre un extraño aumento de contagios por gripe en Hong Kong. “Dios mío, es la pandemia. ¡Está aquí!”, se dice que gritó.

Las autoridades, incluida la OMS, ignoraron en aquel entonces la amenaza. Hilleman consiguió entretanto una muestra del virus y contactó y movilizó a distintos laboratorios y compañías. Lo que luego se conocería como la pandemia de gripe asiática llegó a los Estados Unidos meses después, pero para entonces estos disponían ya de 40 millones de dosis de una vacuna adaptada a la nueva variante. Se calcula que gracias a ella un millón de muertes fueron evitadas.

«Hace poco”, decía Fauci en el año 2005, “pregunté a mis estudiantes posdoctorales si sabían quién había desarrollado las vacunas contra el sarampión, las paperas, la rubeola, la hepatitis B y la varicela. No tenían ni idea. Cuando les dije que fue Maurice Hilleman, dijeron: ‘Oh, ¿te refieres a ese tipo gruñón que viene a todas las reuniones del sida?’».

El trabajo de ese tipo gruñón salva millones de vidas, pero él reconocía “haber tenido conflictos con todo el mundo”.

Si le pedían una definición de sí mismo, reconocía que la mejor la había dado un colega en Merck, que decía que “por fuera parecía un cabrón, pero que si se miraba más a fondo, por dentro, todavía se veía a un cabrón”.

Hilleman fue criado sin apenas recursos por sus tíos, en una granja de Montana. Su hermana gemela murió en el parto, y su madre lo hizo apenas dos días después. Su definición favorita de sí mismo puede traducirse también así: “Malnacido por fuera, malnacido por dentro”.

Reclutaba voluntarios forzosos para los ensayos clínicos —más allá de su propia hija— y se negó a ir a los “cursos de modales” a los que obligaba la compañía.

Obsesionado con el trabajo, que entendía como dedicación exclusiva y total, exigía lo mismo a quienes le rodeaban. Durante una época coleccionó en su despacho réplicas en miniatura de las cabezas de los trabajadores a los que despedía: las hacían sus hijas a partir de manzanas secas.

Su primera esposa murió unos meses antes de la noche de las paperas. Para encontrar a su segunda mujer, pidió a su asistente que hiciera una preselección a su gusto de entre las que habían mandado su currículum para trabajar en la empresa. A la elegida, con la que luego estaría casado durante 42 años, la entrevistó para coordinar ensayos clínicos de parotiditis y sarampión en el Hospital Infantil de Filadelfia.

Apenas un poco antes había dicho: “¡Cristo! Encontrar mujer es una suerte tan aleatoria como el movimiento browniano. Nunca sabes si serán alcohólicas, si gastarán todo tu dinero o si tendrán enfermedades venéreas”.

HillemanRobert Weibel vacuna a Kirsten, la hija de Maurice Hilleman contra las paperas, mientras la sostiene su hermana Jeryl Lynn. / Cortesía de Lorraine Hilleman. historyofvaccines.orgRazones para el anonimato

Si se hace pensar en nombres relacionados con las vacunas quizá surjan el de Pasteur o el del iniciador Jenner. Es posible que en Estados Unidos citen a Salk y a Sabin por sus hitos contra la polio; y ahora con la covid pueden no sonar extraños apellidos como los de Sahin o Karikó, los principales promotores de la vacuna de Pfizer-BioNTech. Pero difícilmente se pensará en Maurice Hilleman. ¿Cuál es la razón?

“Demasiadas pocas personas, incluso en la comunidad científica, conocen su alcance y contribución, y a ciencia cierta desconozco el porqué”, reconoce Martínez Alcorta.

Hay varias hipótesis que se han propuesto para explicarlo. Una es su conflictiva y problemática personalidad, aunque la experiencia nos diga que la bondad no parece precisamente condición necesaria para la fama. Otra tiene que ver con el hecho de que nunca reconociera maestros concretos y que, al parecer, le costara citar a otros científicos.

Sin embargo, para el vacunólogo José Tuells, uno de los motivos de su anonimato es paradójicamente su humildad: “A pesar de su estilo irreverente, dominante, sus maneras confrontadoras y provocativas o de su autoconfianza, era un hombre humilde”. A favor de la teoría está que, al contrario que Salk o Sabin con la de la polio, nunca puso su nombre a ninguna vacuna. Incluso varias de ellas contienen guiños o referencias directas al trabajo de otros.

La razón favorita de Tuells y del propio Hilleman es, en cambio, el hecho de haber trabajado casi toda su vida en la industria, y no en la investigación académica.

“Si miras para atrás en la historia”, decía él mismo, “la industria es como un leproso (…). Si yo daba la cara ante la prensa, alguien podría pensar que intentaba venderles algo (…). Debía permanecer en segunda fila”.

Esa explicación no convence a Xavier Roqué, profesor de Historia de la Ciencia en la Universidad Autónoma de Barcelona. “Eso mismo podría aplicarse a los responsables de la vacuna de Pfizer-BioNTech, pero en ese caso sí han llegado a ser más conocidos”, razona.

De hecho, Hilleman ha aparecido con frecuencia en los medios, aunque su figura no ha conseguido cristalizar. En su opinión, “quizás pese más un descubrimiento sensacional en un momento adecuado que un conjunto de ellos, aunque puedan tener más valor en global”. Eso podría explicar que sean más conocidos los inventores de las vacunas contra la polio. No solo les pusieron su nombre, sino que sus efectos eran muy evidentes ante una enfermedad con secuelas visibles y terribles y que llevaba años sembrando el terror.

Para Gema Revuelta, directora del Centro de Estudios de Ciencia, Comunicación y Sociedad y del máster en Comunicación Científica, Médica y Ambiental de la Universidad Pompeu Fabra en Barcelona, “un científico que ha hecho una gran aportación a la ciencia o a la sociedad tiene más probabilidades de ser popular, pero esta es una de tantas variables que le pueden impulsar a la fama. Basta fijarse, sin ir más lejos, en cuántas mujeres quedaron ocultas a lo largo de la historia a pesar de sus importantes contribuciones”.

Hilleman y Anthony Payne en una reunión de la Organización Mundial de la Salud sobre la gripe en Estocolmo, 1958. / Cortesía de Lorraine HillemanAcceso restringido al Salón de la Fama

En el año 2011, los investigadores Adrian Veres y John Bohannon crearon un proyecto llamado “The Science Hall of Fame” (El salón de la fama de la ciencia). Aprovecharon que Google Books había subido ya millones de libros en su plataforma para para hacer un análisis de lo que se había dado en llamar culturómica. En esta ocasión consistía en buscar en ellos cuántas veces aparecían los nombres de miles de personas relacionadas con la ciencia.

La unidad de fama científica la llamaron miliDarwin (mD), y equivalía a la milésima parte de la ostentada por el naturalista inglés. Einstein tenía 878 mD; Marie Curie, 188. De las 100 personas más famosas, solo 11 eran mujeres. Hilleman estaba en el puesto 4504, casi al final de la lista, con apenas 0,89 mD.

Analizando los datos, comprobaron que la fama en la ciencia sigue como muchos otros fenómenos una relación en forma de ley de potencias, donde el 1 % de los científicos más famosos acumula la gran mayoría de las referencias. Como una suerte de milmillonarios capitalistas de la fama.

Dos años después, otro estudio ya más allá de la ciencia, usó las hemerotecas de más de dos mil periódicos para concluir que, una vez superado cierto umbral, la gente realmente famosa se mantiene así durante décadas. El umbral activa el efecto Mateo (“al que tiene, se le dará”), perpetuando las referencias.

Como dijo Eran Shor, uno de los autores del artículo, “la gente que tú y yo consideraríamos famosa, incluso las Kim Kardashians de este mundo, siguen siendo famosas durante mucho tiempo. No es algo que viene y se va”.

Veres y Bohannon analizaron también superficialmente los factores que conducían a esos puestos más altos. Ni las citas en estudios científicos ni siquiera el premio Nobel parecían muy importantes.

Sí lo era la controversia o publicar un libro divulgativo de éxito. “Aún queda mucho por estudiar, pero parece que hay un relativo consenso respecto a qué circunstancias pueden estar detrás de la visibilidad o celebridad de los científicos”, explica Revuelta.

Robert E. Weibel vacuna a Maurice Hilleman con la vacuna contra la hepatitis B derivada del suero humano que desarrolló Hilleman. / Cortesía de Lorraine Hilleman

“Podrían citarse más de una docena, pero no todas necesitan estar presentes y los caminos para alcanzar la fama pueden ser distintos”. Entre ellas figuraría “la controversia, pero también el trabajar en temas calientes, una personalidad o apariencia peculiar, la credibilidad entre la comunidad científica o el conocer bien las necesidades de los periodistas y los medios”, resume Revuelta.

Roqué reconoce no identificar un patrón claro, pero apunta particularidades de los casos que más ha estudiado.

En el caso de Einstein, “además de su trabajo y de la capacidad de sugestión del lenguaje relativista, influyó mucho que apareciera en el periodo de entreguerras y que lo hiciera en paralelo al nacimiento del periodismo científico especializado, para el que su figura resultó instrumental”.

La exposición a la prensa de Curie, por su parte, la hizo “consciente de que si no se construía como personaje público alguien lo haría por ella”, de ahí sus textos biográficos y los de su propia hija, que modelaron su personalidad pública y actuaron como “biografías de control”.

La popularidad de Tesla tiene para Roqué “poco que ver con lo que hizo y mucho con el tratamiento que se le dio, realzando la dimensión trágica, focalizándose en el individuo y ocultando las redes a su alrededor”.

La fama interna. De la granja a la cabina

Para el arquitecto y filósofo George Franck, “hay dos motivos que impulsan la decisión de emprender una carrera científica: la curiosidad y la vanidad”. Esta última ligaría con la aspiración a la fama, aunque cada vez más textos abran el debate de la importancia de ser conocido dentro del mundo científico como mera herramienta de supervivencia y progreso.

La ciencia aspira a la objetividad, pero “la hacen personas y todas ellas tienen su subjetividad”, reconoce Revuelta. “A la hora de escoger un proyecto en una convocatoria competitiva, de revisar un artículo para su publicación o de otorgar un premio, nuestros juicios se ven marcados sin duda por la subjetividad, y en esta lo conocido tiene prioridad ante lo desconocido, por lo general”.

Hilleman no acumula apenas miliDarwins, y para los estudiantes jóvenes era un gruñón más o menos anónimo en las reuniones del sida. Pero sí fue reconocido por sus pares más directos.

HillemanHilleman en los 2000. / Lorraine Hilleman

Además de múltiples premios, parte de la flor y nata científica se reunió en Filadelfia para homenajearlo unos meses antes de morir. Esa noche se lo agradeció diciendo: “No hay mayor tributo que se pueda rendir a un científico que recibir el visto bueno de un colega. A todos ustedes los considero pares en el mundo de la ciencia”.

El periodista de la revista Nature escribió: “Dirigida a un grupo de más de cien personas, la declaración era claramente absurda. Desde cualquier punto de vista objetivo, una reunión de pares científicos de Maurice Hilleman no llenaría una cabina telefónica”.

Para Roqué, más allá del anonimato de Hilleman, “lo que me parece sorprendente es casi que alguien sea famoso, particularmente en la ciencia”.

Probablemente la personificación sea siempre algo injusta, y más en el mundo científico, donde el trabajo es cada vez más coral, competitivo en la distancia pero necesariamente colaborativo. Seguramente este artículo también lo sea.

Sobre el autor:

Jesús Méndez es médico y periodista científico.

Este artículo apareció publicado originalmente en SINC el 11 de abril de 2022.

Para saber más:

Vacunas: El arte de salvar vidas
Dudas sobre las vacunas: problemas y soluciones

 

El artículo Si Maurice Hilleman es la persona que más vidas ha salvado, ¿por qué no le conoces? se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

IV Jornada Nacional de Evolución y Neurociencias: Filosofía e inteligencia artificial

Sat, 2022/06/18 - 11:59

inteligencia artificial

¿Estamos realmente diseñados para conectar con los demás? Si es así, ¿por qué siguen existiendo los psicópatas? ¿Se pueden tratar trastornos delirantes como la paranoia desde el punto de vista de la evolución? O ¿cómo ha cambiado la atracción sexual desde la época de nuestros ‘abuelos’ homínidos hasta ahora?

A estas y otras cuestiones relativas a la evolución del comportamiento humano se trató de dar respuesta durante la IV Jornada Nacional de Evolución y Neurociencias, evento organizado por la Cátedra de Cultura Científica de la UPV/EHU y la Red de Salud Mental de Bizkaia, que tuvo lugar los días 28 y 29 de abril en el Bizkaia Aretoa – UPV/EHU de Bilbao.

Desde que en 2017 un grupo de psiquiatras de la Red de Salud Mental de Bizkaia organizara la primera edición de esta jornada, la cita se ha convertido en un punto de encuentro para profesionales de distintos ámbitos científicos como la psiquiatría, la psicología, la biología o la filosofía con un interés común: la conducta humana desde una perspectiva evolucionista y su divulgación científica en un formato accesible y ameno para todos los públicos, a la par que riguroso y actualizado.

La inteligencia artificial es una realidad que está empezando a permearlo todo. Quizás mucho más de lo que nos gustaría reconocer. Es hora a empezar a pensar seriamente en qué es, qué significa y qué implicaciones tiene su diseño y su uso. Es hora de la filosofía. Santiago Sánchez-Migallón es profesor de filosofía y autor de La máquina de von Neumann.



Para saber más:

En el control de la inteligencia artificial nos jugamos el futuro

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo IV Jornada Nacional de Evolución y Neurociencias: Filosofía e inteligencia artificial se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El perfil lipídico de la lágrima

Fri, 2022/06/17 - 11:59
lágrimaFoto: Umesh Soni / Unsplash

La lágrima tiene una estructura y composición complejas, que mantienen la superficie del ojo húmeda y lubricada, la protege de los patógenos, favorece la cicatrización de las heridas y proporciona una transparencia visual óptima. La película lagrimal contiene una capa lipídica que actúa principalmente como interfaz entre la capa acuosa del ojo y el aire exterior. Dicha capa lipídica está compuesta por una fina capa de lípidos polares que interactúa con la capa mucoacuosa del ojo y sirve de anclaje, y una capa más gruesa de lípidos no polares (que no interactúan con el agua) en la interfaz con el aire.

“El ojo seco tiene una alta prevalencia en la población, sobre todo en mujeres a partir de los 40-50 años. Se trata de una patología que, aunque no es grave, es molesta en el día a día —explica la investigadora Ikerbasque Arantxa Acera—. Los tratamientos habituales para el ojo seco son los sustitutivos de la lágrima, entre los que se encuentran los colirios de hemoderivados como el colirio de plasma enriquecido en factores de crecimiento, que se obtiene de la sangre del propio paciente (los denominados colirios autólogos). Aunque puede ser un proceso un tanto tedioso, realmente no es una terapia cara, sino novedosa y desconocida”.

En ese sentido, el Grupo Oftalmo-Biología Experimental (GOBE) de la UPV/EHU ha realizado un estudio cuyo fin sería conocer mejor la composición de este tipo de colirios “para establecer tratamientos personalizados en función del tipo de ojo seco que tenga el paciente (ojo seco acuodeficiente, evaporativo o mixto)”, añade Acera. Para eso, analizaron qué tipo de lípidos había en el colirio, y los compararon con los lípidos existentes en la lágrima.

El colirio como lágrima personalizada

“Hemos querido saber si este tipo de colirios tiene una composición apropiada para una medicina más personalizada; quizás, si hay algún lípido que falta en el colirio biológico, el objetivo podría ser enriquecerlo con ese lípido”, explica Acera. En el estudio han constatado que “realmente la composición lipídica del colirio autólogo y de la lágrima no es la misma. En el plasma hay gran cantidad de lípidos; sin embargo, en la película lagrimal hay dos lípidos anfipáticos muy importantes, que anclan la parte apolar con la parte acuosa de la lágrima, que no existen en el plasma”.

En este contexto, el grupo de investigación GOBE ha puesto en marcha en colaboración con el Hospital de Basurto, Hospital Donostia, el Instituto Clínico-Quirúrgico de Oftalmología (ICQO) y el Hospital Miguel Servet de Zaragoza “un estudio clínico multicéntrico, para analizar el perfil lipídico de la lágrima de pacientes con diferentes tipos de ojo seco, para conocer qué lípido está alterado en estos pacientes y determinar qué terapia puede ser la más adecuada en cada caso”, explica la investigadora Ikerbasque.

Por otro lado, el Hospital Donostia ha promovido un ensayo clínico con plasma enriquecido en un grupo de pacientes con ojo seco secundario, ya que este tipo de colirios “no están cubiertos por la sanidad pública”, y la investigadora destaca la importancia de “seguir investigando para poder llegar a incorporar este tipo de tratamientos al sistema público” y de “avanzar en el desarrollo de tratamientos personalizados, adaptados al tipo de ojo seco de cada paciente”.

Referencia:

Arantxa Acera, Beatriz Abad, Xandra Pereiro, Francisco David Rodríguez, Noelia Ruzafa, Juan Antonio Duran, Elena Vecino Comparative study of the lipid profile of tears and plasma enriched in growth factors Experimental Eye Research doi: 10.1016/j.exer.2022.109061

Para saber más:

Párkinson en una lágrima

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El perfil lipídico de la lágrima se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El diapasón: de la cocina al laboratorio, pasando por la orquesta

Thu, 2022/06/16 - 11:59

Cada vez se lo ve menos en los conciertos. Desde que tenemos afinadores digitales, su tatarabuelo analógico ha ido cayendo poco a poco en desuso. Pero si tienes un amigo músico un poco friki, o si alguna vez has asistido al ensayo de un coro, por ejemplo, es posible que todavía hayas visto uno. Se trata del diapasón, un curioso objeto metálico en forma de horquilla (o de Y), con dos brazos paralelos y un único pie, rematado por una pequeña bola en la punta inferior. Durante siglos, fue el invento que los músicos profesionales utilizaron para afinar sus instrumentos. Pero además, a finales del siglo XIX, se convirtió en uno de los instrumentos de alta precisión de la física, una especie de láser acústico que nos permitió crear los primeros sonidos sintéticos de la historia y ayudó a medir la velocidad de la luz con una precisión sin precedentes1.

 

diapasónMovimiento (exagerado) de un diapasón vibrando a una frecuencia de 440 Hz. Fuente: Wikimedia Commons

¿Pero qué tiene de especial este pequeño resonador? Bien, como sucede a menudo en el mundo de la acústica, la gracia del diapasón está en su forma. Gracias a sus dos brazos alargados, este instrumento es capaz de producir uno de los sonidos más puros de la acústica; una frecuencia fundamental sin apenas armónicos superiores2. Su tono resulta muy reconocible y estable (óptimo para afinar, precisamente), y apenas se desafina con el tiempo. La frecuencia del diapasón depende únicamente de la longitud y la masa de sus brazos, que oscilan en oposición, pero además, su vibración se transmite a la base en dirección longitudinal, de manera que es posible amplificar su sonido apoyándolo contra una superficie o tabla acústica. Se podría comparar el diapasón con un láser de sonido3: un instrumento capaz de producir una onda sinusoidal prácticamente pura, con una frecuencia estable y bien definida.

Pero los orígenes del diapasón no se encuentran en la física. Ni siquiera en la música. Para encontrar la cuna de este instrumento debemos acudir a los otorrinos y a las vibraciones de un humilde tenedor.

Su origen en el tenedor

De acuerdo con Harald Feldmann4, la historia del diapasón comienza con el descubrimiento de que ciertas vibraciones pueden ser transmitidas y escuchadas a través de los huesos de la cabeza, sin que viajen necesariamente a través del aire.

Girolamo Cardano, hoy más conocido como matemático, fue el primero en describir este fenómeno en el siglo XVI. Cardano era médico y astrólogo, y un genio de sorprendentemente multidisciplinar. Entre sus inventos se encuentran el eje cardán (hoy en uso en diversos vehículos) y la suspensión de la brújula de los barcos. También se le asocia con uno de los primeros métodos para resolver ecuaciones de tercer y cuarto grado, si bien parece que se apropió de las ideas de otros contemporáneos (como Targaglia) para publicar su solución. En su libro “De subtilitate” (1550), describe cómo al sujetar una varilla con los dientes, cualquiera puede percibir sonidos, “distinguir voces y oír palabras distantes, que no podría oír de otro modo”5.

Poco más tarde, otro médico de Padua llamado Hieronimus Capivacci pensó en utilizar este fenómeno como método diagnóstico. Si un paciente sordo podía percibir el sonido de una cítara sosteniendo entre los dientes una varilla metálica en contacto con el instrumento, entonces era posible concluir que “la sordera se debe a una enfermedad de la membrana timpánica”. En caso contrario, la causa de su condición debía hallarse en el nervio, en la percepción misma del oído.

Gunther Christoph Schelhammer, también médico, fue el primero en experimentar con la cubertería para realizar este mismo experimento. En 1684 describió cómo el sonido de un tenedor en vibración puede ser escuchado nítidamente a través de los huesos al sostenerlo entre los dientes. Al igual que Capivacci, proponía utilizar este test para diagnosticar distintos tipos de sordera.

diapasónTenedor de la primera mitad del s.XVII. Fuente: Internet Archive

Cabe aclarar que, en aquella época, los tenedores solían ser mucho más parecidos a lo que hoy conocemos como un trinchador. El invento había llegado a Europa a principios del siglo XI de la mano de la princesa Teodora Ana Ducaina, hija del emperador de Bizancio. Teodora se negaba a mancharse las manos para comer y pidió que le fabricasen algún tipo de utensilio para pinchar los alimentos. El invento no se empezó a popularizar hasta mucho después. En el siglo XVI Catalina de Medici lo puso de moda en la corte de Francia, pero aún entonces era considerado una cursilada propia de los aristócratas finolis. Europa no dejó de comer mayoritariamente con las manos hasta el siglo XVIII.

Viajando solo un poco más atrás en el tiempo, encontramos que los tenedores de finales del siglo XVII a menudo tenían únicamente dos puntas alargadas. Esto explica que Schelhammer quisiese aprovechar sus excelentes propiedades acústicas para diagnosticar a sus pacientes. Estas propiedades eran probablemente bien conocidas en su época. Sin embargo, una antigua superstición alemana prohibía hacer sonar estos tenedores de mesa. Se creía que su timbre podía atraer al demonio. No en vano, en la iconografía cristiana, el señor de las tinieblas porta un enorme tridente con el que trinchar las almas pecadoras. Por suerte, Schelhammer no se dejó amedrentar por semejantes creencias. Fue el primero en utilizar el tenedor de dos puntas como un instrumento acústico con finalidades científicas.

En los años siguientes, los esfuerzos de la medicina se centraron en explotar la conducción ósea para mejorar la audición de las personas con problemas en el tímpano. Por otro lado, el tenedor de dos puntas encontró pronto una utilidad inesperada en el mundo de la música.

Notas y referencias:

1Kleppner, D. (2007). Master Michelson’s measurement. Physics Today, 60(8), 8-9. DOI: 10.1063/1.2774115

2Ojo simplificación. En el momento de golpear el diapasón, sí se producen otras frecuencias distintas de la fundamental, pero estas tienden a decaer rápidamente en el tiempo. Cuando la señal se estabiliza, el armónico más prominente tiene una frecuencia que es 6 veces la de la fundamental (mucho más aguda, por tanto, y apenas perceptible).

3Otra simplificación. Un láser de luz, además de producir una frecuencia “pura”, está colimado. No solo tiene coherencia temporal, sino también espacial. En este caso, comparamos el diapasón con un láser por su capacidad de producir una única frecuencia sonora.

4Feldmann, H. (1997). History of the tuning fork. I: Invention of the tuning fork, its course in music and natural sciences. Pictures from the history of otorhinolaryngology, presented by instruments from the collection of the Ingolstadt German Medical History Museum. Laryngorhinootologie, 76(2), 116–122. DOI: 10.1055/s-2007-997398

5Cardano, G. (2013), p. 709. The De Subtilitate of Girolamo Cardano (J. M. Forrester, Ed.; J. Henry & J. M. Forrester, Trans.). ACMRS (Arizona Center for Medieval and Renaissance Studies), Tempe, Arizona. Obra original de 1550.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El diapasón: de la cocina al laboratorio, pasando por la orquesta se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Universo pandigital

Wed, 2022/06/15 - 11:59

En esta entrada del Cuaderno de Cultura Científica vamos a hablar de un concepto sencillo, pero que da mucho juego, los números pandigitales.

Se dice que un número es pandigital si está formado por todas las cifras básicas (incluyendo o no, el número 0), de forma que cada cifra aparece una única vez, como en los números 321.576.984 (sin incluir el 0) o 9.753.102.468 (incluyendo el 0). A estos números en los que cada cifra básica aparece una única vez se les denomina números pandigitales restringidos, en contraposición con los números pandigitales redundantes en los que hay repeticiones de cifras básicas, es decir, cada dígito aparece al menos una vez, como en los números 1.223.445.667.889 o 10.203.040.506.070.809.

Existen 9! = 362.880 números pandigitales restringidos sin cero, desde el número 123.456.789, que es el más pequeño, al número 987.654.321, que es el mayor. Esto se debe a que todos los números pandigitales restringidos sin 0 se obtienen mediante todas las permutaciones de las nueve cifras básicas {1, 2, 3, 4, 5, 6, 7, 8, 9}, de manera que cada permutación da lugar al número pandigital que consiste en las cifras del 1 al 9 colocadas en el orden que determina la permutación (por ejemplo, la permutación {2, 4, 6, 8, 1, 3, 5, 7, 9} tiene asociado el número 246.813.579 o la permutación {2, 1, 4, 3, 6, 5, 8, 7, 9} el número 214.365.879), luego como existen 9! permutaciones de nueve elementos (véase la entrada Buscando lagunas de números no primos), esta es la cantidad de números pandigitales restringidos sin cero que existen.

Por otra parte, cada uno de los números pandigitales restringidos de los anteriores, sin cero, como 123.456.789 da lugar a nueve números pandigitales restringidos con cero, en función de en cuál de las 9 posiciones posibles coloquemos la cifra 0. Así, el número 123.456.789 da lugar a los nueve números que van desde 1.023.456.789 hasta 1.234.567.890. Por lo tanto, en total hay 9 x 9! = 3.265.920 números pandigitales restringidos con cero. Respecto a los números pandigitales redundantes, con o sin cero, claramente existen infinitos.

Ejemplos curiosos de números pandigitales

A. El número pandigital restringuido más pequeño es 123.456.789 (sin cero) y 1.023.456.789 (con cero), mientras que el más grande es 987.654.321 (sin cero) y 9.876.543.210 (con cero).

El número pandigital 123.456.789 es un número curioso ya que si lo multiplicamos por 8 nos da otro número pandigital, que casi (con la excepción del “12” y “21”) es el recíproco del anterior, 123.456.789 x 8 = 987.654.312. Más aún, multiplicando por 2, 4, 5 y 7 seguimos teniendo números pandigitales.

123.456.789 x 2 = 246.913.578,

123.456.789 x 4 = 493.827.156,

123.456.789 x 5 = 617.283.945,

123.456.789 x 7 = 864.197.523,

123.456.789 x 8 = 987.654.312.

Si tomamos números pandigitales restringidos, que incluyan el cero, también nos encontramos ejemplos tales que algunos de sus múltiplos también son pandigitales. Por ejemplo, el número pandigital 1.098.765.432 al multiplicarlo por 2, 4, 5 y 7 da como resultados números pandigitales.

1.098.765.432 x 2 = 2.197.530.864,

1.098.765.432 x 4 = 4.395.061.728,

1.098.765.432 x 5 = 5.493.827.160,

1.098.765.432 x 7 = 7.691.358.024.

O el número pandigital (sin cero) 987.654.321 se transforma en números pandigitales (con cero) al multiplicarlo por 2, 4, 5, 7 y 8.

987.654.321 x 2 = 1.975.308.642,

987.654.321 x 4 = 3.950.617.284,

987.654.321 x 5 = 4.938.271.605,

987.654.321 x 7 = 6.913.580.247,

987.654.321 x 8 = 7.901.234.568.

Más aún, la diferencia entre este, el número pandigital restringido (sin cero) más grande, y 123.456.789, el número pandigital restringido (sin cero) más pequeño, sigue siendo un número pandigital (sin cero).

987.654.321 – 123.456.789 = 864.197.532.

B. No existen números pandigitales restringuidos primos.

Recordemos que los números primos son aquellos números que solamente se pueden dividir por 1 y por ellos mismos, como los números 2, 3, 5, 7, 11, 13 o 19, mientras que números como 6, que también se puede dividir por 2 y 3, o 25, también divisible por 5, no son primos. Sabemos que no existen números pandigitales restringidos primos por el criterio de divisibilidad del número 9, es decir, un número es divisible por 9 si, y sólo si, la suma de sus dígitos es divisible por 9 (véase la entrada Las curiosas reglas de divisibilidad), puesto que la suma de los dígitos de un número pandigital restringido, tenga o no cero, es igual a 45, que es divisible por 9.

Pero sí existen números pandigitales redundantes primos. Los primeros (con cero) son 10.123.457.689, 10.123.465.789, 10.123.465.897, 10.123.485.679, etc., que forman la sucesión denominada A050288 en la Enciclopedia On-line de Sucesiones de Números Enteros (OEIS).

pandigitalesNúmero pandigital redundante primo más pequeño

 

Si consideramos los números pandigitales redundantes sin cero, entonces el primer primo es 1.123.465.789, seguido de los siguientes 1.123.465.879, 1.123.468.597, 1.123.469.587, 1.123.478.659, etc. que forman la sucesión A050290 de la Enciclopedia On-line de Sucesiones de Números Enteros.

C. El único número pandigital restringido sin cero (respectivamente con cero) que es “polidivisible” es 381.654.729 (resp. 3.816.547.290).

Recordemos, ya que no es un concepto habitual, que un número es polidivisible, también llamado mágico, si verifica las siguientes propiedades: su primer dígito (por la izquierda) es no nulo, sus dos primeros dígitos (por la izquierda) forman un número divisible por 2, el número formado por los tres primeros dígitos es divisible por 3, el formado por los cuatro primeros dígitos es divisible por 4, y así hasta que terminemos con los dígitos del número.

Por lo tanto, el número pandigital con cero 3.816.547.290 es polidivisible ya que 38 es divisible por 2 (38 : 2 = 19), 381 es divisible por 3 (381 : 3 = 127), 3.816 es divisible por 4 (3816 : 4 = 954), 38.165 es divisible por 5 (38.165 : 5 = 7.633), 381.654 es divisible por 6 (381.654 : 6 = 63.609), 3.816.547 es divisible por 7 (3.816.547 : 7 = 545.221), 38.165472 es divisible por 8 (38.165472 : 8 = 4.770.684), 381.654.729 es divisible por 9 (381.654.729 : 9 = 42.406.081) y 3.816.547.290 es divisible por 10 (3.816.547.290 : 10 = 3.816.547.29).

pandigitales3.816.547.290, único número pandigital restringido con cero polidivisible

 

Por cierto, el número polidivisible más grande que existe tiene 25 dígitos y es el número 3.608.528.850.368.400.786.036.725.

D. El número pandigital restringido sin cero (respectivamente, con cero) más pequeño que es un cuadrado es 139.854.276 = 11.8262 (resp. 1.026.753.849 = 32.0432), mientras que el mayor es 923.187.456 = 30.3842 (resp. 9.814.072.356 = 99.0662), de un total de 30 (resp. 87) números pandigitales restingidos sin cero (resp. con cero) que existen.

La sucesión de los treinta números pandigitales restringidos sin cero que son cuadrados es la sucesión A036744 en la Enciclopedia On-line de Sucesiones de Números Enteros (139.854.276, 152.843.769, 157.326.849, 215.384.976, etc.), mientras que la sucesión A036745 es la formada por los ochenta y siete números pandigitales restringidos con cero que son cuadrados (1.026.753.849, 1.042.385.796, 1.098.524.736, 1.237.069.584, etc.).

E. El número 12.345.678.987.654.321 es un número pandigital redundante sin cero bastante curioso, ya que es capicúa (véase la entrada El secreto de los números que no querían ser simétricos), de hecho, el más pequeño posible entre los pandigitales sin cero, y cuadrado. Este número es igual al cuadrado del número formado únicamente por unos 111.111.111.

F. Potencias de 2 pandigitales.

Busquemos potencias de 2 que sean pandigitales. Si vamos analizando las diferentes potencias de 2, tenemos que hasta la potencia 27 no tenemos un número con nueve cifras (227 = 134.217.728), pero no es pandigital. De hecho, no existen potencias de 2 que sean números pandigitales restringuidos. La primera potencia de 2 que nos da un número pandigital redundante sin cero es 51, ya que 251 = 2.251.799.813.685.248, que claramente es pandigital. La siguiente es 67, que da lugar al número pandigital redundante sin cero 147.573.952.589.676.412.928. Existen cuatro potencias de dos más que nos dan números pandigitales redundantes sin cero, que son 72, 76, 81 y 86. Más aún, 86 es la potencia k más alta conocida para la que 2k no contiene la cifra 0 entre los dígitos de su expresión decimal. Es un problema abierto si existe otra potencia k con esta propiedad.

Por otro lado, la primera potencia de 2 que nos da un número pandigital redundante con cero es 68. En concreto, 268 = 295.147.905.179.352.825.856. Y van apareciendo cada vez más de estas potencias, 70, 79, 82, 84, 87, 88, 89, etc. hasta llegar a 167. Entonces, tenemos 168 que es la última potencia conocida para la que 2168 no es un número pandigital redundante con cero. De hecho, existe la conjetura de que todas las potencias 2k, con k mayor que 168, son pandigitales.

El número 2 elevado a 168 no es un número pandigital, ya que no contiene la cifra 2 entre sus dígitos

 

Rompecabezas numéricos pandigitales

Los números y expresiones numéricas pandigitales han formado parte de las revistas y libros de rompecabezas matemáticos desde hace muchísimo tiempo. A continuación, vamos a mostrar algunos ejemplos clásicos.

A. El siglo digital.

Un problema clásico de este estilo es el que aparece ligado a dos de los más grandes creadores de juegos lógicos y rompecabezas matemáticos, el estadounidense Sam Loyd (1841-1911) y el inglés Henry E. Dudeney (1857-1930), quienes colaboraron por correspondencia durante un tiempo, hasta que el inglés acusó al norteamericano de robarle sus rompecabezas y publicarlos con su nombre. El pasatiempo que vamos a incluir a continuación aparece con el nombre El siglo digital en el libro de Dudeney Diversiones matemáticas (1917) y en el libro de Loyd Cyclopedia de 5000 rompecabezas, trucos y acertijos con respuestas (1914), como El problema centenario.

El siglo digital: Con todas las cifras, del 1 al 9, en orden creciente, intercalar los signos «+» y «–» de forma que el resultado de la operación sea 100. Por ejemplo,

1 + 2 + 3 – 4 + 5 + 6 + 78 + 9 = 100.

Hay diez soluciones, aparte de la mostrada. Si el problema te atrae, intenta encontrar las quince soluciones del mismo problema, pero donde las cifras se colocan en orden decreciente.

Nota: También podrían considerarse otras operaciones como la multiplicación “x” o la división “:” y cualquier orden, no solo los órdenes creciente y decreciente.

Este es un problema muy sencillo que incluimos en las tarjetas de pasatiempos matemáticos del proyecto Marzo, Mes de las Matemáticas, del año 2021. Podéis verlo, con su solución, en la página web del proyecto marzomates.

B. Sumas pandigitales.

En general, este tipo de problemas son de la forma ABC + DEF = GHI, donde las letras corresponden a las nueve cifras básicas no nulas, del 1 al 9, o incluso, a nueve de las 10 cifras básicas, incluyendo el cero. También, puede tenerse la forma ABC + DEF = GHIK, con las diez cifras básicas.

De nuevo, encontramos los primeros ejemplos en los problemas del británico Henry E. Dudeney, en su libro Diversiones matemáticas / Amusements in mathematics (1917). El problema 79 con el título El rompecabezas de las taquillas, que fue originalmente publicado en la revista británica Tits-Bits, en 1897.

El rompecabezas de los casilleros: Un hombre tenía en su oficina tres armarios, cada uno de los cuales contenía nueve casilleros, como se muestra en el diagrama. Le dijo a su empleado que colocara un número de una cifra diferente en cada taquilla del armario A, y que hiciera lo mismo en el caso de B, y de C.

Ahora bien, el empresario no dijo que los armarios debían ser numerados en ningún orden numérico, y se sorprendió al encontrar, cuando el trabajo estaba hecho, que las cifras habían sido aparentemente mezcladas indiscriminadamente. Al pedirle explicaciones a su empleado, el excéntrico muchacho le dijo que se le había ocurrido ordenar las cifras de manera que en cada caso formaran una simple suma, las dos filas superiores de cifras producían la suma de la fila inferior. Pero el punto más sorprendente era éste: que los había dispuesto de tal manera que la suma en A daba la menor suma posible, que la suma en C daba la mayor suma posible, y que los nueve dígitos de los tres resultados totales de las sumas eran diferentes. El acertijo consiste en mostrar cómo se puede hacer esto. No se admiten decimales y el cero no puede aparecer en el lugar de la centena.

Es decir, nos está pidiendo que busquemos tres sumas del tipo ABC + DEF = GHI, como comentábamos al principio. La solución a este problema, aunque os animo a que la encontréis vosotros mismos, es la siguiente. La suma más pequeña de este tipo es 107 + 249 = 356 (que iría en el primer armario), mientras que la suma más grande es 235 + 746 = 981, o también, 324 + 657 = 981 (una de ellas iría en el tercer armario). Como los resultados de esas dos sumas son 356 y 981, entonces el resultado de la suma del armario del centro debe de tener tres de las cifras restantes, es decir, 0, 2, 4, 7. Por lo tanto, las sumas posibles para el armario del centro son 134 + 586 = 720, 134 + 568 = 702 ó 138 + 269 = 407.

Una de las soluciones de El rompecabezas de los casilleros

 

En el mismo libro, Diversiones matemáticas (1917), Dudeney plantea otro interesante problema pandigital, el número 77, llamado dígitos y cuadrados.

Dígitos y cuadrados: Como se muestra en el siguiente diagrama, se han colocado las nueve cifras básicas en un cuadrado de manera que el número de la segunda fila es el doble que el de la primera fila, y el número de la fila inferior sea el triple del de la fila superior. Hay otras tres formas de ordenar los dígitos para obtener el mismo resultado. ¿Puedes encontrarlas?

Antes de comentar la solución a este rompecabezas pandigital, os animo, como siempre, a que os divirtáis buscando vosotras mismas las soluciones. En este problema nos están pidiendo que busquemos tres números, de tres dígitos, de manera que entre los tres tengan las nueve cifras básicas, del 1 al 9, que el segundo sea el doble del primero, que el tercero sea el triple del primero y que la suma de los dos primeros sea el tercero. Como puede verse en la anterior imagen, estas propiedades se cumplen para los tres números incluidos en ella, la terna (192, 384, 596): 192, 384 (= 192 x 2) y 596 (= 192 x 3), que entre los tres tienen las nueve cifras básicas y 192 + 384 = 596. Las otras tres soluciones por las que nos pregunta el rompecabezas son las ternas de números (219, 438, 657), (273, 546, 819) y (327, 654, 981). Una curiosidad más. Las cuatro ternas pueden dividirse en dos grupos de dos ternas, de manera que en cada uno de los dos grupos los tres números de una terna son anagramas (sus dígitos están escritos en otro orden) de los tres números de la otra terna: (192, 384, 596) y (219, 438, 657); (273, 546, 819) y (327, 654, 981).

Otro problema de este tipo aparece propuesto en el libro The Calculator Puzzle Book (1978), de Claude Birtwistle. Este rompecabezas, titulado Tres por tres, segunda parte, aunque con una escritura más literaria que la que proponemos aquí, nos plantea lo siguiente.

Tres por tres, segunda parte: Buscar tres números de tres dígitos ABC, DEF, GHI, que entre los tres tengan las nueve cifras básicas y tales que su suma y su producto sea la menor posible.

La solución sería la siguiente. Para empezar, pensemos en los tres números ABC, DEF y GHI que nos den la menor suma posible. Para ello, los dígitos de las centenas A, B, C deben ser lo más pequeños posibles, luego deberían ser 1, 2 y 3. Y razonando de la misma forma para decenas y unidades, tenemos que la suma más pequeña es 147 + 258 + 369 = 774. Aunque si permutamos el orden de los dígitos de cada posición (centenas, decenas, unidades) se obtiene la misma suma, por ejemplo, 347 + 158 + 269 = 774 ó 368 + 249 + 157 = 774. Como el orden de la suma y del producto no importa, podemos considerar que A = 1, B = 2 y C = 3, luego tendremos 62 = 36 grupos de tres números con tres dígitos cuya suma sea 774 para ver cuánto es su producto. De todos ellos, el menor producto corresponde precisamente a 147 x 258 x 369 = 13.994.694.

Portada del libro The Calculator Puzzle Book (1978), Claude Birtwistle

 

C. Productos pandigitales.

Si miramos la historia de los rompecabezas matemáticos relacionados con los productos pandigitales nos encontramos de nuevo a los dos grandes creadores de juegos lógicos y rompecabezas matemáticos mencionados, Sam Loyd y Henry E. Dudeney. Según el matemático estadounidense David Singmaster la primera aparición de un problema de este tipo fue en la revista Tits-Bits, en 1897. Era el problema Malabares con las cifras de Sam Loyd y se pedía encontrar un producto ABCD x E = FGHIJ, tal que esté formado por las diez cifras básicas, del 0 al 9, y el resultado del producto sea el menor posible. La solución a este problema es 3907 x 4 = 15.628. Además, si nos piden que el resultado sea el mayor posible la solución sería 9.403 x 7 = 65.821.

En el libro Los acertijos de Canterbury (1907) de Henry E. Dudeney nos encontramos también algunos rompecabezas de este tipo, como el siguiente (que había sido publicado en el London Magazine, en 1902).

El acertijo del molinero: El Molinero llevó luego a la compañía hacia un rincón y les mostró nueve sacos de harina, que estaban colocados como se ilustra en la figura.

Ahora escuchad todos — les dijo—, pues os presentaré la adivinanza de los nueve sacos de harina. Y observad, caballeros y señores míos, que hay sólo un saco en cada extremo, cada cual seguido de un par, y tres sacos juntos en medio. Por San Benito, sucede que si multiplicamos el par 28 por su vecino, 7, el producto es 196, que ciertamente es la cifra que muestran los tres sacos del medio. Sin embargo, no es verdad que el otro par, 34, al ser multiplicado por el único saco en ese extremo, 5, resulte también 196. Por tanto, os ruego, gentiles señores, que recoloquéis los sacos con el menor trabajo posible, de tal forma que cada par, al ser multiplicado por su vecino, produzca el número del medio.” Ya que el Molinero ha estipulado, en efecto, que debe moverse la menor cantidad de bolsas posible, hay una sola respuesta a este acertijo, que todos deberían poder hallar.

El problema consiste en buscar el doble producto A x BC = DEF = GH x I formado por las nueve cifras básicas positivas, de 1 al 9, pero de forma que el número de movimientos de los sacos sea el menor posible. Si intentamos solucionar el problema aritmético A x BC = DEF = GH x I, tenemos las siguientes soluciones 2 x 78 = 156 = 39 x 4; 4 x 39 = 156 = 78 x 2; 3 x 58 = 174 = 29 x 6; 6 x 29 = 174 = 58 x 3. La que requiere menos movimientos de sacos es 2 x 78 = 156 = 39 x 4.

Otro rompecabezas en el mismo libro es Los bloques numerados, que dice así.

Los bloques numerados: Los niños de la ilustración han encontrado que se puede inventar una gran cantidad de acertijos muy interesantes e instructivos, a partir de cubos numerados; es decir, cubos que presenten los diez dígitos de las cifras arábigas —1, 2, 3, 4, 5, 6, 7, 8, 9 y 0―. El acertijo en particular con el que se han estado divirtiendo es dividir los bloques en dos grupos de cinco, y luego disponerlos en forma de dos multiplicaciones, en las que un producto sea igual al otro. El número posible de soluciones es muy considerable, pero ellos han dado con la disposición que da el menor producto posible. Así, 3.485 multiplicado por 2 es 6.970, y 6.970 multiplicado por 1 es lo mismo. Les resultará imposible conseguir un resultado menor.

Bien, mi acertijo consiste en hallar el mayor resultado posible. Dividan los cubos en dos grupos de cinco a gusto, y dispónganlos para formar dos multiplicaciones que resulten en el mismo producto y el más alto posible. Eso es todo, y sin embargo es un asunto que requiere bastante trabajo.

Por supuesto, no se permiten fracciones, ni tampoco trucos de ninguna especie. El acertijo es lo bastante interesante en la sencilla forma en que se los he dado. Quizás deba agregarse que los segundos factores pueden tener dos cifras.

En este caso, se busca solucionar el problema aritmético AB x CDE = FG x HIJ, utilizando las diez cifras básicas. La solución es 915 x 64 y 732 x 80, cuyo producto en ambos casos es 58.560

Podríamos contar mucho más sobre los rompecabezas de productos pandigitales y otros tipos de problemas de ingenio relacionados con las expresiones pandigitales, pero eso lo dejamos para otro día, que por hoy ya es suficiente.

Bibliografía:

1.- Raúl Ibáñez, La gran familia de los números, Catarata, 2021.

2.- Wolfram Mathworld: Pandigital number

3.- N. J. A. Sloane, Enciclopedia on-line de sucesiones de números enteros: oeis.org

4.- Wikipedia: Pandigital number

5.- David Wells, The Penguin Dictionary of Curious and Interesting Numbers, Penguin Books, 1986.

6.- Henry E. Dudeney, Amusements in Mathematics, Thomas Nelson and sons,1917 (el original puede verse en la librería Internet Archive).

7.- David Singmaster, Sources in recreational mathematics, an annotated bibliography

8.- Henry E. Dudeney, Los acertijos de Canterbury y otros problemas curiosos, Granica, 1988.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Universo pandigital se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Einstein y Willem de Sitter

Tue, 2022/06/14 - 11:59

Willem de Sitter fue un respetado astrónomo y físico holandés que contribuyó al nacimiento de la cosmología moderna. Fue uno de los primeros teóricos que interpretó la teoría general de la relatividad desde el punto de vista de su aplicación al conjunto del universo, incorporando la nueva teoría de Einstein a la astronomía y la cosmología.

de SitterDe izquierda a derecha, de pie, Einstein, Ehrenfest y De Sitter; sentados, Eddington y Lorentz, en la oficina de de Sitter en Leiden el 26 de septiembre de 1923. Fuente: Wikimedia Commons

De Sitter fue astrónomo en Leiden (Holanda), primero en la cátedra de astronomía de la Universidad de Leiden y después como director del Observatorio de Leiden. Estudió el Sistema Solar exhaustivamente y recalculó los movimientos de Júpiter y la Tierra. Sin embargo, se le recuerda más por su trabajo en cosmología, una ciencia que comenzó como tal gracias al trabajo de pioneros como él.

Desde el primer momento que escuchó hablar de las ideas de Einstein, de Sitter quiso aplicarlas a la astronomía. En 1911, después de estudiar la exposición de la teoría especial de la relatividad en el artículo de Einstein de 1905, de Sitter mostró que, si era cierto, el modelo de Einstein modificaría radicalmente todas las interpretaciones astronómicas basadas en el de Newton. En concreto, los movimientos de los planetas en el Sistema Solar no se ajustarían, de hecho, a las predicciones que durante mucho tiempo se consideraron ciertas. Entre 1916 y 1918, Einstein y de Sitter mantuvieron una abundante correspondencia sobre qué modelo de universo se ajusta mejor a las ecuaciones de la relatividad.

De Sitter desarrolló inicialmente un modelo esférico del universo, a diferencia del cilíndrico que Einstein había previsto. De Sitter también intentó trazar la forma de ese universo esférico en ausencia de materia. La reacción de Einstein al modelo de de Sitter fue enérgicamente negativa porque desobedecía algunas premisas importantes para Einstein. Entre ellas la esfera de de Sitter describía un universo que cambiaba de tamaño en vez de permanecer hermosamente constante.

Las objeciones de Einstein iban de lo científico a lo emocional. A nivel científico, ¿qué impedía que el universo se expandiese salvajemente? A nivel emocional, un universo en expansión significaba que yendo hacia atrás en el tiempo, el universo había sido más y más pequeño, comenzando en…nada. Esto significaba que el universo no había existido siempre. En algún punto en el tiempo, el universo había comenzado, lo que olía a superstición y religión.

La ausencia de materia en el universo de de Sitter también le tocaba las narices a Einstein. Einstein veía la materia, y su correspondiente gravitación, como lo que creaba inherentemente la forma del universo. Citó lo que llamaba el “principio de Mach”, una idea del físico austriaco Ernst Mach. El principio afirma que los movimientos de cualquier objeto en el universo están determinados por la distribución de todos los demás cuerpos en el universo. Dado que la manera en el que un cuerpo se mueve en el espacio es equivalente a la forma que tiene el espacio, el concepto de “forma” sin materia, insistía Einstein, no tiene sentido.

Einstein y de Sitter discutieron sus modelos en persona y por carta. Einstein llegó a decir inicialmente que debía haber algún tipo de defecto matemático en el modelo de de Sitter, algo que dijo de viva voz y que también llegó a publicar. Al final, sin embargo, mediante la correspondencia con de Sitter y con otros investigadores, Einstein tuvo que admitir que las matemáticas de de Sitter eran sólidas. No había pues ninguna objeción al modelo salvo que describía un universo no estático, algo metafísicamente imposible para Einstein.

de Sitter– Pero, Willem, tío, ¿no te das cuenta de que no queda bonito? – Las matemáticas cuadran, ¿qué me estás contando, Albert? Fuente: Wikimedia Commons

Por supuesto, Einstein estaba equivocado, y el hecho de que el universo efectivamente se expande sería demostrado, más allá de toda duda razonable, poco después por Edwin Hubble en 1929. Pero nada de esto se sabía entonces y Einstein se aferró a su creencia de que el universo no podía cambiar de tamaño. Así, aunque Einstein admitiese que no había ningún error matemático con el modelo esférico de de Sitter, ni lo aceptó expresamente, ni publicó una retractación de sus críticas previas.

Más allá del modelo de Sitter

Ni que decir tiene que el modelo de de Sitter siempre fue una versión sobresimplificada del universo. Sabemos positivamente que el universo tiene materia, y los modelos actuales difieren bastante de él. El modelo de de Sitter sí se incorporaría, no obstante, a la teoría del estado estacionario del universo. Mientras que el universo continúa expandiéndose, según esta teoría, se crea nueva materia continuamente de tal manera que la densidad no cambia con el tiempo. El universo no tendría ni principio ni fin.

En las décadas posteriores a la publicación por parte de Einstein de su teoría general de la relatividad en 1915, el aluvión de modelos y teorías sobre los orígenes del universo era inabordable para un cosmólogo que intentase mantenerse al día. En 1931, de Sitter, viendo lo que se había publicado en los últimos veinte años, escribió: “Nunca en toda la historia de la ciencia ha habido un período en el que las nuevas teorías e hipótesis aparezcan, florezcan y se abandonen con tanta rapidez como en los últimos quince o veinte años”. Y, sin embargo, ninguna hipótesis era satisfactoria, siempre había algo que quedaba fuera. En la reunión de enero de 1930 de la Royal Astronomical Society, de Sitter dio una charla sobre precisamente como ningún modelo era capaz de representar completamente el universo.

Seguirían apareciendo modelos incluso más hipotéticos. Después de que Hubble publicase sus descubrimientos sobre la expansión del universo, Otto Heckmann demostró que si un universo se expande y tiene materia no requiere que el espacio sea curvo. Otros modelos interesantes fueron publicados por Georges Lemaître y Alexander Friedmann.

Einstein y de Sitter publicaron un artículo conjuntamente en 1932 en los Proceedings of the National Academy of Sciences, en el que describen el que se conoce como modelo de Sitter-Einstein del universo. Era una solución bastante simple de las ecuaciones de la relatividad general de Einstein, pero el modelo incluía un universo en expansión, materia e, incluso, materia oscura. El modelo describe un espacio euclídeo, es decir, un espacio plano en el que la luz viaja en líneas rectas en vez de en curvas como describían los propios modelos anteriores de de Sitter y Einstein. En este nuevo modelo, el universo tiene un volumen total infinito y comienza en un big bang a partir de un minúsculo punto inicial. El universo también se expande en este modelo, aunque la velocidad de esta expansión disminuye con el tiempo y termina siendo cero.

Al mismo tiempo que se publicaba el artículo de Einstein y de Sitter, Richard Tolman escribió un comentario señalando que no había todavía suficiente información sobre la densidad, velocidad de expansión, o tipos de materia en el universo como para elegir el modelo ganador de todos los propuestos. Ahora décadas más tarde, hay muchos más datos y parece que se converge sobre una respuesta, el modelo Lambda-CDM, que es prácticamente euclídeo, como calcularon Einstein y de Sitter.

Referencia:

Einstein A, & de Sitter W (1932). On the Relation between the Expansion and the Mean Density of the Universe. Proceedings of the National Academy of Sciences of the United States of America, 18 (3), 213-4 doi: 10.1073/pnas.18.3.213

Para saber más:

Teoría de la invariancia (serie). Una introducción sin aparato matemático a los conceptos e ideas de la relatividad.
De la edad y tamaño del universo

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este artículo se publicó en Experientia Docet el 9 de agosto de 2009.

El artículo Einstein y Willem de Sitter se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Pages