Rumbo a Psique
Las misiones espaciales nos permiten estudiar el resto de los cuerpos de nuestro Sistema Solar, aunque a veces sea únicamente desde su órbita, pero lo suficiente como para descubrir detalles importantes sobre su estructura y composición, detalles que, desde la Tierra, debido a su lejanía, son muy difíciles de apreciar.
Algunos de los objetos más interesantes dentro del estudio de la geología planetaria son los asteroides, el material «sobrante» de la formación del Sistema Solar. En ellos podemos encontrar reflejados distintos momentos evolutivos, como fósiles que nos muestran las distintas etapas de la construcción de los planetas, con una gran diversidad que va desde los asteroides más primitivos y sin alterar hasta aquellos que podrían haber formado parte de cuerpos mucho más grandes, pero que a causa de los impactos sufrieron una fragmentación catastrófica.
De ahí que su estudio sea tan relevante, porque podríamos encontrar pistas que nos ayudasen a reconstruir todas las etapas de la formación de nuestro sistema planetario, especialmente aquellas que pueden no haber quedado preservadas en los planetas o satélites por todos los cambios que han sufrido a lo largo de 4500 millones de años de historia.

Una de las piezas de este puzle podría ser el asteroide 16 Psique, descubierto en 1852 por el astrónomo italiano Annibale de Gasparis, quien descubrió al menos otros nueve asteroides más. Este cuerpo, de unos 226 kilómetros de diámetro, llamó la atención de los astrónomos por como reflejaba la luz del Sol, en una proporción mucho más alta que otros asteroides, haciéndoles pensar que en realidad era un cuerpo principalmente metálico.
¿Y dónde podemos encontrar la mayor parte de los elementos metálicos que forman un planeta? Pues en el núcleo de estos, ya que, durante la etapa de diferenciación planetaria, los planetas todavía a muy alta temperatura empiezan a separar sus componentes químicos por densidad, hundiéndose los elementos más densos y ascendiendo los menos densos, dando lugar a la estructura por capas y la formación del núcleo metálico.
¿Cómo podría ser, entonces, que Psique fuese un cuerpo eminentemente metálico? Al principio, los científicos supusieron que podría ser el núcleo de un planeta que había sufrido colisiones tan violentas que habían arrancado la corteza y una gran parte del manto, dejando expuesto ese núcleo metálico que ahora se observaba. Pero la historia no acababa aquí.
Los estudios sobre su masa y densidad, en cambio, contaban una historia muy diferente: la densidad media estaba en torno a los 4 g/cm3, muy alejado de lo que sería un asteroide monolítico formado por metales. Las perturbaciones gravitatorias que ejercía sobre otros cuerpos cercanos corroboraban ese dato de densidad, por lo que no podía ser exclusivamente un cuerpo metálico o al menos monolítico.
¿Cómo era posible esa discrepancia tan importante entre los datos visuales y los de su masa? Pues era francamente difícil reconciliarlos: algunos autores comenzaron a pensar que podría ser un cuerpo muy poroso debido a los impactos, superando el 50% de porosidad. Esta porosidad podría haber sido la responsable de la baja densidad, pero los modelos físicos hasta el momento consideran poco probable que esto hubiese ocurrido.
Otras teorías apuntaban que podría ser el resultado de varias colisiones en las cuales se mezclase el componente rocoso y metálico de distintos cuerpos, generando una superficie mixta y variada.
Y desde luego, las últimas observaciones de radar muestran que es un cuerpo formado por una mezcla de componentes rocosos y metálicos, lo que parece que es el hecho responsable de que su densidad sea lo baja que parecen mostrar los demás datos, pero, si es así, ¿cómo está formado realmente?

Uno de los modelos más recientes afirma que, en realidad, Psique es un cuerpo diferenciado, con su corteza y mantos probablemente rocosos… como por ejemplo nuestro planeta. Pero aquí es donde viene lo interesante. Es posible que, tras su formación, Psique tuviese una gran actividad geológica fruto de su calor interno, parte de la cual se traduciría en fenómenos volcánicos.
Estos volcanes podrían haber emitido una lava metálica que provendría del núcleo de Psique, cubriendo parte de la superficie y dando ese aspecto tan reflectante que llamó la atención de los científicos. Eso no quiere decir que antes no hubiese lavas con un componente más silicatado, por ejemplo, simplemente que puede haber otro tipo de vulcanismo que en nuestro planeta no conocemos, por exótico que nos parezca.
De hecho, para comprobar esta hipótesis, un equipo de científicos ha fundido basaltos ricos en hierro, esperando que se segregasen por densidad los distintos elementos. Posteriormente, simularon una erupción para ver qué tipo de relieves podrían generarse en Psique a causa de la interacción entre coladas de lava “rocosas” y las metálicas, pero también las formas que estas lavas podrían generar independientemente sobre la superficie, para que cuando podamos ver la superficie de cerca podamos interpretar de la mejor manera lo que observamos.
No obstante, cabe la posibilidad que la historia de Psique sea todavía más compleja y que los modelos propuestos no sean más que capítulos en la agitada historia de un asteroide que puede ayudarnos a comprender mucho más sobre el nacimiento de nuestro Sistema Solar.

Desgraciadamente, el pasado día 24 de junio se retrasó la misión que debía visitar este asteroide, llamada Psique también y que tenía que despegar este año, hasta, probablemente, 2023 o 2024, por lo que tendremos todavía que esperar a acercarnos a este mundo tan apasionante.
Referencias:
Soldati, A., Farrell, J. A., Wysocki, R., & Karson, J. A. (2021). Imagining and constraining ferrovolcanic eruptions and landscapes through large-scale experiments. Nature Communications, 12(1). doi: 10.1038/s41467-021-21582-w
Matter, A., Delbo, M., Carry, B., & Ligori, S. (2013). Evidence of a metal-rich surface for the Asteroid (16) Psyche from interferometric observations in the thermal infrared. Icarus, 226(1), 419–427. doi: 10.1016/j.icarus.2013.06.004
Cambioni, S., de Kleer, K., & Shepard, M. (2022). The Heterogeneous Surface of Asteroid (16) Psyche. Journal of Geophysical Research: Planets, 127(6). doi: 10.1029/2021je007091
Para saber más:
Choques de asteroides, arte islámico y cuasicristales
De guijarro a asteroide en una trampa de polvo
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Rumbo a Psique se ha escrito en Cuaderno de Cultura Científica.
Familiares, amigos, amigas y personas conocidas

En promedio, dedicamos una quinta parte de nuestro tiempo de vigilia a relacionarnos con los demás. Pasamos alrededor de tres horas y media al día con otras personas en contextos sociales. Aunque ese tiempo puede parecernos mucho, lo cierto es que no lo es tanto, máxime si tenemos en cuenta con cuántas personas nos relacionamos habitualmente.
Hace ya unos cuantos años, Robin Dunbar propuso que el número aproximado de personas con el que nos relacionamos de forma habitual es de ciento cincuenta (el llamado número de Dunbar). En esa cifra se incluyen las personas con las que nos relacionamos en casa, el trabajo o la calle, y también aquellas con las que interactuamos en las redes sociales de internet.
Ahora bien, no nos relacionamos con todas ellas del mismo modo. Hay diferentes niveles de interacción. Las relaciones pueden, de hecho, visualizarse en una estructura de esferas concéntricas. En la más interna se encuentra la familia o, dependiendo de los casos, el núcleo de apoyo, el puñado de personas que ayudan en los momentos difíciles. Ese grupito lo forman alrededor de cinco personas. No obstante, quienes tienen una familia grande tienden a tener menos amistades cercanas y ocurre lo contrario con quienes no tienen apenas familiares. Otras diez personas, en promedio, son las amistades más cercanas. Treinta y cinco personas más son las que consideramos amigos o amigas. Y las cien que quedan hasta los ciento cincuenta, son las conocidas con las que tenemos trato frecuente.
Si hacemos el cálculo simple de dividir las tres horas y media entre las ciento cincuenta personas con las que nos relacionamos, obtenemos, en promedio, cerca de minuto y medio con cada una de ellas. Pero ese dato, en realidad, no dice gran cosa. El 40% del tiempo que dedicamos a relacionarnos con los demás, lo empleamos con el círculo más próximo. Eso significa que a cada una de esas personas le dedicamos unos diecisiete minutos al día. Igualmente, al grupo de buenos amigos le dedicamos el 20% del tiempo o, lo que es lo mismo, algo más de cuatro minutos diarios a cada uno. Por último, a cada una de las personas de las dos últimas esferas le dedicamos algo más de medio minuto diario.
A la hora de valorar esos datos, hay que tener en cuenta dos cosas. Por un lado, sobre todo en el caso de las personas pertenecientes a la categoría de amigos y conocidos, es muy normal que no se interactúe con ellos todos los días. Pueden pasar semanas, incluso, sin que se mantenga una conversación. Por lo tanto, en las ocasiones en que se mantiene, el tiempo de interacción puede ser bastante más largo. Por otro lado, muchas de esas interacciones no se desarrollan cara a cara, sino a distancia, ya sea por teléfono, mediante mensajería instantánea o a través de redes sociales de internet.
Otro elemento importante es la distancia a la que nos encontramos de todas esas personas. En este aspecto opera la regla de la media hora, el tiempo durante el que estamos dispuestos a desplazarnos para estar con alguna persona de nuestros círculos. Pero, curiosamente, la frecuencia con la que interactuamos a distancia con alguien es mayor cuanto más cerca de nosotros vive.
Por último, las relaciones cambian a lo largo de la vida: las personas entran o salen de esas esferas. Cuanto mayor sea la frecuencia con la que nos relacionamos con alguien, más probable es que la relación se prolongue. Por eso, si queremos que una relación se mantenga, conviene que la cultivemos. No sobrevive sin atención.
Fuente: Robin Dunbar (2021): Friendship-ology. New Scientist 249 (3324): 36-40.
Para saber más:
Nos relacionamos con ciento cincuenta personas
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Familiares, amigos, amigas y personas conocidas se ha escrito en Cuaderno de Cultura Científica.
IV Jornada Nacional de Evolución y Neurociencias: Manuel Martín Loeches – Carácter emocional e hipersocial del cerebro
¿Estamos realmente diseñados para conectar con los demás? Si es así, ¿por qué siguen existiendo los psicópatas? ¿Se pueden tratar trastornos delirantes como la paranoia desde el punto de vista de la evolución? O ¿cómo ha cambiado la atracción sexual desde la época de nuestros ‘abuelos’ homínidos hasta ahora?
A estas y otras cuestiones relativas a la evolución del comportamiento humano se trató de dar respuesta durante la IV Jornada Nacional de Evolución y Neurociencias, evento organizado por la Cátedra de Cultura Científica de la UPV/EHU y la Red de Salud Mental de Bizkaia, que tuvo lugar los días 28 y 29 de abril en el Bizkaia Aretoa – UPV/EHU de Bilbao.
Desde que en 2017 un grupo de psiquiatras de la Red de Salud Mental de Bizkaia organizara la primera edición de esta jornada, la cita se ha convertido en un punto de encuentro para profesionales de distintos ámbitos científicos como la psiquiatría, la psicología, la biología o la filosofía con un interés común: la conducta humana desde una perspectiva evolucionista y su divulgación científica en un formato accesible y ameno para todos los públicos, a la par que riguroso y actualizado.
El cerebro humano es una máquina especializada en desentrañar mentes. Y lo hace casi siempre inconscientemente, de manera rápida y eficaz. ¿Cómo? Sintiendo lo mismo que los otros. El cerebro humano es hipersocial y emocional mucho más que racional. Nos los cuenta Manuel Martín Loeches, catedrático de psicobiología de la Universidad Complutense de Madrid y responsable de la Sección de Neurociencia Cognitiva del Centro Mixto UCM-ISCIII de Evolución y Comportamiento Humanos.
Para saber más:
El gran encéfalo humano es un “encéfalo social”
Nuestro cerebro no piensa (y el de usted, tampoco)
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo IV Jornada Nacional de Evolución y Neurociencias: Manuel Martín Loeches – Carácter emocional e hipersocial del cerebro se ha escrito en Cuaderno de Cultura Científica.
El comportamiento social de una gota de saliva
La capacidad de transmisión de un virus es uno de los factores más importantes a tener en cuenta en el estudio de enfermedades infecciosas. La gran mayoría de virus se transmiten por vía oral. Cuando una persona tose, habla o estornuda, exhala al ambiente una serie gotas de saliva que contienen el virus y, por tanto, tienen una gran capacidad de contagio. El tiempo que estas gotas van a permanecer en el aire depende de la velocidad de evaporación que, a su vez, depende de diferentes variables. Estas variables, en consecuencia, afectan a la transmisión del virus. Como se suponía, y ahora se confirma, temperatura y humedad son las más relevantes.
“El objetivo de este trabajo es estudiar mediante simulaciones computacionales el comportamiento de una partícula de saliva expuesta a diferentes características ambientales de un entorno social”, señalan Ainara Ugarte Anero y Unai Fernández Gamiz, investigadores del Departamento de Ingeniería Nuclear y Mecánica de Fluidos de la UPV/EHU, en la Escuela de Ingeniería de Vitoria-Gasteiz.
Para estudiar cómo se comporta la gota de saliva a través del aire, los investigadores crearon una simulación computacional basada en la dinámica de fluidos (CFD-Computational Fluid Dynamics) que examina el estado de una gota de saliva que se mueve por el aire cuando una persona habla, tose o estornuda. “Esta simulación se realizó en un entorno controlado y simplificado, es decir, en lugar de analizar un estornudo general con una serie de partículas, nos centramos en el estudio de una sola partícula en un entorno cerrado. Para ello, lanzamos gotas de entre 0 y 100 micras de una altura de unos 1,6 metros —distancia a la que se encuentra más o menos la boca de un humano— y se consideraron los efectos de la temperatura, la humedad y el tamaño de la gota”, explica Unai Fernández Gamiz.
“Los resultados demuestran que la temperatura ambiente y la humedad relativa son parámetros que afectan significativamente al proceso de evaporación. El tiempo de evaporación tiende a ser mayor cuando la temperatura ambiente es menor. Y las partículas con menor diámetro se evaporarán rápidamente, mientras que a las de mayor diámetro les cuesta más. Algunas partículas grandes, de alrededor de 100 micras, pueden permanecer en el ambiente entre 60-70 segundos y en principio se transportan a una mayor distancia; por lo tanto, por ejemplo, puede que una persona estornude en un ascensor, salga del ascensor y las partículas sigan ahí. De ahí la importancia de la distancia de los dos metros de distancia de seguridad en entornos cerrados en el caso de la COVID-19. Según lo estudiado, parece que esa distancia puede resultar razonable para evitar más contagios en el caso de la Covid-19”, indica la primera autora del trabajo.
A esto hay que sumarle también la humedad. “En un ambiente húmedo la evaporación se produce más lentamente, por lo que el riesgo de contagio es mayor, ya que las partículas permanecen más tiempo en suspensión”, añade Ugarte.
Referencia:Ainara Ugarte Anero, Unai Fernandez Gamiz, Koldo Portal Porras, Ekaitz Zulueta y Oskar Urbina Garcia (2022) Computational characterization of the behavior of a saliva droplet in a social environment Scientific Reports doi: 10.1038/s41598-022-10180-5
Para saber más:Saliva, bacterias y oxitocina: ¿por qué nos gusta tanto besarnos?
Lo que funciona, y lo que no, contra la Covid-19
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El comportamiento social de una gota de saliva se ha escrito en Cuaderno de Cultura Científica.
Historias (geológicas) de la cripta
Una de las principales características que definen la saga de videojuegos de Silent Hill es su atmósfera. Para crear ese ambiente psicológicamente opresor típico de cualquier survival horror que se precie, aquí nos encontramos perdidos en un pueblo cubierto por una espesa niebla que te impide discernir si lo que tienes a escasos metros de distancia es un poste de teléfonos o un ser horrendo que no pretende darte un abrazo, precisamente. Cuando Silent Hill se llevó a la gran pantalla en 2006, el equipo técnico que desarrolló el film cambió ligeramente la historia original, haciendo que la protagonista se perdiera por un pueblo fantasma sobre el que cae, de manera constante, una fina lluvia de ceniza que lo envuelve todo con un manto grisáceo. Y le dan una explicación basada en hechos reales que, aunque no os lo creáis, tiene una base geológica, como no podía ser de otra manera.

Para ello debemos viajar a un pueblecito bucólico de Pensilvania, Estados Unidos, llamado Centralia. Nacido a mediados del siglo XIX gracias al descubrimiento de importantes yacimientos de carbón en toda la zona, la industria minera y extractora de este material se convirtió en su principal impulso económico. Pero, a comienzos de la década de los sesenta del siglo pasado, todo se convirtió en una pesadilla, al más puro estilo de las introducciones de los videojuegos de terror. Se produjo un incendio en una de las antiguas minas que alcanzó una de las vetas superficiales de carbón y el fuego se extendió sin control por todas las minas excavadas por debajo de la ciudad. Se abrieron grietas por el pavimento que se tragaban todo lo que pillaban por su camino, los depósitos subterráneos de combustible de la gasolinera alcanzaron temperaturas que presagiaban tremendas explosiones y surgieron gases tóxicos, humo y una lluvia constante de ceniza que empezó a cubrir toda la ciudad. Se intentó sofocar el incendio en múltiples ocasiones, pero todas infructuosas, porque mientras haya carbón bajo la tierra, el fuego permanecerá incontrolable durante décadas, incluso, siglos. A día de hoy, Centralia es un pueblo fantasma en el que apenas permanecen un puñado de habitantes.

Nos toca ahora cambiar de continente para conocer otra historia muy similar y también bastante tétrica. Para ello, debemos desplazarnos a la ciudad inglesa de Birmingham, la segunda más poblada del Reino Unido y cuna de la Revolución Industrial a mediados del s. XVIII debido a que se asienta en una zona con una abundante acumulación de depósitos de carbón. A las afueras de la ciudad encontramos una pequeña colina en cuya cima construyeron la Iglesia de San Andrew, con un cementerio con las tumbas excavadas en la tierra y las lápidas de piedra. Pues esa colina tiene niveles de carbón muy rico en gases inflamables que afloran casi en superficie, hasta el punto de que la caída de un rayo provoca que se prendan fuego. Y los gases, humo e incluso llamas resultantes de la combustión salen a la superficie… entre las lápidas del cementerio. Obviamente los habitantes de Birmingham de hace un par de siglos debían creer que se encontraban a la entrada del infierno cuando veían esto. Eso, o en la mismísima Racoon City de Resident Evil.

Pero la interrelación entre los depósitos de carbón estadounidenses y británicos no se queda en una mera anécdota terrorífica. El carbón es una roca sedimentaria de origen orgánico, formada por restos vegetales continentales acumulados y enterrados en zonas pantanosas o estuarinas y que han sufrido una descomposición en ausencia de oxígeno. Tras el paso de millones de años y debido a la compactación por enterramiento, esta materia orgánica termina por consolidarse, dando lugar a las rocas sedimentarias. Estas rocas, formadas principalmente por carbono, son capaces de generar energía por combustión, por lo que se emplean como combustible fósil desde hace milenios. Los principales depósitos de carbón se han formado a partir de los restos vegetales que poblaron los pantanos y el litoral de nuestro planeta a finales de la Era Paleozoica, en un Periodo geológico ocurrido hace entre unos 359 y 299 millones de años. Y el nombre de ese Periodo fue acuñado por dos geólogos británicos a comienzos del siglo XIX estudiando las rocas que afloraban en su tierra. Como no podía ser de otra manera, lo llamaron Carbonífero, del latín “portador de carbón”. Pues siguiendo con la tradición geológica de subdividirlo todo, en Estados Unidos partieron en dos mitades al Periodo Carbonífero y, a la parte final del mismo (desde hace unos 323 a 299 millones de años), la denominaron Pensilvaniense en honor al estado de Pensilvania por la enorme abundancia de depósitos de carbón de esa zona. Y si aún queréis unir más a las ciudades de Birmingham y Centralia, a finales del Carbonífero Norteamérica y las Islas Británicas formaban parte de una misma masa continental, Laurrusia, a lo largo de la cual se desarrollaron las enormes masas vegetales que circundaban extensos pantanos bajo un clima subtropical y que, millones de años después, dieron lugar a los depósitos de carbón explotados en ambas localidades.
No siempre es fácil verlo, pero la Geología impregna por completo todo nuestro sesgo cultural, independientemente de la época en la que nos encontremos. Así, una curiosidad geológica puede convertirse tanto en una leyenda demoníaca como en inspiración para la ambientación terrorífica de una película basada en un videojuego. Lo más divertido es buscar el origen científico de todo ello.
Para saber más:Una extinción de novela policiaca
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Historias (geológicas) de la cripta se ha escrito en Cuaderno de Cultura Científica.
Mary Wynne Warner, la matemática viajera que pasó de la topología algebraica a la difusa
No es sencillo dedicarse a la investigación cuando, por necesidades familiares, los cambios de domicilio son continuos, y a lugares con culturas diversas. No es fácil pasar de las matemáticas abstractas a las aplicadas. Mary Wynne Warner brilló como investigadora a pesar de sus obligaciones como “esposa de un diplomático”, de ser madre de dos hijas y un hijo, y de tener que cambiar de la topología algebraica a la topología difusa. ¿Su receta? Talento, capacidad de adaptación y un admirable empeño.

Mary Wynne Davies nació el 22 de junio de 1932 en Carmarthen, en el sur de Gales. Su madre se llamaba Esther (1899-1982) y su padre Sydney (1901-1978); Mary era la mayor de las dos hijas del matrimonio. Cuando Mary tenía 6 años, la familia se mudó a Llandovery; el padre había sido nombrado director de una escuela primaria, a la que Mary asistió como alumna, una alumna muy destacada.
Estaba decidida a estudiar matemáticas, y en 1951 ingresó en la Universidad de Oxford para cumplir su sueño, graduándose en 1953. Obtuvo una beca de investigación para realizar su trabajo de doctorado en Oxford. Su supervisor fue el conocido matemático Henry Whitehead (1904-1960), quien lideraba un grupo muy activo en topología algebraica. Mary se incorporó a este equipo, y realizó grandes progresos en su investigación. En 1956 publicó su primer trabajo, A note on Borsuk’s antipodal point theorem, en la revista Oxford Quarterly Journal of Mathematics.
Un doctorado fallido y otro diez años más tardeLamentablemente, Mary no completó su doctorado bajo la supervisión de Whitehead. Había conocido a un estudiante de historia en Oxford, Gerald Warner, quien se graduó en 1954 y se unió al Servicio Diplomático en la Rama de Inteligencia. Cuando le destinaron a China, Mary y Gerald decidieron casarse. Lo hicieron en 1956, y poco después partieron hacia Beijing.
La vida de Mary cambió radicalmente, su apellido pasó a ser Warner, era la esposa de un diplomático, terminar la tesis no era posible lejos de Oxford y con sus nuevos compromisos. Aunque no renunció a las matemáticas: en Beijing conoció al topólogo chino Chang Su-chen, otro discípulo de Whitehead.
Sus reuniones de trabajo duraron poco tiempo. China estaba sufriendo un profundo cambio; entre 1955 y 1957, Mao Zedong impulsó el movimiento Sufan y el movimiento antiderechista: más de medio millón de personas fueron perseguidas, la mayoría intelectuales y disidentes. Chang Su-chen le comunicó a Mary que sus reuniones para hablar de matemáticas resultaban sospechosas para su gobierno y podían causarles graves problemas. Las matemáticas terminaron en 1958 en Beijing, año en el que nació la primera hija de los Warner, Sian. Poco después, la familia regresó a Inglaterra.
En Londres, Mary fue contratada como profesora a tiempo parcial en el Bedford College. En 1959, y en Reino Unido, nació su segundo hijo, Jonathan. Al poco tiempo Gerald fue destinado a Birmania. Allí, en Rangún, nació su tercera hija, Rachel, en 1961. Y Mary fue contratada como profesora en la Universidad de Rangún.
La familia regresó a Londres por un tiempo y Mary volvió a ocupar su puesto en el Bedford College. En 1964, el trabajo de su marido la llevó a Polonia, donde se unió a la escuela de Karol Borsuk (1905-1982) en Varsovia. Mary Warner comenzó a trabajar en una tesis doctoral bajo la supervisión de Andrzej Białynicki-Birula (1935-2021). Tras dos años en Varsovia, la familia de Mary se trasladó otros dos años a Ginebra durante los cuales completó su tesis doctoral, The homology of Cartesian product spaces, que presentó a la Academia de Ciencias de Polonia. ¡Por fin era doctora en matemáticas!
En 1968, la familia Warner regresó a Londres; Mary fue contratada como profesora de matemáticas en la City University. Al año siguiente apareció su segundo artículo The homology of tensor products. Entre 1974 y 1976, su marido fue destinado a Malasia; fue su último destino fuera del Reino Unido. Allí, en la revista Bulletin of the Malaysian Mathematical Society, Mary publicó sus dos siguientes artículos Some separation axioms weaker than T1(1975) y A note on the reduction of the general equation of a quadratic surface (1976).
Un cambio radical de tema de investigaciónAl regresar a Londres, Mary recuperó su trabajo en la City University, y se concentró en la investigación matemática, en particular en la matemática difusa, área de la que se convirtió en una respetada investigadora.
Entre 1980 y 1985, Mary Warner escribió una veintena de artículos sobre espacios de tolerancia y teoría de autómatas. Generalizó ambos conceptos en el ámbito de la teoría de retículos en 1984.
La brillante actividad investigadora de Mary Warner la llevó a ser nombrada catedrática en la City University en 1996. Aunque profesionalmente estos éxitos le proporcionaron grandes alegrías, tardías por todas las dificultades que encontró, su vida privada estuvo rodeada de tragedia. Su hija Sian y su hijo Jonathan se suicidaron en la década de 1990.
Mary se jubiló en 1996, aunque continuó supervisando estudiantes de doctorado y trabajando en su investigación. Falleció inesperadamente, mientras dormía, el 1 de abril de 1998.
Referencias-
J. J. O’Connor and E. F. Robertson, Mary Wynne Warner, Mac Tutor, University of St. Andrews, 2003
-
I. M. James and A. R. Pears, Mary Wynne Warner, Bull. London Math. Soc. 34 (2002) 745-752
-
Mary Wynne Warner (1932-1998), mathematician, Dictionary of Welsh Biography
-
Mary Wynne Warner, 100WelshWomen
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Mary Wynne Warner, la matemática viajera que pasó de la topología algebraica a la difusa se ha escrito en Cuaderno de Cultura Científica.
Einstein y Alexander Friedmann
El meteorólogo ruso Alexander Friedmann fue uno de los primeros científicos en aplicar las ecuaciones de la relatividad de Einstein a un modelo del universo. Friedmann creó un modelo que mostraba un universo en expansión, un modelo que más tarde se probó que es correcto. Pero Einstein rechazó el modelo de Friedmann, llegando a publicar que los cálculos estaban mal hechos. Tuvo que rectificar.

Alexander Friedmann* fue testigo de las primeras semillas de una revolución en la cosmología mientras vivía la revolución en Rusia. Nació en San Petersburgo en 16 de junio de 1888 y murió en la misma ciudad con tan solo 37 años, pero ahora la ciudad se llamaba Leningrado. Friedmann, por formación, era meteorólogo y, en sus últimos años bromeaba de vez en cuando diciendo que los matemáticos malos se hacen físicos, y que los físicos malos se hacen meteorólogos. Pero Friedmann tenía poco de mal físico y siempre estuvo a la última en los avances de su ciencia. Su apertura a nuevas ideas se la debió en parte a Paul Ehrenfest, que estableció un seminario de física en San Petersburgo en 1906 al que asistió Friedmann, y con quien desde entonces mantuvo una correspondencia fluida.
En 1920, Friedmann, tras un periodo en la Universidad de Perm, vuelve a su ciudad, entonces llamada Petrogrado, para enseñar matemáticas y física en la Universidad de Petrogrado y en el Instituto Politécnico. La Primera Guerra Mundial (1914-1918) había dejado aislada a Rusia de los últimos adelantos en la física, sobre todo alemana. Friedmann descubre en esta época la teoría general de la relatividad que Einstein había publicado en 1915. Se enseñó a sí mismo relatividad general leyendo directamente los artículos de Einstein, a pesar de que la mayoría de los físicos rusos ignoraron el asunto, y pronto empezó a sacar sus propias conclusiones que fue avanzando por carta a Ehrenfest.
El modelo FriedmannUsando la relatividad general, Friedmann propuso un nuevo modelo del universo. Creyendo en la belleza y simplicidad perfectas de las matemáticas de Einstein, Friedmann se negó a ajustar las ecuaciones de la relatividad, como hiciese el propio Einstein, para incorporar una arbitraria “constante cosmológica” que permitiese garantizar la estabilidad del tamaño del universo. En vez de eso, el modelo de Friedmann tiene una distribución uniforme de materia. Este universo podría cambiar de tamaño, ya sea expandiéndose o, posiblemente, expandiéndose para luego contraerse para expandirse otra vez, cíclicamente. Un universo que se expande implica un universo que antes ha sido más pequeño. Llevando esto a su conclusión lógica el universo debió haber comenzado como un puntito minúsculo que se hizo mayor con el paso del tiempo. La idea de que el universo comenzó en un solo punto fue lo que más tarde evolucionaría hasta conocerse como teoría del Big Bang, Friedmann fue una de las primeras personas que consideró esta idea (el primero en proponerlo formalmente, sin embargo, fue Georges Lemaître en 1927 basándose, no en las ecuaciones de Einstein, sino en las leyes de la termodinámica).
Friedmann sabía que su modelo era una representación simplificada del universo y que no era la única solución a las ecuaciones de Einstein (de Sitter había publicado uno en el que universo no tenía materia, por ejemplo). Hasta qué punto creía realmente Friedmann que el universo había comenzado en un momento dado no está claro, pero sí es evidente que creía que su modelo era matemáticamente consistente y científicamente interesante, una herramienta más para ayudar a interpretar nuestro mundo. Friedmann publicó su modelo (“Sobre la curvatura del espacio”) en Zeitschrift für Physik en 1922 [1]. Einstein respondió en la misma revista tres meses más tarde con un sólo párrafo: “Los resultados concernientes al mundo no-estacionario, contenido en el trabajo [de Friedmann], me parecen dudosos. En realidad resulta que la solución dada en él no satisface las ecuaciones de campo”.
Friedmann escribió una carta muy cortés a Einstein en la que probaba las bases matemáticas de su trabajo:
“Considerando que la posible existencia de un mundo no-estacionario tiene un cierto interés, me permitiré presentarle aquí los cálculos que he hecho…para verificación y evaluación crítica. […] Si encontrase los cálculos presentados en mi carta correctos, por favor sea tan amable de informar a los editores de Zeitschrift für Physik acerca de ello; quizás en este caso publicará usted una corrección a su afirmación o dará la oportunidad de que una parte de esta carta se publique”.
Sin embargo, para cuando llegó la carta a Berlín, Einstein ya se había marchado de viaje a Japón. No volvería a Berlín hasta marzo, pero no parece que leyese la carta de Friedmann. Solo cuando Krutkov, un colega de Friedmann en Petrogrado, se encontró con Einstein en la casa de Ehrenfest en Leiden en mayo de 1923 y le contó los detalles de la carta de Friedmann, Einstein reconoció su error. Escribió inmediatamente a Zeitschrift für Physik:
“En mi nota previa he criticado [el trabajo de Friedmann sobre la curvatura del espacio]. Sin embargo, mi crítica, al convencerme por la carta de Friedmann que me comunicó el señor Krutkov, estaba basada en un error en mis cálculos. Considero que los cálculos del señor Friedmann son correctos y arrojan nueva luz”.
A pesar de ello, Einstein siguió rechazando la validez del modelo de Friedmann basándose en aspectos más metafísicos. Einstein simplemente no estaba cómodo con la idea de un universo que cambiase con el tiempo. Y no estaba solo; la mayoría de los científicos contemporáneos tenía unas opiniones igual de enraizadas sobre la eternidad del universo, de que sólo podía ser estático y de que sólo podía haber existido durante eones en la forma y tamaño que tenía en ese momento.
En 1924, Friedmann publicó otro artículo (“Sobre la posibilidad de un mundo con una curvatura negativa constante del espacio”) [2] que completaba el de 1922 y con el que demostraba que tenía un dominio de las tres posibles curvaturas del modelo (positiva, nula y negativa) una década antes de que Robertson y Walker publicasen su análisis.
En 1929, cuando Edwin Hubble demostró mediante observaciones astronómicas que el universo se está expandiendo, Einstein aceptó por fin la posibilidad de que el modelo de Friedmann, y el de otros como el suyo, pudiesen ser interpretaciones razonables de la relatividad. Friedmann no viviría para verlo: había muerto en 1925 de fiebre tifoidea. En la actualidad su modelo, completado por las aportaciones posteriores, se conoce como métrica Friedmann-Lemaître-Robertson-Walker.
Referencias:
[1] Friedman, A. (1922). Über die Krümmung des Raumes Zeitschrift für Physik, 10 (1), 377-386 DOI: 10.1007/BF01332580
[2] Friedmann, A. (1924). Über die Möglichkeit einer Welt mit konstanter negativer Krümmung des Raumes Zeitschrift für Physik, 21 (1), 326-332 DOI: 10.1007/BF01328280
Nota:
* Mantenemos la grafía Friedmann por ser la más extendida; firmó sus publicaciones en alemán tanto como Friedman como Friedmann. La transliteración al castellano de su nombre ruso es Aleksandr Aleksándrovich Fridman; de hecho, el cráter lunar en su honor es el cráter Fridman.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este artículo se publicó en Experientia Docet el 18 de octubre de 2009.
El artículo Einstein y Alexander Friedmann se ha escrito en Cuaderno de Cultura Científica.
Basura electrónica y economía circular
Mireia Martín, Erlantz Lizundia y Estibaliz Saez de Camara
Cuando decidimos cambiar de teléfono móvil valoramos distintos modelos en base a sus características y precios, pero, ¿sabemos el impacto ambiental y social de estos teléfonos? ¿sabemos cuántos móviles se desechan al año en el estado español? ¿por qué desechamos móviles que todavía funcionan? Es difícil saberlo con certeza, pero se estima que ronda los 20 millones de unidades, unas 2.000 toneladas de residuo. Dentro de esas 2.000 toneladas podemos encontrar una gran variedad de materiales, entre ellos el coltán u “oro negro”, un mineral compuesto principalmente por columbita y tantalita. Para conseguirlo, cientos de congoleños se encuentran en condiciones infrahumanas, trabajando de sol a sol entre 12 y 13 horas diarias, bajo la ausencia de prevención de riesgos laborales [1]. Sin embargo, muchos de esos dispositivos que se desechan todavía tienen valor comercial, ya sea porque funcionan o porque tienen en su interior materiales valiosos que se pueden reutilizar o reciclar. Es posible que de aquí a uno o dos años (por no decir meses) nuestros teléfonos móviles actuales parezcan anticuados, eso se debe a la obsolescencia percibida. Sale un nuevo modelo al mercado y ves que han mejorado todavía más la calidad de la cámara y, además, han aumentado la memoria interna. El móvil que hasta hace dos días te parecía como nuevo, ahora ya no te lo parece tanto y no sabes cuánto tardarás en desecharlo para comprar esa nueva versión. Y ahora viene la gran pregunta: ¿qué ocurre con estos residuos?

Global e-waste Monitor estimó que durante el año 2019 se produjeron alrededor de 53,6 Mt de Residuos de Aparatos Eléctricos y Electrónicos (RAEE) a nivel mundial, pudiendo alcanzar los 74 Mt en el año 2030 debido a la rápida evolución de la tecnología y por consiguiente las altas tasas de eliminación [2]. En el caso de la Unión Europea, sólo se procesa el 35% de los residuos electrónicos, el 65% restante forman parte de las «exportaciones mixtas no documentadas» que acaban en países como Nigeria, Ghana, Brasil, México, China, India, Vietnam, Filipinas y Pakistán. Estos países no cuentan con infraestructuras para llevar a cabo una correcta gestión, ni marcos regulatorios efectivos para tratar las fracciones de los RAEE que están clasificados como residuos peligrosos por contener compuestos tóxicos (tierras raras, mercurio…), halógenos y otros elementos metálicos como el oro y el cobre [3].

La gestión inadecuada de estos residuos peligrosos, al igual que el reciclaje de hidrocarburos, la quema de residuos a cielo abierto o el depósito en vertederos, puede derivar en una acumulación de compuestos tóxicos en el medio terrestre y marino. Además, puede conllevar la liberación de hidrocarburos aromáticos policíclicos, generando un gran impacto en la salud de las personas, flora y fauna y el medio ambiente en general [4].
Clasificando la basuraLos RAEE se clasifican en función de la similitud funcional, la composición de los materiales y las características de obsolescencia. En el Anexo VIII del Real Decreto 27/2021, de 19 de enero, donde se modifica el Real Decreto 110/2015 sobre residuos de aparatos eléctricos y electrónicos se especifica la clasificación en 7 agrupamientos: equipos pequeños, equipos grandes, dispositivos de intercambio de temperatura, dispositivos de pantalla y monitor, equipos de iluminación, dispositivos informáticos y de telecomunicaciones y paneles fotovoltaicos [5]. La categoría con mayor contribución al flujo de residuos proviene de los equipos pequeños, con un total de 17,4 Mt registrados en 2019 [6].
Existe una segunda clasificación de los RAEE en función de los compuestos presentes: férricos, no-férricos (aluminio, cobre, etc.), plástico y otros materiales. Se estima que desechamos un total de 4000 toneladas de basura electrónica cada hora a nivel mundial [4]. En esos desechos podemos encontrar un conjunto de metales básicos, elementos preciosos y tierras raras o Rare-Earth Elements (REE). En este sentido, viendo que los REE son necesarios para una gran cantidad de aplicaciones eléctricas y electrónicas, la gran demanda actual y prevista y que, tras su uso, la tasa de reciclaje mundial es baja (17,4%), puede afirmarse que estos recursos se estén agotando. Un ejemplo es el neodimio (Nd) que se usa tanto en discos duros como en dispositivos de audio, automóviles y turbinas eólicas como imanes permanentes. Además del Nd, se pueden destacar muchos otros elementos del tipo REE en estos imanes: praseodimio (Pr), terbio (Tb), disprosio (Dy), gadolinio (Gd) y holmio (Ho). No obstante, a día de hoy sólo el 1% de los REE son reciclados, y el resto acaba en distintos vertederos eliminándose así el ciclo de los materiales [7].
Reciclar no es fácilEl reciclaje de estos componentes no es tarea fácil debido a la cantidad de elementos distintos que lo componen. Sin embargo, mediante la recuperación de estos elementos se podría mejorar en 3 niveles: ambientalmente, se minimiza el impacto que suponen las actividades de extracción; socialmente, se disminuye la dependencia actual en la cadena de suministro de REE; y económicamente, se estarían recuperando Elementos Tecnológicos Críticos (ETC) que son necesarios para sectores como el sanitario, las tecnologías de información y la comunicación y las tecnologías de energías limpias [4].
En 2019, únicamente se establecía una legislación sobre residuos electrónicos para el 68% de la población mundial (repartida en 78 países). Para 2023 se estima que exista legislación específica en 97 países. Además, en respuesta a la creciente tendencia con los residuos electrónicos, algunos países han aprobado normativa, políticas y están respaldando iniciativas como las de la Asociación para la Acción sobre Equipos de Cómputo (PACE), la Iniciativa Nacional de Administración de Productos Electrónicos (NEPSI) y la iniciativa de la Asociación de Teléfonos Móviles (MPPI) [4]. La UE cada vez está más cerca de introducir un cargador universal para dispositivos electrónicos pequeños, ya que tener distintos cargadores para distintos dispositivos produce una cantidad innecesaria de residuos electrónicos [8].
La extensión de la normativa traccionará avances en la gestión de estos residuos. Para estos avances resulta necesaria la I+D+i en el ámbito de reciclaje de los RAEE y sus componentes. Los RAEE son una mezcla compleja que consta de componentes como REE, otros elementos tecnológicamente críticos (como litio, níquel, platino, etc.), metales y plásticos. La mayoría de los procesos de reciclaje de estos componentes requieren el uso de ácidos fuertes y/o disolventes tóxicos y, además, operan a altas temperaturas, a expensas de la sostenibilidad ambiental. Los subproductos tóxicos resultantes del reciclaje de los REE plantean impactos ambientales negativos, por lo que únicamente se pueden lograr estrategias distintivas mediante la separación selectiva de los RAEE. Otro problema que dificulta el reciclaje de los REE es la falta de métodos rentables para purificar la mezcla de RAEE resultante. A todo lo anterior se suma una normativa ambiental laxa y no aplicada, los problemas de diseño y la negligencia por parte de las empresas mineras. Existe la necesidad de una mayor sensibilización de las personas y organizaciones productoras y consumidoras a todos los niveles a través de publicidad, campañas y otras herramientas [4].
Procesos para reducir el impacto ambientalUna de las estrategias exitosas y ya implementadas para reducir el impacto ambiental de la extracción de REE son los procesos biológicos de biosorción y biolixiviación. En este sentido, los biomateriales orgánicos, como bacterias, algas, hongos, así como resinas y carbón activado, tienen la capacidad de adsorber REE durante el reciclaje. Los biomateriales, a pesar de ser menos eficientes en comparación con los productos químicos convencionales, tienen un impacto significativamente menor en el medio ambiente. Además, con las mejoras en la utilización de biomateriales aún están en curso, incluida la optimización de procesos, la mejora de cepas microbianas a través de técnicas de mutación, etc. se espera que sustituyan a los productos químicos convencionales a corto plazo [9].
La elección del método de reciclaje depende de la materia prima, el contenido de REE, la composición química de los RAEE, el coste económico y la huella ambiental del método. Para que la recuperación de los materiales sea económicamente viable, los costes operativos deben ser bajos. Asimismo, se requiere un enfoque de economía circular ambiental y socialmente asumible y que cumpla con la normativa actual y en desarrollo. La economía circular persigue la transición de sistemas lineales tradicionales a ciclos circulares, optimizando los ciclos de vida de los productos para avanzar hacia patrones de producción y consumo sostenibles y eficientes [9] en línea con el Objetivo de Desarrollo Sostenible (ODS) 12 de la Agenda 2030. Para ello, los productos deben haber sido diseñados previamente pensando en su fin de vida, se debe buscar la modularidad, el desmontaje, y evitar los elementos multimateriales en la medida de lo posible. Asimismo, la introducción de nuevos modelos de negocio que intensifiquen el uso de los equipos se deberá de mejorar el mantenimiento y la reparabilidad de los mismos, con lo que se alargará la vida útil de los productos y los materiales permanecerán en el ciclo económico el mayor tiempo posible.
Todo ello viene recogido en el marco estatal dentro del Plan de acción de Economía Circular de 2020 [10]. En la Iniciativa sobre la Economía Circular se especifican una serie de acciones para prolongar la vida de los productos. Conforme a la Directiva sobre diseño ecológico, los dispositivos deben estar diseñados bajo unos criterios de eficiencia energética y de durabilidad, reparabilidad, actualizabilidad, mantenimiento, reutilización y reciclado, siendo uno de los sectores prioritarios para la aplicación del«derecho a reparación». Así como medidas reguladoras para los cargadores e incentivos para disociar la compra de cargadores de la compra de nuevos dispositivos. La mejora de la recogida, el tratamiento de las RAEE, la exploración de las distintas opciones para un sistema de restitución que permita la devolución o reventa también queda recogida junto con las restricciones en cuanto a sustancias peligrosas.
Referencias[1] Villaécija, R. y Rojas, A. (16 de febrero de 2014). Morir por un puñado de arena. EL MUNDO.
[2] Forti, V., Baldé, C. P., Kuehr, R., & Bel, G. (2020). The Global E-waste Monitor 2020. United Nations University (UNU), International Telecommunication Union (ITU) & International Solid Waste Association (ISWA), Bonn/Geneva/Rotterdam, 120.
[3] Huisman, J., Botezatu, I., Herreras, L., Liddane, M., Hintsa, J., Luda di Cortemiglia, V., … & Zan, A. (2015). Countering WEEE illegal trade (CWIT) summary report, market assessment, legal analysis, crime analysis and recommendations roadmap. Lyon, Frankreich, 3(38), 157.
[4] Ramprasad, C., Gwenzi, W., Chaukura, N., Azelee, N. I. W., Rajapaksha, A. U., Naushad, M., & Rangabhashiyam, S. (2022). Strategies and options for the sustainable recovery of rare earth elements from electrical and electronic waste. Chemical Engineering Journal, 135992.
[5] Real Decreto 27/2021, de 19 de enero, por el que se modifican el Real Decreto 106/2008, de 1 de febrero, sobre pilas y acumuladores y la gestión ambiental de sus residuos, y el Real Decreto 110/2015, de 20 de febrero, sobre residuos de aparatos eléctricos y electrónicos. Boletín Oficial del Estado, 17, de 20 de enero de 2021.
[6] Forti, V., Baldé, C.P., & Kuehr, R. (2018). E-waste statistics: guidelines on classifications, reporting and indicators.
[7] Dang, D. H., Thompson, K. A., Ma, L., Nguyen, H. Q., Luu, S. T., Duong, M. T. N., & Kernaghan, A. (2021). Toward the circular economy of Rare Earth Elements: a review of abundance, extraction, applications, and environmental impacts. Archives of environmental contamination and toxicology, 81(4), 521-530.
[8] La UE está más cerca de introducir un cargador común. (2022, 4 de mayo). Noticias Parlamento Europeo.
[9] de Oliveira, R. P., Benvenuti, J., & Espinosa, D. C. R. (2021). A review of the current progress in recycling technologies for gallium and rare earth elements from light-emitting diodes. Renewable and Sustainable Energy Reviews, 145, 111090.
[10] Comunicación de la comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones. (2020, 11 de marzo). Nuevo Plan de acción para la economía circular por una Europa más limpia y más competitiva.
Para saber más:Actúa localmente: electrónica de papel
Dando valor a los residuos marinos para cuadrar la economía circular
El verdadero reciclado de los plásticos
Sobre los autores: Mireia Martín es ingeniera y gestiona la actividad del Aula de Transición energética de Fundación Repsol sobre «Economía Circular» de la Escuela de Ingeniería de Bilbao de la UPV/EHU; Erlantz Lizundia es doctor en Ingeniería de Materiales Avanzados y forma parte del Grupo de Investigación Life Cycle Thinking de la UPV/EHU; Estibaliz Saez de Camara es doctora en Ingeniería Ambiental y forma parte del Grupo de Investigación Atmosférica de la UPV/EHU..
El artículo Basura electrónica y economía circular se ha escrito en Cuaderno de Cultura Científica.
Si Maurice Hilleman es la persona que más vidas ha salvado, ¿por qué no le conoces?
¿De qué depende la fama en ciencia? Todo el mundo sabe quiénes fueron Einstein o Curie, sin embargo pocos identifican a Hilleman, que desarrolló más de 40 vacunas, entre ellas, la gran mayoría de las infantiles. Su anonimato, según los expertos, puede deberse a que dedicara su carrera a la industria, pero hay otros factores en la popularidad de una figura científica, como su exposición a la prensa.

En marzo de 1963, una niña de cinco años se despertó en mitad de la noche por un dolor de garganta, fue hasta la habitación de su padre y, sin saberlo, inició el proceso que llevaría a conseguir la vacuna más rápida de la historia hasta la llegada de la covid.
El padre no tardó mucho en reconocer que la niña tenía paperas, una enfermedad muy frecuente por entonces y poco grave en general, pero que en algunos casos podía dar lugar a meningitis o sordera. Esa misma noche fue hasta el laboratorio donde trabajaba, recogió el material necesario y, de vuelta a casa, tomó muestras de la garganta de su hija con las que luego cultivaría el virus.
Tres años después, y tras lograr debilitarlo, ensayaba con él una vacuna en voluntarios más o menos forzosos como su hermana mayor, y solo uno más tarde se aprobaba su uso. Con el tiempo pasaría a formar parte de la triple vírica, con la que millones de niños y niñas se vacunan cada año. Como luego escribiría el periodista Alan Dove, “Jeryl [así se llamaba la niña] se recuperó del virus de las paperas, pero el virus nunca se recuperó de haber infectado a Jeryl”.
El padre se llamaba Maurice Hilleman, y la escena de esa noche es algo más que anecdótica, es reveladora. Hilleman participó directamente en el desarrollo de más de 40 vacunas, además de la de las paperas. Hasta nueve de las catorce que conforman los calendarios vacunales tienen que ver con él.
Para el inmunólogo y ahora icónico Anthony Fauci, “sus contribuciones son el secreto mejor guardado para el público lego (…). Maurice fue quizá la figura de la salud pública más influyente del siglo XX, si se tienen en cuenta los millones de vidas salvadas y el sufrimiento evitado gracias a su trabajo”.
Se calcula que sus vacunas evitan ocho millones de muertes al año, pero al revisar la hemeroteca los titulares mezclan conceptos como “la persona que más vidas ha salvado” con apelativos como “el gran desconocido”. Para Luis Ignacio Martínez Alcorta, vocal de la Asociación Española de Vacunología, “Hilleman fue un genio, una figura única y destacada que surge ocasionalmente, y puede ser considerado el vacunólogo más prolífico de la historia de la humanidad”.
¿De qué depende la fama?
Hilleman, una vida de vacunas y conflictos“Todo lo que tocaba lo convertía en una vacuna”, decía de él Adel Mahmoud, el que fuera presidente de la División de Vacunas de la compañía Merck y donde Hilleman desplegó la mayor parte de su carrera.
Él y su equipo desarrollaron o mejoraron entre muchas otras las vacunas de la hepatitis A y B, del neumococo, la de la bacteria Haemophilus influenzae de tipo B, las de distintos tipos de meningococo, la de la varicela y la triple vírica que incluye la de la parotiditis, la rubeola y el sarampión.
Todas ellas forman parte de los calendarios vacunales infantiles, y solo la del sarampión salvó 20 millones de vidas entre los años 2000 y 2015, según la Organización Mundial de la Salud (OMS).
Un día, seis años antes de que su hija despertara con paperas, leyó una noticia en The New York Times sobre un extraño aumento de contagios por gripe en Hong Kong. “Dios mío, es la pandemia. ¡Está aquí!”, se dice que gritó.
Las autoridades, incluida la OMS, ignoraron en aquel entonces la amenaza. Hilleman consiguió entretanto una muestra del virus y contactó y movilizó a distintos laboratorios y compañías. Lo que luego se conocería como la pandemia de gripe asiática llegó a los Estados Unidos meses después, pero para entonces estos disponían ya de 40 millones de dosis de una vacuna adaptada a la nueva variante. Se calcula que gracias a ella un millón de muertes fueron evitadas.
«Hace poco”, decía Fauci en el año 2005, “pregunté a mis estudiantes posdoctorales si sabían quién había desarrollado las vacunas contra el sarampión, las paperas, la rubeola, la hepatitis B y la varicela. No tenían ni idea. Cuando les dije que fue Maurice Hilleman, dijeron: ‘Oh, ¿te refieres a ese tipo gruñón que viene a todas las reuniones del sida?’».
El trabajo de ese tipo gruñón salva millones de vidas, pero él reconocía “haber tenido conflictos con todo el mundo”.
Si le pedían una definición de sí mismo, reconocía que la mejor la había dado un colega en Merck, que decía que “por fuera parecía un cabrón, pero que si se miraba más a fondo, por dentro, todavía se veía a un cabrón”.
Hilleman fue criado sin apenas recursos por sus tíos, en una granja de Montana. Su hermana gemela murió en el parto, y su madre lo hizo apenas dos días después. Su definición favorita de sí mismo puede traducirse también así: “Malnacido por fuera, malnacido por dentro”.
Reclutaba voluntarios forzosos para los ensayos clínicos —más allá de su propia hija— y se negó a ir a los “cursos de modales” a los que obligaba la compañía.
Obsesionado con el trabajo, que entendía como dedicación exclusiva y total, exigía lo mismo a quienes le rodeaban. Durante una época coleccionó en su despacho réplicas en miniatura de las cabezas de los trabajadores a los que despedía: las hacían sus hijas a partir de manzanas secas.
Su primera esposa murió unos meses antes de la noche de las paperas. Para encontrar a su segunda mujer, pidió a su asistente que hiciera una preselección a su gusto de entre las que habían mandado su currículum para trabajar en la empresa. A la elegida, con la que luego estaría casado durante 42 años, la entrevistó para coordinar ensayos clínicos de parotiditis y sarampión en el Hospital Infantil de Filadelfia.
Apenas un poco antes había dicho: “¡Cristo! Encontrar mujer es una suerte tan aleatoria como el movimiento browniano. Nunca sabes si serán alcohólicas, si gastarán todo tu dinero o si tendrán enfermedades venéreas”.

Si se hace pensar en nombres relacionados con las vacunas quizá surjan el de Pasteur o el del iniciador Jenner. Es posible que en Estados Unidos citen a Salk y a Sabin por sus hitos contra la polio; y ahora con la covid pueden no sonar extraños apellidos como los de Sahin o Karikó, los principales promotores de la vacuna de Pfizer-BioNTech. Pero difícilmente se pensará en Maurice Hilleman. ¿Cuál es la razón?
“Demasiadas pocas personas, incluso en la comunidad científica, conocen su alcance y contribución, y a ciencia cierta desconozco el porqué”, reconoce Martínez Alcorta.
Hay varias hipótesis que se han propuesto para explicarlo. Una es su conflictiva y problemática personalidad, aunque la experiencia nos diga que la bondad no parece precisamente condición necesaria para la fama. Otra tiene que ver con el hecho de que nunca reconociera maestros concretos y que, al parecer, le costara citar a otros científicos.
Sin embargo, para el vacunólogo José Tuells, uno de los motivos de su anonimato es paradójicamente su humildad: “A pesar de su estilo irreverente, dominante, sus maneras confrontadoras y provocativas o de su autoconfianza, era un hombre humilde”. A favor de la teoría está que, al contrario que Salk o Sabin con la de la polio, nunca puso su nombre a ninguna vacuna. Incluso varias de ellas contienen guiños o referencias directas al trabajo de otros.
La razón favorita de Tuells y del propio Hilleman es, en cambio, el hecho de haber trabajado casi toda su vida en la industria, y no en la investigación académica.
“Si miras para atrás en la historia”, decía él mismo, “la industria es como un leproso (…). Si yo daba la cara ante la prensa, alguien podría pensar que intentaba venderles algo (…). Debía permanecer en segunda fila”.
Esa explicación no convence a Xavier Roqué, profesor de Historia de la Ciencia en la Universidad Autónoma de Barcelona. “Eso mismo podría aplicarse a los responsables de la vacuna de Pfizer-BioNTech, pero en ese caso sí han llegado a ser más conocidos”, razona.
De hecho, Hilleman ha aparecido con frecuencia en los medios, aunque su figura no ha conseguido cristalizar. En su opinión, “quizás pese más un descubrimiento sensacional en un momento adecuado que un conjunto de ellos, aunque puedan tener más valor en global”. Eso podría explicar que sean más conocidos los inventores de las vacunas contra la polio. No solo les pusieron su nombre, sino que sus efectos eran muy evidentes ante una enfermedad con secuelas visibles y terribles y que llevaba años sembrando el terror.
Para Gema Revuelta, directora del Centro de Estudios de Ciencia, Comunicación y Sociedad y del máster en Comunicación Científica, Médica y Ambiental de la Universidad Pompeu Fabra en Barcelona, “un científico que ha hecho una gran aportación a la ciencia o a la sociedad tiene más probabilidades de ser popular, pero esta es una de tantas variables que le pueden impulsar a la fama. Basta fijarse, sin ir más lejos, en cuántas mujeres quedaron ocultas a lo largo de la historia a pesar de sus importantes contribuciones”.

En el año 2011, los investigadores Adrian Veres y John Bohannon crearon un proyecto llamado “The Science Hall of Fame” (El salón de la fama de la ciencia). Aprovecharon que Google Books había subido ya millones de libros en su plataforma para para hacer un análisis de lo que se había dado en llamar culturómica. En esta ocasión consistía en buscar en ellos cuántas veces aparecían los nombres de miles de personas relacionadas con la ciencia.
La unidad de fama científica la llamaron miliDarwin (mD), y equivalía a la milésima parte de la ostentada por el naturalista inglés. Einstein tenía 878 mD; Marie Curie, 188. De las 100 personas más famosas, solo 11 eran mujeres. Hilleman estaba en el puesto 4504, casi al final de la lista, con apenas 0,89 mD.
Analizando los datos, comprobaron que la fama en la ciencia sigue como muchos otros fenómenos una relación en forma de ley de potencias, donde el 1 % de los científicos más famosos acumula la gran mayoría de las referencias. Como una suerte de milmillonarios capitalistas de la fama.
Dos años después, otro estudio ya más allá de la ciencia, usó las hemerotecas de más de dos mil periódicos para concluir que, una vez superado cierto umbral, la gente realmente famosa se mantiene así durante décadas. El umbral activa el efecto Mateo (“al que tiene, se le dará”), perpetuando las referencias.
Como dijo Eran Shor, uno de los autores del artículo, “la gente que tú y yo consideraríamos famosa, incluso las Kim Kardashians de este mundo, siguen siendo famosas durante mucho tiempo. No es algo que viene y se va”.
Veres y Bohannon analizaron también superficialmente los factores que conducían a esos puestos más altos. Ni las citas en estudios científicos ni siquiera el premio Nobel parecían muy importantes.
Sí lo era la controversia o publicar un libro divulgativo de éxito. “Aún queda mucho por estudiar, pero parece que hay un relativo consenso respecto a qué circunstancias pueden estar detrás de la visibilidad o celebridad de los científicos”, explica Revuelta.

“Podrían citarse más de una docena, pero no todas necesitan estar presentes y los caminos para alcanzar la fama pueden ser distintos”. Entre ellas figuraría “la controversia, pero también el trabajar en temas calientes, una personalidad o apariencia peculiar, la credibilidad entre la comunidad científica o el conocer bien las necesidades de los periodistas y los medios”, resume Revuelta.
Roqué reconoce no identificar un patrón claro, pero apunta particularidades de los casos que más ha estudiado.
En el caso de Einstein, “además de su trabajo y de la capacidad de sugestión del lenguaje relativista, influyó mucho que apareciera en el periodo de entreguerras y que lo hiciera en paralelo al nacimiento del periodismo científico especializado, para el que su figura resultó instrumental”.
La exposición a la prensa de Curie, por su parte, la hizo “consciente de que si no se construía como personaje público alguien lo haría por ella”, de ahí sus textos biográficos y los de su propia hija, que modelaron su personalidad pública y actuaron como “biografías de control”.
La popularidad de Tesla tiene para Roqué “poco que ver con lo que hizo y mucho con el tratamiento que se le dio, realzando la dimensión trágica, focalizándose en el individuo y ocultando las redes a su alrededor”.
La fama interna. De la granja a la cabinaPara el arquitecto y filósofo George Franck, “hay dos motivos que impulsan la decisión de emprender una carrera científica: la curiosidad y la vanidad”. Esta última ligaría con la aspiración a la fama, aunque cada vez más textos abran el debate de la importancia de ser conocido dentro del mundo científico como mera herramienta de supervivencia y progreso.
La ciencia aspira a la objetividad, pero “la hacen personas y todas ellas tienen su subjetividad”, reconoce Revuelta. “A la hora de escoger un proyecto en una convocatoria competitiva, de revisar un artículo para su publicación o de otorgar un premio, nuestros juicios se ven marcados sin duda por la subjetividad, y en esta lo conocido tiene prioridad ante lo desconocido, por lo general”.
Hilleman no acumula apenas miliDarwins, y para los estudiantes jóvenes era un gruñón más o menos anónimo en las reuniones del sida. Pero sí fue reconocido por sus pares más directos.

Además de múltiples premios, parte de la flor y nata científica se reunió en Filadelfia para homenajearlo unos meses antes de morir. Esa noche se lo agradeció diciendo: “No hay mayor tributo que se pueda rendir a un científico que recibir el visto bueno de un colega. A todos ustedes los considero pares en el mundo de la ciencia”.
El periodista de la revista Nature escribió: “Dirigida a un grupo de más de cien personas, la declaración era claramente absurda. Desde cualquier punto de vista objetivo, una reunión de pares científicos de Maurice Hilleman no llenaría una cabina telefónica”.
Para Roqué, más allá del anonimato de Hilleman, “lo que me parece sorprendente es casi que alguien sea famoso, particularmente en la ciencia”.
Probablemente la personificación sea siempre algo injusta, y más en el mundo científico, donde el trabajo es cada vez más coral, competitivo en la distancia pero necesariamente colaborativo. Seguramente este artículo también lo sea.
Sobre el autor:Jesús Méndez es médico y periodista científico.
Este artículo apareció publicado originalmente en SINC el 11 de abril de 2022.
Para saber más:Vacunas: El arte de salvar vidas
Dudas sobre las vacunas: problemas y soluciones
El artículo Si Maurice Hilleman es la persona que más vidas ha salvado, ¿por qué no le conoces? se ha escrito en Cuaderno de Cultura Científica.
IV Jornada Nacional de Evolución y Neurociencias: Filosofía e inteligencia artificial
¿Estamos realmente diseñados para conectar con los demás? Si es así, ¿por qué siguen existiendo los psicópatas? ¿Se pueden tratar trastornos delirantes como la paranoia desde el punto de vista de la evolución? O ¿cómo ha cambiado la atracción sexual desde la época de nuestros ‘abuelos’ homínidos hasta ahora?
A estas y otras cuestiones relativas a la evolución del comportamiento humano se trató de dar respuesta durante la IV Jornada Nacional de Evolución y Neurociencias, evento organizado por la Cátedra de Cultura Científica de la UPV/EHU y la Red de Salud Mental de Bizkaia, que tuvo lugar los días 28 y 29 de abril en el Bizkaia Aretoa – UPV/EHU de Bilbao.
Desde que en 2017 un grupo de psiquiatras de la Red de Salud Mental de Bizkaia organizara la primera edición de esta jornada, la cita se ha convertido en un punto de encuentro para profesionales de distintos ámbitos científicos como la psiquiatría, la psicología, la biología o la filosofía con un interés común: la conducta humana desde una perspectiva evolucionista y su divulgación científica en un formato accesible y ameno para todos los públicos, a la par que riguroso y actualizado.
La inteligencia artificial es una realidad que está empezando a permearlo todo. Quizás mucho más de lo que nos gustaría reconocer. Es hora a empezar a pensar seriamente en qué es, qué significa y qué implicaciones tiene su diseño y su uso. Es hora de la filosofía. Santiago Sánchez-Migallón es profesor de filosofía y autor de La máquina de von Neumann.
Para saber más:
En el control de la inteligencia artificial nos jugamos el futuro
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo IV Jornada Nacional de Evolución y Neurociencias: Filosofía e inteligencia artificial se ha escrito en Cuaderno de Cultura Científica.
El perfil lipídico de la lágrima

La lágrima tiene una estructura y composición complejas, que mantienen la superficie del ojo húmeda y lubricada, la protege de los patógenos, favorece la cicatrización de las heridas y proporciona una transparencia visual óptima. La película lagrimal contiene una capa lipídica que actúa principalmente como interfaz entre la capa acuosa del ojo y el aire exterior. Dicha capa lipídica está compuesta por una fina capa de lípidos polares que interactúa con la capa mucoacuosa del ojo y sirve de anclaje, y una capa más gruesa de lípidos no polares (que no interactúan con el agua) en la interfaz con el aire.
“El ojo seco tiene una alta prevalencia en la población, sobre todo en mujeres a partir de los 40-50 años. Se trata de una patología que, aunque no es grave, es molesta en el día a día —explica la investigadora Ikerbasque Arantxa Acera—. Los tratamientos habituales para el ojo seco son los sustitutivos de la lágrima, entre los que se encuentran los colirios de hemoderivados como el colirio de plasma enriquecido en factores de crecimiento, que se obtiene de la sangre del propio paciente (los denominados colirios autólogos). Aunque puede ser un proceso un tanto tedioso, realmente no es una terapia cara, sino novedosa y desconocida”.
En ese sentido, el Grupo Oftalmo-Biología Experimental (GOBE) de la UPV/EHU ha realizado un estudio cuyo fin sería conocer mejor la composición de este tipo de colirios “para establecer tratamientos personalizados en función del tipo de ojo seco que tenga el paciente (ojo seco acuodeficiente, evaporativo o mixto)”, añade Acera. Para eso, analizaron qué tipo de lípidos había en el colirio, y los compararon con los lípidos existentes en la lágrima.
El colirio como lágrima personalizada“Hemos querido saber si este tipo de colirios tiene una composición apropiada para una medicina más personalizada; quizás, si hay algún lípido que falta en el colirio biológico, el objetivo podría ser enriquecerlo con ese lípido”, explica Acera. En el estudio han constatado que “realmente la composición lipídica del colirio autólogo y de la lágrima no es la misma. En el plasma hay gran cantidad de lípidos; sin embargo, en la película lagrimal hay dos lípidos anfipáticos muy importantes, que anclan la parte apolar con la parte acuosa de la lágrima, que no existen en el plasma”.
En este contexto, el grupo de investigación GOBE ha puesto en marcha en colaboración con el Hospital de Basurto, Hospital Donostia, el Instituto Clínico-Quirúrgico de Oftalmología (ICQO) y el Hospital Miguel Servet de Zaragoza “un estudio clínico multicéntrico, para analizar el perfil lipídico de la lágrima de pacientes con diferentes tipos de ojo seco, para conocer qué lípido está alterado en estos pacientes y determinar qué terapia puede ser la más adecuada en cada caso”, explica la investigadora Ikerbasque.
Por otro lado, el Hospital Donostia ha promovido un ensayo clínico con plasma enriquecido en un grupo de pacientes con ojo seco secundario, ya que este tipo de colirios “no están cubiertos por la sanidad pública”, y la investigadora destaca la importancia de “seguir investigando para poder llegar a incorporar este tipo de tratamientos al sistema público” y de “avanzar en el desarrollo de tratamientos personalizados, adaptados al tipo de ojo seco de cada paciente”.
Referencia:Arantxa Acera, Beatriz Abad, Xandra Pereiro, Francisco David Rodríguez, Noelia Ruzafa, Juan Antonio Duran, Elena Vecino Comparative study of the lipid profile of tears and plasma enriched in growth factors Experimental Eye Research doi: 10.1016/j.exer.2022.109061
Para saber más:Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El perfil lipídico de la lágrima se ha escrito en Cuaderno de Cultura Científica.
El diapasón: de la cocina al laboratorio, pasando por la orquesta
Cada vez se lo ve menos en los conciertos. Desde que tenemos afinadores digitales, su tatarabuelo analógico ha ido cayendo poco a poco en desuso. Pero si tienes un amigo músico un poco friki, o si alguna vez has asistido al ensayo de un coro, por ejemplo, es posible que todavía hayas visto uno. Se trata del diapasón, un curioso objeto metálico en forma de horquilla (o de Y), con dos brazos paralelos y un único pie, rematado por una pequeña bola en la punta inferior. Durante siglos, fue el invento que los músicos profesionales utilizaron para afinar sus instrumentos. Pero además, a finales del siglo XIX, se convirtió en uno de los instrumentos de alta precisión de la física, una especie de láser acústico que nos permitió crear los primeros sonidos sintéticos de la historia y ayudó a medir la velocidad de la luz con una precisión sin precedentes1.

¿Pero qué tiene de especial este pequeño resonador? Bien, como sucede a menudo en el mundo de la acústica, la gracia del diapasón está en su forma. Gracias a sus dos brazos alargados, este instrumento es capaz de producir uno de los sonidos más puros de la acústica; una frecuencia fundamental sin apenas armónicos superiores2. Su tono resulta muy reconocible y estable (óptimo para afinar, precisamente), y apenas se desafina con el tiempo. La frecuencia del diapasón depende únicamente de la longitud y la masa de sus brazos, que oscilan en oposición, pero además, su vibración se transmite a la base en dirección longitudinal, de manera que es posible amplificar su sonido apoyándolo contra una superficie o tabla acústica. Se podría comparar el diapasón con un láser de sonido3: un instrumento capaz de producir una onda sinusoidal prácticamente pura, con una frecuencia estable y bien definida.
Pero los orígenes del diapasón no se encuentran en la física. Ni siquiera en la música. Para encontrar la cuna de este instrumento debemos acudir a los otorrinos y a las vibraciones de un humilde tenedor.
Su origen en el tenedorDe acuerdo con Harald Feldmann4, la historia del diapasón comienza con el descubrimiento de que ciertas vibraciones pueden ser transmitidas y escuchadas a través de los huesos de la cabeza, sin que viajen necesariamente a través del aire.
Girolamo Cardano, hoy más conocido como matemático, fue el primero en describir este fenómeno en el siglo XVI. Cardano era médico y astrólogo, y un genio de sorprendentemente multidisciplinar. Entre sus inventos se encuentran el eje cardán (hoy en uso en diversos vehículos) y la suspensión de la brújula de los barcos. También se le asocia con uno de los primeros métodos para resolver ecuaciones de tercer y cuarto grado, si bien parece que se apropió de las ideas de otros contemporáneos (como Targaglia) para publicar su solución. En su libro “De subtilitate” (1550), describe cómo al sujetar una varilla con los dientes, cualquiera puede percibir sonidos, “distinguir voces y oír palabras distantes, que no podría oír de otro modo”5.
Poco más tarde, otro médico de Padua llamado Hieronimus Capivacci pensó en utilizar este fenómeno como método diagnóstico. Si un paciente sordo podía percibir el sonido de una cítara sosteniendo entre los dientes una varilla metálica en contacto con el instrumento, entonces era posible concluir que “la sordera se debe a una enfermedad de la membrana timpánica”. En caso contrario, la causa de su condición debía hallarse en el nervio, en la percepción misma del oído.
Gunther Christoph Schelhammer, también médico, fue el primero en experimentar con la cubertería para realizar este mismo experimento. En 1684 describió cómo el sonido de un tenedor en vibración puede ser escuchado nítidamente a través de los huesos al sostenerlo entre los dientes. Al igual que Capivacci, proponía utilizar este test para diagnosticar distintos tipos de sordera.

Cabe aclarar que, en aquella época, los tenedores solían ser mucho más parecidos a lo que hoy conocemos como un trinchador. El invento había llegado a Europa a principios del siglo XI de la mano de la princesa Teodora Ana Ducaina, hija del emperador de Bizancio. Teodora se negaba a mancharse las manos para comer y pidió que le fabricasen algún tipo de utensilio para pinchar los alimentos. El invento no se empezó a popularizar hasta mucho después. En el siglo XVI Catalina de Medici lo puso de moda en la corte de Francia, pero aún entonces era considerado una cursilada propia de los aristócratas finolis. Europa no dejó de comer mayoritariamente con las manos hasta el siglo XVIII.
Viajando solo un poco más atrás en el tiempo, encontramos que los tenedores de finales del siglo XVII a menudo tenían únicamente dos puntas alargadas. Esto explica que Schelhammer quisiese aprovechar sus excelentes propiedades acústicas para diagnosticar a sus pacientes. Estas propiedades eran probablemente bien conocidas en su época. Sin embargo, una antigua superstición alemana prohibía hacer sonar estos tenedores de mesa. Se creía que su timbre podía atraer al demonio. No en vano, en la iconografía cristiana, el señor de las tinieblas porta un enorme tridente con el que trinchar las almas pecadoras. Por suerte, Schelhammer no se dejó amedrentar por semejantes creencias. Fue el primero en utilizar el tenedor de dos puntas como un instrumento acústico con finalidades científicas.
En los años siguientes, los esfuerzos de la medicina se centraron en explotar la conducción ósea para mejorar la audición de las personas con problemas en el tímpano. Por otro lado, el tenedor de dos puntas encontró pronto una utilidad inesperada en el mundo de la música.
Notas y referencias:1Kleppner, D. (2007). Master Michelson’s measurement. Physics Today, 60(8), 8-9. DOI: 10.1063/1.2774115
2Ojo simplificación. En el momento de golpear el diapasón, sí se producen otras frecuencias distintas de la fundamental, pero estas tienden a decaer rápidamente en el tiempo. Cuando la señal se estabiliza, el armónico más prominente tiene una frecuencia que es 6 veces la de la fundamental (mucho más aguda, por tanto, y apenas perceptible).
3Otra simplificación. Un láser de luz, además de producir una frecuencia “pura”, está colimado. No solo tiene coherencia temporal, sino también espacial. En este caso, comparamos el diapasón con un láser por su capacidad de producir una única frecuencia sonora.
4Feldmann, H. (1997). History of the tuning fork. I: Invention of the tuning fork, its course in music and natural sciences. Pictures from the history of otorhinolaryngology, presented by instruments from the collection of the Ingolstadt German Medical History Museum. Laryngorhinootologie, 76(2), 116–122. DOI: 10.1055/s-2007-997398
5Cardano, G. (2013), p. 709. The De Subtilitate of Girolamo Cardano (J. M. Forrester, Ed.; J. Henry & J. M. Forrester, Trans.). ACMRS (Arizona Center for Medieval and Renaissance Studies), Tempe, Arizona. Obra original de 1550.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo El diapasón: de la cocina al laboratorio, pasando por la orquesta se ha escrito en Cuaderno de Cultura Científica.
Universo pandigital
En esta entrada del Cuaderno de Cultura Científica vamos a hablar de un concepto sencillo, pero que da mucho juego, los números pandigitales.
Se dice que un número es pandigital si está formado por todas las cifras básicas (incluyendo o no, el número 0), de forma que cada cifra aparece una única vez, como en los números 321.576.984 (sin incluir el 0) o 9.753.102.468 (incluyendo el 0). A estos números en los que cada cifra básica aparece una única vez se les denomina números pandigitales restringidos, en contraposición con los números pandigitales redundantes en los que hay repeticiones de cifras básicas, es decir, cada dígito aparece al menos una vez, como en los números 1.223.445.667.889 o 10.203.040.506.070.809.
Existen 9! = 362.880 números pandigitales restringidos sin cero, desde el número 123.456.789, que es el más pequeño, al número 987.654.321, que es el mayor. Esto se debe a que todos los números pandigitales restringidos sin 0 se obtienen mediante todas las permutaciones de las nueve cifras básicas {1, 2, 3, 4, 5, 6, 7, 8, 9}, de manera que cada permutación da lugar al número pandigital que consiste en las cifras del 1 al 9 colocadas en el orden que determina la permutación (por ejemplo, la permutación {2, 4, 6, 8, 1, 3, 5, 7, 9} tiene asociado el número 246.813.579 o la permutación {2, 1, 4, 3, 6, 5, 8, 7, 9} el número 214.365.879), luego como existen 9! permutaciones de nueve elementos (véase la entrada Buscando lagunas de números no primos), esta es la cantidad de números pandigitales restringidos sin cero que existen.
Por otra parte, cada uno de los números pandigitales restringidos de los anteriores, sin cero, como 123.456.789 da lugar a nueve números pandigitales restringidos con cero, en función de en cuál de las 9 posiciones posibles coloquemos la cifra 0. Así, el número 123.456.789 da lugar a los nueve números que van desde 1.023.456.789 hasta 1.234.567.890. Por lo tanto, en total hay 9 x 9! = 3.265.920 números pandigitales restringidos con cero. Respecto a los números pandigitales redundantes, con o sin cero, claramente existen infinitos.
Ejemplos curiosos de números pandigitalesA. El número pandigital restringuido más pequeño es 123.456.789 (sin cero) y 1.023.456.789 (con cero), mientras que el más grande es 987.654.321 (sin cero) y 9.876.543.210 (con cero).
El número pandigital 123.456.789 es un número curioso ya que si lo multiplicamos por 8 nos da otro número pandigital, que casi (con la excepción del “12” y “21”) es el recíproco del anterior, 123.456.789 x 8 = 987.654.312. Más aún, multiplicando por 2, 4, 5 y 7 seguimos teniendo números pandigitales.
123.456.789 x 2 = 246.913.578,
123.456.789 x 4 = 493.827.156,
123.456.789 x 5 = 617.283.945,
123.456.789 x 7 = 864.197.523,
123.456.789 x 8 = 987.654.312.
Si tomamos números pandigitales restringidos, que incluyan el cero, también nos encontramos ejemplos tales que algunos de sus múltiplos también son pandigitales. Por ejemplo, el número pandigital 1.098.765.432 al multiplicarlo por 2, 4, 5 y 7 da como resultados números pandigitales.
1.098.765.432 x 2 = 2.197.530.864,
1.098.765.432 x 4 = 4.395.061.728,
1.098.765.432 x 5 = 5.493.827.160,
1.098.765.432 x 7 = 7.691.358.024.
O el número pandigital (sin cero) 987.654.321 se transforma en números pandigitales (con cero) al multiplicarlo por 2, 4, 5, 7 y 8.
987.654.321 x 2 = 1.975.308.642,
987.654.321 x 4 = 3.950.617.284,
987.654.321 x 5 = 4.938.271.605,
987.654.321 x 7 = 6.913.580.247,
987.654.321 x 8 = 7.901.234.568.
Más aún, la diferencia entre este, el número pandigital restringido (sin cero) más grande, y 123.456.789, el número pandigital restringido (sin cero) más pequeño, sigue siendo un número pandigital (sin cero).
987.654.321 – 123.456.789 = 864.197.532.
B. No existen números pandigitales restringuidos primos.
Recordemos que los números primos son aquellos números que solamente se pueden dividir por 1 y por ellos mismos, como los números 2, 3, 5, 7, 11, 13 o 19, mientras que números como 6, que también se puede dividir por 2 y 3, o 25, también divisible por 5, no son primos. Sabemos que no existen números pandigitales restringidos primos por el criterio de divisibilidad del número 9, es decir, un número es divisible por 9 si, y sólo si, la suma de sus dígitos es divisible por 9 (véase la entrada Las curiosas reglas de divisibilidad), puesto que la suma de los dígitos de un número pandigital restringido, tenga o no cero, es igual a 45, que es divisible por 9.
Pero sí existen números pandigitales redundantes primos. Los primeros (con cero) son 10.123.457.689, 10.123.465.789, 10.123.465.897, 10.123.485.679, etc., que forman la sucesión denominada A050288 en la Enciclopedia On-line de Sucesiones de Números Enteros (OEIS).

Si consideramos los números pandigitales redundantes sin cero, entonces el primer primo es 1.123.465.789, seguido de los siguientes 1.123.465.879, 1.123.468.597, 1.123.469.587, 1.123.478.659, etc. que forman la sucesión A050290 de la Enciclopedia On-line de Sucesiones de Números Enteros.
C. El único número pandigital restringido sin cero (respectivamente con cero) que es “polidivisible” es 381.654.729 (resp. 3.816.547.290).
Recordemos, ya que no es un concepto habitual, que un número es polidivisible, también llamado mágico, si verifica las siguientes propiedades: su primer dígito (por la izquierda) es no nulo, sus dos primeros dígitos (por la izquierda) forman un número divisible por 2, el número formado por los tres primeros dígitos es divisible por 3, el formado por los cuatro primeros dígitos es divisible por 4, y así hasta que terminemos con los dígitos del número.
Por lo tanto, el número pandigital con cero 3.816.547.290 es polidivisible ya que 38 es divisible por 2 (38 : 2 = 19), 381 es divisible por 3 (381 : 3 = 127), 3.816 es divisible por 4 (3816 : 4 = 954), 38.165 es divisible por 5 (38.165 : 5 = 7.633), 381.654 es divisible por 6 (381.654 : 6 = 63.609), 3.816.547 es divisible por 7 (3.816.547 : 7 = 545.221), 38.165472 es divisible por 8 (38.165472 : 8 = 4.770.684), 381.654.729 es divisible por 9 (381.654.729 : 9 = 42.406.081) y 3.816.547.290 es divisible por 10 (3.816.547.290 : 10 = 3.816.547.29).

Por cierto, el número polidivisible más grande que existe tiene 25 dígitos y es el número 3.608.528.850.368.400.786.036.725.
D. El número pandigital restringido sin cero (respectivamente, con cero) más pequeño que es un cuadrado es 139.854.276 = 11.8262 (resp. 1.026.753.849 = 32.0432), mientras que el mayor es 923.187.456 = 30.3842 (resp. 9.814.072.356 = 99.0662), de un total de 30 (resp. 87) números pandigitales restingidos sin cero (resp. con cero) que existen.
La sucesión de los treinta números pandigitales restringidos sin cero que son cuadrados es la sucesión A036744 en la Enciclopedia On-line de Sucesiones de Números Enteros (139.854.276, 152.843.769, 157.326.849, 215.384.976, etc.), mientras que la sucesión A036745 es la formada por los ochenta y siete números pandigitales restringidos con cero que son cuadrados (1.026.753.849, 1.042.385.796, 1.098.524.736, 1.237.069.584, etc.).
E. El número 12.345.678.987.654.321 es un número pandigital redundante sin cero bastante curioso, ya que es capicúa (véase la entrada El secreto de los números que no querían ser simétricos), de hecho, el más pequeño posible entre los pandigitales sin cero, y cuadrado. Este número es igual al cuadrado del número formado únicamente por unos 111.111.111.
F. Potencias de 2 pandigitales.
Busquemos potencias de 2 que sean pandigitales. Si vamos analizando las diferentes potencias de 2, tenemos que hasta la potencia 27 no tenemos un número con nueve cifras (227 = 134.217.728), pero no es pandigital. De hecho, no existen potencias de 2 que sean números pandigitales restringuidos. La primera potencia de 2 que nos da un número pandigital redundante sin cero es 51, ya que 251 = 2.251.799.813.685.248, que claramente es pandigital. La siguiente es 67, que da lugar al número pandigital redundante sin cero 147.573.952.589.676.412.928. Existen cuatro potencias de dos más que nos dan números pandigitales redundantes sin cero, que son 72, 76, 81 y 86. Más aún, 86 es la potencia k más alta conocida para la que 2k no contiene la cifra 0 entre los dígitos de su expresión decimal. Es un problema abierto si existe otra potencia k con esta propiedad.
Por otro lado, la primera potencia de 2 que nos da un número pandigital redundante con cero es 68. En concreto, 268 = 295.147.905.179.352.825.856. Y van apareciendo cada vez más de estas potencias, 70, 79, 82, 84, 87, 88, 89, etc. hasta llegar a 167. Entonces, tenemos 168 que es la última potencia conocida para la que 2168 no es un número pandigital redundante con cero. De hecho, existe la conjetura de que todas las potencias 2k, con k mayor que 168, son pandigitales.

Rompecabezas numéricos pandigitales
Los números y expresiones numéricas pandigitales han formado parte de las revistas y libros de rompecabezas matemáticos desde hace muchísimo tiempo. A continuación, vamos a mostrar algunos ejemplos clásicos.
A. El siglo digital.
Un problema clásico de este estilo es el que aparece ligado a dos de los más grandes creadores de juegos lógicos y rompecabezas matemáticos, el estadounidense Sam Loyd (1841-1911) y el inglés Henry E. Dudeney (1857-1930), quienes colaboraron por correspondencia durante un tiempo, hasta que el inglés acusó al norteamericano de robarle sus rompecabezas y publicarlos con su nombre. El pasatiempo que vamos a incluir a continuación aparece con el nombre El siglo digital en el libro de Dudeney Diversiones matemáticas (1917) y en el libro de Loyd Cyclopedia de 5000 rompecabezas, trucos y acertijos con respuestas (1914), como El problema centenario.
El siglo digital: Con todas las cifras, del 1 al 9, en orden creciente, intercalar los signos «+» y «–» de forma que el resultado de la operación sea 100. Por ejemplo,
1 + 2 + 3 – 4 + 5 + 6 + 78 + 9 = 100.
Hay diez soluciones, aparte de la mostrada. Si el problema te atrae, intenta encontrar las quince soluciones del mismo problema, pero donde las cifras se colocan en orden decreciente.
Nota: También podrían considerarse otras operaciones como la multiplicación “x” o la división “:” y cualquier orden, no solo los órdenes creciente y decreciente.
Este es un problema muy sencillo que incluimos en las tarjetas de pasatiempos matemáticos del proyecto Marzo, Mes de las Matemáticas, del año 2021. Podéis verlo, con su solución, en la página web del proyecto marzomates.
B. Sumas pandigitales.
En general, este tipo de problemas son de la forma ABC + DEF = GHI, donde las letras corresponden a las nueve cifras básicas no nulas, del 1 al 9, o incluso, a nueve de las 10 cifras básicas, incluyendo el cero. También, puede tenerse la forma ABC + DEF = GHIK, con las diez cifras básicas.
De nuevo, encontramos los primeros ejemplos en los problemas del británico Henry E. Dudeney, en su libro Diversiones matemáticas / Amusements in mathematics (1917). El problema 79 con el título El rompecabezas de las taquillas, que fue originalmente publicado en la revista británica Tits-Bits, en 1897.
El rompecabezas de los casilleros: Un hombre tenía en su oficina tres armarios, cada uno de los cuales contenía nueve casilleros, como se muestra en el diagrama. Le dijo a su empleado que colocara un número de una cifra diferente en cada taquilla del armario A, y que hiciera lo mismo en el caso de B, y de C.
Ahora bien, el empresario no dijo que los armarios debían ser numerados en ningún orden numérico, y se sorprendió al encontrar, cuando el trabajo estaba hecho, que las cifras habían sido aparentemente mezcladas indiscriminadamente. Al pedirle explicaciones a su empleado, el excéntrico muchacho le dijo que se le había ocurrido ordenar las cifras de manera que en cada caso formaran una simple suma, las dos filas superiores de cifras producían la suma de la fila inferior. Pero el punto más sorprendente era éste: que los había dispuesto de tal manera que la suma en A daba la menor suma posible, que la suma en C daba la mayor suma posible, y que los nueve dígitos de los tres resultados totales de las sumas eran diferentes. El acertijo consiste en mostrar cómo se puede hacer esto. No se admiten decimales y el cero no puede aparecer en el lugar de la centena.
Es decir, nos está pidiendo que busquemos tres sumas del tipo ABC + DEF = GHI, como comentábamos al principio. La solución a este problema, aunque os animo a que la encontréis vosotros mismos, es la siguiente. La suma más pequeña de este tipo es 107 + 249 = 356 (que iría en el primer armario), mientras que la suma más grande es 235 + 746 = 981, o también, 324 + 657 = 981 (una de ellas iría en el tercer armario). Como los resultados de esas dos sumas son 356 y 981, entonces el resultado de la suma del armario del centro debe de tener tres de las cifras restantes, es decir, 0, 2, 4, 7. Por lo tanto, las sumas posibles para el armario del centro son 134 + 586 = 720, 134 + 568 = 702 ó 138 + 269 = 407.

En el mismo libro, Diversiones matemáticas (1917), Dudeney plantea otro interesante problema pandigital, el número 77, llamado dígitos y cuadrados.
Dígitos y cuadrados: Como se muestra en el siguiente diagrama, se han colocado las nueve cifras básicas en un cuadrado de manera que el número de la segunda fila es el doble que el de la primera fila, y el número de la fila inferior sea el triple del de la fila superior. Hay otras tres formas de ordenar los dígitos para obtener el mismo resultado. ¿Puedes encontrarlas?
Antes de comentar la solución a este rompecabezas pandigital, os animo, como siempre, a que os divirtáis buscando vosotras mismas las soluciones. En este problema nos están pidiendo que busquemos tres números, de tres dígitos, de manera que entre los tres tengan las nueve cifras básicas, del 1 al 9, que el segundo sea el doble del primero, que el tercero sea el triple del primero y que la suma de los dos primeros sea el tercero. Como puede verse en la anterior imagen, estas propiedades se cumplen para los tres números incluidos en ella, la terna (192, 384, 596): 192, 384 (= 192 x 2) y 596 (= 192 x 3), que entre los tres tienen las nueve cifras básicas y 192 + 384 = 596. Las otras tres soluciones por las que nos pregunta el rompecabezas son las ternas de números (219, 438, 657), (273, 546, 819) y (327, 654, 981). Una curiosidad más. Las cuatro ternas pueden dividirse en dos grupos de dos ternas, de manera que en cada uno de los dos grupos los tres números de una terna son anagramas (sus dígitos están escritos en otro orden) de los tres números de la otra terna: (192, 384, 596) y (219, 438, 657); (273, 546, 819) y (327, 654, 981).
Otro problema de este tipo aparece propuesto en el libro The Calculator Puzzle Book (1978), de Claude Birtwistle. Este rompecabezas, titulado Tres por tres, segunda parte, aunque con una escritura más literaria que la que proponemos aquí, nos plantea lo siguiente.
Tres por tres, segunda parte: Buscar tres números de tres dígitos ABC, DEF, GHI, que entre los tres tengan las nueve cifras básicas y tales que su suma y su producto sea la menor posible.
La solución sería la siguiente. Para empezar, pensemos en los tres números ABC, DEF y GHI que nos den la menor suma posible. Para ello, los dígitos de las centenas A, B, C deben ser lo más pequeños posibles, luego deberían ser 1, 2 y 3. Y razonando de la misma forma para decenas y unidades, tenemos que la suma más pequeña es 147 + 258 + 369 = 774. Aunque si permutamos el orden de los dígitos de cada posición (centenas, decenas, unidades) se obtiene la misma suma, por ejemplo, 347 + 158 + 269 = 774 ó 368 + 249 + 157 = 774. Como el orden de la suma y del producto no importa, podemos considerar que A = 1, B = 2 y C = 3, luego tendremos 62 = 36 grupos de tres números con tres dígitos cuya suma sea 774 para ver cuánto es su producto. De todos ellos, el menor producto corresponde precisamente a 147 x 258 x 369 = 13.994.694.

C. Productos pandigitales.
Si miramos la historia de los rompecabezas matemáticos relacionados con los productos pandigitales nos encontramos de nuevo a los dos grandes creadores de juegos lógicos y rompecabezas matemáticos mencionados, Sam Loyd y Henry E. Dudeney. Según el matemático estadounidense David Singmaster la primera aparición de un problema de este tipo fue en la revista Tits-Bits, en 1897. Era el problema Malabares con las cifras de Sam Loyd y se pedía encontrar un producto ABCD x E = FGHIJ, tal que esté formado por las diez cifras básicas, del 0 al 9, y el resultado del producto sea el menor posible. La solución a este problema es 3907 x 4 = 15.628. Además, si nos piden que el resultado sea el mayor posible la solución sería 9.403 x 7 = 65.821.
En el libro Los acertijos de Canterbury (1907) de Henry E. Dudeney nos encontramos también algunos rompecabezas de este tipo, como el siguiente (que había sido publicado en el London Magazine, en 1902).
El acertijo del molinero: El Molinero llevó luego a la compañía hacia un rincón y les mostró nueve sacos de harina, que estaban colocados como se ilustra en la figura.
“Ahora escuchad todos — les dijo—, pues os presentaré la adivinanza de los nueve sacos de harina. Y observad, caballeros y señores míos, que hay sólo un saco en cada extremo, cada cual seguido de un par, y tres sacos juntos en medio. Por San Benito, sucede que si multiplicamos el par 28 por su vecino, 7, el producto es 196, que ciertamente es la cifra que muestran los tres sacos del medio. Sin embargo, no es verdad que el otro par, 34, al ser multiplicado por el único saco en ese extremo, 5, resulte también 196. Por tanto, os ruego, gentiles señores, que recoloquéis los sacos con el menor trabajo posible, de tal forma que cada par, al ser multiplicado por su vecino, produzca el número del medio.” Ya que el Molinero ha estipulado, en efecto, que debe moverse la menor cantidad de bolsas posible, hay una sola respuesta a este acertijo, que todos deberían poder hallar.
El problema consiste en buscar el doble producto A x BC = DEF = GH x I formado por las nueve cifras básicas positivas, de 1 al 9, pero de forma que el número de movimientos de los sacos sea el menor posible. Si intentamos solucionar el problema aritmético A x BC = DEF = GH x I, tenemos las siguientes soluciones 2 x 78 = 156 = 39 x 4; 4 x 39 = 156 = 78 x 2; 3 x 58 = 174 = 29 x 6; 6 x 29 = 174 = 58 x 3. La que requiere menos movimientos de sacos es 2 x 78 = 156 = 39 x 4.
Otro rompecabezas en el mismo libro es Los bloques numerados, que dice así.
Los bloques numerados: Los niños de la ilustración han encontrado que se puede inventar una gran cantidad de acertijos muy interesantes e instructivos, a partir de cubos numerados; es decir, cubos que presenten los diez dígitos de las cifras arábigas —1, 2, 3, 4, 5, 6, 7, 8, 9 y 0―. El acertijo en particular con el que se han estado divirtiendo es dividir los bloques en dos grupos de cinco, y luego disponerlos en forma de dos multiplicaciones, en las que un producto sea igual al otro. El número posible de soluciones es muy considerable, pero ellos han dado con la disposición que da el menor producto posible. Así, 3.485 multiplicado por 2 es 6.970, y 6.970 multiplicado por 1 es lo mismo. Les resultará imposible conseguir un resultado menor.
Bien, mi acertijo consiste en hallar el mayor resultado posible. Dividan los cubos en dos grupos de cinco a gusto, y dispónganlos para formar dos multiplicaciones que resulten en el mismo producto y el más alto posible. Eso es todo, y sin embargo es un asunto que requiere bastante trabajo.
Por supuesto, no se permiten fracciones, ni tampoco trucos de ninguna especie. El acertijo es lo bastante interesante en la sencilla forma en que se los he dado. Quizás deba agregarse que los segundos factores pueden tener dos cifras.
En este caso, se busca solucionar el problema aritmético AB x CDE = FG x HIJ, utilizando las diez cifras básicas. La solución es 915 x 64 y 732 x 80, cuyo producto en ambos casos es 58.560
Podríamos contar mucho más sobre los rompecabezas de productos pandigitales y otros tipos de problemas de ingenio relacionados con las expresiones pandigitales, pero eso lo dejamos para otro día, que por hoy ya es suficiente.
Bibliografía:
1.- Raúl Ibáñez, La gran familia de los números, Catarata, 2021.
2.- Wolfram Mathworld: Pandigital number
3.- N. J. A. Sloane, Enciclopedia on-line de sucesiones de números enteros: oeis.org
4.- Wikipedia: Pandigital number
5.- David Wells, The Penguin Dictionary of Curious and Interesting Numbers, Penguin Books, 1986.
6.- Henry E. Dudeney, Amusements in Mathematics, Thomas Nelson and sons,1917 (el original puede verse en la librería Internet Archive).
7.- David Singmaster, Sources in recreational mathematics, an annotated bibliography
8.- Henry E. Dudeney, Los acertijos de Canterbury y otros problemas curiosos, Granica, 1988.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Universo pandigital se ha escrito en Cuaderno de Cultura Científica.
Einstein y Willem de Sitter
Willem de Sitter fue un respetado astrónomo y físico holandés que contribuyó al nacimiento de la cosmología moderna. Fue uno de los primeros teóricos que interpretó la teoría general de la relatividad desde el punto de vista de su aplicación al conjunto del universo, incorporando la nueva teoría de Einstein a la astronomía y la cosmología.

De Sitter fue astrónomo en Leiden (Holanda), primero en la cátedra de astronomía de la Universidad de Leiden y después como director del Observatorio de Leiden. Estudió el Sistema Solar exhaustivamente y recalculó los movimientos de Júpiter y la Tierra. Sin embargo, se le recuerda más por su trabajo en cosmología, una ciencia que comenzó como tal gracias al trabajo de pioneros como él.
Desde el primer momento que escuchó hablar de las ideas de Einstein, de Sitter quiso aplicarlas a la astronomía. En 1911, después de estudiar la exposición de la teoría especial de la relatividad en el artículo de Einstein de 1905, de Sitter mostró que, si era cierto, el modelo de Einstein modificaría radicalmente todas las interpretaciones astronómicas basadas en el de Newton. En concreto, los movimientos de los planetas en el Sistema Solar no se ajustarían, de hecho, a las predicciones que durante mucho tiempo se consideraron ciertas. Entre 1916 y 1918, Einstein y de Sitter mantuvieron una abundante correspondencia sobre qué modelo de universo se ajusta mejor a las ecuaciones de la relatividad.
De Sitter desarrolló inicialmente un modelo esférico del universo, a diferencia del cilíndrico que Einstein había previsto. De Sitter también intentó trazar la forma de ese universo esférico en ausencia de materia. La reacción de Einstein al modelo de de Sitter fue enérgicamente negativa porque desobedecía algunas premisas importantes para Einstein. Entre ellas la esfera de de Sitter describía un universo que cambiaba de tamaño en vez de permanecer hermosamente constante.
Las objeciones de Einstein iban de lo científico a lo emocional. A nivel científico, ¿qué impedía que el universo se expandiese salvajemente? A nivel emocional, un universo en expansión significaba que yendo hacia atrás en el tiempo, el universo había sido más y más pequeño, comenzando en…nada. Esto significaba que el universo no había existido siempre. En algún punto en el tiempo, el universo había comenzado, lo que olía a superstición y religión.
La ausencia de materia en el universo de de Sitter también le tocaba las narices a Einstein. Einstein veía la materia, y su correspondiente gravitación, como lo que creaba inherentemente la forma del universo. Citó lo que llamaba el “principio de Mach”, una idea del físico austriaco Ernst Mach. El principio afirma que los movimientos de cualquier objeto en el universo están determinados por la distribución de todos los demás cuerpos en el universo. Dado que la manera en el que un cuerpo se mueve en el espacio es equivalente a la forma que tiene el espacio, el concepto de “forma” sin materia, insistía Einstein, no tiene sentido.
Einstein y de Sitter discutieron sus modelos en persona y por carta. Einstein llegó a decir inicialmente que debía haber algún tipo de defecto matemático en el modelo de de Sitter, algo que dijo de viva voz y que también llegó a publicar. Al final, sin embargo, mediante la correspondencia con de Sitter y con otros investigadores, Einstein tuvo que admitir que las matemáticas de de Sitter eran sólidas. No había pues ninguna objeción al modelo salvo que describía un universo no estático, algo metafísicamente imposible para Einstein.

Por supuesto, Einstein estaba equivocado, y el hecho de que el universo efectivamente se expande sería demostrado, más allá de toda duda razonable, poco después por Edwin Hubble en 1929. Pero nada de esto se sabía entonces y Einstein se aferró a su creencia de que el universo no podía cambiar de tamaño. Así, aunque Einstein admitiese que no había ningún error matemático con el modelo esférico de de Sitter, ni lo aceptó expresamente, ni publicó una retractación de sus críticas previas.
Más allá del modelo de SitterNi que decir tiene que el modelo de de Sitter siempre fue una versión sobresimplificada del universo. Sabemos positivamente que el universo tiene materia, y los modelos actuales difieren bastante de él. El modelo de de Sitter sí se incorporaría, no obstante, a la teoría del estado estacionario del universo. Mientras que el universo continúa expandiéndose, según esta teoría, se crea nueva materia continuamente de tal manera que la densidad no cambia con el tiempo. El universo no tendría ni principio ni fin.
En las décadas posteriores a la publicación por parte de Einstein de su teoría general de la relatividad en 1915, el aluvión de modelos y teorías sobre los orígenes del universo era inabordable para un cosmólogo que intentase mantenerse al día. En 1931, de Sitter, viendo lo que se había publicado en los últimos veinte años, escribió: “Nunca en toda la historia de la ciencia ha habido un período en el que las nuevas teorías e hipótesis aparezcan, florezcan y se abandonen con tanta rapidez como en los últimos quince o veinte años”. Y, sin embargo, ninguna hipótesis era satisfactoria, siempre había algo que quedaba fuera. En la reunión de enero de 1930 de la Royal Astronomical Society, de Sitter dio una charla sobre precisamente como ningún modelo era capaz de representar completamente el universo.
Seguirían apareciendo modelos incluso más hipotéticos. Después de que Hubble publicase sus descubrimientos sobre la expansión del universo, Otto Heckmann demostró que si un universo se expande y tiene materia no requiere que el espacio sea curvo. Otros modelos interesantes fueron publicados por Georges Lemaître y Alexander Friedmann.
Einstein y de Sitter publicaron un artículo conjuntamente en 1932 en los Proceedings of the National Academy of Sciences, en el que describen el que se conoce como modelo de Sitter-Einstein del universo. Era una solución bastante simple de las ecuaciones de la relatividad general de Einstein, pero el modelo incluía un universo en expansión, materia e, incluso, materia oscura. El modelo describe un espacio euclídeo, es decir, un espacio plano en el que la luz viaja en líneas rectas en vez de en curvas como describían los propios modelos anteriores de de Sitter y Einstein. En este nuevo modelo, el universo tiene un volumen total infinito y comienza en un big bang a partir de un minúsculo punto inicial. El universo también se expande en este modelo, aunque la velocidad de esta expansión disminuye con el tiempo y termina siendo cero.
Al mismo tiempo que se publicaba el artículo de Einstein y de Sitter, Richard Tolman escribió un comentario señalando que no había todavía suficiente información sobre la densidad, velocidad de expansión, o tipos de materia en el universo como para elegir el modelo ganador de todos los propuestos. Ahora décadas más tarde, hay muchos más datos y parece que se converge sobre una respuesta, el modelo Lambda-CDM, que es prácticamente euclídeo, como calcularon Einstein y de Sitter.
Referencia:
Einstein A, & de Sitter W (1932). On the Relation between the Expansion and the Mean Density of the Universe. Proceedings of the National Academy of Sciences of the United States of America, 18 (3), 213-4 doi: 10.1073/pnas.18.3.213
Para saber más:
Teoría de la invariancia (serie). Una introducción sin aparato matemático a los conceptos e ideas de la relatividad.
De la edad y tamaño del universo
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este artículo se publicó en Experientia Docet el 9 de agosto de 2009.
El artículo Einstein y Willem de Sitter se ha escrito en Cuaderno de Cultura Científica.
Vulcanismo y habitabilidad planetaria
Uno de los grandes retos de la astrobiología contemporánea es encontrar, entre otras cosas, aquellas causas o “filtros” que impidan el desarrollo o el mantenimiento de la vida en planetas que a priori podrían haber tenido las condiciones adecuadas o haber sido habitables en el sentido amplio de la palabra. Y es que la dinámica de los sistemas planetarios puede ser mucho más diversa y compleja de lo que nos pensamos y que haya numerosos factores intrínsecos, pero también externos, a los planetas capaces de alterar las condiciones ambientales no solo a corto plazo sino a lo largo del tiempo geológico.
Algunos de los factores internos probablemente podamos estudiarlos en el Sistema Solar, ya que en los planetas terrestres como Venus o Marte encontramos situaciones muy diferentes: Venus, un planeta del tamaño de la Tierra y que hoy tiene un efecto invernadero suficiente como para que la temperatura en su superficie llegue a los 480 °C, y Marte, un planeta que sabemos que en los primeros quizás mil o mil quinientos millones de años tuvo una atmósfera sustancial que permitía la existencia de agua líquida en su superficie y, por lo tanto, unas temperaturas templadas.

Estos cambios nos parecen realmente bruscos si suponemos que nuestro planeta, aunque sus condiciones hayan oscilado entre «bola de nieve» e «invernadero», ha mantenido cierta estabilidad puntuada por algunos momentos ambientales complicados, pero ningún extremo parecido a lo que vemos en nuestro entorno.
Cuando estudiamos fenómenos de extinción en masa en nuestro planeta encontramos que en la mayor parte de los casos estos eventos vienen relacionados en el tiempo con de erupciones volcánicas que forman las denominadas Grandes Provincias Ígneas (LIPs, por sus siglas en inglés), y cuyas dimensiones en cuanto al volumen de lava emitido es realmente grande, del orden de varios cientos de miles a millones de metros cúbicos.
La lava, como es obvio, no viaja en solitario, sino que lo hace acompañada de numerosos gases como el vapor de agua, el dióxido de carbono o el azufre, inyectando a la atmósfera cantidades de gases que antes estaban almacenadas en el interior del planeta y que pueden provocar un cambio climático extremo, especialmente si ocurren varias erupciones de tipo LIPs en periodos cortos de tiempo.
Como decíamos antes, en nuestro planeta tenemos un importante registro de este tipo de erupciones, pero la alteración climática provocada nunca fue permanente, incluso aunque hayan ocurrido algunos eventos en un espacio temporal relativamente corto.
Mismo tipo de eventos, ¿mismos efectos en la habitabilidad?Un equipo de científicos de la NASA, la Universidad de Princeton y el Massachussets Institute of Technology ha estudiado la posibilidad de que este tipo de eventos fuese el responsable de que Venus tenga estas condiciones hoy día, mediante el análisis de los datos de estas grandes erupciones en la Tierra.

Obviamente en el caso de que ocurriesen dos (o más) eventos de gran tamaño de una manera simultánea o casi simultánea el clima podría haber sufrido un importante cambio, quizás permanente, transformando nuestro planeta en un lugar inhabitable de manera permanente.
Han llegado a la conclusión de que en nuestro planeta las LIPs ocurren de manera aleatoria, sin una relación -al menos clara- entre este tipo de eventos, calculando que en los últimos 2800 millones de años, de los que tenemos datos de estas erupciones, podríamos esperar al menos 100 pares de erupciones de tipo LIPs y 10 tripletes con una separación de tan solo un millón de años entre una y otra.
¿Cómo podría haber afectado a Venus? Imaginamos que Venus fue un planeta muy similar a la Tierra al principio, con una atmósfera mucho menos densa, una temperatura mucho menor y una superficie cubierta por océanos, como lo estaría nuestro planeta.
La ocurrencia de varias LIPs aumentaría la concentración de gases de efecto invernadero en la atmósfera, provocando un aumento de las temperaturas que, a su vez, llevaría a una mayor evaporación de agua de los océanos. El vapor de agua liberado del océano también puede atrapar el calor de una manera muy efectiva, haciendo que este ciclo entre en una espiral de calentamiento, finalmente transformando a Venus en el planeta que vemos hoy.
¿Es una explicación plausible con el conocimiento que tenemos hoy de Venus? Lo cierto es que a nivel geológico sería una explicación bastante sencilla: sabemos que Venus ha tenido (y probablemente tenga) vulcanismo activo, y la existencia de LIPs en un planeta de tipo terrestre no es una teoría descabellada, aunque también nos queda por conocer el papel de la radiación solar en los últimos millones de años y como su variación puede también haber contribuido al calentamiento de Venus.
Aun así, todavía nos queda muchísimo por saber sobre Venus. Esperamos que en la próxima década las misiones espaciales planificadas (VERITAS, DAVINCI+ y EnVision) puedan aportarnos una gran cantidad de información que nos permita resolver algunas de las dudas sobre nuestro gemelo planetario.
Referencias:
Way, M., Ernst, R. and Scargle, J. (2022) Large-scale Volcanism and the Heat Death of Terrestrial Worlds The Planetary Science Journal doi: 10.3847/PSJ/ac6033
Para saber más:
Los volcanes de Venus
Lo que Venus, el gemelo infernal de la Tierra, podría enseñarnos sobre lo que hace a un planeta habitable
¿Qué hacemos ahora con Venus?
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Vulcanismo y habitabilidad planetaria se ha escrito en Cuaderno de Cultura Científica.
No sabemos cómo acabar una conversación

Las conversaciones rara vez terminan cuando lo desean las dos personas que están hablando; ni siquiera suelen acabar cuando una de ellas lo quiere. Y la diferencia entre el tiempo durante el que hablamos y el que deseamos hacerlo, por exceso o por defecto, representa, aproximadamente, la mitad de la duración de la conversación.
Esa es la conclusión principal que se extrae de dos estudios en los que trataron de indagar acerca de la capacidad para hacer que una conversación concluya cuando lo desean las dos personas que charlan. En uno entrevistaron a personas acerca de alguna conversación que hubiesen mantenido con otra muy próxima a ellas en las horas anteriores. En el otro, que hicieron a continuación, pidieron a otras personas que charlaran por parejas; al acabar, les hicieron las mismas preguntas que a las del primer estudio. En total monitorizaron cerca de mil conversaciones.
A partir de las respuestas, el equipo investigador determinó si las dos personas que conversaban habían querido acabar más o menos al mismo tiempo, si fueron capaces de estimar cuándo querían que acabasen sus contertulios respectivos, y hasta qué punto fueron capaces de utilizar esa estimación para finalizar su conversación cuando ambas -o, al menos, una de ellas- así lo querían.
La mitad de los participantes habrían preferido que la conversación hubiese tenido una duración que difiriese -por más extensa o por más breve- en un tercio o más del tiempo que realmente duró. La otra mitad, lógicamente, habría preferido una desviación inferior a una tercera parte del tiempo durante el que se prolongó. Quienes participaron en el estudio creían que sus contertulios preferían que la conversación hubiese sido, en promedio, algo más larga de lo que fue y, sobre todo, que su duración hubiese diferido sensiblemente. Y aunque sospechaban que sus contertulios preferían que la conversación hubiese sido de duración diferente a la deseada por ellos, minusvaloraron la magnitud de esa diferencia; no fueron capaces de percibir con un mínimo de precisión cuál era la duración deseada por la otra persona ni, por tanto, la desviación o diferencia con respecto a su preferencia.
Como consecuencia de esos desajustes, solo un 1,6% de quienes participaron terminaron su conservación cuando las dos personas lo deseaban. Pero tampoco tuvieron mucho éxito para terminarla cuando, al menos, una de ellas quería: solo un 29% de las conversaciones acabaron así. También fueron pocas las que acabaron en un tiempo intermedio a los deseos de ambos participantes. Y lo más llamativo es que casi la mitad terminaron antes de cuando los dos querían y una décima parte, acabaron después.
Estos desajustes obedecen a dos causas. Por un lado, cuando hablan dos personas, lo más normal es que no quieran prolongar la conversación en la misma medida. Por otro lado, tampoco son capaces de saber, con una mínima precisión, qué desea la otra persona.
Una conversación no es una negociación entre dos personas con diferentes deseos o intereses, sino un problema de coordinación en el que el deseo de cada una por continuar depende en parte de lo que piensa acerca de lo que la otra quiere. El problema es que, cuando de lo que se trata es de terminar conversaciones normales, si una persona manifiesta con claridad que quiere acabar antes que la otra, corre el riesgo de molestarla, de manera que lo normal, sobre todo si se trata de alguien amable, es que enmascare las ganas de acabar la conversación aunque de esa forma se prive al contertulio de la información necesaria para resolver el problema. La amabilidad no siempre resulta beneficiosa.
Fuente: Mastroianni, A. et al. (2021): Do conversations end when people want them to? PNAS 18 (10)
Para saber más:
Hablando se interrumpe la gente
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo No sabemos cómo acabar una conversación se ha escrito en Cuaderno de Cultura Científica.
IV Jornada Nacional de Evolución y Neurociencias: Emiliano Bruner – Habitar un cuerpo: cognición corporal y evolución humana
¿Estamos realmente diseñados para conectar con los demás? Si es así, ¿por qué siguen existiendo los psicópatas? ¿Se pueden tratar trastornos delirantes como la paranoia desde el punto de vista de la evolución? O ¿cómo ha cambiado la atracción sexual desde la época de nuestros ‘abuelos’ homínidos hasta ahora?
A estas y otras cuestiones relativas a la evolución del comportamiento humano se trató de dar respuesta durante la IV Jornada Nacional de Evolución y Neurociencias, evento organizado por la Cátedra de Cultura Científica de la UPV/EHU y la Red de Salud Mental de Bizkaia, que tuvo lugar los días 28 y 29 de abril en el Bizkaia Aretoa – UPV/EHU de Bilbao.
Desde que en 2017 un grupo de psiquiatras de la Red de Salud Mental de Bizkaia organizara la primera edición de esta jornada, la cita se ha convertido en un punto de encuentro para profesionales de distintos ámbitos científicos como la psiquiatría, la psicología, la biología o la filosofía con un interés común: la conducta humana desde una perspectiva evolucionista y su divulgación científica en un formato accesible y ameno para todos los públicos, a la par que riguroso y actualizado.
La percepción del propio cuerpo, la cognición corporal, es fundamental para la forma en la que un individuo se ubica en el espacio y el tiempo. O, visto de otra manera, el propio cuerpo determina la cognición. Y esto ha tenido su reflejo a lo largo de la evolución humana. Nos lo cuenta Emiliano Bruner, investigador en paleoneurobiología de homínidos en el Centro Nacional de Investigación sobre la Evolución Humana (CENIEH).
Para saber más:
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo IV Jornada Nacional de Evolución y Neurociencias: Emiliano Bruner – Habitar un cuerpo: cognición corporal y evolución humana se ha escrito en Cuaderno de Cultura Científica.
Las macroalgas cantábricas se volverán mediterráneas
Un estudio realizado por el Grupo de Investigación Bentos Marino UPV/EHU predice que, debido al cambio climático, las especies de macroalgas de la costa cantábrica se parecerán cada vez más a las presentes en la más cálida costa mediterránea. Este tendencia parece que no afectará en principio a la costa gallega.

La distribución de las algas marinas está sufriendo una transformación. El aumento de la temperatura del mar, entre otros factores, está afectando al crecimiento de estos organismos y provocando desequilibrios en los ecosistemas marinos en las últimas décadas.
El efecto del cambio climático sobre la distribución de las especies ha sido objeto de muchas investigaciones recientes, pero a nivel de comunidad local sigue estando poco estudiado. Por ello, “nuestra investigación aplica por primera vez un modelo para predecir los cambios en las comunidades de macroalgas submareales en el norte de la Península Ibérica, desde Galicia hasta el País Vasco, bajo ciertos escenarios climáticos para dentro de cincuenta o cien años”, señala Nahiara Muguerza Latorre primera autora del estudio.
“Hemos observado que la temperatura del agua es el principal factor que determina la distribución de los conjuntos de macroalgas en nuestra área de estudio, mientras que la disponibilidad de nutrientes juega un papel secundario”, comenta la investigadora de la UPV/EHU. “La temperatura del agua tiene una gran influencia en la supervivencia, el crecimiento, la reproducción y el reclutamiento de las macroalgas”, añade.
Meridionalización de las poblaciones de macroalgas
“Los resultados de este trabajo —continúa Nahiara Muguerza— apoyan parcialmente nuestra hipótesis de que podría producirse una meridionalización de las poblaciones del norte de la Península Ibérica en el futuro. […] En el escenario más pesimista, el modelo proyecta que las comunidades del noroeste (Galicia) seguirán siendo distintas del resto, sirviendo de refugio a las especies de aguas más frías, mientras que los conjuntos del centro y el este de la costa norte de la Península Ibérica llegarán a parecerse más a los de la región mediterránea que a los de la costa noroeste. Especies con una afinidad más meridional, es decir, más de aguas cálidas”, explica la investigadora.
El equipo de investigación tiene claro que las algas son muy sensibles a cualquier variación ambiental producida por los efectos del cambio climático. Y, por lo tanto, que podrían ser buenos indicadores de la evolución de este y de sus efectos en el resto de ecosistemas marinos. “Esta investigación puede ayudar a predecir cómo responderá la biodiversidad del ecosistema costero a las nuevas condiciones ambientales. Se trata de una información fundamental para desarrollar políticas de gestión y conservación adecuadas”, apunta Muguerza. “Para otros estudios sería interesante ampliar el área de estudio a la costa occidental de la Península Ibérica y aumentar los lugares de muestreo en el Mediterráneo”, añade.
Referencia:N. Muguerza, O. Arriaga, I. Díez, M.A. Becerro, E. Quintano y J.M. Gorostiaga (2022) A spatially-modelled snapshot of future marine macroalgal assemblages in southern Europe: Towards a broader Mediterranean region? Marine Environmental Research doi: 10.1016/j.marenvres.2022.105592
Para saber más:Las algas del Cantábrico: centinelas del cambio climático
El declive de las praderas de algas por el cambio climático
Los invasores: Las algas Caulerpa
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Las macroalgas cantábricas se volverán mediterráneas se ha escrito en Cuaderno de Cultura Científica.
La geodiversidad que nos rodea
El pasado 5 de junio se celebró el Día Mundial del Medio Ambiente y, aunque no os lo creáis, es una efeméride muy geológica. Generalmente, cuando hablamos de medio ambiente la primera imagen que nos viene a la cabeza está relacionada con la biodiversidad, es decir, con la diversidad biológica (flora y fauna) que se desarrolla en una zona. Pero rara vez pensamos en la geodiversidad, que es la variedad de procesos, estructuras y materiales geológicos que caracterizan ese territorio. Y, sin embargo, es la geodiversidad la que condiciona la biodiversidad que vamos a encontrarnos.

La geodiversidad de una zona es producto de la historia geológica de ese lugar. Una historia de millones de años de cambios, procesos y acontecimientos naturales que han quedado preservados en las rocas y estructuras que podemos admirar en el paisaje actual. Una historia que nos habla de nuestro pasado, presente y futuro como especie y como sociedad. Y, como he dicho antes, una historia que determina la flora y fauna que se va a desarrollar en esa zona. Como muestra, vamos con algunos ejemplos.
El contexto tectónico sufrido por un territorio controla su topografía, pudiendo encontrarnos con la generación de grandes elevaciones montañosas que afectarán al ciclo atmosférico y provocarán horizontes de distribución de fauna y flora en altitud. O, por el contrario, puede que se produzca el desarrollo de amplias zonas más o menos planas a las que se ha adaptado una biodiversidad completamente diferente.
El tipo de roca que aflora en una zona caracterizará el suelo que se va a generar en la misma. Por ejemplo, en áreas con abundantes afloramientos de rocas calizas se desarrollarán suelos ricos en carbonato cálcico, mientras que en terrenos donde dominan las rocas areniscas, nos encontraremos suelos con un alto contenido en sílice. Esto condicionará el tipo de vegetación que podrá asentarse en estas zonas y, por ende, afectará a toda la cadena trófica.
Geodiversidad acuática
La cantidad de agua disponible en el terreno también depende de las características geológicas del mismo. Por un lado, rocas porosas, como las calizas o los basaltos, permiten que el agua circule y se acumule en ellas, generando reservorios acuáticos tanto en superficie como subterráneos. Por otro lado, la erosión diferencial de los materiales geológicos o los procesos de hundimiento del terreno, generalmente debidos a esfuerzos tectónicos extensivos, favorecerán el desarrollo de zonas deprimidas del terreno en donde puede acumularse el agua, dando lugar a lagos y lagunas con una biodiversidad muy variada.

Los ambientes litorales tampoco se libran de estar condicionados por la geología. El tipo de rocas que afloran en las zonas costeras y la disposición de las capas de esas rocas con respecto a las corrientes de oleaje y las mareas (es decir, si las capas se orientan de manera perpendicular o en paralelo a la línea de costa), determinará su grado de erosión o fragmentación, por lo que podremos encontrarnos con ambientes que varían entre playas de arena muy fina y acantilados rocosos. Mientras que en el primer medio abundarán organismos excavadores que viven enterrados en la arena, en el segundo tendremos una predominancia de los que habitan fijados a las rocas.

Y estos son solo algunos ejemplos muy generales, porque podemos entrar al detalle que nos apetezca y seguiremos encontrando la misma relación geodiversidad – biodiversidad. La composición química y estructura interna de las rocas, así como los procesos y estructuras geológicas que se han producido en una zona a lo largo de millones de años de historia, dan lugar al desarrollo de diversos medios ambientes con características muy diferentes en los que se desarrollan una flora y una fauna adaptada, en muchas ocasiones de manera muy específica, a dichas condiciones. Sin esa historia geológica no tendríamos el paisaje que vemos hoy en día cuando miramos a nuestro alrededor. Y esto debe llevar a plantearnos que, si queremos conservar y proteger nuestra biodiversidad, antes debemos empezar por cuidar, y comprender, nuestra geodiversidad.
Para saber más:¿De qué está hecha la arena?
Oh, blancos acantilados
Los volcanes submarinos de Bizkaia y Gipuzkoa
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo La geodiversidad que nos rodea se ha escrito en Cuaderno de Cultura Científica.
Eleanor Pairman, la matemática que usó su máquina de coser para enseñar geometría a personas ciegas
Eleanor Pairman nació el 8 de junio de 1896 en el pueblo de Lasswade (Escocia). Era la menor de los cuatro hijos de Helen y John Pairman. Su padre, abogado de la Corte Suprema de Escocia, falleció cuando ella aún no había cumplido los 5 años; la familia pasó a partir de ese momento dificultades económicas.

Asistió a la escuela local hasta 1908, cuando ingresó en el George Watson’s Ladies’ College. Tras graduarse, en 1914, comenzó a estudiar matemáticas en la Universidad de Edimburgo. En 1917, se graduó con una maestría “con honores de primera clase” en matemáticas y filosofía natural. Gracias a sus excelentes calificaciones obtuvo una beca de tres años que le permitió continuar sus estudios de posgrado en la Universidad de Edimburgo antes de incorporarse, en 1918, al equipo del matemático Karl Pearson (1857-1936) —que impulsó la utilización de métodos estadísticos en biología— en el Departamento de Estadística Aplicada del University College de Londres. Allí trabajó como “computadora” para el matemático, con el que publicó un artículo en la revista Biometrika. En esa época también escribió Tracts for Computers (vol. I. Tables of the digamma and trigamma functions) que fue publicado por Cambridge University Press.
En 1919 viajó a Estados Unidos y comenzó su formación en el Radcliffe College, de Cambridge, una universidad para mujeres muy vinculada al Harvard College en el que solo podían estudiar hombres. Allí investigó bajo la supervisión del prestigioso matemático George David Birkhoff (1884-1944). Defendió su tesis doctoral —Expansion Theorems for Solution of a Fredholm’s Linear Homogeneous Integral Equation of the Second Kind with Kernel of Special Non-Symmetric Type— en 1922, convirtiéndose en la tercera mujer en obtener un doctorado en matemáticas de Radcliffe College.
En ese mismo año se casó con un compañero de estudios de posgrado, Bancroft Huntington Brown (1894-1974), que también había defendido su tesis doctoral en el Harvard College. El matrimonio se trasladó a Hanover donde Bancroft Brown se incorporó como profesor al Dartmouth College, que en ese momento era una universidad exclusivamente masculina. Tuvieron cuatro hijos —John, Barbara, Joanna (que falleció antes de cumplir un año) y Margaret—.
Como ya hemos comentado, Pairman publicó algunos artículos en solitario y en colaboración con Pearson y Rudolph E. Langer (1894-1968) —On a class of integral equations with discontinuous kernels—, otro de los alumnos de Birkhoff.
Entre 1955 y 1959, Eleanor fue contratada como profesora de matemáticas a tiempo parcial en Dartmouth.
La máquina de coser de PairmanEn la década de 1950, Pairman comenzó a interesarse en la enseñanza de las matemáticas a alumnado ciego. Para ello, estudió braille —y más tarde el código Nemeth para matemáticas— y aprendió —fundamentalmente para explicar geometría— a realizar diagramas y símbolos matemáticos usando su máquina de coser y otros utensilios domésticos —como tijeras dentadas o ruedas de pastelería—. Con estas herramientas caseras conseguía realizar diseños sobre delgadas hojas de cartulina, que el alumnado ciego podía “leer” con las yemas de sus dedos. Con su máquina de coser, Eleanor “perforaba” el papel” reproduciendo cada símbolo que deseaba reproducir al pasar la cartulina bajo la aguja de su máquina.
En 1959 el periódico Hanover Gazette publicó un artículo sobre el trabajo de Pairman. En este reportaje, el medio comentaba que Eleanor estaba transcribiendo dos manuales matemáticos, uno para un estudiante de primer curso en el Boston College y otro, un libro de referencia sobre teoría de grupos, destinado a un posgrado en la Universidad de Columbia en Nueva York.
Eleanor, “Nora” para sus personas más allegadas, falleció el 14 de septiembre de 1973. Su hija pequeña, Margaret, comentaba:
A pesar de la satisfacción que obtuvo con estos proyectos [de Braille], la única vez que la vi verdaderamente feliz fue cuando estaba enseñando. Y tuvo muy pocas oportunidades de hacer eso, ya que obviamente estaba adelantada a su tiempo y también atrapada en una comunidad universitaria solo para hombres y en un mundo donde era casi imposible para las mujeres casadas funcionar profesionalmente.
Referencias
-
John J. Robertson and F. Edmund, Eleanor Pairman, MacTutor History of Mathematics archive, Universidad de Saint Andrews
-
Eleanor Pairman, George Watson’s College
-
Eleanor Pairman Brown, Darmouth College, 2016
-
Eleanor Pairman, Wikipedia
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Eleanor Pairman, la matemática que usó su máquina de coser para enseñar geometría a personas ciegas se ha escrito en Cuaderno de Cultura Científica.