La música alivia el cansancio físico

Imagino que la mayoría de nosotros ha participado en alguna actividad física —trabajo o deporte— en que ha acompañado con música el ritmo de la actividad. Incluso quien no lo haya hecho seguramente habrá visto películas en las que grupos de personas trabajan en concierto al son de alguna pieza musical o de algún canto. Y los atletas de alto nivel recurren a menudo a escuchar música durante los entrenamientos o en las pruebas físicas. Al proceder de esa forma se siente menos cansancio. La música y el canto hacen más llevadera la actividad física.
La cuestión es si esa menor sensación de cansancio obedece a que la música o el canto ayudan a prestar menos atención a la señal propioceptiva (recepción sensorial de la situación propia) de fatiga o, además de ese efecto de distracción, hay otro sobre la misma señal de cansancio. Este fenómeno se ha estudiado mediante experimentos en los que se han comparado las sensaciones de personas que estaban escuchando música mientras hacían algún ejercicio físico en condiciones normales con las de otros para quienes era muy difícil, por no decir imposible, que la música les distrajese de la sensación de cansancio, dado que en todo momento se les hacía ser conscientes de la actividad que realizaban.
Los investigadores generaron una condición experimental –a la que llamaron musical agency– en virtud de la cual los participantes modulaban sonidos musicales mediante la ejecución de movimientos corporales. Con ese propósito equiparon máquinas de entrenamiento con sensores que servían para modular la generación de sonidos musicales. De ese modo, en la condición experimental (agencia musical) los participantes se podían expresar musicalmente a través de sus movimientos en la máquina de fitness. Esos individuos eran conscientes en todo momento de la actividad que realizaban, por lo que se supone que el antes citado efecto de distracción no se producía.
Quienes participaron en el grupo de agencia musical experimentaron menor sensación de agotamiento físico que los que escucharon música de forma pasiva. Y esa menor sensación de cansancio no se correspondió ni con una menor fuerza ejercida ni tampoco con un menor gasto metabólico, aunque en este último caso la diferencia entre las dos condiciones se encontraba en el límite de la significación estadística. Como he señalado antes, en ese diseño experimental la percepción propioceptiva es esencial para decidir qué música crear; esto es, a la hora de decidir cómo interactuar con la máquina de fitness, qué frecuencia de movimientos hacer o qué fuerza ejercer, la sensación de cansancio es un elemento esencial, por lo que los participantes no pueden distraerse de esa sensación. Por lo tanto, la menor sensación de cansancio que se experimenta al practicar alguna actividad física mientras se oye o se produce música no se debe solo a la distracción que proporciona esta, sino que dicho efecto tiene entidad propia.
Lo que no parece fácil es atribuir ese efecto a unas causas inmediatas concretas. Los autores de la investigación han sugerido que la condición de agencia musical puede implicar una mayor sincronización entre la estructura musical y los movimientos, y que eso facilite la ejecución de estos porque una mejor coordinación puede conllevar menor esfuerzo. También plantean la posibilidad de que en esa condición sea mayor la capacidad de predecir los tiempos precisos de la ejecución de cada movimiento y que eso tenga algún efecto en la representación en la corteza cerebral de la propiocepción, contribuyendo a reducir la sensación de cansancio.
Por otro lado, quizás la música ejerza un efecto relajante, lo que supondría que la tensión muscular sería menor y ello permitiría una oxigenación más eficiente; esto último explicaría la diferencia (aunque sin alcanzar la significación estadística requerida) en el gasto metabólico entre la condición activa y la pasiva. Tampoco parece que el efecto observado sea debido a que se percibe de forma diferente el cansancio de las contracciones musculares isotónicas (las que generan trabajo) y de las isométricas (las que no lo generan, como cuando empujamos una pared o tratamos de levantar una carga con la que no podemos). Ambas formas de contracción ocurren durante la realización de tareas físicas y podría ser que las isométricas dieran lugar a menos cansancio, pero ese extremo también se comprobó experimentalmente y no fue el caso. En definitiva, no están claras las razones por las que la condición de agencia musical genera menor sensación de cansancio e incluso comporta, quizás, un menor gasto metabólico, aunque la fuerza ejercida sea la misma.
La producción de música (agencia musical) es un aspecto esencial de la mayoría de los rituales y de muchas actividades laboriosas en las sociedades humanas. No es raro que la gente, cuando se reúne para celebrar algo, recurra a la música y la danza como forma de expresión. Tampoco lo es que el desempeño de trabajos colectivos, especialmente si son físicamente exigentes, vaya acompañado de canciones cantadas a coro, a veces acompañadas por instrumentos musicales. Pues bien, el hecho de que la actividad musical module, reduciéndolo, el sentido de cansancio o de agotamiento habría facilitado, en nuestra evolución y en el desarrollo de la civilización humana, ese tipo de actividades que suelen estar integradas en un contexto que implica producción musical, especialmente en las sociedades tradicionales.
Fuente: T. H. Fritz, S. Hardikar, M. Demoucron, M. Niessen, M. Demey, O. Giot, Y. Li, J.-D. Haynes, A. Villringer, M. Leman (2013): “Musical agency reduces perceived exertion during strenuous physical performance” PNAS 110 (44): 17784–17789.
Para saber más:
La música, en el electroencefalograma
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La música alivia el cansancio físico se ha escrito en Cuaderno de Cultura Científica.
¿Tienes tu reloj (circadiano) en hora?
Cómo influyen los parásitos en el comportamiento de los animales, cómo se modifica la conducta de las madres mamífero o cuáles son las enfermedades que nos afectan y desde cuándo hemos desarrollado comportamientos funerarios ante la muerte son algunos de los aspectos que se analizarán en la V Jornada Nacional sobre Evolución y Neurociencias.
Especialistas en ambas materias se reunirán el 11 y 12 de mayo en una nueva edición conducida por Eva Garnica y Pablo Malo, psiquiatras y miembros de la Red de Salud Mental de Bizkaia, y organizada por esa misma entidad y la Cátedra de Cultura Científica de la UPV/EHU.
La jornada, cuya primera edición se celebró en 2017, se ha convertido en una cita imprescindible para las y los expertos en ámbitos como la psiquiatría, la psicología o la biología. Una jornada que sirve para analizar el comportamiento humano desde un punto de vista evolucionista y divulgar de un modo accesible para todos los públicos.
Si tus ritmos internos, lo que se conoce como reloj circadiano, no están ajustados al mundo exterior y tus necesidades de interacción con él, tienes un problema serio. Mariana Astiz nos lo cuenta en esta charla.
Mariana Astiz es Investigadora Ikerbasque en Achucarro donde investiga sobre la fisiología circadiana de las neuronas y las células glia. Doctora en bioquímica por la Universidad de La Plata (Argentina), ha desarrollado su carrera investigadora en esta misma institución, además del Instituto Cajal – CSIC y la Universidad de Lübeck (Alemania).
Si no ve correctamente el vídeo, use este enlace.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo ¿Tienes tu reloj (circadiano) en hora? se ha escrito en Cuaderno de Cultura Científica.
La poco conocida relación entre la boca y la salud mental

Según el último informe sobre la situación mundial de la salud bucodental publicado por la Organización Mundial de la Salud (OMS), el 45 % de la población mundial sufre alguna enfermedad oral. Argumento de sobra para que visitemos periódicamente al dentista.
Ya sea para hacernos una revisión y limpieza, o como consecuencia de caries y ortodoncias, hacemos bien en preocuparnos por la salud de nuestra boca, porque es un reflejo de nuestra salud general. Y viceversa: el estado de nuestros dientes, encías y boca afecta a otros sistemas del organismo. Esta conexión bidireccional es objeto de estudio por parte de profesionales de la salud de diversas especialidades, incluida la salud mental.
Estrés, depresión y autismo pueden afectar a la salud oralEn general, las personas con enfermedades mentales tienen peor salud bucodental, con mayor pérdida de dientes, necesidad de empastes o enfermedad de las encías. ¿A qué se debe esta interrelación entre salud mental y boca?
Son varios los factores que pueden estar implicados. Por un lado, el estrés y la ansiedad nos llevan a apretar los dientes. El bruxismo provoca un desgaste y movilidad de los dientes, y sobrecarga los tejidos.
En caso de depresión experimentamos falta de motivación, aislamiento social, baja autoestima, fatiga o cansancio y pérdida de interés por actividades habituales. Esta sintomatología puede afectar negativamente a la salud oral, ya que se presta menos atención a la higiene y el autocuidado de la boca.
En cuanto a los trastornos de la conducta alimentaria, como la bulimia o la anorexia, también se reflejan en la boca: una dieta deficitaria o los ácidos de los vómitos provocan que el esmalte dental se debilite y aparezcan más caries.
Las personas con esquizofrenia padecen más patología oral (enfermedad de las encías, mayor pérdida y necesidad de empastes de los dientes) asociada al abuso de tabaco, alcohol y drogas, al descuido de la higiene oral, al comportamiento evasivo y a la dieta rica en azúcares.
En el caso de las personas con trastorno del espectro autista, la dificultad para tolerar el cuidado de la boca, tanto en casa como en la consulta del especialista, poca cooperación o problemas de comunicación son factores que podrían favorecer el deterioro de la salud oral.
Medicamentos que producen sequedad de boca¿Afectan a la salud oral los tratamientos frente a las enfermedades mentales? La respuesta es sí. Aunque los medicamentos que utilizamos para tratar las enfermedades mentales mejoran significativamente la calidad de vida de los pacientes no están exentos de efectos adversos, y algunos de ellos afectan a la boca.
Uno de los efectos indeseados a nivel oral más frecuente es la modificación de la producción de saliva. Los fármacos que utilizamos para tratar la depresión, la ansiedad o la esquizofrenia disminuyen el flujo salival (xerostomía). Esta sequedad de boca afecta a la ingesta de alimentos y al habla, facilitando además la aparición de infecciones. Afortunadamente, la sequedad de boca producida por los medicamentos es reversible y desaparece al terminar el tratamiento.
Otras alteraciones orales causadas por la medicación empleada en el tratamiento de las enfermedades mentales son las alteraciones del gusto, los movimientos involuntarios de la boca y de la lengua (discinesias orales), las úlceras, así como la enfermedad y/o agrandamiento de las encías.
Mens sana in corpore sano: empecemos por la bocaEn general, tenemos interiorizada la necesidad de mantener unos dientes fuertes y saludables, cepillándolos tras las comidas, y acudiendo a la consulta odontológica con cierta regularidad. Estos buenos hábitos, además de evitar enfermedades dentro y fuera de la boca, preservan la buena salud oral, que favorece un estado mental positivo, refuerza la autoestima y mejora nuestro bienestar.
Además de permitirnos sonreír abiertamente.
Sobre las autoras: Nerea Jauregizar, Profesora agregada del Departamento de Farmacología, UPV/EHU; Leire Urien, Odontóloga doctoranda en farmacología, UPV/EHU, y Teresa Morera Herreras, Profesora agregada del Departamento de Farmacología, UPV/EHU
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo La poco conocida relación entre la boca y la salud mental se ha escrito en Cuaderno de Cultura Científica.
La catenaria: una historia de innovación (1/4)
El tranvía de Sóller (Mallorca, España) opera desde 1913 con varios automotores eléctricos originales. El de la imagen (con el número 20) fue adquirido a Lisboa y adaptado al ancho de vía 914 mm. Foto: Wojciech Then / UnsplashTodos los medios de transporte se caracterizan por un hecho obvio: se mueven. Lograr el movimiento requiere de algún tipo de causa motriz. Una fuente de energía que pueda ser utilizada, de algún modo, para hacer efectivo el movimiento. Todos los medios de transporte modernos llevan consigo su propia causa motriz, que se convierte así, además, en un factor limitante para la carga útil (pues, al final, el verbo transportar necesita un objeto directo para tener sentido) y el rango de distancias alcanzable.
¿Todos? ¡No! Existe un sistema de transporte, con perdón del casi difunto barco de vela, que transmite regularmente energía generada en cualquier lugar a un vehículo en movimiento: el tren eléctrico. El siglo XIX vio eclosionar, en el contexto de la revolución industrial, el ferrocarril y la electricidad. Era cuestión de tiempo que alguien intentara un maridaje, en principio, retador. Las baterías, derivadas de los primeros trabajos de Alessandro Volta, eran artefactos frágiles, pesados y con una capacidad de almacenamiento escasa. Tal era que los primeros cochecitos eléctricos, apenas juguetes, tenían su capacidad de movimiento limitada por el cable que los conectaba a sus baterías [UPS 2018]. Sin mejoras radicales en la capacidad de almacenamiento de energía eléctrica (que hoy, dos siglos después, aún esperamos), ¿quién plantearía un cable tan largo como para hacer de un transporte electrificado una proposición viable?

El primer ferrocarril electrificado funcionó como un prototipo durante 1876 en la localidad rusa de Sestroretsk, cercana a San Petersburgo [Nikolayenko 2013]. El ingeniero e inventor ucraniano Fiódor Apolónovich Pirotski dispuso conectores eléctricos en los raíles de un tramo de menos de cuatro kilómetros de longitud. Los propios raíles metálicos y las ruedas, también metálicas, cerraban un circuito eléctrico por el que el vehículo, una vagoneta dotada de un motor de corriente continua, podía desplazarse. Apenas tres años después, en la Exposición Industrial de Berlín de 1879, Werner von Siemens mostraba su primera locomotora eléctrica: un carrito de juguete tirando de tres pequeños coches con capacidad para seis pasajeros cada uno, alimentada por un sistema de tercer raíl electrificado. Validado el concepto, el mismo Siemens inauguró en 1881 el primer tranvía en el barrio berlinés de Lichterfelde, ya en servicio regular y con un tamaño apto para transportar hasta veintiséis adultos [BV 2007].
Estos primeros ferrocarriles electrificados tomaban su corriente de los propios raíles, a través de las ruedas, o mediante un raíl específico con el que el vehículo que circulaba se mantenía en contacto mediante una zapata metálica. Ni que decir tiene que aquí hay un desastre en ciernes. Pirotski pudo obviarlo gracias a que realizó sus pruebas en una zona poco poblada. Siemens decidió separar el trazado de su primer tranvía del resto de la calle mediante vallas, pero se vio obligado a dejar pasos abiertos. No hubo de transcurrir mucho tiempo sin que la práctica demostrara que los 180 voltios de corriente continua entre los raíles del tranvía eran más que suficientes para provocar graves quemaduras e incluso la muerte por electrocución a aquellas caballerías que tuvieran la mala fortuna, no tan improbable, de pisar con sus pezuñas herradas los dos raíles a la vez.
Gamberros decimonónicosTambién hubo incidentes en los que se vieron involucrados chavales. Los gamberros decimonónicos pronto aprendieron que podían provocar cortocircuitos con trozos de alambre robado. Solo debían tener la precaución de dejarlos caer de modo que tocaran a la vez ambos raíles. ¡No podían simplemente colocarlos, so pena de llevarse una descarga potencialmente mortal! Los alambres se calentaban hasta ponerse al rojo, se desprendían vistosas y peligrosas chispas, y se hacía necesario interrumpir el servicio cuanto antes para evitar daños por cortocircuito en los equipos de alimentación eléctrica.
Siemens dio con la misma solución que tantos padres y madres, desde tiempos inmemoriales, habían aplicado: colocaría la electricidad en alto, como quien pone los cuchillos, los botes de compuestos tóxicos y las galletas bien arriba para no tentar a los niños. Había nacido la línea aérea de contacto. La primera prueba de concepto se mostró en el mismo año, en la Exposición Eléctrica Internacional de París. Dos años más tarde, en 1883, una línea de tranvía de Mödling, localidad cercana a Viena, capital del imperio austrohúngaro, fue electrificada con corriente continua a 550 voltios [Leitner 2007]. Pocos meses después se instaló ese mismo sistema en Lichterfelde, para lamento de los adolescentes locales y tranquilidad compartida de padres y autoridades.

Las primeras líneas aéreas de contacto surgieron a la vez que los primeros pantógrafos, unos dispositivos que podríamos describir funcionalmente con solo dos palabras: enchufe deslizante. Pero aquellos artefactos apenas se asemejaban a los que hoy reconoceríamos como tales. Eran sistemas de rodillos similares a las sujeciones de las cabinas de un teleférico. Las líneas aéreas, por su parte, eran tubos suspendidos en lugar de los actuales hilos atirantados. Más importante, se trataba de sistemas bipolares. Con dos pantógrafos y dos conductores suspendidos, para poder cerrar el circuito. Hoy esta configuración solo se ve en las pocas redes de trolebuses que quedan en el mundo.
Las mejoras fueron sucediéndose. Para empezar, los ingenieros se dieron cuenta de que podían ahorrarse la mitad del metal de la instalación y uno de los dos pantógrafos si permitían que el retorno de corriente se hiciera por los raíles. Esto funcionaba de forma segura porque, para electrocutarse, había que llevar una pértiga de algún material conductor capaz de alcanzar la parte en tensión del sistema, a muchos metros de altura. Por otra parte, se comprobó que la presencia de un tren no provocaba fugas de corriente peligrosas en las proximidades. La sustitución de los tubos iniciales por hilos tensados nos trajo el nombre hoy más habitual para este tipo de sistemas: catenaria, por la forma que adopta naturalmente una cadena colgada de sus extremos. A la vez, los pantógrafos evolucionaron hacia los sistemas actuales con bandas de frotación conductoras montadas sobre mesillas sujetas por un brazo articulado.
Pronto, los operadores de ferrocarriles suburbanos percibieron las ventajas de evolucionar hacia sistemas eléctricos. Con gran parte de sus trayectos y estaciones bajo tierra, dejarían de sofocar así a sus operarios y pasajeros con el humo y el hollín de las calderas de vapor. En estos entornos controlados, los raíles electrificados, normalmente en forma de un tercer raíl protegido, pudieron subsistir —como en el U-bahn de Berlín—. Muchas otras explotaciones, sin embargo, se ejecutaron con catenaria. A lo largo del siglo XX, conforme aumentaba el conocimiento de los ingenieros y la disponibilidad de centrales eléctricas, las ventajas de la electrificación fueron quedando en evidencia también para aplicaciones en superficie. Al principio fueron trenes de mercancías superando pendientes imposibles para su competencia de vapor. Más adelante, cuando el vapor alcanzó sus máximas prestaciones, la electricidad quedó como la única opción que podía mejorarlas radicalmente.

Hoy, la catenaria ferroviaria es un sistema muy optimizado [Keenor 2021]. Un macramé de alta tensión donde los requisitos eléctricos se entrelazan con los mecánicos para dar como resultado una familia de soluciones para el suministro de energía a transportes guiados sobre raíles de todo tipo. Tranvías, metros ligeros, metros convencionales, tren-trams, ferrocarriles metropolitanos y regionales, trenes de mercancías y de alta velocidad. Cada uno de ellos con diferentes necesidades que dan lugar a variantes técnicas a veces muy distintas entre sí. Hilos únicos en las catenarias tranviarias, donde es posible ahorrar al máximo en metal debido a las bajas velocidades y potencias eléctricas. Catenarias rígidas —perfiles de aluminio con un hilo de cobre embutido— que sacrifican la flexibilidad y las elevadas velocidades a cambio de una sección transversal más compacta y un mantenimiento simplificado, ideal en túneles de metro. Y, por fin, catenarias flexibles para dar servicio a ferrocarriles con grandes consumos eléctricos o altas velocidades de circulación.
Las catenarias flexibles son, hoy, la mejor forma de poner a disposición de un tren potencias eléctricas elevadas para solventar los requisitos típicos de tres tipos de tráfico diferentes: las cercanías, con sus frecuentes paradas y arranques, los trenes de mercancías, con consumos elevados, pero aproximadamente constantes y dependientes de la masa remolcada, y los trenes de alta velocidad, mucho más ligeros que un mercante, pero más rápidos. El hilo de contacto, un trefilado —alambre macizo— de cobre o aleación de cobre y plata, tensionado en tramos de longitud variable en el entorno del kilómetro, es un elemento crítico en todos los casos. Sujeto a importantes solicitaciones tanto eléctricas como mecánicas, asegurar que su comportamiento está dentro de los parámetros de diseño del sistema es fundamental para garantizar una buena alimentación de energía.
Sería lógico pensar que el comportamiento real de esta tecnología debería estar más que documentado, pero lo cierto es que el conocimiento de los administradores de infraestructura del sistema de la catenaria es sorprendentemente empírico. Muchos años de experiencia y la estandarización de los componentes —aunque normalmente limitada al ámbito de cada administración— han resultado en un sistema fiable y funcional que optimiza la durabilidad al mismo tiempo que mantiene los costes de materiales, fabricación y despliegue en un nivel aceptable. A la vez, la literatura científica ha ido desarrollando simulaciones mecánicas, térmicas y eléctricas que, partiendo de primeros principios, han aspirado a acotar los parámetros clave del funcionamiento de los equipos. Esto, sin embargo, no ha logrado alcanzar la meta de todo gestor industrial: el mantenimiento predictivo.
Bibliografía[BV 2007] El primer tranvía electrificado de la historia en Lichterfelde, Berlín (en alemán): Berliner Verkehrsseiten (2007). Erste Straßenbahn in Groß-Lichterfelde (Berlin). Berliner Verkehrsseiten: Online-Magazin zur Berliner Verkehrsgeschichte.
[Keenor 2021] Manual de catenaria bajo licencia Creative Commons (en inglés): Keenor, G. (2021). Overhead line electrification for Railways (6th ed.).
[Leitner 2007] La primera electrificación en catenaria permanente en Mödling, Austria (en alemán): Leitner, R. (2007). Spezialforschungsbericht Moderne Wien und Zentraleuropa um 1900. Universität Graz. https://web.archive.org/web/20200711011526/http://www-gewi.kfunigraz.ac.at/moderne/sheft1l.htm
[Nikolayenko 2013] Fiódor Pirotski, el inventor del primer ferrocarril electrificado (en ruso): Nikolayenko, A., y Chepurin, S. (02/04/2013). Железная дорога. Zelenogorsk.
[UPS 2018] El primer coche eléctrico… de juguete (en inglés): UPS Battery Center. (06/06/2018). The First (Model) Electric Car: Ányos Jedlik 1828.
Del mismo autor:
Los límites del Hyperloop
El camión solar: ¿una posibilidad real?
Sobre el autor: Iván Rivera es ingeniero especializado en proyectos de innovación de productos y servicios para ferrocarriles.
El artículo La catenaria: una historia de innovación (1/4) se ha escrito en Cuaderno de Cultura Científica.
¿Tienen algún interés los números repitunos, cuyos dígitos son todos unos?
En mi anterior entrada del Cuaderno de Cultura Científica, titulada Los números insólitos, observábamos que había algunos números insólitos cuyos dígitos eran todos unos, en particular, 111 y 111.111.111, entre otros, los llamados números repitunos, a los que vamos a dedicar la entrada de hoy.

Empecemos por la definición.
Un número es un número repituno, en base b, si en la representación del número, en dicha base b, todos sus dígitos son unos (1).
Si empezamos con la base decimal (b = 10), que es la base que manejamos normalmente, tenemos que todo número repituno, como los números 11, 111, 1.111 o 11.111, que se representa (en base 10) con todo unos, puede expresarse de la forma

Y utilizando la fórmula de las progresiones geométricas, tenemos que los números repitunos (en base 10) son aquellos que pueden expresarse como

Por ejemplo, el número repituno 111.111 (para el cual n = 5) es igual a (106 – 1) / 9 = (1.000.000 – 1) / 9 = 999.999 / 9 = 111.111.
En general, para cualquier base b se tiene que los números repitunos pueden expresarse de esta forma
Si consideramos los números binarios (b = 2), cuyas cifras básicas son 0 y 1, tenemos que son, por la expresión anterior, los números de la forma 2n + 1 – 1, los llamados números de Mersenne (que reciben su nombre del sacerdote, filósofo, físico y matemático francés Marin Mersenne (1588-1648)). Los primeros números binarios repitunos serían (1)2 = 1, (11)2 = 22 – 1 = 3, (111)2 = 23 – 1 = 7, (1111)2 = 24 – 1 = 15, (11111)2 = 25 – 1 = 31 y (111111)2 = 26 – 1 = 63. Es decir, los números 1, 3, 7, 15, 31 y 63 son números repitunos en base 2.
Para los números ternarios (b = 3), cuyas cifras básicas son 0, 1 y 2, tenemos que son los números de la forma (3n + 1 – 1) / 2. Por lo tanto, los primeros números ternarios repitunos serían (1)3 = 1, (11)3 = (32 – 1) / 2 = 4, (111)3 = (33 – 1) / 2 = 13, (1111)3 = (34 – 1) / 2 = 40, (11111)3 = (35 – 1) / 2 = 121 y (111111)3 = (36 – 1) / 2 = 364, es decir, los números 1, 4, 13, 40, 121 y 364 son números repitunos en su representación en base 3.
Los números en base b = 4, o números cuaternarios, para los cuales las cifras básicas son 0, 1, 2 y 3, son repitunos si son de la forma (4n + 1 – 1) / 3. Los primeros números repitunos cuaternarios son entronces 1, 5, 21, 85, 341 y 1.365, ya que (1)4 = 1, (11)4 = (42 – 1) / 3 = 5, (111)4 = (43 – 1) / 3 = 21, (1111)4 = (44 – 1) / 3 = 85, (11111)4 = (45 – 1) / 3 = 341 y (111111)4 = (46 – 1) / 3 = 1.365.
En general, podemos hacer lo mismo para cualquier base b. Así, el número (1111)7 = 400 es un número repituno en base 7 o el número (11111)16 = 69.905 es un número repituno en base 16.
Si para cualquier base b tomamos n = 0 en la fórmula anterior tenemos que trivialmente el número 1 es un número repituno para cualquier base y si consideramos n = 1 se obtiene que b + 1 es un número repituno en la base b, ya que
Es decir, dándole la vuelta al argumento anterior, todos los números naturales m son repitunos en alguna base, al menos, trivialmente, en la base m – 1.

El nombre de números repitunos, que en inglés se denominan “repunit”, viene de la expresión en inglés “repeated unit” (unidad repetida) y fue acuñada por el matemático Albert Beiler, en su libro Recreations in the Theory of Numbers: The Queen of Mathematics Entertains (1964).
Los números repitunos primosUna cuestión que ha interesado dentro del estudio de los números repitunos, y que aparecía en el libro de Albert Beiler, es si son, o no, primos. Por ejemplo, el número 11 es un número repituno primo, pero no el número 111, ya que 111 = 3 x 37. Y, en general, se ha estudiado la factorización de los números repitunos.
A continuación, mostramos la factorización de los primeros números repitunos (en base decimal), a los cuales se les denota como Rk si están formados por k unos (a k se le suele llamar índice del número repituno).

Entre los veinte primeros números repitunos solo hay dos que sean primos, que son R2 = 11 y R19 = 1.111.111.111.111.111.111. En general, la sucesión de la cantidad de unos (1) que tienen los números repitunos primos que se conocen a día de hoy, es decir, el índice de los mismos, es la sucesión A004023 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, cuyos términos son:
2, 19, 23, 317, 1.031, 49.081 (demostrado en marzo de 2.022), 86.453 (demostrado en mayo de 2023),
y se incluyen otros cuatro índices k tales que el número repituno Rk es probablemente primo, pero no está demostrado aún:
109.297, 270.343, 5.794.777, 8.177.207.
Como podemos observar, encontrar números repitunos primos es muy complicado. Mientras escribo esta entrada solo se conocen 7 repitunos primos y hay otros 4 que probablemente lo sean, pero aún no está demostrado.
Una primera criba sobre los índices de los números repitunos a la hora de buscar aquellos que sean primos es limitar la búsqueda a los índices primos ya que se puede probar que, si el índice k no es primo, tampoco lo es Rk. Vamos a demostrar esto, ya que es bastante sencillo, aunque puedes saltarte la demostración y seguir leyendo un poco más adelante.
Para demostrar la afirmación anterior vamos a hacer uso de la siguiente identidad algebraica, la fórmula de la diferencia de potencias:

Ahora, supongamos que nuestro índice k no es primo, luego se puede expresar como un producto k = m x n, entonces vamos a probar que el número repituno Rk es divisible por los números repitunos Rm y Rn. De hecho, podemos expresarlo de la siguiente forma:

Luego Rm divide a Rk. De forma similar, se prueba que Rn también divide a Rk.
Por ejemplo, si k = 4 = 22, tenemos que R2 = 11 divide a R4 = 1.111 = 11 x 101, o si k = 6 = 2 x 3, el número repituno R6 = 111.111 es divisible por R2 = 11 y R3 = 111 = 3 x 37.

También podríamos preguntarnos cuáles de los números repitunos en otras bases b son primos. Para empezar, de forma similar a como se ha demostrado antes, basta buscar entre los índices primos.
A los números repitunos binarios (b = 2), los números de Mersenne, es decir, de la forma 2k – 1, que son primos se les llama números primos de Mersenne. Esta es una familia de números primos muy importante, en particular, en la búsqueda de números primos muy grandes. El número primo más grande que se conoce, encontrado en 2018, es el número primo de Mersenne
que tiene 24.862.048 dígitos (escrito en base decimal).
Los índices k para los cuales el número repituno binario con k unos (1), que es el número de Mersenne 2k – 1, es primo es la sucesión A000043 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, cuyos primeros términos son
2, 3, 5, 7, 13, 17, 19, 31, 61, 89, …
Y los primos de Mersenne correspondientes forman la sucesión A000668, cuyos primeros términos son
3, 7, 31, 127, 8.191, 131.071, 524.287, 2.147.483.647, 2.305.843.009.213.693.951, 618.970.019.642.690.137.449.562.111, …
Se conocen nueve números repitunos ternarios primos, la sucesión A076481 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, cuyos dos primeros miembros son 13, que expresado en base ternaria es (111)3, y 1.093, que se expresa en base ternaria como (1111111)3.
Para la base b = 4 solo existe un número repituno primo, que es el número 5, es decir, (11)4. Como hemos visto anteriormente, los números repitunos cuaternarios son de la forma (4k – 1) / 3, pero podemos descomponer (4k – 1) como producto de (2k + 1) y (2k – 1). Si tenemos en cuenta que (2k + 1) es divisible por 3 para k impar y (2k – 1) es divisible por 3 para k par, entonces todos los números repitunos cuaternarios, para k mayor que 2, son compuestos (no primos).
Y podríamos analizar también lo qué ocurre para las demás bases, pero dejemos esta cuestión y terminemos la entrada con un par de curiosidades sobre los números repitunos.
Algunas curiosidades de los números repitunosSeguramente la propiedad más curiosa y conocida de los números repitunos es lo que ocurre cuando los elevamos al cuadrado. Si miramos a los nueve primeros cuadrados de los números repitunos (en la siguiente imagen) vemos que los resultados son una serie de números capicúas muy especiales, ya que están formados por los números naturales del 1 al k (para k desde 1 hasta 9), primero en orden creciente y después decreciente, puesto que son capicúas.
Sin embargo, a partir de k = 10 ya no obtenemos números capicúas, aunque sí se mantiene cierta simetría, como podemos apreciar en la siguiente imagen. Por ejemplo, cuando elevamos el número repituno de índice 10 al cuadrado, lo que queda es el número 1.234.567.900.987.654.321, que claramente no es capicúa. La primera parte, desde la izquierda, 1234567, se repite en sentido contrario en la derecha, 7654321, pero la parte de en medio no mantiene la simetría 900098. Si elevamos R11 se obtiene 123.456.790.120.987.654.321.
Si observamos la siguiente imagen, que se corresponde con los números repitunos hasta índice 40, vemos que se mantiene cierta simetría. Por ejemplo, las cifras 2, 3, 4, 5, 6 y 7 están en posiciones simétricas, mientras que el 1 solo aparece en el lado izquierdo, a excepción de los extremos, y el 8 solo aparece en la derecha. Por otra parte, las cifras 0 y 9 mantienen cierta simetría.

Hemos obtenido números capicúas multiplicando Rk por Rk, para k entre 0 y 9, pero se pueden obtener otros números capicúas si se multiplica un número repunit Rm cualquiera por Rk, para k entre 0 y 9. Dejo como cuestión abierta analizar el resultado de tales multiplicaciones, que podéis analizar de forma progresiva sobre el índice k, empezando en k = 2.
Otra serie de expresiones curiosas para los primeros números repitunos es la siguiente:
Nos podríamos plantear qué pasa para los demás números repitunos, aquellos con índice 11 o más. La respuesta es que, teniendo en cuenta alguna consideración extra, este tipo de expresiones se mantiene. Veamos qué pasa para el caso del índice 11. En la última expresión anterior teníamos 123456789 x 9 + 10. Ahora en el primer número habría que añadir el 10, pero añadiendo solo un dígito, lo cual es posible si lo hacemos como aparece en la siguiente imagen (se añade el 0 en la última posición y el 1 se suma a la posición anterior).
De esa misma forma se continua con 12, 13, 14, etc, algunos de ellos los mostramos en la siguiente imagen.
Vamos a terminar dividiendo los números repitunos por 9 y viendo qué ocurre.
Bibliografía
1.- R. Ibáñez, La gran familia de los números, Libros de la Catarata – ICMAT – FESPM, 2021.
2.- Albert H. Beiler, Recreations in the Theory of Numbers: The Queen of Mathematics Entertains, Dover, 1964.
3.- Página web: Numbers Aplenty.
4.- Página web: Enciclopedia On-line de Sucesiones de Números Enteros – OEIS
5.- Samuel Yates, The Mystique of Repunits, Mathematics Magazine, Vol. 51, No. 1, pp. 22-28, 1978.
6.- Gerard Villemin: nombres : curiosités – théorie – usage
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo ¿Tienen algún interés los números repitunos, cuyos dígitos son todos unos? se ha escrito en Cuaderno de Cultura Científica.
Un nuevo experimento arroja dudas sobre la principal teoría del núcleo
Al medir el núcleo de helio hinchado, los físicos han desafiado nuestra mejor comprensión de la fuerza que une los protones y los neutrones.
Un artículo de Katie McCormick. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

Una nueva medición de la fuerza nuclear fuerte, que une protones y neutrones, confirma indicios previos de una verdad incómoda: todavía no tenemos una comprensión teórica sólida ni siquiera de los sistemas nucleares más simples.
Para probar la fuerza nuclear fuerte, los físicos recurrieron al núcleo de helio-4, que tiene dos protones y dos neutrones. Cuando los núcleos de helio se excitan, crecen como un globo que se infla hasta que uno de los protones salta. Sorprendentemente, en un experimento reciente, los núcleos de helio no se hincharon según lo planeado: se hincharon más de lo esperado antes de estallar. Una medida que describe esa expansión, llamada factor de forma, es el doble de las predicciones teóricas.
“La teoría debería funcionar”, afirma Sonia Bacca, física teórica de la Universidad Johannes Gutenberg de Mainz y autora del artículo que describe la discrepancia, que se ha publicado en Physical Review Letters. “Estamos desconcertados”.
El núcleo de helio que se hincha, dicen los investigadores, es una especie de minilaboratorio para probar la teoría nuclear porque es como un microscopio: puede magnificar las deficiencias en los cálculos teóricos. Los físicos creen que ciertas peculiaridades en ese hinchamiento la hacen extremadamente sensible incluso a los componentes más débiles de la fuerza nuclear, factores tan pequeños que generalmente se ignoran. Cuánto se hincha el núcleo también corresponde a la blandura de la materia nuclear, una propiedad que ofrece información sobre los misteriosos corazones de las estrellas de neutrones. Pero antes de explicar el aplastamiento de la materia en las estrellas de neutrones, los físicos primero deben averiguar por qué sus predicciones están tan alejadas.
Bira van Kolck, teórica nuclear del Centro Nacional de Investigación Científica de Francia, afirma que Bacca y sus colegas han expuesto un problema importante en la física nuclear. Han encontrado, continúa, un caso en el que nuestra mejor comprensión de las interacciones nucleares, un marco conocido como teoría del campo efectivo quiral, se queda corta.
“Esta transición amplifica los problemas [con la teoría] que en otras situaciones no son tan relevantes”, concluye van Kolck.
La fuerza nuclear fuerteLos nucleones atómicos (protones y neutrones) se mantienen unidos por la fuerza fuerte. Pero la teoría de la fuerza fuerte no se desarrolló para explicar cómo se mantienen unidos los nucleones. Sino que se usó por primera vez para explicar cómo los protones y los neutrones están hechos de partículas elementales llamadas quarks y gluones.
Durante muchos años los físicos no comprendieron cómo usar la fuerza fuerte para comprender la adherencia de los protones y los neutrones. Un problema era la extraña naturaleza de la fuerza fuerte: se vuelve más fuerte a medida que aumenta la distancia, en lugar de disminuir lentamente. Esta característica les impidió usar sus trucos de cálculo habituales. Cuando los físicos de partículas quieren comprender un sistema en particular, generalmente dividen una fuerza en contribuciones aproximadas más manejables, ordenan esas contribuciones de la más importante a la menos importante y luego simplemente ignoran las contribuciones menos importantes. Con la fuerza fuerte no podían hacer eso.
Luego, en 1990, Steven Weinberg encontró una forma de conectar el mundo de los quarks y los gluones con los núcleos pegajosos. El truco consistía en utilizar una teoría de campo efectiva, una teoría que es tan detallada como necesita ser para describir la naturaleza en una escala de tamaño (o energía) particular. Para describir el comportamiento de un núcleo no necesitas saber de quarks y gluones. En cambio, a estas escalas, emerge una nueva fuerza efectiva: la fuerza nuclear fuerte, transmitida entre nucleones por el intercambio de piones.
El trabajo de Weinberg ayudó a los físicos a entender cómo la fuerza nuclear fuerte emerge de la fuerza fuerte. También les permitió realizar cálculos teóricos basados en el método habitual de aportes aproximados. La teoría, la teoría efectiva quiral, ahora se considera ampliamente como la «mejor teoría que tenemos», explica Bacca, para calcular las fuerzas que gobiernan el comportamiento de los núcleos.

En 2013, Bacca utilizó esta teoría de campo eficaz para predecir cuánto se hincharía un núcleo de helio excitado. Pero cuando comparó su cálculo con los experimentos realizados en las décadas de 1970 y 1980 encontró una discrepancia sustancial. Ella había predicho menos hinchamiento que las cantidades medidas, pero las barras de error experimentales eran demasiado grandes para que ella estuviera segura.
Núcleos hinchablesDespués de ese primer indicio de un problema, Bacca alentó a sus colegas en Mainz a repetir los experimentos de hace décadas: tenían herramientas más sofisticadas a su disposición y podían realizar mediciones más precisas. Esas discusiones dieron lugar a una nueva colaboración: Simon Kegel y sus colegas actualizarían el trabajo experimental, y Bacca y sus colegas intentarían comprender el mismo intrigante desajuste, si apareciese.
En su experimento, Kegel y sus colegas excitaron los núcleos disparando un haz de electrones a un tanque de gas helio frío. Si un electrón se colaba dentro del alcance de uno de los núcleos de helio, donaba parte de su exceso de energía a los protones y neutrones, lo que provocaba que el núcleo se inflara. Este estado inflado era fugaz: el núcleo perdía rápidamente el control de uno de sus protones, desintegrándose en un núcleo de hidrógeno con dos neutrones más un protón libre.
Al igual que con otras transiciones nucleares, solo una cantidad específica de energía donada permitirá que el núcleo se hinche. Al variar el momento de los electrones y observar cómo respondía el helio, los científicos pudieron medir la expansión. Luego, el equipo comparó este cambio en el hinchamiento del núcleo, el factor de forma, con una variedad de cálculos teóricos. Ninguna de las teorías coincidía con los datos. Pero, extrañamente, el cálculo que más se acercó utilizaba un modelo simplificado de la fuerza nuclear, no la teoría del campo efectivo quiral.
“Esto fue totalmente inesperado”, afirma Bacca.
Otros investigadores están igualmente desconcertados. “Es un experimento limpio y bien hecho. Así que confío en los datos”, afirma Laura Elisa Marcucci, física de la Universidad de Pisa en Italia. Pero, dice, el experimento y la teoría se contradicen entre sí, por lo que uno de ellos debe estar equivocado.
Trayendo el equilibrio a la fuerzaEn retrospectiva, los físicos tenían varias razones para sospechar que esta simple medida probaría los límites de nuestra comprensión de las fuerzas nucleares.
Primero, este sistema es particularmente quisquilloso. La energía necesaria para producir el núcleo de helio inflado transitoriamente, el estado que los investigadores quieren estudiar, se encuentra justo por encima de la energía necesaria para expulsar un protón y justo por debajo del mismo umbral para un neutrón. Eso hace que todo sea difícil de calcular.
La segunda razón tiene que ver con la teoría del campo efectivo de Weinberg. Funcionó porque permitió a los físicos ignorar las partes menos importantes de las ecuaciones. Van Kolck sostiene que algunas de las partes consideradas menos importantes y habitualmente ignoradas son, de hecho, muy importantes. El microscopio proporcionado por esta medición de helio en concreto, afirma, está esclareciendo ese error básico.
“No puedo ser demasiado crítico porque estos cálculos son muy difíciles”, agrega. “Están haciendo lo mejor que pueden”.
Varios grupos, incluido el de van Kolck, planean repetir los cálculos de Bacca y descubrir qué salió mal. Es posible que simplemente incluir más términos en la aproximación de la fuerza nuclear sea la respuesta. Por otro lado, también es posible que estos núcleos hinchables de helio hayan expuesto un fallo fatal en nuestra comprensión de la fuerza nuclear.
“Expusimos el rompecabezas, pero desafortunadamente no lo hemos resuelto”, concluye Bacca. «Aún no.»
El artículo original, A New Experiment Casts Doubt on the Leading Theory of the Nucleus, se publicó el 12 de junio de 2023 en Quanta Magazine.
Traducido por César Tomé López
El artículo Un nuevo experimento arroja dudas sobre la principal teoría del núcleo se ha escrito en Cuaderno de Cultura Científica.
Nuevas pruebas a favor de un gran océano boreal en Marte
Uno de los mayores debates que existen sobre la historia de Marte es si en algún momento existió un gran océano que habría cubierto al menos un tercio de la superficie del planeta, en lo que hoy es la gran cuenca boreal, una enorme “llanura deprimida” que existe en el hemisferio norte y que topográficamente marca un enorme contraste con las tierras altas, mucho más antiguas y elevadas.
Este debate existe por varias razones. La primera es que todavía no tenemos del todo clara la historia climática de Marte, y si en algún momento las condiciones fueron lo suficientemente cálidas y estables como para permitir un océano -al menos no un océano efímero. Aunque sí tenemos claro que al menos hubo agua en superficie por las grandes pruebas de escorrentía, ríos, deltas, lagos e incluso de redes fluviales formadas por la precipitación. Probablemente, de haber existido, habría sido alrededor de los mil primeros millones de años de su historia.

Los estudios más recientes basados en simulaciones numéricas, como el de Schmidt et al. (2022) afirman que si es posible que hubiese un océano, aunque las condiciones climáticas no serían del todo cálidas, sino más bien frías y húmedas, pero podría haber existido un pequeño efecto invernadero gracias al hidrógeno emitido por las erupciones volcánicas y al dióxido de carbono, permitiendo la existencia de un océano muy cerca del punto de congelación, pero también de un ciclo hidrológico que permitiese algo de precipitación en estado líquido, aunque habría grandes zonas cubiertas por el hielo.
En segundo lugar, las evidencias geomorfológicas sobre una posible línea de costa nunca han sido concluyentes del todo, y esto podía ser debido a varias circunstancias: o bien porque nunca hubo una línea de costa como tal, y, por lo tanto, tampoco un océano, o bien porque esta había sido modificada posteriormente por otros procesos y en consecuencia difícilmente reconocible en la actualidad.
Aun así, también en los últimos años hemos tenido constancia del descubrimiento de depósitos sedimentarios y formas erosivas asociados a antiguos tsunamis que habrían ocurrido precisamente en este posible océano (Rodríguez, J. Alexis et al (2016), Rodríguez, J. Alexis et al (2022)), y cuyo origen habría sido uno o varios impactos de asteroides sobre el océano (Costard et al. (2019)), algo parecido a lo que ocurrió en nuestro planeta hace aproximadamente 66 millones de años y que sentenció a los cinematográficos dinosaurios, entre otras muchas especies.

Pero tenemos una nueva serie de pruebas muy interesantes aportados por la misión china Tianwen-1, que llevaba consigo un pequeño rover que aterrizaría en mayo de 2021 en Utopía Planitia, la cuenca de impacto más grande de todo el Sistema Solar, el mismo lugar donde por ejemplo aterrizaría también la misión norteamericana Viking 2 en la década de los 70. Esta gran cuenca formaría parte del hipotético océano boreal, aunque las imágenes tomadas de su superficie por la Viking 2 nos recordaba más a un desierto pedregoso que al lecho de un antiguo océano.
Pero el Zhurong parece dispuesto a sorprendernos con las observaciones que ha hecho a lo largo de sus dos kilómetros de recorrido por la superficie marciano. Y es que un nuevo estudio publicado por Long Xiao et al. (2023) en la revista National Science Review aporta las primeras pruebas en superficie de rocas sedimentarias formadas en un ambiente marino que apoyarían la teoría del gran océano boreal.
Estos científicos se han centrado en las estructuras sedimentarias presentes en las rocas que ha podido fotografiar el rover, descubriendo que las estructuras que se observan no coinciden con las de rocas volcánicas, ni tampoco con las que esperaríamos si el modo de depósito hubiese sido eólico, sino que parecen demostrar un flujo alternante entre dos direcciones similar al que en nuestro planeta hay en ambientes marinos poco profundos.

Esta alternancia en direcciones no es muy habitual tampoco en los ambientes fluviales donde la corriente principal de los ríos suele ser siempre la misma y, aunque en el caso de las dunas eólicas si pueden existir regímenes bimodales de viento, no suelen ser direcciones opuestas, salvo en casos muy concretos. Además, el pequeño tamaño de las estructuras parece también descartar un origen eólico.
Los científicos han podido apreciar en el detalle de estas rocas que la intensidad de las corrientes es diferente hacia un lado que hacia el otro, estudiando el tamaño de los granos que arrastraba el agua, ya que el agua no lleva la misma energía en su subida que en su bajada.
Las estructuras sedimentarias estudiadas por los autores sugieren la existencia de pequeños ciclos de mareas, no tan intensos como los de la Tierra debido al pequeño tamaño de los satélites, formando las estructuras registradas en la roca en ese ir y venir. Además, también piensan que estos depósitos se formaron probablemente en una etapa de regresión del océano, ya que se encuentran a casi 300 kilómetros de lo que habría sido una de las líneas de costa y a 500 metros por debajo del nivel del agua.
Estos nuevos detalles abren de nuevo el debate sobre la existencia de un posible gran océano sobre Marte y la necesidad de volver a explorar con más detalle estas zonas donde podríamos encontrar las pistas definitivas que sienten por fin esta cuestión, que sin duda, abriría otras muchas.
Referencias:
Schmidt, F. et al. (2022) ‘Circumpolar Ocean Stability on mars 3 gy ago’, Proceedings of the National Academy of Sciences, 119(4). doi:10.1073/pnas.2112930118.
Costard, F., et al. “The Lomonosov Crater Impact Event: A Possible Mega‐tsunami Source on Mars.” Journal of Geophysical Research: Planets, vol. 124, no. 7, 2019, pp. 1840–1851, https://doi.org/10.1029/2019je006008.
Rodriguez, J. Alexis, Alberto G. Fairén, et al. “Tsunami Waves Extensively Resurfaced the Shorelines of an Early Martian Ocean.” Scientific Reports, vol. 6, no. 1, 2016, https://doi.org/10.1038/srep25106.
Rodriguez, J. Alexis, Darrel K. Robertson, et al. “Evidence of an Oceanic Impact and Megatsunami Sedimentation in Chryse Planitia, Mars.” Scientific Reports, vol. 12, no. 1, 2022, https://doi.org/10.1038/s41598-022-18082-2.
Xiao, L. et al. (2023) ‘Evidence for marine sedimentary rocks in Utopia Planitia: Zhurong Rover Observations’, National Science Review [Preprint]. doi:10.1093/nsr/nwad137.
Para saber más:
Pero, entonces, ¿de dónde vino el agua de Marte?
Pero, ¿es que existen lagos en Marte?
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Nuevas pruebas a favor de un gran océano boreal en Marte se ha escrito en Cuaderno de Cultura Científica.
¿Por qué la noche es oscura si hay infinitas estrellas? 200 años de la paradoja de Olbers

El día amanece, un 7 de mayo de 1823. Desde el segundo piso de su casa, convertida en observatorio amateur, Heinrich Olbers da los últimos retoques al artículo con el que dejará su nombre en la historia. Aquella noche histórica terminó con un magnífico amanecer, y condujo a la revelación de una paradoja. Esta paradoja, que otros ya habían señalado antes, cautivará a generaciones de investigadores y neófitos (entre ellos el poeta Edgar Allan Poe) durante los siglos venideros. ¿Por qué la noche es oscura si hay un número infinito de estrellas?
La pérdida del infinitoLa visión de un universo eterno e ilimitado, compartida por Olbers y sus contemporáneos, implicaba que el cielo debería estar poblado por un mar también infinito de estrellas. Pero en aquella feliz madrugada Olbers se dio cuenta de que, ante infinitas estrellas, no importa en qué dirección apuntemos nuestros ojos o telescopios: la mirada siempre interceptaría una de ellas.
Olbers, que había cesado su trabajo de oftalmólogo en 1820 para dedicarse exclusivamente a la astronomía, planteó a la comunidad científica, el 7 de mayo de 1823, la emocionante paradoja que lleva su nombre. Plantea que el modelo cosmológico de la época sugiere que cada punto del cielo debería ser tan brillante como la superficie del sol. La noche, por tanto, no sería oscura. Cada vez que miramos al cielo deberíamos estar cegados por la luz del infinito mar de estrellas.
En busca de explicacionesOlbers buscó razones por las que esto no sucede. Planteó que la luz de las estrellas era absorbida por el polvo interestelar que encontraba en su camino hasta la Tierra, y que cuanto mayor es la distancia que nos separa de la estrella, mayor sería la absorción.
Pero el astrónomo John Herschel tiró abajo el argumento. Herschel demostró que cualquier medio absorbente que llene el espacio interestelar eventualmente se calentaría y volvería a irradiar la luz recibida. Por tanto, el cielo seguiría siendo luminoso.
La comunidad científica dejó sin resolver la paradoja planteada por Heinrich Olbers hasta su último suspiro a los 81 años, el 2 de marzo de 1840.

SA/Webb, NASA & CSA, A. Martel, CC BYUn enigma para Edgar Allan Poe
Ocho años más tarde, al otro lado del Océano Atlántico, el 3 de febrero de 1848, Edgar Allan Poe, famoso tras la publicación de El Cuervo, presentaba su Cosmogonía del Universo en
la Biblioteca de la Sociedad de Nueva York (como hizo con su poema Eureka). Poe estaba convencido de haber resuelto el enigma popularizado por Olbers, como afirmaba en su correspondencia.
Para empezar, Poe propuso, al contrario que el filósofo Immanuel Kant y que el astrónomo matemático Pierre-Simon Laplace, que el cosmos había surgido de un único estado de materia (“Unidad”) que se fragmentó, y cuyos restos se dispersaron bajo la acción de una fuerza repulsiva.
El universo estaría entonces limitado a una esfera finita de materia. Si el universo finito está poblado por un número suficientemente pequeño de estrellas, entonces no hay razón para encontrar una en todas las direcciones que observamos. La noche puede volver a ser oscura.
Poe también encontró salida a la paradoja, aunque el universo fuera finito: si suponemos que la extensión de la materia es infinita, que el universo comenzó en algún instante en el pasado, entonces el tiempo que tarda la luz en llegar a nosotros limitaría el volumen del universo observable.
Este intervalo de tiempo constituiría un horizonte más allá del cual las estrellas lejanas permanecerían inaccesibles, incluso para nuestros telescopios más potentes.
Edgar Allan Poe murió un año después, el 7 de octubre de 1849, a los 40 años, sin saber que sus intuiciones resolvieron el enigma científico del cielo nocturno oscuro más de un siglo después de que él las planteara.

Planck Collaboration / ESA, CC BYLos “dos hechos y medio” para explicar el cosmos
En el período de entreguerras surgieron múltiples teorías del cosmos, basadas en la relatividad general de Einstein. Además, el campo de la cosmología, hasta entonces reservado en gran parte a los metafísicos y filósofos, comenzó a ser puesto a prueba por las observaciones. Según el radioastrónomo Peter Scheuer, la cosmología en 1963 se basaba sólo en “dos hechos y medio”:
- Hecho 1: el cielo nocturno es oscuro, algo que se sabe desde siempre.
- Hecho 2: las galaxias se están alejando las unas de las otras, como intuyó Georges Lemaître y como mostraron las observaciones de Hubble, publicadas en 1929.
- Hecho 2.5: el contenido del universo probablemente está evolucionando a medida que se desarrolla el tiempo cósmico.
La interpretación de los hechos 2 y 2.5 despertó grandes controversias en la comunidad científica en las décadas de 1950 y 1960. Los partidarios del modelo estacionario del universo y los partidarios del modelo del big bang admitieron, sin embargo, que fuera cual fuera el modelo correcto tenía que explicar la oscuridad del cielo nocturno.
El cosmólogo Edward Harrison resolvió el conflicto en 1964.
Que la paradoja descanse en pazDesde el Laboratorio Rutherford de Altas Energías, cerca de Oxford, Harrison demostró que el número de estrellas en el universo observable es finito. Aunque son muy numerosas, se forman en cantidades limitadas a partir del gas contenido en las galaxias. Este número limitado, combinado con el gigantesco volumen que hoy cubre la materia del universo, hace que la oscuridad se manifieste entre las estrellas.
En la década de 1980 los astrónomos confirmaron la resolución propuesta por Poe, Kelvin y Harrison. Algunos, como Paul Wesson, incluso formularon el deseo de que la paradoja de Olbers finalmente descanse en paz.

Pxhere, CC BYUn cielo dos veces más brillante más allá de Plutón
Pero las buenas paradojas nunca mueren del todo.
Las medidas recientes de la sonda New Horizons, en una órbita situada más allá de Plutón y más allá del polvo del sistema solar interior, indican que el cielo es dos veces más brillante de lo que predecimos sólo en base a las estrellas. Esta vez, o faltan estrellas o hay luz que no vemos. ¿Se trata de un nuevo fondo cósmico?
La cuestión de la oscuridad del cielo permanece pues vigente, y es de gran actualidad científica, 200 años después de que Olbers se planteará por primera vez la oscuridad de la noche y las infinitas estrellas.
Sobre los autores: Alberto Domínguez, Astrofísico, Universidad Complutense de Madrid; David Valls-Gabaud, Astrophysicien, Directeur de recherches au CNRS, Observatoire de Paris; Hervé Dole, Astrophysicien, Professeur, Vice-président, art, culture, science et société, Université Paris-Saclay; Jonathan Biteau, Maître de conférence en physique des astroparticules, Université Paris-Saclay; José Fonseca, Assistant Research, Universidade do Porto; Juan Garcia-Bellido, Catedratico de Fisica Teórica, Universidad Autónoma de Madrid y Simon Driver, ARC Laureate Fellow and Winthrop Research Professor at the International Centre for Radio Astronomy Research, The University of Western Australia
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Por qué la noche es oscura si hay infinitas estrellas? 200 años de la paradoja de Olbers se ha escrito en Cuaderno de Cultura Científica.
Madre cuidadora, madre defensora: neurobiología del comportamiento maternal en mamíferos
Cómo influyen los parásitos en el comportamiento de los animales, cómo se modifica la conducta de las madres mamífero o cuáles son las enfermedades que nos afectan y desde cuándo hemos desarrollado comportamientos funerarios ante la muerte son algunos de los aspectos que se analizarán en la V Jornada Nacional sobre Evolución y Neurociencias.
Especialistas en ambas materias se reunirán el 11 y 12 de mayo en una nueva edición conducida por Eva Garnica y Pablo Malo, psiquiatras y miembros de la Red de Salud Mental de Bizkaia, y organizada por esa misma entidad y la Cátedra de Cultura Científica de la UPV/EHU.
La jornada, cuya primera edición se celebró en 2017, se ha convertido en una cita imprescindible para las y los expertos en ámbitos como la psiquiatría, la psicología o la biología. Una jornada que sirve para analizar el comportamiento humano desde un punto de vista evolucionista y divulgar de un modo accesible para todos los públicos.
¿Las buenas madres nacen o se hacen? Parece que la evolución ha puesto en marcha mecanismos genéticos y neurobiológicos para la supervivencia de las crías en forma de comportamiento maternal de las hembras de los mamíferos, como nos explica en esta conferencia Carmen Agustín.
Carmen Agustín Pavón es doctora en Neurociencias por la Universitat de València y, tras pasar por la Universidad de Cambridge, el Centre de Regulació Genòmica de Barcelona, el Imperial College London y la Universitat Jaume I de Castellón, volvió a ella como profesora, donde investiga en neurobiología del comportamiento social, del sistema olfativo, y el síndrome de Rett.
Si no ve correctamente el vídeo, use este enlace.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Madre cuidadora, madre defensora: neurobiología del comportamiento maternal en mamíferos se ha escrito en Cuaderno de Cultura Científica.
Cómo usar un alga invasora marina para defender la vid
Con el objetivo de buscar estrategias ecológicas que permitan reducir o sustituir los tratamientos químicos más habituales en la viticultura, el proyecto SEAWINES, liderado por la UPV/EHU y el IFAPA, ha demostrado que un extracto obtenido de un alga invasora activa y potencia significativamente los mecanismos de defensa de la vid. Si bien son necesarias más investigaciones para corroborar en el campo lo observado en invernaderos, el equipo se muestra optimista.
La Comisión Europea se ha fijado como objetivo reducir el 50 % de los pesticidas utilizados en la agricultura para el año 2030. El uso de estos productos es especialmente abundante en la viticultura, ya que son frecuentes enfermedades como el mildiu y el oidio, ambas provocadas por hongos. Con el objetivo de “buscar una alternativa estratégica y ecológica contra estos dos hongos, hace un año pusimos en marcha el proyecto SEAWINES”, explica Iratxe Zarraonaindia Martínez, investigadora Ikerbasque del Departamento de Genética, Antropología Física y Fisiología Animal de la UPV/EHU.

El proyecto pretende utilizar macroalgas marinas. El uso de algas en la agricultura es cada vez más frecuente en los últimos años, ya que se ha demostrado que benefician a los cultivos en aspectos como la germinación de semillas, el crecimiento y la salud de las plantas o la absorción de agua y nutrientes. En el proyecto SEAWINES se están analizando los efectos bioestimulantes y fungicidas de dos algas: Ulva ohnoi, cuyo potencial contra los hongos es ya conocido, y el alga invasora Rugulopteryx okamurae, procedente de Asia y ampliamente extendida por el litoral mediterráneo. El efecto protector de esta última “no ha sido objeto de análisis hasta la fecha, pero existen numerosos estudios en marcha para buscar sus usos o aplicaciones. De hecho, cada año se extraen cientos de toneladas de algas del Mediterráneo, y sería muy interesante aprovechar todo esto de alguna manera”, explica la investigadora.
“Nuestra apuesta ha sido comprobar la capacidad de algunos extractos de estas algas para activar los mecanismos de defensa de las plantas, como alternativa a los pesticidas, para que la planta esté más fuerte cuando la ataque el hongo patógeno”, afirma Zarraonaindia. En primer lugar, el estudio se realizó en invernaderos y en condiciones controladas. Concretamente, se trataron las vides de la variedad tempranillo en los invernaderos del Instituto Vasco de Investigación y Desarrollo Neiker, impregnando sus hojas con distintos extractos de algas: por un lado, se testaron dos extractos extraídos de Ulva y, por otro, dos extraídos de Rugulopteryx. Algunas plantas solo recibieron agua, como control.

Tras los tratamientos, se tomaron muestras de hojas y se realizaron numerosos análisis para analizar el efecto de cada uno de los tratamientos. La investigadora resume así lo encontrado: “Los resultados más positivos se obtuvieron con uno de los extractos producidos por el alga invasora Rugulopteryx okamurae. Vimos cómo tras aplicar el tratamiento de este extracto en la planta aumentó la expresión de genes resistentes y la actividad de enzimas antioxidantes. En la microbiota de la superficie de las hojas también observamos que algunos hongos que ayudan a la planta en el control biológico son más abundantes en las plantas que recibieron el extracto de Rugulopteryx”.
Los resultados obtenidos no sorprenden a Zarraonaindia. “En definitiva, al tratarse de una especie invasora, es de esperar que tenga capacidades o cualidades que le ayuden a progresar y también a desplazar con tanta eficacia a otras especies”.

La investigadora considera “emocionantes” los resultados obtenidos, aunque es consciente de que son “solo los primeros resultados”. SEAWINES es un proyecto a tres años vista y, con el fin de conseguir una medida lo más completa posible del potencial del alga invasora, han iniciado ya en el campo los trabajos para confirmar los resultados obtenidos en condiciones de invernadero: “Testaremos los extractos de las algas en viñedos de Jerez y La Rioja, bajo condiciones locales. Además, haremos un seguimiento del impacto en todas las fases de la elaboración del vino; es decir, se trata de ver el efecto que estos tratamientos tienen sobre la calidad de la uva y del vino, además de la bioestimulación y el efecto antifungicida que generan”, aclara.
“Estamos deseando comprobar la utilidad que puede tener el alga Rugulopteryx. Sería estupendo poder retirarla del entorno y dedicarla a reforzar la viticultura; este sería un buen ejemplo de economía circular”, concluye.
Referencia:
Iratxe Zarraonaindia, Enrico Cretazzo, Amaia Mena-Petite, Ana M Díez-Navajas, Usue Pérez-López, Maite Lacuesta, Eva Pilar Pérez-Álvarez, Belén Puertas, Catalina Fernandez-Diaz, Nadia Bertazzon, Emma Cantos-Villar (2023) Holistic understanding of the response of grapevines to foliar application of seaweed extracts Frontiers in Plant Science doi: 10.3389/fpls.2023.1119854
El artículo Cómo usar un alga invasora marina para defender la vid se ha escrito en Cuaderno de Cultura Científica.
Cuevas, misterios subterráneos
El pasado 6 de junio se ha celebrado el Día Internacional de las Cuevas y del Mundo Subterráneo. Así, se rinde tributo a esas cavidades que se abren camino a las profundidades de la tierra y que nos han fascinado desde los albores de la humanidad. Pasadizos oscuros que siempre se han asimilado a poderes, fuerzas extrañas, magia, deidades y seres sobrenaturales que se ocultan entre las sombras y nos arrastran hacia un interior misterioso e inexplorado. Directamente, conductos que nos encaminan a cualquiera de los infiernos imaginados por las diversas civilizaciones humanas que se han desarrollado desde tiempos pretéritos. ¿O acaso no os habíais dado cuenta de que los mundos de los muertos atormentados por toda la eternidad siempre se han dispuesto en el interior del planeta, a donde se accede a través de pasadizos oscuros e intrincados?
Vale, dejo ya la tétrica introducción para centrarme en el tema que nos ocupa. Las cuevas son unas estructuras geomorfológicas que consisten en cavidades o aberturas en el interior de la tierra. Pueden tener diferentes orígenes, pero el más común, al menos el de la mayoría de las cuevas que nos podemos encontrar en la Península Ibérica, es debido a la acción del agua de lluvia, que es ligeramente ácida porque lleva disuelto CO2 atmosférico, al reaccionar químicamente con rocas carbonatadas, como las calizas (CaCO3) o las dolomías (MgCa(CO3)2), disolviéndolas en profundidad hasta excavar enormes cavidades en su interior. Aunque el recorrido del agua que da lugar a las cuevas puede ser, exactamente, el opuesto. Me estoy refiriendo a aguas que circulan a mucha profundidad por el interior de la tierra, por lo que tienen una elevada temperatura, de ahí que se las denomine fluidos hidrotermales, que, una vez encuentran alguna zona de fractura en las rocas que tienen por encima, van a ascender hacia la superficie, disolviendo los materiales que atraviesan en su camino, llegando a producir grandes aberturas subterráneas.

Además, nos podemos encontrar con cuevas submarinas en zonas próximas al litoral. En este caso, las cavidades se producen por la acción mecánica directa del agua marina sobre los acantilados por efecto del oleaje y las corrientes marinas, que acaban erosionando zonas de debilidad en los materiales rocosos, tales como fracturas o capas de diferente composición química. A este machaque continuado se le suma la capacidad corrosiva del agua salada, que disuelve poco a poco las rocas en su avance hacia el interior de tierra firme. Y, por si fuera poco, en muchas ocasiones también se suma la disolución producida por el agua de lluvia que se infiltra en el terreno, que va excavando galerías subterráneas hasta encontrar una salida al mar. En la zona en la que se mezclan el agua marina que penetra hacia el interior continental y el agua dulce que circula en sentido contrario, el efecto corrosivo sobre las rocas se multiplica.

También existen cuevas de hielo. En estos casos tenemos que tener presente que, cuando vemos un enorme glaciar, no se trata de una masa compacta de agua congelada, como los cubitos que hacemos en el congelador. En la naturaleza, estas estructuras se forman por la acumulación de agua que precipitó en forma de nieve y granizo y que, debido a las bajas temperaturas ambientales, se congeló sobre el terreno dando lugar a capas de hielo superpuestas unas encima de otras. Pero estas capas de hielo no son todas iguales, pueden tener ligeras diferencias en su composición química o englobar diversos tipos de materiales sólidos en su interior. Estos cambios composicionales hacen que su punto de fusión sea también ligeramente diferente. Al estar sometidas a la fricción y el peso de otras capas de hielo por encima, algunos niveles pueden fundirse mientras el resto permanecen en estado sólido, dando lugar a una circulación interior de agua de fusión que, al abrirse camino hacia el exterior, excavará galerías y cavernas dentro de los glaciares.
Pero me queda hablaros de otro tipo de cuevas, para el que voy a dejar de lado el efecto del agua. Se trata de las cavidades formadas en ambientes volcánicos. Y aquí, quien tiene mucho que decir, es la temperatura. Cuando una colada de lava avanza por el terreno, la parte más externa del fundido se enfría relativamente rápido, al estar en contacto con el aire atmosférico y las precipitaciones, llegando a formar una costra solidificada. Pero, por el interior, la lava sigue siendo un fundido a varios cientos de grados que circula pendiente abajo. Cuando se acaba la erupción y deja de circular lava por su interior, nos encontramos con la preservación de muchos de los tubos volcánicos solidificados y el interior hueco. Incluso, algunas partes superiores de estos tubos pueden colapsar, generando unas aberturas a su interior a modo de ventanas volcánicas.

Aunque las cuevas nos produzcan fascinación y sorpresa por presentarse como pasadizos hacia las profundidades oscuras e indómitas, lo más interesante que tienen es que son auténticos laboratorios naturales, en muchos casos casi inexplorados. No voy a entrar mucho en detalle para no hacer este texto muy largo, sólo daros algunas pinceladas de su importancia, pero prometo que, en algún momento, me extenderá más con estos aspectos. Y es que se calcula que las cuevas y cavidades subterráneas contienen hasta el 30% del agua dulce del planeta, guardan un registro continuo de los cambios en el clima de los últimos milenios, presentan yacimientos paleontológicos y arqueológicos en condiciones de conservación excepcionales, son el hábitat de seres vivos adaptados a condiciones ambientales en las que no creíamos que pudiese desarrollarse la vida, son zonas en las que se crean minerales todavía desconocidos para la ciencia y, por si fuera poco, albergan bacterias extremófilas quimiosintéticas, es decir, que realizan reacciones químicas para producir su alimento, pero que también generan unas sustancias químicas que impiden que otras bacterias ocupen su nicho ecológico, lo que podría tener aplicaciones médicas directas para la producción de futuros antibióticos.
Y eso solo en el ámbito científico, porque también tienen un importante componente económico y turístico. No he citado ejemplos mientras describía los diferentes mecanismos de formación de las cuevas, pero igual os han ido viniendo a la mente cuevas como la de Altamira al hablar de la disolución del agua de lluvia en rocas carbonatadas, la Geoda de Pulpí en el caso del efecto de fluidos hidrotermales, el sistema de Sac Actun, en México, como modelo de cuevas submarinas, las Cuevas de Cristal del glaciar Vatnajokull, de Islandia, como cavidades de hielo o los Jameos del Agua en el caso de galerías volcánicas. Por cierto, la palabra jameo procede del guanche y sirve para designar las ventanas volcánicas formadas por los colapsos de la parte superior de los tubos volcánicos.
Vamos, que las cuevas son unos ecosistemas increíblemente complejos y todavía muy desconocidos, pero que de seguro nos servirán para desarrollar muchísimos avances científicos para mejorar la vida de los seres humanos. Así que, sin duda, tenemos que protegerlos y alterarlos lo menos posible. Recordad, cuando visitéis una cueva, procurad no romper ninguna estructura mineral, no dejar ninguna basura y no molestar a ningún organismo. Simplemente, disfrutad de lo que estáis viendo como si hubieseis entrado en un universo paralelo maravilloso.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Cuevas, misterios subterráneos se ha escrito en Cuaderno de Cultura Científica.
Un número que desaparece
Un número que desaparece
Puede ser muy difícil definir la belleza matemática, pero eso es cierto para la belleza de cualquier tipo. Puede que no sepamos muy bien a qué nos referimos con un hermoso poema, pero eso no impide que reconozcamos uno cuando lo leemos.
Ruth Minnen en «A Disappearing Number»

A Disappearing Number (Un número que desaparece) es el título de una obra de teatro estrenada en el año 2007 por la compañía Complicité y dirigida por el dramaturgo británico Simon McBurney. La trama se inspira, en parte, en el ensayo Apología de un matemático de Godfrey Harold Hardy, y trata sobre la colaboración de este científico británico con el matemático indio Srinivasa Ramanujan.
La obra trata también sobre la pasión que provocan las matemáticas a las personas que se dedican a ellas.
Un matemático, como un pintor o un poeta, es un creador de patrones. Si sus patrones son más que permanentes que los del poeta, es porque están hechos de ideas. […] Los patrones de un matemático, como los de un pintor o un poeta, deben ser hermosos; las ideas, como los colores o las palabras, deben encajar de una manera armoniosa. La belleza es la primera prueba; no hay lugar permanente en el mundo para unas matemáticas feas.
Godfrey Harold Hardy
El prólogo del libreto, titulado A most romantic collaboration (Una colaboración de lo más romántica), está escrito por el matemático Marcus du Sautoy. En él explica que, en enero de 1913, Hardy recibió una extraña carta procedente de la India que contenía extraordinarios teoremas matemáticos. El remitente de esa misiva era Srinivasa Ramanujan, que consiguió atraer la atención de Hardy con su demostración de la fórmula:
Du Sautoy cita también la última carta que Ramanujan envío a Hardy el 12 de enero de 1920. En ella hablaba de una idea matemática realmente adelantada a su época y que llamó función theta simulada. En esa misiva daba algunos ejemplos de este tipo de función; posteriormente se descubrieron más en su cuaderno perdido. Como recuerda Du Sautoy, en el año 2006, los especialistas en teoría de números Kathrin Bringmann y Ken Ono dieron la primera explicación completa de las ideas contenidas en esta carta.
En la obra de teatro, por supuesto, se mencionan ambas cartas. También se alude al famoso número taxicab (1729), la teoría de particiones en la que Hardy y Ramanujan trabajaron, los diferentes tipos de infinito o la manera de hacer una demostración.
Dos historias que se cruzanA Disappearing Number tiene dos hilos narrativos que se entrelazan: la compleja y apasionada relación personal e intelectual entre Hardy y Ramanujan (entre 1913 y 1919) se cruza con la historia contemporánea de la matemática Ruth Minnen y su marido Al Cooper, un hombre de negocios indio-estadounidense.
En 1914, Ramanujan viajó de la India a Inglaterra para trabajar con Hardy. Y, cien años más tarde, Ruth viaja a la India siguiendo los pasos de Ramanujan, cuyas matemáticas estudia, y buscando inspiración.
La obra comienza precisamente con una clase de Ruth que explica a sus estudiantes el famoso sumatorio de Ramanujan, técnica inventada por el matemático y que asigna “una suma” a una serie divergente. Como hemos comentado al principio, en la carta de 1913 de Ramanujan a Hardy había un ejemplo de este tipo de sumatorio.
Al Cooper entra por error en el aula en la que Ruth imparte su lección y, a pesar de que no comprende el contenido de lo que aparece en la pizarra, regresa al día siguiente para conocer mejor a la matemática. Finalmente, se enamoran y se casan.
La matemática estudia el trabajo de Ramanujan. A veces se siente frustrada porque Al no comprende su pasión por las matemáticas. Su marido no entiende, por ejemplo, por qué el número de teléfono de Ruth (el 1729) es especial para ella. Él viaja continuamente por su trabajo. Pero será el viaje de Ruth a la India en busca de inspiración el que les separará definitivamente: ella fallece allí de un aneurisma cerebral.
La colaboración entre Ramanujan y Hardy puede recordarse en Particiones: Hardy y Ramanujan: en A Disappearing Number también se presentan esa primera carta, la profunda admiración mutua que sentían, sus diferentes maneras de trabajar o su distanciamiento final.
Es una lástima no haber podido asistir a una representación de la obra para apreciar todos los detalles que el libreto no puede transmitir. Con la simple lectura, lo que se evidencia, sin duda, es la pasión por la investigación matemática de los personajes. Así se muestra en esta cita de Ruth, casi al final de la obra, cuando se anuncia su muerte y, unos cien años antes, la de su admirado Ramanujan.
Para mí, y supongo que, para la mayoría de los matemáticos, hay otra realidad, que llamaré la realidad matemática. […] Pero el número 2 o el 317 no tienen nada que ver con sensaciones. 317 es un número primo, no porque yo lo piense, o porque nuestras mentes están formadas de una manera en lugar de otra, sino porque es así, porque la realidad matemática está construida de esta manera.
Ruth Minnen en «A Disappearing Number»
Referencias
-
Complicité, A disapearing number, Oberon books, 2009
-
Liliane Campos. Searching for resonance: scientific patterns in Complicite’s Mnemonic and A Disappearing Number. Interdisciplinary Science Reviews 32 (4), (2007) 326-334
-
Rachel Thomas, A disappearing number, Plus Magazine, diciembre 2008
-
Marta Macho Stadler, Particiones: Hardy y Ramanujan, Cuaderno de Cultura Científica, 14 de agosto de 2019
-
Marta Macho Stadler, Un retrato alfabético de Srinivasa Ramanujan, Cuaderno de Cultura Científica, 22 de diciembre de 2021
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Un número que desaparece se ha escrito en Cuaderno de Cultura Científica.
Cómo cambios en 3D del genoma convirtieron a los tiburones en rayas
Los cambios en la estructura 3D de su genoma dieron a las rayas sus distintivas aletas en forma de alas y su planitud de torta.
Un artículo de Viviane Callier. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

Las criaturas marinas llamadas rayas se deslizan por el fondo del mar, agitando sus aletas pectorales en forma de alas para impulsarse y revolver a las pequeñas criaturas que se esconden en la arena. Su inusual plan corporal aplanado las convierte en una de las familias de peces más extrañas del mar, y parece aún más extraño que hayan evolucionado a partir de carnívoros estilizados parecidos a tiburones que nadaron hace unos 285 millones de años.
Ahora, los investigadores han descubierto cómo las rayas desarrollaron su perfil distintivo: los reordenamientos en la secuencia de ADN de la raya alteraron la estructura 3D de su genoma e interrumpieron las antiguas conexiones entre los genes clave del desarrollo y las secuencias reguladoras que los gobernaban. Esos cambios, a su vez, rediseñaron el plan corporal del animal. Los científicos publicaron sus hallazgos en Nature en abril.
El descubrimiento resuelve el misterio de la transformación evolutiva de las rayas fijándolo en los mecanismos genéticos que dirigen el desarrollo. “El registro fósil te dice que ocurrió este cambio, pero ¿cómo ocurrió realmente?” comenta Chris Amemiya, genetista molecular de la Universidad de California en Merced, que no participó en el nuevo estudio. “Esta es una pregunta clásica de evo-devo [Nota del traductor: nombre informal de la biología evolutiva del desarrollo]”.
Para descubrir los orígenes de la nueva forma del cuerpo de las rayas, hace unos años, el genomicista evolutivo José Luis Gómez-Skarmeta* reunió a un equipo internacional diverso de investigadores en genómica y biólogos del desarrollo evolutivo. Se necesitaba un equipo en parte porque el primer paso sería secuenciar y ensamblar el genoma de una raya, y compilar los genomas de peces cartilaginosos como rayas y tiburones es tremendamente difícil.
“Son realmente difíciles de ensamblar, porque son enormes, a menudo más grandes que el genoma humano”, apunta Mélanie Debiais-Thibaud, genetista del desarrollo evolutivo de la Universidad de Montpellier en Francia, que no participó en el trabajo.
Para su trabajo, el equipo seleccionó la raya pequeña (Leucoraja erinacea), que se captura fácilmente a lo largo de la costa atlántica de América del Norte. También se puede criar en un laboratorio, lo que hizo posible realizar experimentos funcionales y de desarrollo en los animales como parte del proyecto.
Al comparar el genoma de la raya pequeña con los genomas de otros vertebrados, los investigadores determinaron que el genoma de la raya se ha mantenido en general muy similar al de sus ancestros vertebrados a nivel de secuencia. Sin embargo, hubo algunos reordenamientos notables que habrían afectado la plan 3D del genoma. En el ADN de los individuos reordenamientos así pueden causar enfermedades al alterar la regulación genética. El descubrimiento llevó a los investigadores a preguntarse si los reordenamientos en las rayas podrían haber interrumpido de manera similar las instrucciones genéticas originales para su plan corporal.
Rompiendo los límitesSi observas la secuencia de ADN de un cromosoma, los genes que contiene pueden parecer sorprendentemente alejados de las secuencias cortas «potenciadoras» que regulan la actividad de esos genes. Sin embargo, en la práctica, debido a la forma en que el ADN se enrolla, pliega y gira sobre sí mismo en el núcleo de una célula, a menudo no están muy separados en absoluto.
En los vertebrados, los conjuntos de genes funcionalmente relacionados y sus potenciadores se agrupan físicamente en tres dimensiones en unidades denominadas dominios asociados topológicamente o TAD (por sus siglas en inglés). Las regiones límite ayudan a garantizar que los potenciadores solo actúen sobre genes en el mismo TAD.

Sin embargo, cuando ocurren reordenamientos importantes del genoma, como los que el equipo estaba viendo en el ADN de la raya, los límites pueden perderse y las posiciones relativas de los genes en los cromosomas pueden cambiar. Como resultado, “algunos potenciadores pueden proporcionar instrucciones al gen equivocado”, explica Darío Lupiáñez, biólogo evolutivo del Centro Max Delbrück en Berlín y uno de los autores principales del estudio.
Parecía posible que los cambios en la arquitectura 3D del genoma de las rayas pudieran haber interrumpido los antiguos bloques de genes que las rayas heredaron de sus ancestros parecidos a tiburones, afectando a la función de los genes. “Estábamos tratando de ver si algunos reordenamientos del genoma en la raya pequeña realmente rompen estos bloques”, explica Ferdinand Marlétaz, genomicista del University College London y coprimer autor del estudio.
Los investigadores identificaron reordenamientos del genoma en la raya pequeña que no estaban presentes en ningún otro vertebrado. Luego concentraron su atención en los cambios que parecían afectar con mayor probabilidad a la integridad de los TAD, según las secuencias del genoma.
El esfuerzo les llevó a un reordenamiento que predijeron que eliminaría el límite de un TAD que regula un sistema de desarrollo llamado vía de polaridad celular planar (PCP). No lo habían anticipado: nada sobre las funciones conocidas de la vía PCP sugería de entrada que regularía el desarrollo de las aletas. Principalmente, establece la forma y la orientación de las células en los embriones.
Un nuevo vecindario genéticoPara probar el impacto potencial del cambio en el TAD en el desarrollo de las aletas, Tetsuya Nakamura, biólogo del desarrollo evolutivo de la Universidad de Rutgers, expuso pequeños embriones de rayas a un inhibidor de la vía PCP. El borde anterior (delantero) de sus aletas se vio fuertemente alterado y no creció para unirse con la cabeza como lo haría normalmente. Esto sugería que la interrupción del TAD ancestral había producido las aletas distintivas de la raya al activar los genes PCP en una nueva parte del cuerpo.
“Este reordenamiento del TAD básicamente cambia todo el entorno del gen y trae nuevos potenciadores a las inmediaciones del gen”, explica Lupiáñez.

Pero este no fue el único cambio relevante en el genoma que encontraron los investigadores. También identificaron una mutación en un potenciador que regula la expresión de algunos genes en el grupo hox importante para el desarrollo. Los genes hox especifican el plan corporal general en todos los animales simétricos bilateralmente. Un subconjunto de ellos, el grupo de genes hoxa, generalmente se expresa solo en los bordes posteriores (de atrás) de las aletas en desarrollo y en las extremidades, donde especifica la formación de los dedos.
En la raya pequeña, los genes hoxa estaban activos tanto en la parte posterior como en la anterior de la aleta. Era como si la zona de crecimiento a lo largo de la parte posterior de la aleta se hubiera duplicado a lo largo de la frontal, de modo que el animal creó un nuevo conjunto de estructuras en la parte anterior de la aleta que era simétrica con las estructuras en la parte posterior, explica Debiais-Thibaud.
Nakamura demostró que el potenciador mutado de la raya estaba causando este nuevo patrón de expresión hoxa. Combinó el potenciador de la raya con un gen para una proteína fluorescente y luego insertó esa combinación de genes en embriones de pez cebra. Las aletas pectorales del pez crecieron de manera anormal y apareció fluorescencia a lo largo de los bordes delantero y trasero, lo que demostró que el potenciador de la raya estaba impulsando la expresión hoxa en ambas partes de la aleta. Cuando Nakamura repitió el experimento con un potenciador de tiburón el crecimiento de la aleta no se vio afectado y la fluorescencia se limitó a la parte posterior.
«Así que ahora pensamos que las mutaciones genéticas ocurrieron específicamente en el potenciador de las rayas, y eso puede impulsar la expresión única del gen hox en las aletas de las rayas», explica Nakamura.
Configurado para nuevas formas de vidaEn el cuadro de la evolución de las rayas que los investigadores han reconstruido, en algún momento después de que el linaje de las rayas se separara de los tiburones, adquirieron una mutación en un potenciador que hizo que sus genes hoxa se activaran tanto en la parte delantera como en la trasera de sus aletas pectorales. Y dentro de los nuevos tejidos que crecen a lo largo de la parte anterior de la aleta los reordenamientos del genoma hicieron que la vía PCP fuera activada por potenciadores en un TAD diferente, lo que tuvo el efecto adicional de hacer que la aleta se extendiera hacia adelante y se fusionara con la cabeza del animal.
«Al formar la estructura en forma de ala, [las rayas] ahora pueden habitar un nicho ecológico completamente diferente, el fondo del océano», explica Amemiya.
Las rayas de aguijón, las mantas y otras rayas están estrechamente relacionadas con las rayas pequeñas (todas están clasificadas como peces «batoideos»), y su similar forma de torta probablemente se deba a los mismos reordenamientos del genoma. Las rayas, sin embargo, también han modificado sus aletas en forma de alas de manera que básicamente les permiten volar a través del agua. “Las rayas tienen estas ondulaciones de la aleta y permanecen en el fondo, pero las mantarrayas pueden salir a la superficie y tener una forma de locomoción completamente diferente”, explica Amemiya.
Aunque los biólogos del desarrollo evolutivo habían especulado previamente que estos cambios en la arquitectura 3D de un genoma podrían ser posibles, este es probablemente uno de los primeros artículos que los relaciona claramente con cambios bastante grandes en la forma del cuerpo, afirma Marlétaz.
Lupiáñez también cree que los hallazgos tienen una significancia que va mucho más allá de la comprensión de las rayas. “Esta es una forma completamente nueva de pensar sobre la evolución”, afirma. Los reordenamientos estructurales “pueden hacer que un gen se active en un lugar donde no debería estarlo”. Añade: «Esto puede ser un mecanismo de enfermedad, pero también puede servir como motor de la evolución».
El artículo original, How 3D Changes in the Genome Turned Sharks Into Skates, se publicó el 30 de mayo de 2023 en Quanta Magazine.
Traducido por César Tomé López
* Nota del traductor:
José Luis Gómez-Skarmeta, que firma el artículo como investigador principal, falleció en 2020. El enlace en el texto lleva a su obituario en Nature, en inglés. El enlace en esta nota lleva a la entrada en Wikipedia en español.
El artículo Cómo cambios en 3D del genoma convirtieron a los tiburones en rayas se ha escrito en Cuaderno de Cultura Científica.
¿Por qué nos parece que el tiempo pasa más rápido conforme envejecemos?

Tic, tac… Tic, tac… El tiempo avanza inexorablemente para cada uno de nosotros. Y, aunque el ritmo al que avanza es igual para todos, la percepción subjetiva del transcurso del tiempo puede ser muy distinta entre personas. Así, cuando nos divertimos o disfrutamos de alguna actividad, parece que el tiempo pasa volando, mientras que si estamos inmersos en una tarea monótona, soporífera o desagradable los minutos se nos hacen eternos. En ese sentido, existe un fenómeno peculiar, que se ha constatado ampliamente en psicología: en general, el tiempo nos parece que pasa más rápido conforme vamos cumpliendo años.
Si echamos la vista atrás, rebuscando en los recuerdos de nuestra niñez, tenemos la sensación de que los días eran más largos y los «exprimíamos» mucho más: podíamos realizar multitud de actividades porque había tiempo para casi todo. Además, los veranos en la infancia parecían durar bastante más que aquellos en la vida adulta, que pasan en un suspiro, sobre todo cuando disfrutamos de las vacaciones en esta época. A partir de cierto momento de la vida adulta, tenemos la sensación de que el tiempo se «acelera» y de que todo pasa poco a poco más rápido. ¿Cuál es la razón para esta evolución en la percepción subjetiva del tiempo? En la actualidad, se desconoce cuál es la causa y son múltiples las hipótesis que tratan de darle una explicación.
Una posible razón tras este fenómeno tendría que ver con el procesamiento cerebral de las imágenes que vemos cada día. Según la hipótesis planteada por el profesor de Ingeniería Mecánica de la Universidad de Duke, Adrian Bejan, los días parecen ser más cortos conforme envejecemos porque el procesamiento de la información visual a lo largo del tiempo se enlentece. Si percibimos menos imágenes por segundo, esto puede generar la sensación de que el tiempo ha pasado más rápido y viceversa: cuando captamos más imágenes por segundo, podemos tener la sensación de que el tiempo avanza más lento, como cuando vemos un vídeo a cámara lenta.
La base tras este planteamiento es que las señales nerviosas, que transportan la información, tardan más en llegar por una suma de factores cuando cumplimos años: el tamaño y la complejidad de las redes neuronales cerebrales se incrementa y, además, el envejecimiento provoca daños que pueden retrasar el flujo de dichas señales eléctricas. Por esta razón, los niños podrían procesar más imágenes por segundo que los adultos y percibir que el tiempo pasa más lento.
También podría ser que, más allá del procesamiento de las imágenes, existiera un «metrónomo neural» que marca el ritmo del tiempo en cada persona. En niños, este metrónomo iría más rápido que en los adultos (igual que ocurre con la frecuencia cardíaca en reposo o la respiración que son también más rápidas en los niños), lo que haría percibir el paso del tiempo de forma más lenta. De hecho, el psicólogo Clifford Lazarus narra un curioso experimento sobre esta cuestión: Si se deja a los niños sentados, con los ojos cerrados y sin hacer nada, la gran mayoría de ellos tienen la sensación de que ha transcurrido más del tiempo del que realmente ha pasado (muchos mencionan que ha pasado un minuto, cuando solo han trascurrido 40 segundos, en realidad). En cambio, si las mismas condiciones se aplican a los adultos, su percepción subjetiva del tiempo es más realista o va con un ligero retraso: detallan que ha pasado un minuto cuando, en realidad, ha transcurrido un minuto o 70 segundos.
Otra explicación sobre la dispar sensación del ritmo del tiempo entre los niños y los adultos se centra en la diferente perspectiva de ambos a la hora de cuantificar el tiempo. Para un niño de 10 años, por ejemplo, el transcurso de un año supone nada más y nada menos que el 10 % del total de su vida y entre un 15 y un 20 % de su memoria consciente. En cambio, para una persona de 65 años, un año solo solo es el 1,5 % de su vida. A la hora de percibir, de forma relativa, las vivencias y los recuerdos esto puede generar la sensación de que el tiempo fluía más lento en la infancia, porque una misma unidad de tiempo implicaba mucho más dentro del total de experiencias vividas.
Podría ser también que la desigual percepción del tiempo entre la infancia y la edad adulta y anciana se debiera a sesgos en la consolidación de los recuerdos. Las experiencias de la vida que dejan más marca en nuestra memoria son precisamente aquellas que nos provocan emociones, sobre todo si son intensas. Durante la infancia y la adolescencia casi todo es nuevo y se vive con más intensidad emocional que en etapas más tardías de la vida, donde la rutina y la monotonía suelen imperar y estos dejan poca huella en nuestros recuerdos.
Así, al evaluar nuestros recuerdos pasados y actuales, podemos tener la sensación de que vivíamos muchas más experiencias en el mismo tiempo (y, por tanto, que el tiempo pasaba más lento) que en los últimos años, que no nos dejan muchos episodios memorables y muchos recuerdos anodinos desaparecen (como lo que comimos el otro día). Si esta hipótesis fuera cierta, una forma para hacernos sentir que el tiempo transcurriera más lento sería huir de la monotonía y vivir nuevas experiencias con frecuencia.
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo ¿Por qué nos parece que el tiempo pasa más rápido conforme envejecemos? se ha escrito en Cuaderno de Cultura Científica.
El mundo come cada vez más carne

En el mundo se comen cada vez más productos de origen animal (carne, pescado y lácteos) y menos de origen vegetal (plantas, semillas y derivados). El desarrollo económico que han experimentado en las últimas décadas China e India, principalmente, ha venido acompañado por un aumento en el consumo de productos de origen animal. Por el contrario, en otros países, principalmente nórdicos, se está reduciendo el consumo de esos productos por razones de salud e impulsado por iniciativas gubernamentales.
Como a cualquier otra, a la especie humana también se le puede asignar un nivel trófico. A las plantas se les asigna un nivel trófico 1, porque al ser productores primarios, no consumen ningún otro organismo, sino que su producción de energía consiste en el aprovechamiento de la energía solar para sintetizar biomasa propia a partir del CO₂ y H₂O, principalmente. Los animales herbívoros, como el ganado vacuno, por ejemplo, ocupan el segundo nivel. A los animales que solo consumieran carne de vacuno o carne de animales del mismo nivel se les asignaría el nivel 3. Por eso, si en una población humana consumen, a partes iguales, carne de vacuno y pan, por ejemplo, a esa población habría que asignarle un nivel trófico 2,5. A los animales que se encuentran en la cúspide de la cadena trófica, como son las orcas o los osos polares, que consumen animales que, a su vez, consumen otros animales carnívoros, les corresponde el nivel 5, que es el más alto.
Han determinado cómo varió el valor del nivel trófico humano (NTH) en el medio siglo transcurrido desde 1960 hasta 2009 en los 176 países para los que se dispone de información (son la mayoría y en conjunto, incluyen al 98% de la población mundial). Para ello han utilizado los datos de consumo de alimentos en esos países (proporcionados por la FAO), asignando los correspondientes niveles tróficos a cada alimento.
La mediana global mundial fue en 2009 de 2,21. Conviene recordar aquí que la mediana es un estadístico de posición: deja a la mitad de los valores por encima y a la mitad por debajo. Para el cálculo de ese estadístico se tuvo en cuenta la población de cada país, por lo que en su valor pesan mucho los países más poblados. Los dos valores extremos en 2009 fueron los de Burundi, con 2,04 (97% de la comida de origen vegetal) e Islandia, con 2,57 (50% de la comida de origen animal). Aunque hay una gran diversidad de tendencias, los autores de la investigación han agrupado los países en cinco grandes grupos en virtud de los valores absolutos del NTH así como del modo en que han variado durante medio siglo.
En el grupo 1 se encuentran la mayoría de los países subsaharianos y del Sudeste asiático; en esos países se mantiene bajo y estable el NTH. Son países en los que la alimentación se basa, mayoritariamente, en productos de origen vegetal. El 2 agrupa a países sudamericanos, africanos y asiáticos, incluyendo China e India. En esos países los valores de NTH son bajos pero creciente. El grupo 3 incluye a países de América Central, Brasil, Chile, algunos africanos, países del Sur de Europa y Japón. En este grupo también crece el nivel trófico, pero el punto de partida era superior al del grupo 2. Tanto en el grupo 2 como en el 3 la tendencia creciente del NTH revela un aumento en la proporción relativa de productos de origen animal en la dieta. Al grupo 4 pertenecen América del Norte, Europa septentrional y oriental, Australia y Nueva Zelanda. En estos países los valores de NTH eran altos y permanecieron estables hasta 1990, y a partir de ahí empezaron a descender, aunque muy levemente. El grupo 5 incluye a los países con los niveles tróficos más altos, pero decrecientes; en él se incluyen Islandia, países escandinavos, Mongolia y Mauritania. En estos países se consume principalmente carne, pescado y productos lácteos, y muy pocos vegetales.
Como cabía esperar, el nivel trófico de las poblaciones humanas tiene mucho que ver con las características socioeconómicas, ambientales, y culturales de los países. En general, es más alto en países con mayor esperanza de vida, producto interior bruto, emisiones de CO2 y grado de urbanización. Todos esos indicadores se han elevado a lo largo del último medio siglo en casi todo el mundo. Solo en los países del grupo 5 ha disminuido el NTH a pesar de que los indicadores de desarrollo también hayan aumentado.
En el mundo se está produciendo, por tanto, una convergencia nutricional, ya que cada vez se va pareciendo más la composición de la dieta en los diferente países. A la gente le gusta comer carne y cuando mejora la situación económica de un país, los productos cárnicos se consumen en mayor medida. Y a la vez, en los que tienen un alto nivel de consumo de productos de origen animal, se produce la tendencia contraria, por los problemas de salud que conlleva ese alto consumo.
Un elemento a considerar a la hora de valorar estas tendencias es el de las implicaciones ecológicas de los patrones de consumo. La producción animal tiene una eficiencia energética baja. Aunque puede variar entre un 3% y un 20%, dependiendo de diferentes circunstancias, se suele considerar que, en promedio, viene a ser de un 10%. Es decir, solo un 10% de la energía consumida por un animal se convierte en energía propia. Por lo tanto, para producir 1 Kg de C, una especie en el nivel 5 hace uso de 10.000 Kg de C de biomasa vegetal, y una de nivel 3, hace uso de 100 kg de C. La especie humana utiliza un 25% de la producción primaria del planeta y es posible que esa utilización esté alcanzando su límite máximo. Por esa razón, es posible que el aumento en la proporción de alimentos de origen animal se acabe encontrando con una limitación derivada de la dificultad o, incluso, imposibilidad de hacer uso de porcentaje creciente de la producción primaria neta de la Tierra.
Información adicional
Información detallada para cada país y más datos aquí.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El mundo come cada vez más carne se ha escrito en Cuaderno de Cultura Científica.
Parásitos y comportamiento animal: de hormigas a humanos
Cómo influyen los parásitos en el comportamiento de los animales, cómo se modifica la conducta de las madres mamífero o cuáles son las enfermedades que nos afectan y desde cuándo hemos desarrollado comportamientos funerarios ante la muerte son algunos de los aspectos que se analizarán en la V Jornada Nacional sobre Evolución y Neurociencias.
Especialistas en ambas materias se reunirán el 11 y 12 de mayo en una nueva edición conducida por Eva Garnica y Pablo Malo, psiquiatras y miembros de la Red de Salud Mental de Bizkaia, y organizada por esa misma entidad y la Cátedra de Cultura Científica de la UPV/EHU.
La jornada, cuya primera edición se celebró en 2017, se ha convertido en una cita imprescindible para las y los expertos en ámbitos como la psiquiatría, la psicología o la biología. Una jornada que sirve para analizar el comportamiento humano desde un punto de vista evolucionista y divulgar de un modo accesible para todos los públicos.
A famosísima sentencia de Dobzhansky «Nada tiene sentido en biología si no es a la luz de la evolución», Antonio J. Osuna le añade «y nada tiene sentido en la evolución si no es a la luz de los parásitos». Los parásitos modifican el comportamiento de los animales de formas extraordinarias, y esos cambios favorecen la evolución.
Antonio J. Osuna Mascaró, es doctor en Paleontología (Universidad de Granada) y está a punto de concluir su segundo doctorado en Cognición Comparada (Universidad de Medicina Veterinaria de Viena) como investigador del Messerli Research Institute; Carmen Mascaró Lazcano es bióloga y catedrática jubilada de Parasitología de la Universidad de Granada.
Si no ve correctamente el vídeo, use este enlace.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Parásitos y comportamiento animal: de hormigas a humanos se ha escrito en Cuaderno de Cultura Científica.
El poder del polen

El comienzo de la primavera, seco y caluroso, ha provocado un aumento significativo de los niveles de polen, uno de los alérgenos más comunes del continente europeo. A pesar de su diminuto tamaño –y de ser una pesadilla para los alérgicos–, los granos de polen cumplen una función ecológica esencial para la supervivencia de la humanidad. Es momento de valorarla como se merece.
La chispa que enciende la vida vegetalHace más de 350 millones de años, un linaje de plantas, las gimnospermas (con semillas desnudas, como los abetos, cedros y pinos), desarrolló granos de polen y semillas, marcando un antes y un después en la reproducción y adaptación al medio terrestre del reino vegetal.
Doscientos millones de años más tarde, en plena revolución terrestre del Cretácico, aparecieron las plantas con flores y con semillas protegidas por frutos: las angiospermas. Gracias al ingenio evolutivo del polen y las flores y su coevolución con los polinizadores, las angiospermas se diversificaron rápidamente, vistiendo el planeta de multitud de colores vibrantes. Son las que hoy por hoy dominan los ecosistemas terrestres y las principales protagonistas de las tierras de cultivo.
Más que un alérgenoEl polen, ese polvillo a menudo dorado que flota en el aire durante la primavera y el verano, es en realidad una estructura reproductiva minúscula pero poderosa.
El grano de polen maduro es el gametofito masculino de las plantas. Contiene tres células, dos espermáticas y una vegetativa, protegidas por una doble envoltura que le confiere resistencia. Se produce en los órganos masculinos de las angiospermas (estambres) y gimnospermas (cono masculino).
El grano de polen funciona como un intermediario que transporta el material genético masculino desde la planta productora hasta los órganos femeninos de otras plantas, o de ella misma, en algunos casos. Así se logra la fertilización y la producción de semillas.
Como las posibilidades de que un grano de polen llegue a una pareja ideal son escasas, las plantas tienden a producir mucho polen. Y como sabemos, e incluso padecemos, esta sobreproducción tiene consecuencias que van más allá de la reproducción vegetal.

Wikimedia commonsEl amor está en el aire
La producción de polen está finamente orquestada por las condiciones ambientales como la temperatura, la humedad y la luz, así como por el estado hormonal de la planta. Pero además, la danza de polinizadores alrededor de la planta también puede incentivar la producción de polen.
A medida que el polinizador se mueve de flor en flor en busca de néctar, su cuerpo se va cargando y descargando de granos de polen que se depositan en los pistilos de las flores (concretamente en los estigmas), aumentando la posibilidad de fertilización y la formación de semillas. Efectivamente, en las plantas, el amor está en aire.
Para aumentar el éxito reproductivo, las plantas han ido creando una asombrosa variedad de estructuras, formas y colores para sus granos de polen, que están íntimamente relacionadas con los mecanismos de dispersión y los polinizadores.
Así, los granos de polen más visibles y pesados, y también aquellos provistos de pequeñas espinas y superficie pegajosa, son generalmente transportados a lomos de grandes polinizadores como abejas (entomofilia) y aves (ornitofilia). En cambio, aquellos más pequeños, ligeros, esféricos y alados son transportados por la brisa primaveral (anemofilia).
Pigmentos tales como los flavonoides y/o carotenoides están detrás de la coloración rojiza-azulada y/o amarillo-anaranjada tan frecuente en los granos de polen, que hace que sean aún más atractivos para los polinizadores. Además, no hay que olvidar que, junto con el néctar, el polen también es recolectado por los polinizadores como alimento rico en proteínas, lípidos y carbohidratos.
¿Qué sería del mundo sin polen?El polen desempeña un papel crucial en la agricultura, sobre todo en la producción de frutas, verduras y cereales. Se estima que más del 75 % de los cultivos alimentarios del mundo dependen en cierta medida de la polinización (transferencia de polen). Está en juego, por tanto, gran parte de nuestra dieta. Cada semilla, grano y fruta que comemos es producto directo de la polinización.
Sin polinización, los cultivos no producirían semillas viables, lo que reduciría su rendimiento y conllevaría importantes pérdidas económicas. En un escenario de alta demanda de alimentos por el incremento de la población mundial, no podemos despreciar el polen ni el trabajo de los polinizadores.
Como agentes polinizadores, las abejas, mariposas, pájaros, polillas, escarabajos e incluso los murciélagos influyen en la estabilidad y diversidad vegetal de los ecosistemas y en el rendimiento (cantidad y calidad nutricional) de los cultivos en los agroecosistemas.
Por pequeños que sean los granos de polen y los polinizadores, desempeñan un gran papel en la consecución de varios de los Objetivos de Desarrollo Sostenible (ODS) fijados por la ONU, desde la lucha contra el hambre y la pobreza hasta la creación de empleo y el crecimiento económico.

.Capiro. / Flickr, CC BY-NC-NDLa tormenta perfecta a escala planetaria
Desafortunadamente, la fragmentación y destrucción de hábitats, el uso de pesticidas y el cambio climático están provocando la tormenta perfecta a escala planetaria: disminución de la diversidad vegetal, reducción de la calidad del polen y declive de las poblaciones de polinizadores.
¿Qué podemos hacer? Restaurar y conservar los hábitats, restringir el uso de pesticidas, potenciar la lucha biológica contra las plagas y diversificar las explotaciones agrícolas para crear un ecosistema equilibrado para las abejas y sus compañeros polinizadores. Nos queda mucho trabajo por delante.
Sobre la autora: María Teresa Gómez Sagasti es profesora adjunta e investigadora en el área Fisiología Vegetal, Dpto. Biología Vegetal y Ecología de la Facultad de Ciencia y Tecnología de la UPV/EHU
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo El poder del polen se ha escrito en Cuaderno de Cultura Científica.
Los bigotes del delfín
¿Tú sabías que los bebés de delfín tienen bigotes cuando acaban de nacer?
Probablemente no lo habías notado, no es algo que resulte evidente a primera vista. Así que, si te estabas imaginando un pequeño delfín con un frondoso mostacho a lo Groucho Marx, ya puedes eliminar esa imagen de tu cabeza (o quizás no, es ciertamente memorable). Se trata más bien de unos pequeños pelitos, que estos mamíferos marinos lucen nada más nacer alrededor de la boca. Podrían recordar a la pelusilla que empieza a asomar bajo la nariz de algunos cachorros humanos durante la adolescencia. Pero al contrario de lo que sucede en este caso, los incipientes pelitos de los delfines bebé acaban desapareciendo al cabo de unos pocos días.

¿Pero de dónde salen estos bigotes y por qué su existencia es tan efímera? Bien, se trata de lo que se conoce como una característica vestigial, es decir, un rasgo que se encuentra presente en un organismo, pero que ha perdido su función original en el desarrollo evolutivo de una especie. Podríamos imaginar los vestigios como los souvenirs de la evolución: una cosa inservible pero difícil de desechar, que recuerda distintos momentos de su historia. “Este bicho pasó por aquí, y como prueba se trajo un llavero espantoso” (o un bigote, en este caso).
Precisamente por su capacidad de ejercer como recuerdo y testimonio, las características vestigiales tienen especial importancia para la biología evolutiva. A menudo proporcionan evidencia de la historia compartida entre varias especies o nos muestran cómo ciertas estructuras biológicas han cambiado a lo largo del tiempo en respuesta a la selección natural y otros procesos evolutivos. En el caso del delfín, los bigotes nos hablan de un pasado remoto, cuadrúpedo y mucho más “frondoso”: cuando el pelo cubría todo su cuerpo, y no únicamente los alrededores de su mandíbula.
A fin de cuentas, los delfines son mamíferos, unos que nadan muy bien, eso sí. Hace 50 millones de años, su antepasados evolutivos se paseaban por la tierra y, de cuando en cuando, se adentraban en el mar para refugiarse o para cazar. Entre ellos, el más conocido es el Pakicetus, un bicho que, si me permitís la apreciación, se parecían más a una rata mutante que a un delfín (al menos, de acuerdo con algunas reconstrucciones contemporáneas). Pero esa rata tenía un plot twist (que diría Jaime Altozano) escondido debajo de la manga: su destino era regresar al mar y legar sus genes a los futuros delfines, ballenas y marsopas.

Los fósiles de Pakicetus fueron descubiertos por primera vez en la década de 1980 en Pakistán. El nombre de este país sirvió para bautizar a la especie, de hecho. Los Pakicetus mostraban características de mamíferos terrestres, pero también algunas que los emparentan con los cetáceos y que nos dan pistas sobre sus incipientes hábitos acuáticos. Tenían cráneos alargados, y dientes adaptados a una dieta carnívora. Contaban con extremidades posteriores alargadas y una columna vertebral que les permitía moverse tanto en tierra como en el mar. Debieron de vivir en junto a la costa del mar de Tetis durante el período Eoceno temprano. Por todo ello, se cree que eran nadadores hábiles y que probablemente pasaban bastante tiempo en el agua.
Con el tiempo, las generaciones y el lento pero implacable trabajo de la evolución, los Pakicetus fueron adaptándose cada vez más al medio acuático. Sus patas se volvieron más cortas hasta quedar convertidas en aletas. Su orificio nasal se fue desplazando hasta ocupar la posición actual, en lo alto de la coronilla. Hoy, el cuerpo de los delfines (de los cetáceos, en general) se parece mucho más al de un pez, es más hidrodinámico, está mejor preparado para nadar. Además, no queda ni un pelo en su superficie… bueno, siempre que no contemos los primeros días de vida, el tiempo que tarda el bigotillo de los delfines en caer.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo Los bigotes del delfín se ha escrito en Cuaderno de Cultura Científica.
Los números insólitos
Mi libro La gran familia de los números (2021), de la colección Miradas matemáticas (Catarata, ICMAT, FESPM), está dedicado a algunas importantes familias de números naturales, entre los que están los números figurados, primos, capicúas, cíclicos, perfectos, amigos, intocables, narcisistas, felices o vampiros, entre muchos otros.

En el capítulo 5, titulado “Por sus dígitos los conoceréis”, se muestran familias de números naturales definidas por características de los dígitos de sus representaciones numéricas, como los números narcisistas (sobre los que también podéis leer en la entrada ¿Pueden los números enamorarse de su propia imagen?), que son aquellos números que son iguales a la suma de las potencias de sus dígitos elevados a la cantidad de dígitos que tiene el número. Por ejemplo, el número 153 es un número narcisista, puesto que, teniendo 3 cifras, que son 1, 5 y 3, se cumple que 13 + 53 + 33 = 1 + 125 + 27 = 153; o también, el número 1.634, ya que 14 + 64 + 34 + 44 = 1 + 1.296 + 81 + 256 = 1.634.

Otra familia de números relacionada con los números narcisistas es la que podríamos llamar números de Follet, puesto que aparecen mencionados en la novela Doble juego (2000), del escritor Ken Follet, que está formada por aquellos números que son iguales a la suma de las potencias de sus dígitos elevados a la posición que ocupan en el número (empezando por la izquierda), como el número 175, ya que 11 + 72 + 53 = 175 (1 es el primer dígito, 7 el segundo y 5 el tercero).

Otra familia de números relacionada con los números narcisistas es la formada por los números de Munchausen, aquellos números que son iguales a la suma de sus dígitos elevados a ellos mismos. Por ejemplo, el número 3.435 es un número de Munchausen, ya que 33 + 44 + 33 + 55 = 3.435 (si admitimos que 00 = 1, resulta que el anterior número es el único que existe).

Una extensión natural de los números narcisistas es considerar que los dígitos están elevados, no a la cantidad de dígitos del número, sino a una cifra fija cualquiera, llamada orden. En este caso, a los números que son iguales a la suma de las potencias de sus dígitos elevados a una cantidad fija cualquiera, no necesariamente la cantidad de dígitos del número, se les llama números potentes o también invariantes digitales perfectos. Por ejemplo, el número 4.150, que puede expresarse como la suma de las potencias quintas de sus dígitos (que son solo cuatro), 45 + 15 + 55 + 05 = 1.024 + 1 + 3.125 = 4.150, es un número potente. Los números insólitos están relacionados con estos últimos.
Los números insólitosEn el artículo On a very thin sequence of integers (Sobre una sucesión de números enteros poco numerosa), sus autores introducen el término de número insólito. Definen un número insólito como aquel número, mayor que 1, para el cual la suma y el producto de las potencias cuadradas de sus dígitos divide al propio número (en particular, no contiene al 0 entre sus dígitos). Por ejemplo, dado el número 122.121.216, la suma de los cuadrados de sus dígitos es
12 + 22 + 22 + 12 + 22 + 12 + 22 + 12 + 62 = 56,
mientras el producto de los cuadrados de sus dígitos es
12 x 22 x 22 x 12 x 22 x 12 x 22 x 12 x 62 = 9.216,
y como ambos dividen a número 122.121.216, por lo tanto, es un número insólito.
El número más pequeño que es insólito es el 111, ya que es divisible por 3 (suma de los cuadrados de sus dígitos) y por 1 (producto de los cuadrados de sus dígitos). Y los diez primeros números insólitos son:
111, 11.112, 1.122.112, 111.111.111, 122.121.216, 1.111.112.112, 1.111.211.136, 1.116.122.112, 1.211.162.112 y 11.111.113.116.
La sucesión de números insólitos es la sucesión A098034 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS. Además, existen solo 428 números insólitos más pequeños que 100 trillones, 1020 = 100.000.000.000.000.000.000.
En la siguiente tabla se muestran los primeros números insólitos que contienen una cifra concreta entre sus dígitos, del 1 al 9.
Parece ser que es muy difícil encontrar números insólitos que contengan la cifra 5. Como se muestra en la anterior tabla, el número insólito más pequeño que incluye la cifra 5 tiene 31 dígitos. Además, el siguiente número insólito que contiene a la cifra 5 tiene 37 dígitos:
1.111.111.111.111.111.117.111.111.111.911.111.375.
Por otra parte, el número insólito más pequeño que contiene todas las cifras, con la excepción del 5 teniendo en cuenta lo comentado, tiene 18 dígitos y es el siguiente:
711.813.411.914.121.216.

Si miramos a las familias de números naturales definidas por características de los dígitos de sus representaciones numéricas, que hemos comentado al inicio de esta entrada, tenemos que:
A. Existe una cantidad finita de números narcisistas (en el libro La gran familia de los números puede leerse una sencilla demostración de que no existen números narcisistas con más de 60 dígitos), concretamente, hay tan solo 88 números narcisistas;
B. solo existe una cantidad finita de números de Follet (también en el libro La gran familia de los números, puede leerse una sencilla demostración de que no existen números de Follet con más de 22 dígitos), en concreto, hay 19 números en esta familia;
C. tan solo hay un número de Munchausen, el 3.435 (asumiendo que 00 = 1, aunque si se considera que 00 = 0, o en la definición solo se consideran dígitos no nulos, entonces hay otro más, es el número 438.579.088);
D. se desconoce si la familia de invariantes digitales perfectos es finita o infinita.
Por lo tanto, podemos tener nuestras dudas sobre si existirá una cantidad finita o infinita de números insólitos.

A continuación, vamos a construir una familia de números insólitos, de lo cual se deducirá que existen infinitos números insólitos. Empecemos considerando los números repitunos (en inglés, repunit numbers), que son aquellos que están formados por la repetición de la cifra 1, es decir, 1, 11, 111, 1.111, 11.111, etc. Si consideramos un número repituno con k dígitos (todos ellos iguales a 1), entonces la suma de los cuadrados de sus dígitos es k y el producto de los cuadrados de sus dígitos es 1. Por lo tanto, un número repituno es un número insólito si el número de dígitos k divide al número. Por ejemplo, 111 es un número repituno que es insólito, puesto que 3 divide a 111 (recordemos la regla de divisibilidad del 3, que dice que un número es divisible por 3 si, y sólo si, la suma de sus dígitos es divisible por 3).
Teorema: Si k = 3n, entonces el número repituno con k dígitos es un número insólito.
Vamos a ver que efectivamente estos números repitunos son insólitos. Para n = 1 tenemos el número 111, que claramente es insólito, ya que 3 divide a 111.
Para n = 2, tenemos el número 111.111.111, que al dividirlo por 111 se obtiene 1.001.001:
Por lo tanto, el número 111.111.111 es divisible por 9 (que es la cantidad k = 32 de dígitos), ya que 111 es divisible por 3 y 1.001.001 también es divisible por 3 (sus dígitos suman 3).
Para n = 3, tenemos un número repituno formado por 27 unos, 111.111.111.111.111.111.111.111.111, que si lo dividimos por el anterior 111.111.111 (que es divisible por 9) se obtiene 1.000.000.001.000.000.001, es decir, 1 seguido de ocho 0, luego 1, otros ocho 0 y 1, que es divisible por 3. Por lo tanto, el número repituno con 27 = 33 unos es un número insólito.
Y, de forma similar, se puede demostrar, por inducción, que los números repitunos con k = 3n son números insólitos.
Corolario: Existen infinitos números insólitos.
Los números insólitos son una curiosa familia de números naturales, de la que se conocen algunas propiedades matemáticas (algunas de ellas mostradas en esta entrada del Cuaderno de Cultura Científica) y de la que se seguirá investigando en el futuro, como ocurre con las demás familias, al menos para ampliar más nuestro conocimiento sobre la naturaleza de los números.
Bibliografía
1.- R. Ibáñez, La gran familia de los números, Libros de la Catarata – ICMAT – FESPM, 2021.
2.- J. M. De Koninck, N. Doyon, On a very thin sequence of integers, Annales Universitatis Scientiarum Budapestinensis de Rolando Eötvös Nominatae, tomo 20, pp. 157-177 (2001).
3.- Página web: Numbers Aplenty.
4.- Página web: Enciclopedia On-line de Sucesiones de Números Enteros – OEIS
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los números insólitos se ha escrito en Cuaderno de Cultura Científica.
Cómo la aleatoriedad mejora los algoritmos
La imprevisibilidad puede ayudar a los informáticos a resolver problemas que de otro modo serían intratables.
Un artículo de Ben Brubaker. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

Desde los primeros días de la informática, un campo conocido por su enfoque metódico para la resolución de problemas, la aleatoriedad ha jugado un papel importante. El primer programa que se ejecutó en el primer ordenador electrónico de uso general del mundo utilizó la aleatoriedad para simular procesos nucleares. Desde entonces se han utilizado enfoques similares en astrofísica, climatología y economía. En todos estos casos, introducir números aleatorios en ciertos pasos del algoritmo ayuda a los investigadores a tener en cuenta la incertidumbre sobre las muchas formas en que pueden desarrollarse los procesos complejos.
Pero agregar aleatoriedad en un algoritmo también puede ayudarlo a calcular la respuesta correcta a preguntas inequívocas de verdadero o falso. «Simplemente dices ‘Está bien, déjame rendirme, déjame no intentarlo, déjame elegir algo al azar'», explica Eric Blais, científico informático de la Universidad de Waterloo. “Para un montón de problemas, este termina siendo un enfoque ganador”.
Supongamos que quieres determinar si un número dado es primo (divisible solo por 1 y por sí mismo) o compuesto (también divisible por otros números enteros). Simplemente podrías intentar dividirlo entre todos los factores posibles, pero para números grandes este método de «fuerza bruta» y otros algoritmos de factorización son terriblemente lentos. Y si el número resulta ser compuesto, los algoritmos de factorización te dicen los valores de sus divisores, más información de la que pediste. Si solo te importa la «primalidad» de un número, ¿existe un algoritmo más eficiente?
Lo hay si usas la aleatoriedad. La idea básica se remonta a un resultado del matemático francés del siglo XVII Pierre de Fermat, conocido como su “pequeño teorema”. Fermat consideró dos números enteros, llámelos N y x. Demostró que si N es un número primo, entonces xN – x es siempre un múltiplo de N, independientemente del valor de x. De manera equivalente, si xN – x no es un múltiplo de N, entonces N no puede ser un número primo. Pero la afirmación inversa no siempre es cierta: si xN – x es un múltiplo de N, entonces N suele ser primo, aunque no siempre.
Para convertir el pequeño teorema de Fermat en una prueba de primalidad, simplemente toma el N que te interesa, elige x al azar y reemplaza los dos números en xN – x. Si el resultado no es un múltiplo de N, entonces ya está: sabes que N es definitivamente compuesto. Si el resultado es un múltiplo de N, probablemente N sea primo. Ahora elige otra x aleatoria e inténtalo de nuevo. En la mayoría de los casos, después de algunas docenas de intentos, puedes concluir con casi certeza que N es un número primo. “Haces esto una pequeña cantidad de veces”, explica Blais, “y de alguna manera ahora tu probabilidad de tener un error es menor que la probabilidad de que un asteroide golpee la Tierra entre ahora y cuando mires la respuesta”.
Las primeras pruebas de primalidad utilizando algoritmos aleatorios (basados en refinamientos del pequeño teorema de Fermat) marcaron el comienzo de una nueva era. Problema tras problema resultó ser mucho más fácil de resolver con aleatoriedad que con algoritmos no aleatorios o deterministas. La clave era reformular cada problema como uno que pudiera resolverse rápidamente dado un valor apropiado para algún número x, y luego probar que casi cualquier x valdría. La solución funciona a pesar de que los investigadores no tienen idea de cómo determinar si una opción específica es buena. Los matemáticos han bromeado diciendo que este desafío inusual es similar a encontrar paja en un pajar.
Pero estos éxitos hicieron que los investigadores se preguntaran por qué la aleatoriedad debería ayudar con problemas como las pruebas de primalidad, que consisten todos en encontrar patrones ocultos no aleatorios. “Hay algo un poco paradójico al respecto”, afirma Rahul Santhanam, científico informático de la Universidad de Oxford. “La aleatoriedad pura te ayuda a encontrale el truco a la estructura que resuelve el problema”.
En 1994, los informáticos Noam Nisan y Avi Wigderson ayudaron a resolver esta confusión al demostrar que la aleatoriedad, aunque útil, probablemente no sea necesaria. Demostraron que una de dos cosas debe ser cierta: o todos los problemas que se pueden resolver de manera eficiente usando la aleatoriedad también tienen algoritmos deterministas rápidos, o muchos problemas con fama de difíciles son secretamente fáciles. Los informáticos consideran muy improbable la segunda posibilidad.
De hecho, a los científicos informáticos a menudo les resulta más fácil desarrollar un algoritmo determinista comenzando con una versión aleatoria y luego «desaleatoriazarla». “Una vez que la tengo, de repente veo una forma muy obvia de hacerla determinista”, afirma Eli Upfal, científico informático de la Universidad de Brown. “Pero si no hubiese pensado en ella de forma aleatoria como una pregunta probabilística, probablemente no se me habría ocurrido”.
Casi 30 años después de la prueba histórica de Nisan y Wigderson, los algoritmos aleatorios siguen siendo tan populares como siempre, porque la desaleatorización puede ser complicada y los algoritmos deterministas a menudo son eficientes solo en principio. No fue hasta 2002 que tres investigadores encontraron una forma de eliminar la aleatoriedad de las pruebas de primalidad y, en la práctica, su algoritmo es mucho más lento que los mejores algoritmos aleatorios. Para otros problemas es difícil incluso saber por dónde empezar: el algoritmo más conocido tiene un problema del huevo y la gallina del que solo se puede escapar a través de la aleatoriedad.
Ese es el caso de un avance reciente en la teoría de grafos. El año pasado, tres científicos informáticos desarrollaron un algoritmo rápido para encontrar la ruta más corta a través de un grafo, una red de nodos conectados por segmentos lineales, que funciona incluso cuando algunos segmentos se restan de la longitud total de la ruta en lugar de sumarse. Su algoritmo implicaba transformar el grafo en uno más simple eliminando ciertos segmentos, resolver el problema del grafo simplificado y luego tener en cuenta los segmentos eliminados. Pudieron demostrar que el algoritmo se ejecutaría rápidamente si ninguna ruta más corta pasa a través de demasiados segmentos eliminados; de lo contrario, el último paso emplearía demasiado tiempo.
Pero, ¿cómo decidir qué segmentos eliminar en primer lugar? No solo es difícil encontrar el conjunto ideal de segmentos de forma determinista, es imposible. El conjunto depende de qué caminos sean los más cortos, el mismo problema que los tres investigadores estaban tratando de resolver. Pero aunque no pudieron encontrar el mejor conjunto de segmentos para eliminar, pudieron demostrar que la mayoría de las elecciones aleatorias serían lo bastante buenas, y eso fue suficiente para romper el ciclo autorreferencial. En los raros casos en los que el algoritmo toma una decisión desafortunada y se atasca en el último paso, solo hay que pararlo y ejecutarlo nuevamente.
“La aleatoriedad es básicamente una forma de garantizar que algo es cierto sobre la solución óptima sin conocer la solución óptima”, explica Aaron Bernstein, uno de los autores del nuevo algoritmo.
La aleatoriedad ha encontrado innumerables otros usos en la informática, desde la criptografía hasta la teoría de juegos y el aprendizaje automático. Lo más probable es que esté aquí para quedarse.
El artículo original, How Randomness Improves Algorithms, se publicó el 3 de abril de 2023 en Quanta Magazine.
Traducido por César Tomé López
El artículo Cómo la aleatoriedad mejora los algoritmos se ha escrito en Cuaderno de Cultura Científica.