Soluciones naturales a la caída de rocas en las playas
La caída de rocas en los acantilados de la costa vasca es un fenómeno muy habitual, así como un peligro real para la gente que visita las playas localizadas a sus pies. Un trabajo del grupo Procesos Hidro-Ambientales de la UPV/EHU ha estudiado el efecto barrera que ejercen las dunas presentes de forma natural en la playa de Barinatxe, Bizkaia. Los resultados muestran que la protección es total, además de aportar valor ecológico al ecosistema costero.

Siendo las playas zonas de recreo muy frecuentadas, la seguridad de las personas es la máxima prioridad en los arenales que están a los pies de acantilados, donde es habitual que se produzcan desprendimientos de rocas. Tradicionalmente se ha recurrido a la construcción de diques, mallas y barreras para este fin, que además de su alto coste de construcción y mantenimiento, tienen un gran impacto visual y ambiental en el entorno. “En nuestro grupo de investigación, buscamos naturalizar en la medida de lo posible estas medidas protectoras”, comenta Jon Ander Clemente, investigador del grupo de investigación Procesos Hidro-Ambientales (HGI) de la Facultad de Ciencia y Tecnología de la UPV/EHU. Existen, además, zonas protegidas, de alto valor ecológico y/o geomorfológico, como el Geoparque de la costa vasca, en las que no se pueden hacer ese tipo intervenciones tradicionales.
El grupo de investigación a creado una metodología que, mediante la creación de modelos 3D de estas zonas utilizando drones o escáneres laser, permite realizar el seguimiento y la monitorización de las trayectorias, el tamaño, el avance y otros parámetros de las rocas que caen en las zonas de estudio. Estos datos hacen que se pueda “evaluar la susceptibilidad de las playas frente a la caída de rocas de los acantilados adyacentes y proponer una serie de medidas y actuaciones más acordes con la naturaleza para proteger las playas y a la vez respetar el entorno natural”, explica el investigador.
En el caso de la playa de Barinatxe (ubicada entre Sopela y Getxo, Bizkaia), del estudio realizado concluyeron que es el sistema de dunas existente de forma natural a los pies del acantilado el que protege la playa de la caída de las rocas. Así lo explica Clemente: “Dadas sus características, estas dunas generan una cuneta natural, que ejerce como barrera y retiene las rocas. Nuestro modelo 3D nos muestra que, si esta barrera natural se degradara y desapareciera, las rocas llegarían hasta la playa donde la gente suele acudir, y se correría un gran riesgo. En este momento, la protección que ejerce el sistema dunar es del 100 %. Además, este entorno ha sido estudiado desde el punto de vista de la biodiversidad, y se ha visto que las especies que crecen allí son importantes, y encima la vegetación mantiene firmes las dunas. Estos resultados demuestran la eficacia de las llamadas soluciones basadas en la naturaleza”.
El investigador aclara que el haber probado la eficacia de las dunas no significa que vayan a promover la instalación de sistemas dunares en todas las playas que corren el mismo riesgo que la de Barinatxe. “Hay que adaptar las soluciones a la morfología propia de cada lugar. Sí que puede haber playas donde se puedan generar sistemas dunares, pero en otras será necesario realizar intervenciones con mayor impacto. En estos casos, nuestro modelo 3D permite definir las necesidades exactas de cada lugar, y, por ejemplo, puede servir para determinar la altura de la barrera que es necesario construir”. Esta metodología ya se está empleando en las calas del parque natural de Portofino, en Italia.
Aunque actualmente está siendo utilizada para prevenir la caída de las rocas en las playas, el investigador considera que esta metodología puede ser utilizada en cualquier entorno donde exista peligro para las personas relacionado con la caída de rocas. En el caso concreto del efecto de las dunas, “se podrían hacer estudios similares en sistemas desérticos. Lo que es interesante de esta metodología es el planteamiento que hace para solucionar un problema, que muestra los buenos resultados que da el acercarse más a la naturaleza y realizar actuaciones más sostenibles”, concluye.
Referencia:
Jon Ander Clemente, Jesus A. Uriarte, Daniele Spizzichino, Francesco Faccini, Tomás Morales (2023) Rockfall hazard mitigation in coastal environments using dune protection: A nature-based solution case on Barinatxe beach (Basque Coast, northern Spain) Engineering Geology doi: 10.1016/j.enggeo.2023.107014
Para saber más:
El rugido de las rocas costeras
¿Mar o montaña?
Los volcanes submarinos de Bizkaia y Gipuzkoa
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Soluciones naturales a la caída de rocas en las playas se ha escrito en Cuaderno de Cultura Científica.
San Isidro Labrador, quita el agua y pon el sol
Con este sugerente título parece que “se me ha ido un poco la pinza» y que, en lugar de hablaros de Geología, voy a meterme con asuntos religiosos, figuras históricas o tradiciones populares. Pero nada más lejos de la realidad, simplemente he usado un bonito «click bait» para llamar vuestra atención.
«San Isidro Labrador, quita el agua y pon el sol» es una sonora frase que se suele repetir, con una ligera musicalidad en la entonación, en muchas zonas del norte de la Península Ibérica y Latinoamérica cuando las lluvias no arrecian y ponen en peligro cosechas o zonas urbanas potencialmente inundables y se saca la imagen del santo en procesión en un desesperado intento de revertir la situación. Aunque, en aquellas localizaciones donde es la sequía la que se ceba con las poblaciones, se suele invertir el orden de las palabras «agua» y «sol» en las rogativas al santo.
Seguro que os estáis preguntando ¿Y qué tiene que ver esto con la Geología? Pues ahora es cuando voy a intentar sorprenderos.

Según las crónicas, Isidro vivió entre finales del siglo XI y finales del siglo XII en un Madrid convulso, justo en la época en la que la ciudad fue conquistada por los reinos cristianos arrebatándosela a los árabes, y se dedicaba a cultivar las tierras de los señores castellanos recién asentados. Pero, al parecer, no solo se dedicaba a trabajar la tierra, sino que también se dice que era zahorí y pocero, es decir, que buscaba agua subterránea por esos lares. Y aquí es donde empiezan las (no) casualidades.
Madrid surgió en el siglo IX, cuando el emir de Córdoba Mohamed I estaba buscando un lugar para construir una fortaleza con la que defender sus fronteras de los ataques de los cristianos. Y encontró una zona privilegiada, un promontorio a orillas de un río y flanqueado por abundantes arroyos y aguas subterráneas. Así que decidió llamar a esta población Maǧrīţ (مجريط), que parece proceder de un par de palabras árabes que significan cauce o fuente. Esto ya nos da una idea de la importancia que tiene el agua en esta zona, hasta el punto de que el lema más antiguo de la ciudad comenzaba diciendo “Fui sobre agua edificada…”.
Pero en la época en la que vivió Isidro, Madrid no era precisamente un vergel. Cuenta la historia escrita que, por aquel entonces, había un clima muy cálido y árido, lo que hacía peligrar las cosechas e, incluso, la vida de los ciudadanos. Pero esto no es exclusivo del centro de la Península Ibérica, sino que fue algo generalizado en todo el Hemisferio Norte. Entre los siglos IX-X y los siglos XIII-XIV, aproximadamente, se produjo lo que se conoce como Óptimo Climático Medieval, una anomalía climática caracterizada por temperaturas promedio más elevadas que las actuales, que incluso provocó el deshielo de amplias zonas de Groenlandia y el Norte de Europa. Deshielo que favoreció las campañas marítimas de expansión y conquista de los vikingos, permitiéndoles llegar hasta las costas de Norteamérica. Pero eso es otra historia, mejor me vuelvo a Madrid.

En un Madrid árido y bochornoso, las habilidades como pocero y buscador de agua de Isidro eran muy demandadas. Y así se produjo uno de sus milagros más conocidos. Un día muy caluroso su señor se acercó al campo a verle trabajar, pero le entró sed, por lo que le pidió agua al santo. Este, al ver que se le había acabado, dio un golpe en el suelo con su apero de labranza y empezó a brotar agua, dulce y fresca, que sació la sed de toda la comarca. Años después, hicieron una fuente para canalizar el caudal de ese manantial. Y siglos después hicieron una ermita pegada a la fuente para conmemorar el milagro. Y sí, aún sigue existiendo y sigue brotando agua, de la que puedo decir que sigue saliendo fresca.

Entonces, ¿se produjo un milagro? Bueno, vamos a ver qué dice la ciencia. La zona en la que hoy se levanta el Cementerio Sacramental de San Isidro y se extiende la Pradera de San Isidro es una antigua terraza fluvial cuaternaria. Una terraza es un depósito de los materiales transportados por un río en los márgenes de su cauce, en este caso el Manzanares. Y si una cosa caracteriza al Cuaternario es la alternancia de periodos climáticos fríos, llamados glaciales, y periodos cálidos, denominados interglaciales. Pues durante los momentos glaciales se produce una bajada del nivel del mar, lo que provoca que el río encaje su cauce, es decir, baje su nivel de base erosionando los materiales que atraviesa, mientras que en los momentos interglaciales, con la subida del nivel del mar, también asciende el cauce del río. De esta manera, tendremos varias secuencias de terrazas situadas a diferentes alturas topográficas, marcando periodos temporales también diferentes. Además, los materiales que conforman estas terrazas son gravas y arenas poco consolidadas, muy porosas y permeables, lo que favorece que el agua se infiltre en el terreno y circule de manera subterránea.
Estas terrazas se desarrollan sobre materiales más antiguos, del Periodo Mioceno, hace unos 14 millones de años, formados por arcillas y margas impermeables. Vamos, que hacen de tapón favoreciendo la acumulación del agua subterránea en los depósitos cuaternarios. Encima, a esto hay que sumarle que muchos de los contactos entre los sedimentos cuaternarios y los miocenos son fracturas del terreno, a través de las cuales puede circular el agua hacia la superficie, saliendo al exterior como un manantial o surgencia.
Pues da la (no) casualidad de que todo esto confluye en la Pradera de San Isidro, provocando que tengamos un manantial natural que hemos transformado en fuente. Así que, probablemente, Isidro no golpeó el suelo al azar. Posiblemente, las supuestas palabras que dijo el santo cuando clavó su apero nos pueden dar una pista: “Cuando Dios quería, aquí agua había”. ¿Acaso Isidro ya sabía que ahí brotaba agua subterránea de vez en cuando? ¿Es posible que se fijase en algunas evidencias que le llevasen a suponer que había agua en el subsuelo, tales como cambios composicionales en los materiales o fracturas en el terreno? ¿Significa esto que San Isidro tenía ciertos conocimientos geológicos y se apuntó un tanto delante de su señor, recubriendo su acción de un halo místico? Yo no lo descarto…
Agradecimientos:
Quiero dar las gracias a mis colegas, a la par que amigas y amigos, de la Sociedad Geológica de España con los que he tenido el placer de realizar sendas salidas geológicas por Madrid para celebrar el Día de la Tierra, “Fui sobre agua edificada, mis muros de fuego son”, enmarcada en el proyecto Geolodía 22, y “San Isidro y las raíces de la Geología en España”, dentro del proyecto Geolodía 23: Manuela Chamizo (IGME), Enrique Díaz (IGME), María Druet (IGME), Miguel Gómez (UAM), Rafael Lozano (IGME), Raquel Martín (IGME), Juan Antonio Morales (UHU), Ana Ruiz (IGME) y Enrique Salazar (IGME). Sin vuestra ayuda ni conocimientos geológicos e históricos, no habría podido redactar este texto.
Para saber más:
Aguas que no vemos, pero aguas que bebemos
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo San Isidro Labrador, quita el agua y pon el sol se ha escrito en Cuaderno de Cultura Científica.
Un crucigrama topológico
Hoy os proponemos un juego para refrescar esos conceptos de topología que quizás teníais un poco olvidados. Se trata de un crucigrama en el que aparecen 15 términos relacionados con esta área de las matemáticas y que, para quien ha estudiado algún curso de cálculo, no deberían ser difíciles de reconocer.

Introducimos estos términos de manera intuitiva en algunos casos.
Descripción de las palabras (horizontales)
2. Esta es la propiedad que poseen los espacios topológicos X que son “de una pieza” (es decir, X no puede escribirse como unión de dos subconjuntos abiertos disjuntos y no vacíos). Por ejemplo, en la recta con la topología usual los conjuntos que poseen esta propiedad son justamente los intervalos.
4. Se llaman así a los conjuntos que forman la topología de un espacio.
9. Se denomina de este modo a una función f entre dos espacios topológicos X e Y que causa que X sea “topológicamente equivalente” (en el sentido de la definición 7) a su imagen f(X).
11. Si A es un subconjunto en un espacio topológico X, este conjunto es el mayor cerrado que contiene a A. Los puntos de este conjutno son los de A y los que son “cercanos” a A (en el sentido de la definición 1).
13. Se llaman así a los complementarios de los conjuntos que definen la topología (los aludidos en la definición 4). En cualquier espacio topológico X hay al menos dos conjuntos que verifican (al mismo tiempo) las dos propiedades definidas en 4 y en 13: el conjunto vacío y el propio X. Además, los espacios topológicos en los que los únicos conjuntos que poseen (al mismo tiempo) las propiedades de las definiciones 4 y 13 son el vacío y X, son precisamente los que cumplen la propiedad 2.
14. Es la propiedad que define a aquellos espacios cuya topología está inducida por una distancia. Por ejemplo, la topología usual de la recta proviene de la distancia usual entre puntos de la recta.
15. Este es el apellido de un conocido matemático y el nombre del conjunto C (en honor al matemático) que protagoniza este hermoso teorema: “Todo espacio métrico totalmente disconexo (sus componentes conexas son sus puntos), perfecto y compacto es topológicamente equivalente (en el sentido de la definición 7) a C”.
Descripción de las palabras (verticales)
1. Se trata de una noción de tipo local, es decir, asociada a un punto x en un espacio topológico X. ¿Cómo se llaman los conjuntos que contienen a “los puntos cercanos” al punto x? El término que buscamos define a aquellos subconjuntos de X que contienen a un abierto que contiene al punto x.
3. También es una noción de tipo local, es decir, asociada a un punto x en un espacio topológico X. Este término alude a aquellas funciones fentre dos espacios topológicos X e Y que llevan “puntos cercanos” a x en “puntos cercanos” a f(x) (el concepto de “cercanía” es el definido en 1).
5. Si A es un subconjunto en un espacio topológico X, el conjunto que buscamos es el mayor abierto contenido en A.
6. La definición es un poco compleja para escribirla aquí. Pero, por ejemplo, en la recta con la topología usual, estos conjuntos son precisamente los cerrados y acotados.
7. Son las funciones que definen la equivalencia topológica entre dos espacios. Una función que cumple esta propiedad es biyectiva, y tanto ella como su función inversa cumplen la propiedad definida en 3.
8. Si A es un subconjunto en un espacio topológico X, este conjunto es el que separa el interior de A de su exterior (el interior del complementario de A). Está formado por aquellos puntos que están “cerca” (en el sentido de 1) de A y del complementario de A.
10. Esta es la parte de las matemáticas que estudia las propiedades cualitativas de espacios.
12. Este es el apellido del matemático que acuñó la palabra topología. Lo hizo en un artículo escrito en alemán (el término era Topologie) que fue publicado en el año 1848.
Bonus
Como ayuda para resolver este juego, os dejamos esta sopa de letras en la que aparecen los quince términos definidos en el crucigrama anterior. Además, hay escondida una última palabra que corresponde al apellido que da nombre a una superficie con curiosas propiedades topológicas que tiene mucha relación con el símbolo del reciclaje.

Soluciones
Si quieres comprobar si has acertado las quince (+ 1) palabras, puedes consultar este enlace.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Un crucigrama topológico se ha escrito en Cuaderno de Cultura Científica.
Las tasas de mutación animal desvelan los rasgos que aceleran la evolución
La primera comparación a gran escala de las tasas de mutación da una idea de la rapidez con la que pueden evolucionar las especies.
Un artículo de Yasemin Saplakoglu. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

En el juego infantil teléfono roto, una frase susurrada como «me perdí de noche» puede convertirse rápidamente en «me pedí un coche» al avanzar en la fila de jugadores. A medida que los genes se transmiten de padres a hijos, también pueden transformarse gradualmente mediante pequeños errores de copia, lo que a veces conduce a rasgos nuevos y útiles. Conocer el ritmo de las mutaciones heredadas es fundamental para comprender cómo evolucionan las especies. Sin embargo, hasta hace poco, las tasas tremendamente divergentes a las que la vida puede mutar se conocían solo para un puñado de especies.
Ahora, un análisis enorme de 68 especies diversas de vertebrados, desde lagartos y pingüinos hasta humanos y ballenas, ha supuesto la primera comparación a gran escala de las tasas a las que mutan las especies, un primer paso para comprender lo rápido que pueden evolucionar. Los hallazgos, publicados en la revista Nature, suponen aportaciones sorprendentes para comprender mejor cómo puede cambiar el ritmo de las mutaciones y qué marca ese ritmo.
El artículo científico viene a «duplicar la cantidad de estimaciones de tasas de mutación que tenemos», afirma Michael Lynch, biólogo evolutivo de la Universidad Estatal de Arizona que no participó en el estudio. Ahora tenemos una «mejor idea de la cantidad de variación en los vertebrados».
Con esta cantidad amplia de datos, las biólogas pueden comenzar a responder preguntas acerca de qué rasgos influyen más en las tasas de mutación y el ritmo de la evolución. “Hay cosas que afectan a la tasa de evolución, [pero] no las conocemos todas”, explica Patricia Foster, profesora emérita de biología en la Universidad de Indiana que no participó en el estudio. “Este es el comienzo”.
Las mediciones de las tasas de mutación podrían ser de gran utilidad para calibrar los relojes moleculares basados en genes que las biólogas usan para determinar cuándo divergieron las especies, y suponen comprobaciones útiles de varias teorías sobre cómo funciona la evolución. También confirman que los factores que ayudan a establecer la velocidad de la evolución están ellos mismos sujetos a la evolución. «La mutación de la línea germinal, como cualquier otro rasgo, está sometida a la selección natural», afirma Lucie Bergeron, autora principal del nuevo estudio.
El poder de tresAunque las tecnologías avanzadas de secuenciación de ADN que han hecho posible el estudio han existido durante años, estaba claro que una gran comparación de tasas de mutación entre múltiples especies implicaría tanto trabajo que «nadie se puso a ello», comenta Bergeron, quien abordó el proyecto como parte de su trabajo de doctorado en la Universidad de Copenhague. Pero con el apoyo de su director de tesis, Guojie Zhang, de la Universidad de Copenhague y la Facultad de Medicina de la Universidad de Zhejiang en China, Bergeron se tiró de cabeza.
Bergeron y su equipo primero recolectaron muestras de sangre y tejido de tríos familiares (una madre, un padre y uno de sus hijos) de especies en zoológicos, granjas, institutos de investigación y museos de todo el mundo. Luego compararon el ADN de los padres y la descendencia en cada trío para identificar las diferencias genéticas entre generaciones.

Si encontraban una mutación en alrededor del 50% del ADN de un descendente, concluían que probablemente era una mutación de la línea germinal, una heredada a partir del óvulo de la madre o del esperma del padre. La selección natural puede actuar directamente sobre una mutación así. Se consideraba que las mutaciones menos frecuentes ocurrían espontáneamente en tejidos fuera de la línea germinal; eran menos relevantes para la evolución porque no se transmitirían.
(Con sorprendente frecuencia, los desajustes en los tríos familiares indicaban a los investigadores que los listados como padres por los zoológicos no estaban relacionados con los bebés. Los representantes de los zoológicos a menudo se encogían de hombros ante esta noticia y decían que podría haber dos machos en la jaula. “Sí, bueno, el otro es el ganador”, bromeaba Bergeron).
Al final, los investigadores tenían 151 tríos utilizables, que representaban especies tan diversas desde el punto de vista físico, metabólico y conductual como las enormes orcas, los diminutos peces luchadores siameses, los gecos bandeados de Texas y los humanos. Luego compararon las tasas de mutación de la especie con lo que sabemos sobre los comportamientos y las características llamadas su historia de vida. También consideraron una medida estadística para cada especie llamada tamaño efectivo de la población, que corresponde aproximadamente a cuántos individuos se necesitan para representar la diversidad genética. (Por ejemplo, aunque la población humana actual es de 8 mil millones, las científicas generalmente estiman que nuestro tamaño efectivo de población es de alrededor de 10.000 o menos). Bergeron y sus colegas buscaron patrones de asociaciones en los números.
El hallazgo más sorprendente que surgió de los datos fue la amplia gama de tasas de mutación de la línea germinal. Cuando los investigadores midieron la frecuencia con la que ocurrían las mutaciones por generación, las especies variaban solo unas cuarenta veces, lo que, según Bergeron, parecía bastante pequeño en comparación con las diferencias en el tamaño corporal, la longevidad y otros rasgos. Pero cuando observaron las tasas de mutación por año en lugar de por generación, el rango aumentó a aproximadamente 120 veces, que era más grande de lo que habían sugerido estudios anteriores.
Las fuentes de variaciónLos autores del estudio han encontrado que cuanto mayor es el tamaño efectivo promedio de la población de una especie, menor es su tasa de mutación. Esto proporciona una buena evidencia para la «hipótesis de la barrera de deriva«, que Lynch planteó hace poco más de una década. “La selección está tratando implacablemente de reducir la tasa de mutación porque la mayoría de las mutaciones son perjudiciales”, explicó Lynch. Pero en especies con tamaños de población efectivos más pequeños, la selección natural se debilita porque la deriva genética, el efecto de la pura casualidad en la propagación de una mutación, se fortalece. Esto permite que la tasa de mutación aumente.
Los hallazgos también respaldan otra idea de la literatura científica, la hipótesis de la evolución impulsada por los machos, que propone que los machos pueden contribuir con más mutaciones a la evolución de algunas especies que las hembras. Bergeron y sus colegas han encontrado que las tasas de mutación de la línea germinal tendían a ser más altas para los machos que para las hembras, al menos en mamíferos y aves, aunque no en reptiles y peces.
Los autores señalan una posible razón para esas diferencias: debido a que los machos de todas las especies copian su ADN constantemente para producir esperma, aparecen infinitas oportunidades para que ocurran mutaciones. Las hembras de peces y reptiles también producen huevos a lo largo de su vida, por lo que corren un riesgo similar de error genético. Pero las hembras de los mamíferos y las aves nacen esencialmente con todos los óvulos que producirán, por lo que sus líneas germinales están más protegidas.
Los rasgos de historia de vida representaron alrededor del 18% de la variación que han encontrado las investigadoras. El mayor de esos efectos provino del tiempo de generación de una especie, la edad promedio a la que se reproduce: a medida que aumentaba la edad de los padres, también lo hacían las tasas de mutación.
Debido a que Bergeron se incluyó a sí misma, a su hermano y a sus padres en el estudio de datos humanos, pudo ver este patrón en su propia familia. “Tengo más mutaciones que mi hermano, porque mi padre era más mayor cuando me tuvo”, dijo.
Factores como el tiempo de maduración y el número de crías también influyen en algunos vertebrados, pero, contrariamente a lo esperado, los investigadores no han encontrado ningún efecto relacionado con el tamaño del cuerpo. Existe una hipótesis muy antigua que dice que los seres con cuerpos más grandes deberían tener más mutaciones porque tienen más células y, por lo tanto, más oportunidades para que la maquinaria de copia de ADN cometa errores.
“Ha sido sorprendente ver que el tiempo de generación parece mucho más importante que el tamaño del cuerpo”, afirma Kelley Harris, profesora asistente de ciencias del genoma en la Universidad de Washington. “En la literatura anterior, esas hipótesis están más en pie de igualdad”.
Harris elogia los hallazgos como un comienzo apasionante para responder algunas de estas grandes preguntas sobre qué factores son los determinantes más importantes de la tasa de mutación y, por lo tanto, de la evolución. Además de esto, el estudio da a entender la enorme biodiversidad que existe en la naturaleza.
“La diversidad de la vida no es solo el aspecto de los animales”, afirma. Están «todas estas características que no se pueden ver, y poder observarlas en estudios como este hace que la biodiversidad sea aún más emocionante».
El artículo original, Animal Mutation Rates Reveal Traits That Speed Evolution, se publicó el 5 de abril de 2023 en Quanta Magazine.
Traducido por César Tomé López
El artículo Las tasas de mutación animal desvelan los rasgos que aceleran la evolución se ha escrito en Cuaderno de Cultura Científica.
Complementos de colágeno: de lo que se come, no se cría

El negocio de los complementos dietéticos (fuentes concentradas de nutrientes destinadas a complementar la alimentación) va viento en popa. Las ventas han ido incrementándose año a año en España, especialmente desde la irrupción de la pandemia. Precisamente, en el año 2020, este sector facturó por primera vez más de 1.000 millones de euros. El fenómeno no obedece a un aumento considerable de los déficits nutricionales de los ciudadanos, sino principalmente a la potenciación del consumo injustificado de los complementos dietéticos motivada por un marketing engañoso.
Los reclamos publicitarios a través de diversos medios han ido sembrando la idea, poco a poco entre la población general, que el consumo de complementos es recomendable o incluso necesario para reforzar las defensas, potenciar la memoria, aumentar la vitalidad y la energía, prevenir las enfermedades cardiovasculares o el cáncer… Tales afirmaciones no están respaldadas por los ensayos clínicos realizados con personas sanas, sin problemas nutricionales.
Entre los complementos dietéticos estrella destaca el colágeno. Los productos con esta proteína suelen tener un lugar destacado en las farmacias (por las ventas y el margen de beneficios que supone). Además, no son pocos los médicos que aconsejan su consumo para diversas indicaciones como proteger las articulaciones o disminuir el impacto de diversas enfermedades articulares como la artrosis, mejorar la salud de la piel y los músculos o prevenir la desmineralización de los huesos (que puede terminar en una osteoporosis).
El colágeno es la proteína más abundante del cuerpo humano y tiene una función fundamental: da estabilidad estructural a los diferentes tejidos (huesos, músculos, cartílago, piel, corazón, pulmón…), . Sin embargo, con la edad, la producción de esta proteína va disminuyendo, lo que influye, por ejemplo, en la aparición de arrugas en la piel. Por otro lado, en enfermedades como la artrosis (asociada al envejecimiento), se produce la destrucción del cartílago y de varias proteínas, como el colágeno.
Como el colágeno es una proteína esencial en la composición de multitud de tejidos donde da soporte y su producción disminuye conforme envejecemos, en algún momento a alguien se le ocurrió una idea, en apariencia lógica: ¿Por qué no tomamos colágeno para compensar ese déficit? Básicamente, la expectativa es que si ingerimos más colágeno, aportaremos más colágeno a nuestros tejidos. Lo que en la cultura popular conocemos como «de lo que se come, se cría».
Sin embargo, la realidad es puñetera. En primer lugar, el colágeno es una proteína enorme que no puede absorberse directamente en el intestino. Esto implica que antes tiene que degradarse en aminoácidos (glicina, prolina y lisina) para poder pasar a través de la barrera intestinal y llegar a la sangre. Una vez allí, estos aminoácidos se distribuyen por las diferentes células del cuerpo humano. ¿Qué implica esto? Que cuando una persona toma complementos de colágeno (aunque sea hidrolizado), no se absorbe colágeno, sino sus elementos individuales: los aminoácidos. Estos aminoácidos, además, se van a utilizar en el cuerpo humano para producir también multitud de proteínas diferentes, no solo el colágeno. ¿Cómo sabe nuestro organismo que estas moléculas deben ir justamente a producir más colágeno y no otras proteínas? Pues no lo sabe. Tampoco hay ninguna prueba de que aportar más aminoácidos al cuerpo vaya a estimular la propia producción de colágeno en el organismo. De hecho, si la síntesis de esta molécula disminuye con la edad, lo más probable es que esto no se deba a un déficit de aminoácidos, sino al envejecimiento de las células que ya no son tan eficaces a la hora de producir colágeno.
No se trata solo de que el supuesto mecanismo de acción que explicaría el beneficio de los complementos de colágeno no tenga lógica alguna cuando se mira con detalle. Los estudios de más calidad con personas sanas han observado que estos productos tienen un efecto equivalente al placebo a la hora de proteger las articulaciones, atenuar los síntomas de la artrosis y tener otros beneficios para la salud. En ese sentido, la Autoridad Europea de Seguridad Alimentaria (EFSA), institución que se encarga de valorar periódicamente las alegaciones saludables de los productos alimentarios, concluyó en 2011 que no existía relación de causa y efecto entre el consumo de colágeno hidrolizado y el mantenimiento de las articulaciones. Años, más tarde, determinó que tampoco se habían demostrado efectos beneficiosos sobre la piel.
A toda la información anterior se une un dato clave: salvo que tengamos una dieta pobre en proteínas, en nuestra alimentación cotidiana ya incorporamos los nutrientes más que suficientes para absorber los aminoácidos necesarios para producir colágeno o cualquier otra proteína. En otras palabras, con una dieta saludable y en personas sanas y sin requerimientos especiales, es absolutamente innecesario consumir complementos de colágeno. Porque, a diferencia de lo que afirma el popular refrán, la realidad es que: «de lo que se come, no se cría».
Para saber más:
La ciencia de la cosmética antioxidante contra los radicales libres
La ciencia del protector solar
La extraña paradoja tras los suplementos de vitamina D
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo Complementos de colágeno: de lo que se come, no se cría se ha escrito en Cuaderno de Cultura Científica.
Filosofía de la ciencia y comunicación científica… por ChatGPT
El texto que sigue ha sido generado por ChatGPT de una tacada, en respuesta a «escribe un artículo sobre filosofía de la ciencia y comunicación científica de más 600 palabras y menos de 900″. El texto resultante tiene 884 palabras. No ha sido editado ni corregido de ninguna forma, por lo que se aprecian algunas cuestiones estilísticas menores que podrían ser alteradas por un editor humano.
Una de las cosas más llamativas para mí es que opta por interpretar la «y» que une los dos campos de conocimiento de forma activa, es decir, no se limita a exponer definiciones, o enumerar diferencias, sino que relaciona y argumenta, creando un texto coherente que defiende una opinión de entre las varias posibles; algo que consideraríamos creativo. Esto está relacionado directamente con Las impredecibles capacidades emergentes en grandes modelos de IA.

La filosofía de la ciencia es un campo de estudio que busca comprender los fundamentos teóricos, metodológicos y epistemológicos de la actividad científica. A menudo se dice que la filosofía de la ciencia se ocupa de preguntas tales como: ¿Qué es la ciencia? ¿Cómo se distingue la ciencia de otras formas de conocimiento? ¿Cómo se construyen y validan las teorías científicas? ¿Cómo se relacionan los datos empíricos con las teorías científicas? ¿Qué papel juega la observación y la experimentación en la ciencia? ¿Cómo se relacionan la ciencia y la sociedad?
Estas preguntas pueden parecer abstractas y de interés principalmente para filósofos y científicos teóricos, pero la filosofía de la ciencia es en realidad un tema muy importante para todos aquellos que se dedican a la comunicación científica. En este artículo, explicaré por qué la filosofía de la ciencia es relevante para la comunicación científica, y cómo un conocimiento básico de este campo puede ayudar a mejorar la calidad de la comunicación científica.
La comunicación científica es una actividad que se lleva a cabo en diferentes contextos y con diferentes objetivos. Puede ser un medio para transmitir los resultados de la investigación científica a otros científicos, para informar al público sobre los avances científicos, para persuadir a los tomadores de decisiones sobre la importancia de financiar la investigación científica, o para educar a los estudiantes sobre los conceptos científicos básicos. En todos estos contextos, la comunicación científica se basa en la presentación de hechos y teorías científicas, y en la explicación de cómo se obtienen y se validan estos hechos y teorías.
La filosofía de la ciencia puede ayudar a mejorar la calidad de la comunicación científica de varias maneras. En primer lugar, puede proporcionar un marco conceptual para comprender la naturaleza y los límites del conocimiento científico. La filosofía de la ciencia puede ayudar a los comunicadores científicos a comprender que la ciencia es un proceso continuo de construcción de conocimiento, que las teorías científicas no son verdades absolutas sino explicaciones provisionales que están sujetas a cambio y revisión, y que la ciencia no puede proporcionar respuestas definitivas a todas las preguntas.
En segundo lugar, la filosofía de la ciencia puede ayudar a los comunicadores científicos a comprender las diferencias entre la ciencia y otras formas de conocimiento, como la religión, la pseudociencia o el sentido común. La filosofía de la ciencia puede ayudar a los comunicadores científicos a comprender que la ciencia se basa en la evidencia empírica y en la lógica rigurosa, y que las afirmaciones científicas deben ser evaluadas en función de su coherencia interna, su consistencia con las teorías existentes y su capacidad para explicar los datos observables.
En tercer lugar, la filosofía de la ciencia puede ayudar a los comunicadores científicos a comprender los aspectos éticos y sociales de la actividad científica. La filosofía de la ciencia puede ayudar a los comunicadores científicos a comprender cómo la ciencia puede tener impactos positivos o negativos en la sociedad, y cómo los valores y las normas pueden influir en las decisiones científicas. Los comunicadores científicos pueden beneficiarse de un conocimiento básico de la filosofía de la ciencia para abordar cuestiones éticas y sociales relacionadas con la investigación científica, como la manipulación genética, la inteligencia artificial, la privacidad de los datos, la equidad en el acceso a la información científica, entre otros temas.
En cuarto lugar, la filosofía de la ciencia puede ayudar a los comunicadores científicos a evaluar críticamente las afirmaciones científicas. La filosofía de la ciencia puede proporcionar herramientas para distinguir entre la ciencia bien fundamentada y la pseudociencia, para detectar errores lógicos y argumentativos, para identificar las limitaciones de los estudios científicos y para evaluar la calidad de la evidencia empírica.
Por último, la filosofía de la ciencia puede ayudar a los comunicadores científicos a comunicar de manera efectiva los conceptos científicos complejos. La filosofía de la ciencia puede proporcionar una base teórica para la comunicación científica, ayudando a los comunicadores a estructurar la información de manera lógica y coherente, a seleccionar los conceptos más importantes para transmitir, a identificar y corregir malentendidos y errores comunes, y a comunicar la incertidumbre y los límites del conocimiento científico.
En resumen, la filosofía de la ciencia es un campo de estudio fundamental para la comunicación científica. Un conocimiento básico de la filosofía de la ciencia puede ayudar a los comunicadores científicos a comprender la naturaleza y los límites del conocimiento científico, a distinguir entre la ciencia y otras formas de conocimiento, a abordar cuestiones éticas y sociales relacionadas con la investigación científica, a evaluar críticamente las afirmaciones científicas, y a comunicar de manera efectiva los conceptos científicos complejos.
Además, la filosofía de la ciencia puede ayudar a los comunicadores científicos a mejorar su capacidad para colaborar con otros científicos y con el público en general. La filosofía de la ciencia puede proporcionar herramientas para la comunicación efectiva en equipos científicos interdisciplinarios, ayudando a los comunicadores a superar las barreras lingüísticas y conceptuales entre disciplinas, y a comprender mejor las implicaciones sociales y políticas de su investigación. También puede proporcionar herramientas para la participación pública en la toma de decisiones relacionadas con la ciencia, ayudando a los comunicadores a involucrar a los ciudadanos en debates sobre la investigación científica y a fomentar un diálogo abierto y constructivo sobre los desafíos científicos contemporáneos.
Sobre el autor: ChatGPT es un modelo trasformador generativo preentrenado (GPT, por sus siglas en inglés), un tipo de inteligencia artificial dentro de la categoría de los modelos de lenguaje extenso (LLM, por sus siglas en inglés), de la empresa OpenAI.
Editado por: César Tomé López, divulgador científico y editor de Mapping Ignorance
El artículo Filosofía de la ciencia y comunicación científica… por ChatGPT se ha escrito en Cuaderno de Cultura Científica.
BCAM-Naukas 2023: Fotografía con lente matemática
Quizás sea el número más famoso de la historia. Lo cierto es que el número Pi, representado por la letra griega π, es una de las constantes matemáticas más importantes que existen en el mundo, estudiada por el ser humano desde hace más de 4.000 años. Este número irracional, que determina la relación entre la longitud de una circunferencia y su diámetro, concierne a múltiples disciplinas científicas como la física, la ingeniería y la geología, y tiene aplicaciones prácticas sorprendentes en nuestro día a día.
La fascinación que ha suscitado durante siglos es tal que el popular número cuenta con su propio día en el calendario, así el mes de marzo se celebra el Día de Pi en todo el planeta.
Este evento internacional vino de la mano del físico estadounidense Larry Shaw, quien en 1988 lanzó la propuesta de celebrar esta efeméride. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO proclamó el 14 de marzo Día Internacional de las Matemáticas.
Un año más, el Basque Center for applied Mathematics-BCAM y la Cátedra de Cultura Científica de la UPV/EHU se han sumado a la celebración, organizando la cuarta edición del evento BCAM NAUKAS, que tuvo lugar el 14 de marzo en el Bizkaia Aretoa de la UPV/EHU.
La primera charla, Fotografía con lente matemática, corrió a cargo de la profesora del departamento de Estadística e Investigación Operativa de la UPV/EHU y fotógrafa aficionada, Irantzu Barrio.
Si no ve correctamente el vídeo, use este enlace.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo BCAM-Naukas 2023: Fotografía con lente matemática se ha escrito en Cuaderno de Cultura Científica.
La serendipia de la galaxia enana más lejana
Un equipo internacional, del que forma parte el profesor Ikerbasque de la UPV/EHU y asociado al Donostia International Physics Center (DIPC) Tom Broadhurst, utilizó la alta resolución del Telescopio Espacial James Webb (JWST) combinada con una poderosa lente gravitacional para concluir que las galaxias que se formaron en el universo primitivo eran normalmente muy pequeñas y que, en un proceso de evolución jerárquico, estas galaxias se fueron fusionando por gravedad mutua hasta formar galaxias masivas como nuestra Vía Láctea.

Mediante el análisis de los espectros de varias galaxias en el Universo lejano, el equipo ha podido confirmar además la detección de la galaxia enana más distante encontrada hasta la fecha. Según explica Broadhurst, “esta galaxia pequeña y de muy baja luminosidad es una de las primeras que se formaron, solo 500 millones de años después del Big Bang, cuando el volumen del universo era unas mil veces menor que el actual”.
Broadhurst forma parte de un equipo internacional que cuenta con una gran asignación de tiempo del JWST para estudiar estrellas y galaxias en el universo lejano a través de lentes gravitacionales, un método que utiliza objetos masivos, como cúmulos de galaxias, que magnifican en luminosidad y tamaño los objetos que se encuentran detrás. A principios de este año, el equipo ya había medido el espectro de varias estrellas y galaxias mediante esta técnica, “y nos sentimos muy emocionados al detectar una galaxia con un desplazamiento al rojo muy elevado”. Las últimas observaciones permitieron al equipo confirmar que “la estimación de la distancia de esta galaxia es fiable al 100 %, porque hemos sido capaces de reconocer elementos distintivos en su espectro, como hidrógeno, carbono, oxígeno y neón, que provienen de su gas caliente”.
Pura serendipiaLas mediciones del tamaño de esta galaxia han revelado que se trata de una galaxia enana de muy baja luminosidad situada a 13.200 millones de años luz. Estas mediciones han sido realizadas “gracias a la alta resolución del telescopio James Webb combinada con el poder magnificador de un cúmulo masivo de galaxias que se encuentra en primer plano, que actúa como una lente gigante”, explica el profesor. Broadhurst es un experimentado espectroscopista y experto en lentes gravitacionales, por lo que su trabajo ha consistido en “interpretar el espectro y estimar la amplificación de esta galaxia, mediante un modelo del campo gravitatorio del gran cúmulo de galaxias que actúa como lente en este caso”.
Según explica el investigador, “esta galaxia no era nuestro objetivo principal, pero afortunadamente apareció en las imágenes obtenidas con el James Webb, por lo que decidimos añadirla a nuestra lista de objetivos para una espectroscopía de seguimiento”. Esta serendipia ha llevado al equipo a concluir que “es muy posible que este tipo de galaxia enana y poco luminosa sea típica de las primeras galaxias que se formaron en el Universo primitivo, en lugar de galaxias más brillantes, como afirman otros grupos que no utilizan lentes gravitacionales”.
Referencia:
Hayley Williams, Patrick L. Kelly, Wenlei Chen, Gabriel Brammer, Adi Zitrin, Tommaso Treu, Claudia Scarlata, Anton M. Koekemoer, Masamune Oguri, Yu-Heng Lin, Jose M. Diego, Mario Nonino, Jens Hjorth, Danial Langeroodi, Tom Broadhurst, Noah Rogers, Ismael Perez-Fournon, Ryan J. Foley, Saurabh Jha, Alexei V. Filippenko, Lou Strolger, Justin Pierel, Frederick Poidevin, and Lilan Yang (2023) A magnified compact galaxy at redshift 9.51 with strong nebular emission lines Science DOI: 10.1126/science.adf5307
Para saber más:
La estrella individual más lejana jamás vista
Las lentes gravitacionales permiten observar la aparición de una supernova varias veces
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La serendipia de la galaxia enana más lejana se ha escrito en Cuaderno de Cultura Científica.
Desmitificando: El maíz transgénico y la mariposa monarca
monarca
El cultivo de maíz modificado genéticamente que sintetiza proteínas con capacidad insecticida de la bacteria Bacillus thuringiensis, el llamado maíz ttrasngénico Bt, ha aumentado exponencialmente desde las primeras variedades sembradas en 1996 en Estados Unidos y un año después en Canadá. La toxina que producen es la Cry1Ab que controla los insectos barrenadores del tallo del maíz de las especies de lepidóptero Ostrinia nubilalis y Diatraea saccharalis. Las proteínas cry se unen a receptores específicos de las membranas de las células epiteliales del tubo digestivo medio de insectos y las destruyen. Si las células no tienen receptores de proteínas cry no son afectadas por ellas. La historia del desarrollo de este maíz con el gen con capacidad insecticida la cuenta una de las participantes, Laura Privalle, en los laboratorios de la compañía CIBA-Geigy en los años ochenta.
En la revisión de Matías García y sus colegas del Centro de Investigaciones Biológicas Margarita Salas del CSIC en Madrid, se menciona que hasta el momento, en 2023, se han comercializado 210 tipos de maíz transgénico con resistencia a insectos y, en concreto, son 181 contra lepidópteros y 126 contra coleópteros.
El maíz Bt ha sido, como he mencionado, ampliamente cultivado en muchos países debido a su eficacia contra algunas plagas dañinas, lo que hace que sea competitivo además de suponer beneficios económicos, sociales y ambientales. beneficios sociales. En la Unión Europea (UE), se autorizaron solo dos variantes de maíz Bt, ambas productoras de Cry1Ab, para su cultivo hasta 2023: Bt176 (de la empresa Syngenta) de 1998 a 2005, y MON810 (de Monsanto) desde 2003. La variante de Syngenta se retiró en 2006 y, desde entonces, solo queda la de Monsanto. Entre 2011 y 2021 se cultivaron en la UE de 100000 a 130000 toneladas anuales de esta variante, un 0.05% de los cultivos transgénicos a nivel global.
De los 27 países que componen la Unión Europea, ocho han cultivado maíz Bt en algún momento: España, Portugal, Francia, Alemania, República Checa, Eslovaquia, Polonia y Rumanía. Sin embargo, desde 2017 solo España y Portugal han plantado esta variante de maíz y solo España lo ha cultivado de manera continua desde 1998, durante 24 años desde entonces hasta 2021. Donde más se siembra es en Cataluña, seguida de Aragón y Navarra, por ser las zonas donde las plagas que se controlan con esta variante son más abundantes.
En el estudio de Matías García y su grupo, se indica que el seguimiento a partir de bioensayos de laboratorio muestra que hasta 2021 no se ha producido una disminución de la susceptibilidad a Cry1Ab en estas plagas, confirmando que el maíz Bt sigue siendo eficaz. En la revisión a nivel global publicada este año por Bruce Tabashnik y sus colegas, de la Universidad de Arizona en Tucson, han encontrado un caso de resistencia a Ostrinia nubilalis, en Canadá, y dos casos a Diatraea saccharalis, ambos en Argentina.

El debate sobre la utilización del maíz Bt comenzó en 1999 con la publicación de un breve artículo, firmado por John Losey y su grupo, de la Universidad Cornell de Ithaca, en Nature. Después de ensayar los efectos del polen del maíz transgénico sobre larvas de la mariposa monarca Danaus plexippus, muy conocida en Estados Unidos por su gran migración. Después de estudiarlo en el laboratorio llegaron a la conclusión de que había un efecto significativo del polen sobre la supervivencia de las larvas de la monarca, además de cambios en su conducta para la alimentación y un menor crecimiento. Los autores pedían más datos para evaluar los riesgos asociados con el uso de transgénicos y compararlos con los que provocan los que plantea el uso de pesticidas y otras tácticas de control de plagas.
Dos años más tarde, en 2001, Richard Hellmich y su equipo, del Departamento de Agricultura, ensayaron los efectos del maíz Bt con la variante Cry1Ab sobre larvas de la mariposa monarca y concluyeron que no tiene efectos agudos sobre ellas en entornos en el campo. Y en 2002 se publicó en Inglaterra una nueva revisión, por el grupo de Angharad Gatehouse, de la Universidad de Newcastle, llega a la misma conclusión: el cultivo de las variedades comerciales de maíz Bt (Monsanto y Novartis) no supone un riesgo significativo para las poblaciones de la mariposa monarca y, en general, para insectos que no son el blanco de la capacidad insecticida de Cry1Ab, incluyendo a los polinizadores. Para 2002 la siembra de maíz Bt ha crecido más de un 40% mientras que las poblaciones de la mariposa monarca han aumentado un 30%. Para el Departamento de Agricultura de Estados Unidos, según el resumen de Mike Mendelsohn y sus colegas de la Agencia de Protección Ambiental (EPA), el maíz Bt no presenta riesgos para el ambiente ni para la salud humana.
Y en el meta-análisis de 47 experimentos de campo publicado en 2007 por Michelle Marvier y sus colegas, de la Universidad Santa Clara de California, los autores concluyen que los invertebrados que no son el objetivo de la capacidad insecticida del maíz Bt son más abundantes en los campos de este cultivo que en los tratados con insecticidas.
Referencias:
García, M. et al. 2023. Monitoring insect resistance to Bt maize in the European Union: Update, challenges, and future prospects. Journal of Economic Entomology doi: 10.1093/jee/toac154.
Gatehouse, A.M.R. et al. 2002. The case of monarch butterfly: a verdict is returned. Trends in Genetics 18: 249-251.
Hellmich, R.L. et al. 2001. Monarch larvae sensitivity to Bacillus thuringiensis-purified proteins and pollen. Proceedings of the National Academy of Sciences USA 98: 11925-11930.
Losey, J.E. et al. 1999. Transgenic pollen harms monarch larvae. Nature 399: 214.
Marvier, M. et al. 2007. A meta-analysis of effects of Bt cotton and maize on nontarget invertebrates. Science 316: 1475-1477.
Mendelsohn, M. et al. 2003. Are Bt crops safe? Nature Biotechnology 21: 1003-1009.
Privalle, L.S. 2017. The story behind the approval of the first Bt maize product. En “Women in sustainable agriculture and food biotechnology”, p. 71-83. Ed. por L.S. Privalle. Springer Int. Publ. Suiza.
Tabashnik, B.E. et al. 2023. Global patterns of insect resistance to transgenic Bt crops: The first 25 years. Journal of Economic Entomology doi: 10.1093/jee/toac183.
Wikipedia. 2023. Genetically modified maize. March 25.
Para saber más:
La historia de Cruz Gallastegui y el maíz híbrido
Ciencia, creencias, política y matar al mensajero
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Desmitificando: El maíz transgénico y la mariposa monarca se ha escrito en Cuaderno de Cultura Científica.
El juego militar francés
En esta entrada del Cuaderno de Cultura Científica vamos a hablar de un interesante juego de estrategia para dos jugadores que fue descrito y estudiado en un libro maravilloso, como es Recreaciones matemáticas (que tenemos la suerte de que esté traducido al castellano, aunque no sea fácil de conseguir en estos momentos), del matemático francés Édouard Lucas (1842-1891) y posteriormente recuperado por el gran divulgador de las matemáticas Martin Gardner (1914-2010), en su columna en la revista Scientific American de juegos matemáticos, en 1963. Se trata del juego militar francés, que recibe también otros nombres como el juego de los soldados, la liebre y los sabuesos, o el halcón y las palomas.

En el volumen 3 de Recreaciones matemáticas (publicado originalmente, de forma póstuma, en 1893), Édouard Lucas habla de un juego con cierta fama en los círculos militares franceses, que recibe el nombre el juego militar, e incluso menciona un evento relacionado con el mismo que ocurrió en un famoso café de París, el café de la Regencia, un sitio habitual de los jugadores y apasionados del ajedrez. Aunque Lucas ya había publicado esa información en el artículo Recreaciones científicas, el juego militar de la revista científica La Nature en el año 1887.

En el citado artículo, así como en el volumen 3 de Recreaciones matemáticas, sobre el juego militar Lucas escribe que el juego aparece mencionado en una revista militar, el Bulletin de la Réunion des officers, de agosto de 1886, otorgándose la autoría del juego a un militar francés, Louis Dyen. Lucas incluye el siguiente párrafo de dicha publicación:
El Sr. Louis Dyen, subteniente retirado, caballero de la Legión de honor, ha dedicado su tiempo libre a la creación de un juego militar que ha ofrecido a la biblioteca y que, por sus variadas combinaciones, da una idea sobre las estratégicas maniobras empleadas por tres brigadas de caballería para cortar las comunicaciones de un cuerpo de ejercito que están asediando. Bajo una apariencia de las más simples, el juego militar presenta una variedad de combinaciones muy complicadas. La partida material del juego se compone de un tablero, parecido al del ajedrez, en el que hay 11 casillas, unidas a sus vecinas por otras tantas líneas rectas, que marcan otras tantas etapas que cada brigada debe superar para cortar al cuerpo de ejército sus comunicaciones y que el cuerpo de ejército dbe superar para evitar ser bloqueado. El cuerpo del ejército saldrá victorioso cuando, tras un número de etapas fijado con anterioridad, no se haya podido inmovilizar; es vencido en caso contrario. Menos difícil que el ajedrez el juego militar es más instructivo y merece ser recomendado como una distracción de las más útiles a los oficiales y a los suboficiales.
Sin embargo, la autoría del juego no está clara. El propio Édouard Lucas escribe la siguiente nota: “Según Martin Gall [que es un seudónimo del campeón de ajedrez francés Jules Arnous de Riviére (1830–1905)], cronista de juegos de combinación del Journal Gil Blas, el inventor del Juego militar sería el Sr. Constant Roy, de Saint-Mandé (Seine) [que son unos suburbios de París]”. El ingeniero francés Constant Roy patentó este juego en enero de 1886 (patente número 173.665) con el nombre Système de jeu dit le stratagème militaire (Sistema de juego llamado la estratagema militar).


Aprendiendo a jugar
Pero vayamos con las reglas del juego. El tablero consta de 11 casillas, cada una de las cuales está unida por aristas con las casillas adyacentes. Como se puede observar en las imágenes anteriores, las 9 casillas del centro, que forman un cuadrado y están unidas como en el tres en raya (que Lucas numera del 1 al 9, como se ve en la siguiente imagen), mientas que hay 2 casillas más (una la casilla 0 y otra la casilla a, en la siguiente imagen) situadas cerca de dos lados opuestos del cuadrado central y unidas a las tres casillas de cada lado cercano. Y hay cuatro fichas, tres se corresponden con las torres (imagen de Lucas) o las brigadas de caballería (versión de Louis Dyen) en la versión militar o con los sabuesos o palomas (fichas blancas en el siguiente tablero) en las otras versiones, y otra ficha que se corresponde con el cuerpo del ejército, en la versión militar, o con la liebre o el halcón (ficha negra en el siguiente tablero), en las otras versiones.

El objetivo del juego es el siguiente, para los sabuesos (fichas blancas) bloquear a la liebre (ficha negra) y para la liebre escapar de los sabuesos.
Las reglas del juego son las siguientes:
1. En la posición inicial los sabuesos (fichas blancas) están en un extremo del tablero (véase la siguiente imagen), por ejemplo, en las casillas 1, a y 3 de la notación de Lucas, mientras que la liebre (ficha negra) está en la casilla adyacente a las otras tres, la casilla 2 en la notación de Lucas.
2. Hay dos jugadores, uno juega con las fichas blancas (los sabuesos) y el otro con la ficha negra (la liebre), y cada uno de ellos mueve, por turnos, una de sus fichas hacia una casilla adyacente. Y empieza el jugador que juega con la liebre.
3. Las fichas blancas solo se pueden mover lateralmente o hacia adelante, mientras que la ficha negra se mueve en cualquier dirección.
4. Gana el jugador con juega con los sabuesos si estos bloquean a la liebre, es decir, la ficha negra no puede moverse hacia ninguna casilla adyacente, ya que están las fichas blancas bloqueándola; en caso contrario, es decir, si los sabuesos han sido incapaces de bloquear a la liebre, gana el jugador que juega con la liebre.

Pero, como os suelo decir cada vez que hablamos de juegos, lo primero que os recomiendo es
¡Jugar, jugar y jugar!
En el tercer volumen del libro Winning ways for your mathematical plays, de Elwyn R. Berlekamp, John H. Conway y Richard K. Guy, se utiliza un tablero diferente (con casillas que son cuadrados y octógonos, y la adyacencia se da cuando dos casillas comparten un lado), pero que esencialmente es el mismo.
Como menciona Édouard Lucas en el prospecto del juego se menciona, entre otras cosas, lo siguiente:
Este nuevo juego, basado en la estrategia militar y que parece, a primera vista, de una gran simplicidad, presenta, al contrario, movimientos difíciles y exige atención continua.
Los jugadores se encuentran pronto en presencia de combinaciones incalculables de defensa y de paso, dependiendo siempre del ataque y de la réplica, lo que permite compararlo con el juego del ajedrez.
A pesar de lo que dice el prospecto de que hay “combinaciones incalculables de defensa y de paso”, más bien el número de posiciones distintas del juego se pueden calcular con facilidad y no es un número excesivamente grande.
El cálculo del número de posiciones distintas del juego es un sencillo cálculo combinatorio. Por una parte, podemos pensar de cuántas formas pueden estar colocadas las fichas blancas (las torres o sabuesos), que son tres, sobre el tablero, que consta de 11 casillas. La respuesta es el número combinatorio C(11, 3), “11 sobre 3”, el número de formas de elegir 3 objetos (en este caso, casillas donde colocar las tres fichas blancas) de entre un total de 11 objetos (las casillas del juego) posibles. Recordemos que el número combinatorio C(n, k) (puede leerse sobre los números combinatorios en cualquier libro de combinatoria, aunque también podéis leer sobre ellos en cualquiera de mis dos últimos libros, La gran familia de los números, cuyo capítulo 6 está dedicado a familias de números que surgen del campo de la combinatoria, o Las matemáticas como herramienta de creación artística, que en su capítulo 4 habla de permutaciones y combinaciones en matemáticas y en arte contemporáneo) es
donde la operación factorial está definida como
Por lo tanto, el número de formas en las que pueden estar colocadas las fichas blancas sobre el tablero son C(11, 3) = 165.
Por otra parte, para cada una de esas 165 posiciones distintas de las tres fichas blancas, la ficha negra tiene 8 posibles casillas en las que estar colocadas, luego el número de posiciones distintas del juego, de formas de colocar las tres fichas blancas y la ficha negra son 165 por 8, esto es, 1.320 posiciones distintas del juego.
Aunque puede ocurrir que dos posiciones, aunque sean distintas, sean esencialmente la misma, ya que son simétricas respecto al eje que une las casillas exteriores a y 0, como las dos que se muestran en la siguiente imagen.
El prospecto del juego, después de lo anterior, continúa así:
Recompensas de cien francos son ofrecidas por el inventor a las personas que ganen tantas partidas como él mismo, y recompensas de mil francos a las que ganen más de la mitad.
Eso nos hace sospechar que seguramente existe alguna estrategia ganadora para alguno de los dos jugadores, el que juega con los sabuesos o el que juega con la liebre. De hecho, como hemos comentado al inicio de esta entrada del Cuaderno de Cultura Científica el matemático Édouard Lucas ya analizó el juego, mostrando que existe una estrategia ganadora, en concreto, para las fichas blancas.
En primer lugar, Lucas analiza 6 finales de partida (que llama partidas elementales y denomina con las letras A, B, C, D, E y F), donde mueven las fichas blancas, en alguno de los cuales terminará la partida si las blancas juegan según la estrategia que veremos más adelante.
La partida elemental A
En este final de partida, que vemos representado en la siguiente imagen, mueven las fichas blancas y ganan en un solo movimiento. Basta trasladar la ficha blanca de la casilla 5 a la 8 y la ficha negra quedará bloqueada en la casilla 0, sin posibilidad de movimiento.

Podríamos describir ese final de partida como 579 0 789, donde los grupos de tres caracteres indican las posiciones de las tres fichas blancas después de que hayan movido las blancas y el grupo de un solo carácter indica la posición de la ficha negra después de que haya movido.
La partida elemental B
De nuevo mueven las fichas blancas y ganan en un solo movimiento, pasando la ficha blanca de la casilla 8 a la 7. Utilizando la anterior notación, la descripción de la partida sería 158 4 157.

Esta partida nos sirve para explicar que podríamos considerar la partida elemental simétrica (es decir, las fichas blancas estarían en las casillas 3, 5 y 8. mientras que la ficha negra estaría en la casilla 6), cuya solución es idéntica (la ficha de la casilla 8 pasa a la casilla 9). En todo el estudio que hace Lucas, y que estamos explicando aquí, evita repetir el análisis para las posiciones simétricas.
La partida elemental C
Para esta partida elemental donde dos de las fichas blancas están en las casillas 7 y 9, la otra ficha blanca puede estar en cualquiera de las casillas 1, 2, 3, 4 o 6 (que en la siguiente imagen hemos indicado dando un poco de color amarillo a la ficha), mientras que la ficha negra está en la casilla 8.
Las blancas mueven y ganan en dos movimientos. Se mueve la ficha blanca que está en la tercera casilla (una de las casillas 1, 2, 3, 4 o 6) a la casilla del centro, la casilla 5, luego a la casilla negra no le queda más remedio que ir a la casilla 0, y llegamos a la partida elemental A.

Según la notación de Lucas, asumiendo que la tercera ficha blanca estuviese en la casilla 1 (de forma similar para el resto), la partida elemental C se describiría como 179 8 579 0 789.
La partida elemental D
Otro sencillo final de partida en el que mueven las blancas y ganan en dos movimientos. Basta llevar la ficha de la casilla 6 a la 9, y estaremos en la partida elemental A. La descripción de la misma sería 567 8 579 0 789.

La partida elemental E
Esta partida elemental es, de nuevo, múltiple, como la partida C. Las dos primeras fichas blancas están en las casillas 5 y 7, mientras que la tercera estará en una se las siguientes casillas, 1, 2, 3, 4 o 6, como antes, mientras que la ficha negra estará en la casilla 0. Ahora, las fichas blancas necesitan tres movimientos para ganar. Las fichas blancas mueven de 5 a 9, la ficha negra solo puede mover a 8, quedando la posición de la partida elemental C.

La partida elemental F
En esta posición las fichas blancas mueven y ganan en 3 o 4 movimientos, en función de los movimientos de la negra. Para empezar las blancas mueven de la casilla 1 a la 4, y la ficha negra, que está en la casilla 7, tiene dos opciones, mover a la casilla 8 o a la casilla 0. En función del movimiento de la ficha negra, las blancas moverán en consecuencia. Si la ficha negra pasa a la casilla 8, será la posición simétrica a la partida elemental D, y las blancas ganarán en dos movimientos más (las blancas mueven de 4 a 7, la negra retrocede a 0 y las blancas mueven de 5 a 8, quedando bloqueada la negra), mientras que si la ficha negra pasa a la casilla 0, las blancas mueven de 5 a 7 y la ficha negra de 0 a 8 quedando la posición elemental C y las blancas ganan en dos movimientos (las blancas mueven de 4 a 5, las negras retroceden a la casilla 0 y las blancas la bloquean moviendo de 5 a 8).

Las dos partidas posibles serían 159 7 459 8 579 0 789 y 159 7 459 0 479 8 579 0 789, que Édouard Lucas denota de la siguiente manera, con una linea vertical, para reflejar las dos opciones de movimiento de la ficha negra.

Como hemos explicado más arriba, en la posición inicial la ficha negra está en la casilla 2, mientras que las fichas blancas están en las casillas a, 1 y 3. El primer movimiento de la ficha negra es obligado, de la casilla 2 a la casilla 5 y ahí las blancas, aunque tienen diferentes opciones deberían mover de la casilla a a la casilla 2. Luego el inicio de la partida sería 2 a13 5 123. En el siguiente recuadro se recoge la tabla del análisis del juego realizada por Lucas para mostrar que ganan las fichas blancas si mueven convenientemente. Las letras, de la A a la F, indican que hemos llegado a la partida elemental con ese nombre, mientras que el símbolo del $ nos indica que más arriba en la tabla ya se ha producido esa situación y que, por tanto, se continúa de igual forma.

Para comprender bien la estrategia ganadora y disfrutar del análisis de Lucas lo mejor es ir reproduciendo las diferentes jugadas que nos describe el anterior recuadro.
Por cierto, como podemos observar las fichas blancas ganan en doce movimientos como mucho.
VariacionesPara terminar podemos plantar algunas variaciones. La primera sería jugar empezando con la ficha negra en otra posición distinta. Por ejemplo, un inicio de partida bastante frecuente es con la ficha negra en el otro lado del tablero, en la casilla 0, y el jugador que empieza primero se decide a suertes o se va cambiando. Por ejemplo, en la siguiente imagen se muestra el tablero de la empresa de juegos Thinkfun que plantea esta alternativa.

Existen diferentes alternativas al tablero del juego. Algunas de las cuales las mostraremos a continuación para quienes estén interesados en jugar a ellas. La primera es un tablero similar al anterior, pero con tan solo 9 casillas, se han eliminado dos de la parte central (véase la siguiente imagen).

Existe otra versión con 12 casilla, que mostramos en la siguiente imagen.

Incluso un tablero circular de 13 puntos (véase la siguiente imagen), entre muchos otros que ya no incluimos en esta entrada.

Bibliografía
1.- Édouard Lucas, Recreaciones Matemáticas, vol. 1 – 4, Nivola, 2007, 2008.
2.- Peter Michaelsen, Haretavl – Hare and Hounds as a board game, en el libro Sport Und Spiel Bei den Germanen. De Gruyter, pp. 197 – 216, 2013.
3.- Raúl Ibáñez, La gran familia de los números, Libros de la Catarata, 2021.
4.- Raúl Ibáñez, Las matemáticas como herramienta de creación artística, Libros de la Catarata, 2023.
5.- Michel Boutin, Les jeux dans les collections du Conservatoire national des arts et métiers, 8-Le Jeu militaire (8e partie), Le Vieux Papier, no. 435, pp 213-222, 2020.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El juego militar francés se ha escrito en Cuaderno de Cultura Científica.
El electrón es tan redondo que descarta nuevas partículas
Si la carga del electrón no fuera perfectamente redonda, podría indicar la existencia de partículas ocultas. Una nueva medición se acerca a la perfección.
Un artículo de Zack Savitsky. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

Imagina un electrón como una nube esférica de carga negativa. Si esa bola fuera mínimamente menos redonda ello podría ayudar a explicar las lagunas fundamentales en nuestra comprensión de la física, incluido por qué el universo contiene algo en lugar de nada.
Dado lo que está en juego, una pequeña comunidad de físicos ha estado buscando obstinadamente cualquier asimetría en la forma del electrón durante las últimas décadas. Los experimentos son ahora tan sensibles que, si un electrón fuera del tamaño de la Tierra, podrían detectar una protuberancia en el Polo Norte de la altura de una sola molécula de azúcar.
Ya tenemos los últimos resultados: El electrón es más redondo que eso.
La medición actualizada decepciona a cualquiera que tenga esperanzas de encontrar señales de una nueva física. Aun así, ayuda a los teóricos a restringir sus modelos para qué partículas y fuerzas desconocidas pueden faltar en la imagen actual.
“Estoy seguro de que es difícil ser el experimentador que mide cero todo el tiempo, [pero] incluso un resultado nulo en este experimento es realmente valioso y realmente nos enseña algo”, afirma Peter Graham, físico teórico de la Universidad de Stanford. El nuevo estudio es «una hazaña tecnológica y también muy importante para la nueva física».
Cazando elefantes furtivamenteEl modelo estándar de física de partículas es nuestra mejor lista de todas las partículas que existen en el zoológico del universo. La teoría ha aguantado excepcionalmente bien las pruebas experimentales durante las últimas décadas, pero deja algunos «elefantes en la habitación» serios, afirma Dmitry Budker, físico de la Universidad de California, Berkeley.
Por un lado, nuestra mera existencia es prueba de que el Modelo Estándar está incompleto, ya que según la teoría, el Big Bang debería haber producido partes iguales de materia y antimateria que se habrían aniquilado entre sí.
En 1967, el físico soviético Andrei Sakharov propuso una posible solución a este enigma en concreto. Conjeturó que debe haber algún proceso microscópico en la naturaleza que se vea diferente marcha atrás; de esa manera, la materia podría llegar a dominar a la antimateria. Unos años antes, los físicos habían descubierto esa situación en la desintegración de la partícula kaón. Pero eso por sí mismo no era suficiente para explicar la asimetría.
Desde entonces, los físicos han estado a la caza de indicios de nuevas partículas que podrían inclinar aún más la balanza. Algunos lo hacen directamente, utilizando el Gran Colisionador de Hadrones, a menudo promocionado como la máquina más complicada jamás construida. Pero en las últimas décadas, ha surgido una alternativa comparativamente de bajo presupuesto: observar cómo las partículas hipotéticas alterarían las propiedades de las partículas conocidas. “Ves huellas [de nueva física], pero en realidad no ves lo que las hizo”, afirma Michael Ramsey-Musolf, físico teórico de la Universidad de Massachusetts en Amherst.
Una huella potencial de este tipo podría aparecer en la redondez del electrón. La mecánica cuántica dicta que dentro de la nube de carga negativa del electrón, otras partículas están constantemente parpadeando dentro y fuera de la existencia. La presencia de ciertas partículas «virtuales» más allá del modelo estándar, del tipo que podría ayudar a explicar la supremacía primordial de la materia, haría que la nube de electrones pareciese un poco más con forma de huevo. Una punta tendría una carga un poco más positiva, la otra un poco más negativa, como los extremos de un imán. Esta separación de carga se conoce como momento dipolar eléctrico (MDE).
El modelo estándar predice un MDE extremadamente diminuto para el electrón, casi un millón de veces más pequeño de lo que pueden medir las técnicas actuales. Por lo tanto, si los investigadores detectaran una forma oblonga usando los experimentos de hoy, eso revelaría señales definitivas de nueva física y apuntaría hacia lo que podría faltar en el modelo estándar.
Para encontrar el MDE del electrón los científicos buscan un cambio en el espín de la partícula, una propiedad intrínseca que define su orientación. El espín del electrón puede invertirse fácilmente mediante campos magnéticos, y su momento magnético sirve como una especie de manivela. El objetivo de estos experimentos de laboratorio es tratar de invertir el espín pero usando campos eléctricos, con el MDE como manivela eléctrica.
“Si el electrón es perfectamente esférico, no tiene manivelas que asir con las que ejercer un par”, explica Amar Vutha, físico de la Universidad de Toronto. Pero si hay un MDE considerable, el campo eléctrico lo usará para tirar del espín del electrón.
En 2011, investigadores del Imperial College de Londres demostraron que podían amplificar este efecto de manivela al anclar el electrón a una molécula pesada. Desde entonces, dos equipos principales se han ido superando uno al otro cada pocos años con mediciones cada vez más precisas.
Un experimento, ahora en la Universidad de Northwestern, se conoce con el nombre de Advanced Cold Molecule Electron MDE, o ACME (un acrónimo inspirado en los viejos dibujos animados del Correcaminos). Otro tiene su sede en el instituto JILA de la Universidad de Colorado. Las mediciones de los equipos competidores han aumentado en sensibilidad en un factor de 200 en la última década, y aún no hay MDE a la vista.
“Es una especie de carrera, excepto que no tenemos idea de dónde está la línea de meta, o incluso de si hay una línea de meta”, afirma David DeMille, físico de la Universidad de Chicago y uno de los líderes del grupo ACME.
Una carrera hacia lo desconocidoPara seguir avanzando, los investigadores quieren dos cosas: más mediciones y un tiempo de medición más prolongado. Los dos equipos toman enfoques opuestos.
El grupo ACME, que estableció el récord anterior en 2018, prioriza la cantidad de mediciones. Disparan un haz de moléculas neutras a través del laboratorio, midiendo decenas de millones de ellas cada segundo, pero solo durante unos pocos milisegundos cada una. El grupo JILA mide menos moléculas, pero durante más tiempo: atrapan unos pocos cientos de moléculas a la vez y luego las miden durante un máximo de tres segundos.
La técnica de captura de iones, desarrollada por primera vez por Eric Cornell, físico de la Universidad de Colorado en Boulder, que dirige el grupo JILA, fue «un gran avance conceptual», afirma DeMille. “Muchas personas en el campo pensaron que esto era una locura. Verlo llegar a buen término es realmente emocionante”.
Tener dos configuraciones experimentales distintas que puedan cotejarse entre sí es «absolutamente crucial», explica Budker. “No tengo palabras para expresar mi admiración por esta inteligencia y persistencia. Es simplemente la mejor ciencia que existe”.
La técnica de Cornell se presentó por primera vez en 2017 con moléculas de fluoruro de hafnio. Desde entonces, las mejoras técnicas han permitido que el grupo supere el récord de ACME por un factor de 2,4, como se describe en una prepublicación reciente dirigida por la antigua alumna de posgrado de Cornell, Tanya Roussy. El equipo rehusó hacer comentarios mientras su artículo está en revisión en Science.
Medir la redondez del electrón con mayor precisión equivale a buscar nueva física en escalas de energía más altas o buscar signos de partículas más pesadas. Este nuevo límite es sensible a energías superiores a aproximadamente 1013 electronvoltios, más de un orden de magnitud más allá de lo que el LHC puede medir actualmente. Hace algunas décadas, la mayoría de los teóricos esperaban que se descubrirían indicios de nuevas partículas significativamente por debajo de esta escala. Cada vez que sube el listón, algunas ideas quedan descartadas.
“Tenemos que seguir lidiando con lo que implican estos límites”, afirma Ramsey-Musolf. “Nada ha muerto todavía, pero está subiendo la temperatura”.
Mientras tanto, la comunidad de la MDE del electrón sigue adelante. En futuras iteraciones experimentales, los grupos rivales pretenden encontrarse en algún punto intermedio: el equipo de JILA planea hacer un haz lleno de iones para aumentar su número, y el equipo de ACME quiere aumentar la longitud de su haz para incrementar su tiempo de medición. Vutha incluso está trabajando en enfoques «totalmente locos», como congelar moléculas en bloques de hielo, con la esperanza de subir la sensibilidad varios órdenes de magnitud de un golpe.
El sueño es que estos experimentos MDE sean los primeros en detectar signos de una nueva física, lo que provocaría una ola de investigaciones de seguimiento por parte de otros experimentos de medidas de precisión y de colisionadores de partículas más grandes.
La forma del electrón es «algo que nos enseña aspectos totalmente nuevos y diferentes de las leyes fundamentales de la naturaleza», afirma Graham. “Hay un gran descubrimiento a la espera. Soy optimista de que lo haremos”.
El artículo original, The Electron Is So Round That It’s Ruling Out Potential New Particles, se publicó el 10 de abril de 2023 en Quanta Magazine.
Traducido por César Tomé López
El artículo El electrón es tan redondo que descarta nuevas partículas se ha escrito en Cuaderno de Cultura Científica.
Un nuevo mapa del vulcanismo de Venus
mapa del vulcanismo
El pasado 20 de marzo hablábamos en el artículo ¿Es esta la prueba definitiva de que Venus tiene volcanes activos? de como una revisión de pares de imágenes de radar de la superficie del planeta tomadas por la misión Magellan en la década de los 90 parecía mostrar el antes y el después de una erupción volcánica ocurrida durante la propia misión y que había pasado desapercibida hasta ahora.
¿Por qué entonces no se había descubierto antes? En estos treinta años ha habido una verdadera revolución en la informática, tanto a nivel de potencia de computación como de capacidad de almacenamiento, que nos facilita trabajar con enormes cantidades de datos desde prácticamente cualquier ordenador. Esto se suma a los sistemas de información geográfica, con cada vez mayor permeabilidad no solo en el estudio de nuestro planeta, sino también en el de cualquier superficie de nuestro Sistema Solar, que nos permiten analizar miles de imágenes, hacer cálculos sobre estas e, incluso, comparar el antes y el después de una manera mucho más sencilla y rutinaria.

Obviamente, esto no quiere decir que sea una tarea fácil, ya que Venus tiene una superficie muy extensa, apenas un ~10% menor que la de nuestro planeta, por lo que encontrar cambios entre parejas de imágenes puede ser como buscar una aguja en un pajar. Una tarea que viene dificultada también por la resolución de las imágenes, que requiere de que ocurran grandes cambios -las imágenes globales de Venus tomadas por la Magellan están en el entorno de los 75 metros por píxel- para que puedan ser vistos con claridad.
Pero un nuevo estudio publicado a finales del mes de marzo puede facilitar mucho esta tarea, ya que ha servido como excusa para crear el atlas de volcanes más detallado del planeta Venus. El primer dato sorprendente es la gran cantidad de formas volcánicas reconocibles, con unas 85.000 en total. Eso sí, estos científicos piensan que es una estimación relativamente conservadora y que podrían ser muchos más, pero que debido a la resolución de las imágenes los edificios volcánicos más pequeños han pasado desapercibidos.
¿Son muchos o pocos volcanes? Quizás si lo comparamos con la Tierra nos pueden parecer muchos, ya que si por ejemplo contamos solo los volcanes que han mostrado actividad durante el Holoceno -la época del tiempo geológico en la que vivimos actualmente y que comenzó hace unos aproximadamente 11.700 años- según la base de datos de la Smithsonian Institution, una de las más completas, nos encontramos ante algo más de 12.000 volcanes.

¿Cómo es posible? Bueno, en Venus y desde la distancia no es tan fácil discriminar la posible edad de estos edificios volcánicos, por lo que podríamos estar viendo una acumulación de estos a lo largo del tiempo y no solo de los activos. Pero hay algo más: y es que Venus, al carecer de océanos, nos permite ver toda su superficie, mientras que es posible que en la Tierra una gran cantidad de la actividad volcánica siga permaneciendo invisible a nuestros ojos por la gran profundidad de los océanos.
El segundo dato sorprendente es que el 99% de estas formas volcánicas tienen menos de 5 kilómetros de diámetro y que hay una escasez de volcanes comprendidos entre los 20 y los 100 kilómetros de diámetro, lo que podría darnos alguna pista sobre cómo funciona el suministro de magma hacia la superficie y la tasa de erupciones o de actividad volcánica, algo que a su vez nos podría dar pistas para hacer modelos sobre el interior del planeta.
Esta inmensa base de datos puede servir también a los científicos para estudiar si existe alguna relación entre las concentraciones de volcanes y las distintas estructuras geológicas que existen en la superficie de Venus, ya que mientras en nuestro planeta una gran parte de la actividad volcánica ocurre en los límites de las placas tectónicas, en Venus, al no existir tectónica de placas, la distribución espacial de estos volcanes podría seguir otro tipo de patrones espaciales.
Pero sin duda también servirá para planificar detalles de las futuras misiones a Venus, como EnVision y VERITAS, que están equipadas con radares que tomarán imágenes de su superficie, si va todo según lo previsto, en la próxima década, indicándonos a que puntos de su superficie tenemos que mirar con mayor atención para confirmar si Venus sigue siendo un planeta activo.
Referencias:
Hahn, R.M. and Byrne, P.K. (2023) “A morphological and spatial analysis of volcanoes on Venus,” Journal of Geophysical Research: Planets, 128(4). doi: 10.1029/2023je007753.
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Un nuevo mapa del vulcanismo de Venus se ha escrito en Cuaderno de Cultura Científica.
Testosterona y paternidad

En una investigación en Filipinas midieron los niveles de testosterona en sangre de más de seiscientos hombres jóvenes a lo largo de casi un lustro. Observaron, por un lado, que aquellos con mayores niveles de la hormona al comienzo del estudio tenían, cuatro años y medio después, una mayor probabilidad de haberse emparejado y haber sido padres que los hombres con menor nivel.
Ese resultado no debe sorprender a nadie. La testosterona tiene efectos diversos en los varones; en la pubertad es la responsable del desarrollo de buen número de caracteres sexuales secundarios, como la aparición del vello facial y corporal, el agravamiento del tono de voz, el crecimiento de la nuez de Adán, la producción de musculatura, el crecimiento del pene, la producción de espermatozoides, y la configuración facial angulosa. En la edad adulta estimula la libido, predispone a ser más agresivos con los semejantes e induce a cortejar a la persona con la que uno se quiere emparejar. Es, por tanto, la hormona que promueve el emparejamiento y la competencia con otros hombres.
Más interesante resultó ser otro de los resultados de la investigación. Porque los jóvenes que participaron en el estudio tras ser padres experimentaban fuertes descensos en los niveles de testosterona; y esos descensos eran significativamente mayores que los que, por efecto de la edad, experimentaban los hombres que no habían sido padres. Y por si todo esto fuera poco, el descenso en la testosterona fue mayor en los padres que dedicaban mayor atención a sus hijos que en los que casi no se ocupaban de ellos.
En las especies en las que los machos asumen una parte de la tarea de cuidar a la prole, o contribuyen con su aportación de alimento a su crianza, su éxito reproductivo depende de la magnitud del esfuerzo que dedican a esa tarea. Y dado que el tiempo y otros recursos son limitados, los que se dedican a tratar de aparearse con otras parejas reproductivas no se pueden destinar al cuidado de la progenie, por lo que entre esos dos cometidos se establece un conflicto. Es decir, cuantos más recursos se dedican al cuidado de la prole, menos pueden destinarse a buscar parejas reproductivas adicionales. Parece, por tanto, lógico que la testosterona, dado su papel en la fisiología y psicología del emparejamiento, cumpla un papel importante en la regulación de esa alternativa.
En las aves, efectivamente, se ha demostrado que la testosterona cumple ese relevante papel. Sin embargo, hasta este estudio en Filipinas, en los mamíferos no se había podido determinar una relación clara entre los términos en los que se establece la disyuntiva entre emparejamientos múltiples y el cuidado de la prole, aunque había varias observaciones que no se habían considerado suficientemente concluyentes.
Así pues, si la testosterona se mantuviese en niveles altos tras la paternidad, aumentaría la probabilidad de que el varón dedicase demasiado tiempo y energía a buscar otra posible pareja, y ello iría en detrimento de la atención a sus hijos. De ese modo, la posible ganancia en términos de éxito reproductivo que pudiera derivarse de tener hijos con la nueva pareja, se vería contrarrestada por la posible pérdida que se produciría por disminuir su contribución al cuidado y atención de los que ya tiene. Por lo tanto, a través de sus efectos sobre la testosterona, la paternidad hace que disminuya la probabilidad de que los varones busquen otras parejas reproductivas y dediquen esfuerzo y recursos a ello.
Fuente:
Gettler, L. T., McDade, T. W., Feranil, A. B., Kuzawa, C. W. (2011) Longitudinal evidence that fatherhood decreases testosterone in human males. Proceedings of the National Academy of Sciences 2011, 108 (39): 16194-16199.
Para saber más:
Testosterona
La hormona de la maternidad y de la paternidad
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Testosterona y paternidad se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2022: Soy un planeta, una tetera, una cuchara y un cucharón
Definiciones que parecen evidentes no lo son tanto. En ciencia, siempre sometida a revisión, cambián con el tiempo (unas más y otras menos). Y como la ciencia está hecha por una especie animal que no puede sustraerse a sus instintos, sus definiciones también tienen sesgos. Para muestra, la definición de planeta
Nahúm Méndez Chazarra es geólogo planetario y divulgador científico. Publica la sección Planeta B en el Cuaderno de cultura Científica sobre la actualidad del Sistema Solar.
Si no ve correctamente el vídeo, use este enlace.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2022: Soy un planeta, una tetera, una cuchara y un cucharón se ha escrito en Cuaderno de Cultura Científica.
Soy mujer y tengo párkinson: ¿qué puedo esperar?

El párkinson, enfermedad neurodegenerativa que aparece cuando las neuronas que producen dopamina están dañadas o se mueren, no afecta de la misma forma a hombres y mujeres.
En primer lugar, el sexo biológico es un factor de riesgo importante: los varones tienen 1,5 veces más posibilidades de desarrollarlo. ¿A qué se debe esta llamativa diferencia?
La clave parece estar en las hormonas que se encuentran principalmente en el sexo femenino: los estrógenos. Algunos estudios indican que podrían tener un efecto protector sobre las neuronas que degeneran en la enfermedad, gracias a su potencial para bloquear los principales mecanismos responsables de la muerte neuronal.
El hecho de que la proporción de mujeres diagnosticadas de párkinson en el periodo posmenopáusico sea mayor que durante el periodo premenopáusico apoyaría esta hipótesis.
Soy mujer y me han diagnosticado párkinson: ¿ahora qué?Ese “ahora qué” es lo que realmente le importa a la persona a la que se le ha detectado la dolencia: ¿qué me va a pasar?, ¿qué voy a notar?, ¿los síntomas van a empeorar?, ¿qué tratamientos me van a aplicar y para qué?
Actualmente, el párkinson no tiene cura y sigue avanzando con el paso del tiempo, por lo que los síntomas –cuya naturaleza, frecuencia y gravedad varían entre personas– empeoran poco a poco. Aun así, diversos estudios han observado que existen ciertos patrones de estas manifestaciones que difieren entre sexos.
En el caso de las mujeres, los problemas motores suelen aparecer más tarde que en los hombres, y el temblor suele ser el principal síntoma cuando se realiza el diagnóstico. Esto es importante, porque las personas que comienzan así la enfermedad parece que la experimentan de forma más benigna. No obstante, ellas tienen un mayor riesgo de caídas a medida que avanza la dolencia.
Dicen que me quejo demasiado“Me duele la espalda, las piernas… me encuentro todo el día cansada”. “Parece que no levanto cabeza”. “Estoy baja de ánimos, pero dicen que es normal sentirse así, ya que me acaban de diagnosticar párkinson”. Hay una creencia extendida de que esta es una enfermedad que nos hace temblar. Pero no es el único síntoma: además, los pacientes suelen padecer rigidez muscular, lentitud de movimientos e, incluso, inestabilidad postural.
Por si esto fuera poco, la dolencia viene acompañada de una serie de manifestaciones no motoras que afectan a la calidad de vida incluso más que los problemas de movilidad. Estamos hablando de estreñimiento, alteraciones del sueño, pérdida de olfato, cambios en la sudoración…
Estos trastornos están relacionados con alteraciones de otros sistemas del cuerpo, más allá de la falta de dopamina del cerebro. En concreto, las mujeres experimentan dolor, fatiga, depresión y ansiedad con más frecuencia e intensidad que los hombres.
A menudo, esos síntomas propios de la dolencia están infradiagnosticados y no se manejan adecuadamente porque ¿cómo no va a estar triste y ansiosa con la que le ha caído? Mujer con párkinson: no minimice sus síntomas, ya que muchos de ellos se pueden tratar farmacológicamente o mediante otro tipo de terapias, como la psicoterapia, el ejercicio físico o la terapia ocupacional. ¡Quéjese!, ¡quéjese mucho!
Mi enfermedad no tiene cura, pero ¿me van a tratar?Por supuesto. La primera línea de tratamiento consiste en suplir la falta de dopamina del cerebro. Con terapia farmacológica se consigue mejorar significativamente los síntomas motores. Aunque la dosis es igual de efectiva en ambos sexos, las mujeres tienen más riesgo de desarrollar efectos adversos indeseados, como los movimientos involuntarios, también llamados discinesias.
Respecto al tratamiento de los síntomas no motores, no se sabe si a las mujeres afectadas de párkinson se les prescriben más fármacos antidepresivos, ansiolíticos, analgésicos… que estarían justificados por su sintomatología. Los expertos abogan por una medicina personalizada para mejorar la atención sanitaria. Comencemos por adaptar los tratamientos terapéuticos en función del sexo.
Para saber más:
El papel de los astrocitos en la aparición de la enfermedad de Parkinson
Párkinson en una lágrima
La mutación vasca de la dardarina y el párkinson
Sobre las autoras: Teresa Morera Herreras, profesora agregada del Departamento de Farmacología; Ane Murueta-Goyena, profesora Adjunta del Departamento de Neurociencias y Maider Zubelzu Irazusta, estudiante de doctorado en Farmacología. Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Soy mujer y tengo párkinson: ¿qué puedo esperar? se ha escrito en Cuaderno de Cultura Científica.
65, ¿un título acertado?
Hace poco han estrenado una película titulada, simplemente, “65”. Aunque en algunas zonas le han puesto un pequeño añadido: “65. Al borde de la extinción”. No voy a hacer ningún espóiler de la peli, ya que no la he visto, pero con este título, el añadido del final y lo que nos muestran en los tráileres, creo que todo el mundo se imagina lo que nos podemos encontrar en esta historia. Pero, si viajásemos en el tiempo hasta hace unos 65 millones de años, ¿realmente veríamos lo que nos presenta esta película? ¿Seríamos testigos de los momentos previos de una extinción masiva? Pues siento traeros malas noticias, porque la respuesta es no.

Estrictamente hablando, hace 65 millones de años nuestro planeta se encontraría inmerso en el primer Periodo geológico de la Era Cenozoica, al que hemos nombrado como Paleoceno. Habría pasado un millón de años desde que sucedió la quinta y última extinción masiva de los últimos 500 millones de años de la historia de nuestro planeta, la denominada extinción del límite Cretácico-Paleógeno, o límite K-Pg, en la que desaparecieron más del 75% de las especies tras la caída de un cuerpo extraterrestre en el actual Golfo de México hace 66 millones de años. Los mamíferos supervivientes reclamarían el dominio de los medios terrestres y marinos y la vida estaría empezando a diversificarse para intentar recuperar la diversidad biológica previa a la extinción, algo que no se conseguiría hasta varios millones de años después.
Vamos, que si viajásemos a hace 65 millones de años no veríamos enormes dinosaurios intentando comerse unos a otros en un espeso bosque de helechos y coníferas gigantes, sino paisajes todavía devastados donde árboles y plantas con flores servirían de refugio a pequeños mamíferos, principalmente roedores, que cazarían insectos o comerían sus semillas para sobrevivir. Mucho menos épico de lo que creíamos. Pero esto os lo digo ahora, porque si la película la hubieran estrenado hace 15 o 20 años, estaría alabando su acertado título y la utilizaría como herramienta para contaros, con pelos y señales, lo que sucedió durante la extinción del límite K-Pg.

¿Y de dónde procede esta curiosa contradicción que os acabo de comentar? Pues de que la Geología es una ciencia en continuo cambio, incluidas las edades a las que se produjeron algunos de los eventos. Si miramos la tabla de los tiempos geológicos del año 2008, la edad estimada para el límite K-Pg era de 65,5 millones de años, con un error de +-0,3 millones de años (es decir, 300.000 años arriba o abajo), antes de la actualidad. Sin embargo, cuando utilizamos la tabla de 2012, la edad estimada era de 66,0 millones de años, número que aún se mantiene en la versión más actualizada de la tabla publicada este mismo mes.
La siguiente pregunta que os estaréis haciendo es ¿y cómo sabemos esa edad tan precisa para los eventos geológicos? Pues gracias a los métodos de datación radiométrica que se basan en la desintegración radiactiva de los isótopos. Voy por partes con esto, que me estoy metiendo en el maravilloso mundo de la química.
Los átomos tienen un número particular de protones (partículas positivas) y neutrones (partículas neutras) en su núcleo, sobre las que orbitan una serie de electrones (partículas negativas). Sin embargo, hay algunos elementos que, aunque mantienen el mismo número de protones, tienen diferente número de neutrones en su núcleo, como el Carbono o el Uranio, que se conocen como isótopos. Pues muchos de esos isótopos tienen un núcleo inestable que tiende a desintegrarse con el tiempo, dando lugar a un isótopo hijo. Es lo que conocemos como radiactividad. Esa desintegración desde el isótopo inicial o isótopo padre al isótopo hijo sigue un ritmo constante, de tal manera que pasado un tiempo X tendremos la mitad del isótopo padre, al pasar ese mismo tiempo X tendremos la mitad de esa mitad, y así continuamente. A ese ritmo de decaimiento se le conoce como vida media. Y conociendo esa vida media de un elemento y pudiendo calcular en un material geológico la cantidad de isótopo hijo formado a partir del isótopo padre original, podemos saber su edad.

Hay isótopos con vidas medias muy grandes que permiten datar con bastante fiabilidad materiales tan antiguos como la propia formación de nuestro planeta. Uno de los métodos radiométricos más utilizados es la relación entre el Uranio (isótopo padre) y el Plomo (isótopo hijo), conocida como datación U/Pb, que permite conocer la edad de materiales que se formaron hace más de 1 millón de años con márgenes de error de cientos de miles de años. Pero eso es ahora, porque la relación U/Pb es uno de los métodos de datación más antiguos empleados en Geología, por lo que las técnicas analíticas de medición isotópica han ido haciéndose cada vez más precisas, lo que ha provocado que se vayan corrigiendo las edades de los eventos geológicos de manera continua. Por ese motivo, cada año se publican versiones más novedosas y precisas de la tabla de los tiempos geológicos.
Vamos, que el equipo productor de la película se quedó con dataciones de hace más de 15 años y no se molestaron en comprobar las versiones más actualizadas. Pero también es cierto que 65 es un número más redondo y llamativo para un título que 66, salvo que seas fan de Iron Maiden (como yo) y empieces a tararear el estribillo de una canción a la que le falta un último 6 cada vez que tienes que explicar cuándo sucedió la última extinción masiva de la Tierra.
Para saber más:
Datación radiométrica
Cómo usar uranio para saber si un neandertal pintó en una cueva
Datación K-Ar y las edades de Marte
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo 65, ¿un título acertado? se ha escrito en Cuaderno de Cultura Científica.
Las impredecibles capacidades emergentes en grandes modelos de IA
Los modelos de lenguaje extenso como ChatGPT ahora son lo suficientemente grandes como para comenzar a mostrar comportamientos sorprendentes e impredecibles.
Un artículo de Stephen Ornes para Quanta Magazine
¿Qué película describen estos emojis?
Esa pregunta fue una de las 204 tareas elegidas el año pasado para probar la capacidad de varios modelos de lenguaje extenso (LLM, por sus siglas en inglés), los motores computacionales detrás de los bots conversacionales de IA como ChatGPT. Los LLM más simples produjeron respuestas surrealistas. “La película es una película sobre un hombre que es un hombre que es un hombre”, comenzó uno. Los modelos de mediana complejidad se acercaron, aventurando Emoji: la película. Pero el modelo más complejo lo clavó al primer intento: Buscando a Nemo.
“A pesar de tratar de esperar sorpresas, me sorprenden las cosas que estos modelos pueden hacer”, afirma Ethan Dyer, científico informático de Google Research que ayudó a organizar la prueba. Es sorprendente porque estos modelos supuestamente tienen una directiva: aceptar una cadena de texto como entrada y predecir lo que viene a continuación, una y otra vez, basándose únicamente en estadísticas. Los informáticos habían anticipado que la ampliación mejoraría el rendimiento de las tareas conocidas, pero no esperaban que los modelos manejaran repentinamente tantas tareas nuevas e impredecibles.
Investigaciones recientes, como en la que trabajó Dyer, han revelado que los LLM pueden producir cientos de habilidades «emergentes», tareas que los modelos grandes pueden completar y los modelos más pequeños no, muchas de las cuales parecen tener poco que ver con el análisis de texto. Van desde multiplicar hasta la generación de código informático ejecutable y, aparentemente, la decodificación de películas basándose en emojis. Nuevos análisis sugieren que, para algunas tareas y algunos modelos, existe un umbral de complejidad más allá del cual la funcionalidad del modelo se dispara. (También sugieren un lado oscuro: a medida que aumentan en complejidad, algunos modelos revelan nuevos sesgos e inexactitudes en sus respuestas).
“Que los modelos de lenguaje puedan hacer este tipo de cosas nunca se discutió en ninguna literatura que yo conozca”, afirma Rishi Bommasani, científico informático de la Universidad de Stanford. El año pasado ayudó a compilar una lista de docenas de comportamientos emergentes, incluidos varios identificados en el proyecto de Dyer. Esa lista sigue creciendo.
Ahora, los investigadores se eesfuerzan en no solo identificar habilidades emergentes adicionales, sino también en descubrir por qué y cómo ocurren; en esencia, para tratar de predecir la imprevisibilidad. Comprender la emergencia podría revelar respuestas a preguntas profundas sobre la IA y el aprendizaje automático en general, como si los modelos complejos de verdad están haciendo algo nuevo o solo se están volviendo realmente buenos en estadística. También podría ayudar a los investigadores a aprovechar los beneficios potenciales y reducir los riesgos emergentes.
“No sabemos cómo predecir en qué tipo de aplicación va a surgir la capacidad de hacer daño, ya sea gradualmente o de manera impredecible”, asegura Deep Ganguli, un científico informático de la startup de IA Anthropic.
La emergencia de la emergenciaBiólogas, físicas, ecologistas y otras personas de ciencia utilizan el término «emergente» para describir comportamientos colectivos autoorganizados que aparecen cuando una gran colección de cosas actúa como una sola. Las combinaciones de átomos sin vida dan lugar a células vivas; las moléculas de agua crean olas; las bandadas de estorninos surcan el cielo formando patrones cambiantes pero identificables; las células hacen que los músculos se muevan y los corazones latan. Fundamentalmente las habilidades emergentes aparecen en sistemas que involucran muchos componentes individuales. Pero los investigadores solo han podido documentar recientemente estas habilidades en los LLM, al alcanzar estos modelos tamaños enormes.
Los modelos de lenguaje han existido durante décadas. Hasta hace unos cinco años los más potentes se basaban en lo que se denomina red neuronal recurrente. Básicamente, toman una cadena de texto y predicen cuál será la siguiente palabra. Lo que hace que un modelo sea «recurrente» es que aprende de su propio resultado: sus predicciones retroalimentan la red para mejorar el rendimiento futuro.
En 2017 los investigadores de Google Brain introdujeron un nuevo tipo de arquitectura llamada transformador. Mientras que una red recurrente analiza una oración palabra por palabra, el transformador procesa todas las palabras al mismo tiempo. Esto significa que los transformadores pueden procesar grandes cuerpos de texto en paralelo.
Los transformadores permitieron una rápida ampliación de la complejidad de los modelos de lenguaje al aumentar la cantidad de parámetros en el modelo, así como otros factores. Los parámetros se pueden considerar como conexiones entre palabras, y los modelos mejoran ajustando estas conexiones a medida que avanzan en el texto durante el entrenamiento. Cuantos más parámetros haya en un modelo con más precisión podrá hacer conexiones y más cerca estará de imitar aceptablemente el lenguaje humano. Como era de esperar, un análisis de 2020 realizado por investigadores de OpenAI encontró que los modelos mejoran en precisión y capacidad a medida que se amplían.
Pero el debut de los LLM también trajo algo realmente inesperado. Muchas cosas. Con la llegada de modelos como GPT-3, que tiene 175.000 millones de parámetros, o PaLM de Google, que se puede alcanzar hasta los 540.000 millones, los usuarios comenzaron a describir más y más comportamientos emergentes. Un ingeniero de DeepMind incluso informó que pudo convencer a ChatGPT de que era una terminal de Linux y logró que ejecutara un código matemático simple para calcular los primeros 10 números primos. Sorprendentemente, pudo terminar la tarea más rápido que el mismo código ejecutado en una máquina Linux real.
Al igual que con la tarea con emojis para la película, los investigadores no tenían motivos para pensar que un modelo de lenguaje construido para predecir texto imitaría de manera convincente una terminal de ordenador. Muchos de estos comportamientos emergentes ilustran el aprendizaje de «cero intentos» o «pocos intentos», que describe la capacidad de un LLM para resolver problemas que nunca, o rara vez, ha visto antes. Este ha sido un objetivo durante mucho tiempo en la investigación en inteligencia artificial, afirma Ganguli. Al mostrar que GPT-3 podía resolver problemas sin ningún dato de entrenamiento explícito en una configuración de cero intentos, afirma, «me llevó a dejar lo que estaba haciendo e involucrarme más».
No estaba solo. Una gran cantidad de investigadores, detectando que los primeros indicios de que los LLM podrían ir más allá de las limitaciones de sus datos de entrenamiento, se esfuerzan por comprender mejor qué aspecto tiene la emergencia y cómo sucede. El primer paso fue documentarlo a fondo.
Más allá de la imitaciónEn 2020, Dyer y otros en Google Research predijeron que los LLM tendrían efectos transformadores, pero cuáles serían esos efectos seguía siendo una pregunta abierta. Así que le pidieron a la comunidad de investigación que proporcionara ejemplos de tareas difíciles y diversas para trazar los límites exteriores de lo que podría hacer un LLM. Este esfuerzo se denominó proyecto Beyond the Imitation Game Benchmark (BIG-bench), tomando como el nombre como referencia el del «juego de imitación» de Alan Turing, una prueba para ver si una computadora podría responder preguntas de una manera convincentemente humana. (Esto más tarde se conocería como la prueba de Turing). El grupo estaba especialmente interesado en ejemplos en los que los LLM habían adquirido repentinamente nuevas habilidades que no habían existido antes en absoluto.
“Cómo entendemos estas transiciones bruscas es una gran pregunta de investigación”, afirma Dyer.
Como era de esperar, en algunas tareas el rendimiento de un modelo mejoró de manera gradual y predecible a medida que aumentaba la complejidad. Y en otras tareas, aumentar la cantidad de parámetros no produjo ninguna mejora. Pero para aproximadamente el 5% de las tareas los investigadores encontraron lo que llamaron «avances»: saltos rápidos y dramáticos en el rendimiento en una escala con umbral. Ese umbral variaba según la tarea y el modelo.
Por ejemplo, los modelos con relativamente pocos parámetros, solo unos pocos millones, no pudieron completar con éxito problemas de suma de tres dígitos o multiplicación de dos dígitos; pero para decenas de miles de millones de parámetros, la precisión se disparaba en algunos modelos. Ocurrieron saltos similares para otras tareas, incluida la decodificación del Alfabeto Fonético Internacional, reordenar las letras de una palabra, identificar contenido ofensivo en párrafos de Hinglish (una combinación de hindi e inglés) y generar un equivalente en inglés similar a los refranes en suajili.
Pero los investigadores se dieron cuenta rápidamente de que la complejidad del modelo no era el único factor determinante. Algunas habilidades inesperadas podían obtenerse de modelos más pequeños con menos parámetros, o entrenarse en conjuntos de datos más pequeños, si los datos eran de una calidad lo suficientemente alta. Además, la forma en la que se redactaba una consulta influía en la precisión de la respuesta del modelo. Cuando Dyer y sus colegas plantearon la tarea con emojis para la película utilizando un formato de opción múltiple, por ejemplo, la mejora de la precisión fue menos un salto repentino y más un aumento gradual con mayor complejidad. Y el año pasado, en un artículo presentado en NeurIPS, la reunión más importante del campo, los investigadores de Google Brain demostraron cómo un modelo entrenado (prompted) para explicarse (una capacidad llamada razonamiento en cadena de pensamiento) podía resolver correctamente un problema matemático verbal, mientras que el mismo el modelo sin ese entrenamiento no podía.
Yi Tay, un científico de Google Brain que trabajó en la investigación sistemática de los avances, señala un trabajo reciente que sugiere que la cadena de pensamiento cambia las curvas de escalado y, por lo tanto, el punto donde ocurre la emergencia. En su artículo de NeurIPS, los investigadores de Google demostraron que el uso de entrenamientos de cadena de pensamiento podía provocar comportamientos emergentes no identificados en el estudio BIG-bench. Tales entrenamientos, que le piden al modelo que explique su razonamiento, pueden ayudar a los investigadores a comenzar a investigar por qué aparece la emergencia en primer lugar.
Hallazgos recientes como estos sugieren al menos dos posibilidades de por qué ocurre la emergencia, afirma Ellie Pavlick, científica informática de la Universidad de Brown que estudia modelos computacionales de lenguaje. Una es que, como sugieren las comparaciones con los sistemas biológicos, los modelos más grandes realmente obtienen nuevas habilidades de forma espontánea. “Es muy posible que el modelo haya aprendido algo fundamentalmente nuevo y diferente que no tenía con un tamaño más pequeño”, dijo. «Eso es lo que todos esperamos que sea el caso, que se produzca un cambio fundamental que ocurre cuando se amplían los modelos».
La otra posibilidad, menos sensacional, afirma, es que lo que parece ser emergente pueda ser, en cambio, la culminación de un proceso interno impulsado por la estadística que funciona a través de un razonamiento tipo cadena de pensamiento. Los LLM grandes pueden simplemente estar aprendiendo heurísticas que están fuera del alcance de aquellos con menos parámetros o con datos de menor calidad.
Pero, añade, descubrir cuál de esas explicaciones es más probable depende de una mejor comprensión de cómo funcionan en realidad los LLM. “Dado que no sabemos cómo funcionan debajo del capó, no podemos decir cuál de esas cosas está sucediendo”.
Capacidades impredecibles y trampasHay un problema obvio al pedirles a estos modelos que se expliquen: son mentirosos notorios. “Nos apoyamos cada vez más en estos modelos para hacer el trabajo básico”, afirma Ganguli, “pero no confío en ellos y ya está. Compruebo su trabajo.” Como uno de los muchos ejemplos divertidos, en febrero Google presentó su chatbot de IA, Bard. La publicación del blog que anuncia la nueva herramienta muestra a Bard cometiendo un error de hecho.
La emergencia conduce a la imprevisibilidad, y la imprevisibilidad, que parece aumentar con la escala, dificulta que los investigadores anticipen las consecuencias del uso generalizado.
“Es difícil saber de antemano cómo se usarán o implementarán estos modelos”, afirma Ganguli. “Y para estudiar fenómenos emergentes debes tener un caso en mente, y no sabrás hasta que estudies la influencia de la escala qué capacidades o limitaciones pueden surgir”.
En un análisis de LLMs publicado en junio pasado los investigadores de Anthropic estudiaron si los modelos muestran ciertos tipos de prejuicios raciales o sociales, no muy diferentes a los encontrados anteriormente en algoritmos no basados en LLM que se utilizan para predecir qué personas con antecedentes cometerán probablemente otro delito. Ese estudio se inspiró en una aparente paradoja relacionada directamente con la emergencia: a medida que los modelos mejoran su rendimiento cuando se amplían, también pueden aumentar la probabilidad de fenómenos impredecibles, incluidos aquellos que podrían conducir a sesgos o perjuicios.
“Ciertos comportamientos dañinos surgen abruptamente en algunos modelos”, afirma Ganguli. Cita un análisis reciente de LLMs, conocido como el punto de referencia BBQ, que mostró que el sesgo social surge con las cantidades enormes de parámetros. “Los modelos más grandes se vuelven abruptamente más sesgados”. No abordar ese riesgo, recalca, podría poner en peligro a los sujetos de estos modelos.
Pero ofrece un contrapunto: cuando los investigadores simplemente le dijeron al modelo que no se basara en estereotipos o sesgos sociales, literalmente escribiendo esas instrucciones, el modelo estaba menos sesgado en sus predicciones y respuestas. Esto sugiere que algunas propiedades emergentes también podrían usarse para reducir el sesgo. En un artículo publicado en febrero, el equipo de Anthropic informó sobre un nuevo modo de «autocorrección moral», en el que el usuario solicita al programa que sea útil, honesto e inofensivo.
La emergencia, afirma Ganguli, revela tanto un potencial sorprendente como un riesgo impredecible. Las aplicaciones de estos grandes LLMs ya están proliferando, por lo que una mejor comprensión de esa interacción ayudará a aprovechar la diversidad de habilidades de los modelos lingüísticos.
“Estamos estudiando cómo las personas usan realmente estos sistemas”, añade Ganguli. Pero esos usuarios también están jugueteando, constantemente. “Pasamos mucho tiempo conversando con nuestros modelos”, asegura, “y ahí es donde comienzas a tener una buena intuición sobre la confianza, o la falta de ella”.
El artículo original, The Unpredictable Abilities Emerging From Large AI Models, se publicó el 16 de marzo de 2023 en Quanta Magazine. Cuaderno de Cultura Científica tiene un acuerdo de distribución en castellano con Quanta Magazine.
Traducido por César Tomé López
El artículo Las impredecibles capacidades emergentes en grandes modelos de IA se ha escrito en Cuaderno de Cultura Científica.
El problema de Tammes
El botánico y artista holandés Pieter Merkus Lambertus Tammes (1903-1980) descubrió que los granos de polen que son casi esféricos poseen pequeños poros distribuidos de manera que parecen distanciados lo más posible los unos de los otros.

En 1930, como parte de su tesis doctoral, publicó sus investigaciones sobre este tema. En este trabajo el botánico se preguntaba sobre cuál era la manera de distribuir n puntos sobre una esfera, de manera que la menor de las distancias entre ellos fuera la mayor posible. Esta cuestión pronto pasó al mundo matemático como el problema de Tammes.
La primera ideaUna idea natural es, probablemente, pensar en colocar los puntos en los vértices de un poliedro regular inscrito en la esfera, es decir, un tetraedro si n = 4, un octaedro si n = 6, un cubo si n = 8, un icosaedro si n = 12 o un dodecaedro si n = 20.
Surgen inmediatamente dos preguntas: como sólo existen estos cinco poliedros regulares (convexos), ¿qué sucede para otros valores de n? Además, para los cinco casos nombrados, ¿el poliedro regular inscrito proporciona la solución óptima buscada?
Este problema se conoce también como el problema de los dictadores enemigos ya que, si quisieran repartirse la Tierra (si se considera que el territorio de un dictador está formado por los puntos de la esfera situados más cerca de él que de cualquier otro dictador), ¡desearían estar lo más alejados los unos de los otros para obtener regiones mayores!
El problema de Tammes equivale al problema de empaquetamiento de esferas, es decir, la cuestión de encontrar el mayor diámetro para n círculos iguales que pueden situarse sobre una esfera sin superponerse.
Las aplicaciones de este problema son numerosas. Por ejemplo, en biología, podría ayudar a describir el autoensamblaje en virus esféricos (como el virus del mosaico del tabaco, el SARS-CoV-2, etc.).

En química, el modelo VSEPR postula que los pares de electrones de valencia (bolas) alrededor de un átomo se repelen mutuamente; adoptan entonces una disposición espacial que minimiza esta repulsión y maximiza la distancia entre esas bolas. Así, este modelo es consistente con la solución al problema de Tammes.
Muchas personas se han dedicado a estudiar este problema que, a fecha de hoy, está resuelto para los n menores o iguales a 14 y para n = 24.
Los casos conocidosRecordemos que la intersección de una esfera con un plano que contiene a su centro genera una circunferencia máxima (y un círculo máximo) sobre la superficie de la esfera. La distancia entre dos puntos de la esfera, unidos por un arco de circunferencia máxima, es la menor entre ambos y se llama distancia ortodrómica.
El problema de Tammes busca maximizar la menor de las distancias ortodrómicas entre n puntos de una esfera.
Para n = 2, la solución es obvia: los dos puntos deben ser diametralmente opuestos.
Si n = 3, la solución al problema de Tammes es un triángulo equilátero inscrito en un círculo máximo de la esfera.
Para n = 4, 6 y 12 puntos, las soluciones son las que admiten más simetrías: los poliedros regulares con, respectivamente, 4, 6 y 12 vértices, es decir, los tetraedros regulares inscritos en la esfera, los octaedros y los icosaedros.
El geómetra húngaro Laszlo Fejes Tóth fue quien resolvió los casos n = 3, 4, 6 y 12.
Para n = 5 existen varias configuraciones que proporcionan la solución óptima, y, además, esa distancia máxima buscada es la misma que la del caso de n = 6.
Para n = 8, los ocho vértices de un cubo inscrito en la esfera no proporcionan la distancia óptima. La solución no es única, y la mejor disposición es un la de un antiprisma cuadrado.
En 1951, los matemáticos Kurt Schütte y Bartel Leendert van der Waerden resolvieron los casos para n = 5, 7, 8 y 9.
En 1963, el geómetra Ludwik Danzer encontró la solución para n = 10 y 11.
Raphael M. Robinson resolvió el caso n = 24 en 1961. Los casos n = 13 y 14 fueron resueltos por Oleg R. Musin y Alexey S. Tarasov en 2015; enumeraron las posibles configuraciones con ayuda de un ordenador.
Hay soluciones propuestas para muchos otros casos… pero aún son solo conjeturas.
Referencias
- L. Danzer, Finite point-sets on S2 with minimum distance as large as possible, Discr. Math. 60 (1986) 3-66.
- L. Fejes Tóth, Über die Abschätzung des kürzesten Abstandes zweier Punkte eines auf einer Kugelfläche liegenden Punktsystems, Jber. Deutch. Math. Verein. 53 (1943) 66-68.
- P. Legrand, Le problème de Tammes, APMEP, 10 de julio de 2012.
- O. R. Musin and A. S. Tarasov, The Tammes problem for N=14, Experimental Mathematics 24 (2015) 460-468, arXiv:1410.2536 [math.MG].
- H. Pfoertner, Arrangement of points on a sphere. Visualization of the best known solutions of the Tammes problem, Engine Monitoring.
- R.M. Robinson, Arrangement of 24 circles on a sphere, Math. Annalen 144 (1961) 17-48.
- K. Schütte and B. L. van der Waerden, Auf welcher Kugel haben 5, 6, 7, 8 oder 9 Punkte mit Mindestabstand Eins Platz?, Math. Annalen 123 (1951) 96-124.
- N. J. A. Sloane, Spherical Codes. Nice arrangements of points on a sphere in various dimensions, Neil J. A. Sloane: Home Page.
- P. M. L. Tammes, On the origin of number and arrangement of the places of exit on the surface of pollen-grains, Recueil Des Travaux Botaniques Néerlandais 27, 1930.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo El problema de Tammes se ha escrito en Cuaderno de Cultura Científica.
Agujetas: las dolorosas protagonistas tras el ejercicio físico

Nunca es tarde para empezar a realizar ejercicio físico. Los beneficios para la salud que tiene la práctica de actividad física frecuente son claros y numerosos: aumento de la esperanza de vida, disminución del riesgo de sufrir diabetes, obesidad, enfermedades cardiovasculares, diferentes tipos de cáncer y otras muchas enfermedades, mejora de la salud mental…
Sin embargo, las personas que se deciden a tener una vida más activa y comienzan a practicar o retoman un deporte o cualquier otra actividad física se enfrentan a menudo con un fenómeno biológico que puede echarles para atrás en su iniciativa: las temidas agujetas, también conocidas como «mialgia diferida» o «dolor muscular de aparición tardía».
Prácticamente todo el mundo ha experimentado el dolor típico de las agujetas en algún momento de su vida y, a pesar de ello, las causas detrás siguen sin estar del todo claras. Es una situación muy similar a lo que ocurre con la frecuente somnolencia tras una comida pesada, existen varias hipótesis que intentan explicarlo, pero las pruebas científicas al respecto son limitadas por la escasez de estudios. Las curiosidades del cuerpo humano no son, lógicamente, una prioridad en el terreno de la investigación médica.
Normalmente, las agujetas tardan en aparecer entre 12 y 72 horas tras el ejercicio físico que lo desencadena y el máximo nivel de dolor se presenta entre uno y tres días. Los ejercicios excéntricos como las sentadillas o bajar escaleras, en los que se estiran los músculos mientras existe contracción, son los que inducen agujetas con mayor frecuencia porque alteran más el músculo y el tejido conectivo de alrededor.
Durante mucho tiempo, se creyó que el principal mecanismo involucrado en las agujetas era la formación y acumulación de cristales de ácido láctico en el músculo, como consecuencia de un metabolismo anaeróbico (en el que no se emplea oxígeno). Sin embargo, un hecho clave descarta esta hipótesis: el ácido láctico se acumula rápidamente con un ejercicio físico intenso, pero desaparece en torno a una hora después. Por tanto, los cristales de esta molécula no pueden ser los responsables de las agujetas, que aparecen de forma mucho más tardía.
En la actualidad, la hipótesis con mayor respaldo científico y más aceptada entre los investigadores sostiene que las agujetas tienen su origen en las microrroturas de las fibras musculares provocadas por daños mecánicos. Así, cuando una persona realiza una actividad física a la que sus músculos no están habituados se producen diminutas lesiones (y, como consecuencia, alteraciones metabólicas) en las células musculares incapaces de aguantar ese nivel de ejercicio. No obstante, estas lesiones no causan inmediatamente dolor, ya que las agujetas tardan en aparecer, sino que lo provocan de forma más tardía a través de un proceso inflamatorio.
Debido al número limitado de estudios, no está todavía muy claro qué tratamientos son efectivos para aliviar las agujetas y limitar su duración. Se han evaluado algunos complementos dietéticos (preparados proteicos, taurina, ácidos grasos omega-3, curcumina, D-ribosa, L-glutamina…), fármacos antiinflamatorios, masajes, duchas o baños fríos, descanso y prendas de compresión con algunos indicios de efectividad, aunque con una certeza científica baja o hallazgos contradictorios. Entre todos ellos, el masaje muscular parece la opción con más respaldo a la hora de limitar la duración de las agujetas. También existen múltiples evidencias que constatan que hacer ejercicios con un aumento progresivo de la intensidad, en lugar de realizar de primeras ejercicios intensos, previene la aparición de agujetas. Los estiramientos antes y después de la actividad física quizás podrían atenuar las posteriores agujetas, pero tampoco está claro en la actualidad.
Afortunadamente, las agujetas son transitorias, hagamos lo que hagamos, y bastan unos pocos días (casi siempre menos de una semana) para que desaparezcan por sí solas. Tras este episodio de dolor, el músculo se regenera totalmente. La mialgia diferida no es una señal por sí misma de crecimiento muscular, pero sí nos indica que estamos saliendo fuera de nuestra zona de confort en cuanto a actividad física se refiere y, cuando se vaya, estaremos mejor preparados para retomarla.
Para saber más:
Respuesta de los sistemas respiratorio y cardiovascular al ejercicio físico
Evite, si puede, la silla y el sofá
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo Agujetas: las dolorosas protagonistas tras el ejercicio físico se ha escrito en Cuaderno de Cultura Científica.
Cómo hacer un clarinete con tubos de pvc y un guante de goma
clarinete
Seguro que tú también lo viste. Fue un vídeo viral hace bastantes años ya (siempre más de los que parecen). En él, un tipo con una camisa chillona utilizaba un taladro para fabricarse un instrumento musical con… una zanahoria. Sí, ¡una zanahoria!, y lo peor es que la melodía resultaba hasta pegadiza.
Desde entonces, Linsey Pollak saltó a la fama como el músico de los instrumentos insospechados, un tipo capaz de arrancarle una notas a casi cualquier cosa. La zanahoria era solo uno de muchos ejemplos. Después de aquella charla TEDx, hemos podido ver al músico australiano tocando el bate de baseball, la regadera, un manillar de bicicleta, y a veces también (esto es más raro) el saxofón.
La imaginación de Pollak parece no tener límites. En muchos casos, sus instrumentos consisten en una boquilla de saxofón acoplada a algún objeto con forma de tubo. Es, en parte, la gracia de los instrumentos de viento y aquello que los convierte en una de las tecnologías más antiguas de la humanidad: son muy fáciles de fabricar. Pero algunos de sus inventos van un poco más allá. Es el caso de Mr. Curly, que juega con la forma espiral del larguísimo tubo (de ahí la tesitura de contrabajo) para que todos los agujeros queden accesibles en el espacio de una mano. O, mi preferido, el “Foonki”, un clarinete de membrana construido de forma casera con materiales fáciles de encontrar en cualquier ferretería. Pollak explica cómo hacerlo en su canal de Youtube. Y, después que él, Nicolás Bras presentó su propia versión en un vídeo un poco más detallado.
Estas navidades, Iñaki y yo nos propusimos fabricar nuestro propio Foonki. Nos costó un rato encontrar los materiales perfectos y desentrañar los detalles de la boquilla. Así que, por si a alguien quiere repetir el experimento, aquí va una receta simplificada.
Instrucciones generales:El clarinete de membrana es un instrumento de viento madera. En esencia, consiste en una membrana (léase, un globo, un trozo de plástico) que vibra contra una superficie sólida cuando se opone al paso del aire. En el Foonki, el aire entra por un agujero lateral, y recorre el espacio existente entre dos tubos concéntricos. Cuando llega al extremo, se encuentra con la mencionada membrana, la “estira” para poder pasar y regresa a través del tubo interno. En ese lapso, genera una vibración y el sonido resultante es bastante parecido al de un clarinete. La idea básica es el siguiente:
Ahora bien, en la práctica nosotros acabamos construyendo algo más bien parecido a lo siguiente. Trataré de explicarlo a continuación.
- Tubo de conducción eléctrica de Ø16 mm
- Tubo de conducción eléctrica de Ø20 mm.
- T de Ø20 mm.
- Reducción de Ø20 a Ø16 mm.
- Manguito de presión, Ø16 mm.
- Membrana: vale un guante de goma, globo, plástico, o similar.
- Herramientas: una sierra (para cortar los tubos), un taladro, cinta aislante, una lija redonda.
Empezaremos por cortar los tubos de conducción (en morado, en la figura). Necesitaremos:
- Un trozo tubo de Ø16 mm de unos 10 cm de longitud (que sea más largo que la T, en cualquier caso).
- Otro trozo de Ø20 mm de unos 4 cm de longitud.
A continuación, vamos a completar los brazos de la T. En el extremo inferior, colocaremos la reducción de pvc. Esta pieza permitirá que el aire no se salga de la T “por debajo” de la boquilla. Por eso queremos que quede muy bien sellada y fija a la T. Si fuese necesario, se puede usar cinta aislante para reducir el espacio entre las dos piezas (nosotros utilizamos un martillo para colocarla en su posición final).
En el brazo superior de la T, colocaremos el trozo de tubo de Ø20 mm. Esta pieza también debe quedar bien fija a la T, sin que pueda salirse el aire entre ambas (de nuevo, se puede usar cinta aislante en caso necesario).
Introducimos el tubo de Ø16 mm desde el extremo inferior de la T, hasta que quede alineado en la parte superior con el tubo de Ø20 mm.
Por último, colocaremos la membrana, como si fuese una capucha, a la salida de los dos tubos. Podemos fijarla en esta posición con ayuda de una goma elástica, un manguito, o similar. Recomiendo no usar cinta aislante para esto, ya que hará más difícil “estirar” y mover la membrana en busca de un sonido mejor.
¡Y listo! Basta con soplar por el cuello de la T para que el invento empiece a sonar. A veces hay que jugar un poco con la posición del tubo interior, y con la tensión de la membrana para conseguir un sonido más o menos estable. Pero es sorprendentemente fácil conseguir que el invento funcione.
Cómo taladrar el tubo:Para poder tocar distintas notas con el clarinete de membrana necesitamos un tubo con una serie de agujeros estratégicamente situados. Utilizaremos un tubo de Ø16 mm y lo acoplaremos a la boquilla con ayuda del manguito. Para saber cómo cortarlo y dónde taladrar, nosotros utilizamos esta plantilla de Nicolas Bras como punto de partida. Linsey Pollak tiene otra parecida en su página web. Es importante tener en cuenta que las distancias están medidas desde la membrana del clarinete, así que no basta con medir el tubo que vas a acoplar.
En cualquier caso, da un poco igual la plantilla que uses. Lo más probable es que alguna nota no te quede afinada a la primera. La física es complicada y la realidad está llena de márgenes de error, es lo que hay. Mi consejo es que empieces taladrando los agujeros con una broca pequeña. El sonido estará un semitono bajo, aproximadamente. Desde ese punto, con paciencia y una lija, puedes ir agrandando el agujero hasta conseguir la afinación perfecta.
Después de semejante sesión de bricolaje, tu clarinete debería estar listo. Ahora, ¡a tocar!
Para saber más:
El sonido del viento (2)
La ingeniería de las flautas (serie)
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo Cómo hacer un clarinete con tubos de pvc y un guante de goma se ha escrito en Cuaderno de Cultura Científica.
Orriak
- « lehenengoa
- ‹ aurrekoa
- …
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- …
- hurrengoa ›
- azkena »