Fusión nuclear: un futuro cada vez más cercano

El Sol, nuestra estrella, es un enorme reactor nuclear. Pero no un reactor nuclear como los que utilizamos actualmente para la generación de energía eléctrica en nuestro planeta, que son de fisión, sino un reactor de fusión. ¿Y cuál es la diferencia entre la fisión y la fusión? Mientras que en una reacción de fisión un átomo pesado (como el uranio) se fisiona, o “divide”, para generar varios átomos más ligeros, además de energía, en las reacciones de fusión ocurre justamente lo contrario: dos átomos ligeros (como el hidrógeno) se fusionan, o “unen”, liberando energía y formando un átomo más pesado. En el caso del Sol, el elemento formado es el helio, y una de las principales ventajas que presenta la fusión es que la cantidad de energía generada en una reacción es la máxima conocida (cuatro veces superior a la de fisión), además de ser limpia (no genera residuos radiactivos de alta actividad ni gases de efecto invernadero), inherentemente segura (es físicamente imposible que se produzca una reacción nuclear en cadena de una forma descontrolada en un reactor) y virtualmente inagotable.
¿Y cómo sería la reacción de fusión producida en un reactor?De entre todas las reacciones de fusión posibles, teniendo en cuenta el punto de vista energético, económico y tecnológico, la reacción de fusión que resulta más viable de reproducir hoy en día en un reactor es la generada al fusionar deuterio y tritio, ambos isótopos del hidrógeno, dando lugar al helio, que es un gas inerte, y una gran cantidad de energía.
Para ello, el deuterio puede obtenerse de manera relativamente sencilla a partir del agua de mar (su abundancia es de 32 gramos por cada metro cúbico de agua de mar).
El tritio, en cambio, es menos abundante, pero esto no supone un problema, ya que puede producirse de forma artificial a partir del litio.
Es por ello por lo que los reactores de fusión están diseñados para que sean autosuficientes en lo que se refiere a la producción de tritio. ¿Y eso cómo es posible? La zona interna de los reactores estará formada por una envoltura compuesta por litio, llamada envoltura regeneradora, de forma que los neutrones liberados en la propia reacción de fusión choquen contra esa, produciendo a su vez nuevo tritio, que actuará como nuevo combustible para continuar con la reacción.
Si tan ventajosa es la fusión, ¿dónde está el problema?¿Por qué no se utilizan ya reactores de fusión para la generación eléctrica? Al intentar aproximar dos núcleos, estos se repelen debido a la fuerza electrostática, ya que ambos poseen carga eléctrica positiva. Para que se produzca esa reacción, por tanto, se debe vencer dicha fuerza de repulsión, de manera que los núcleos se acerquen lo suficiente como para que las fuerzas nucleares de atracción pasen a ser dominantes y pueda producirse la fusión. Para hacer frente a eso, el combustible debe calentarse a temperaturas del orden de decenas de millones de grados centígrados y mantenerse confinado a muy alta presión el tiempo suficiente para que se produzcan las reacciones.
Pero es evidente que los sistemas convencionales no pueden hacer frente a las altas temperaturas del plasma. Por ello, se ha abordado ese problema mediante el desarrollo de dos tipos de confinamiento:
- Confinamiento Magnético: Las partículas eléctricamente cargadas del plasma se retienen “flotando” en un espacio (comúnmente un toroide) mediante la acción de un campo magnético.
- Confinamiento Inercial: Consiste en la creación de un medio tan denso donde las partículas prácticamente no puedan escapar sin colisionar. Para ello se concentra en una pequeña cápsula de deuterio-tritio un haz de láser haciendo que implosione, haciéndose cientos de veces más densa y dando comienzo así a la reacción de fusión, que continuará por la inercia del material al expandirse.
Ese es un comentario bastante habitual cuando se habla de fusión, pero la realidad es que el proyecto ITER (International Thermonuclear Experimental Reactor) se encuentra actualmente completado al 78 %, por lo que la meta cada vez es más próxima. ¿Qué es ITER? Se trata de uno de los proyectos más ambiciosos existentes hoy en día: un dispositivo de fusión por confinamiento magnético diseñado para demostrar la viabilidad de la fusión. La instalación de ese proyecto se encuentra en Cadarache (Francia), y cuenta con la colaboración de ingenieros y científicos de las mayores potencias mundiales (concretamente 35 países: la Unión Europea, China, India, Japón, Corea del Sur, Rusia y Estados Unidos).
Además de demostrar la seguridad, así como el correcto funcionamiento del sistema de regeneración de tritio y del resto de las tecnologías integradas, su objetivo a más corto plazo es el de lograr el primer plasma en 2025. Se pretende generar una potencia térmica de plasma de 500 MW con menos de 50 MW de calentamiento (lo que supondrá una ganancia Q = 10). Por tener una idea, hasta la fecha, nunca antes se había conseguido obtener más energía de la introducida, de forma que Q
Estados de las obra de ITER a 12 de diciembre de 2022. Fuente: iter.org
Tras el futuro logro de ITER, se espera que una central eléctrica de demostración de 2 GW, DEMO, sea el paso intermedio entre el ITER y los primeros reactores comerciales de fusión nuclear. Actualmente su construcción está planeada para 2040, y las investigaciones concluyen que la fusión nuclear tiene posibilidades de incorporarse económicamente al sistema energético en torno a 2050-2060, formando parte importante del sistema eléctrico para 2100.
Pero de forma paralela a la evolución de ITER y gracias al confinamiento inercial en esta ocasión, el pasado 5 de diciembre de 2022 el Laboratorio Nacional Lawrence Livermore de California, que cuenta con el sistema láser más poderoso del planeta, consiguió generar 3,5 MJ a partir de los 2,05 MJ invertidos, lo que supone superar el hito de una ganancia superior a la unidad mediante la ignición, produciendo más energía que la energía del láser requerida para iniciar la reacción de fusión (Q = 1,7).
Gracias a ese gran logro ha quedado demostrada por primera vez la ganancia neta de energía, fijando como próximo reto el estudio de su escalabilidad, resolviendo los múltiples desafíos científicos y técnicos que supone su desarrollo y logrando un balance adecuado de potencias. De esa manera, la primera central eléctrica de demostración y, posteriormente, su uso a nivel comercial se encuentran un paso más cerca de nuestra realidad.
LMF: Laboratorio de Materiales de fusión de la UPV/EHUEn ese contexto, y entre los muchos retos a los que debe hacer frente el desarrollo de la fusión, se encuentra el de conocer la interacción de los isótopos del hidrógeno en contacto con los diferentes materiales que compondrán el reactor bajo diferentes condiciones. Esa caracterización y predicción de los parámetros de transporte del hidrógeno es la labor principal que se lleva a cabo en el LMF, colaborando de manera directa con el CIEMAT (Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas), para la realización de las tareas dirigidas y financiadas por EUROfusion (consorcio que gestiona la participación europea dentro de ITER, entre otros muchos cometidos).
Sobre los autores: Igor Peñalva es investigador principal del Laboratorio de Materiales de Fusión; Natalia Alegría es profesora de la Escuela de Ingeniería de Bilbao; María Urrestizala y Jon Azkurreta son doctorandos en Ingeniería Física.
Una versión de este texto apareció originalmente en campusa.
Para saber más:
Fusión nuclear
Fusión nuclear en el Sol
Que 100 años no es nada… o por qué aún no tenemos una central nuclear de fusión
El artículo Fusión nuclear: un futuro cada vez más cercano se ha escrito en Cuaderno de Cultura Científica.
Yo sí quiero que me regalen carbón
Ahora que se acercan las fechas navideñas, es hora de pensar en los consabidos regalos. Y, por supuesto, vuelve a aparecer la típica amenaza para la chavalería: si no se han portado bien durante todo el año, lo que les va a caer es carbón. Pues a mí, como geóloga, me parece un regalo magnífico más que un castigo. Aunque aquí voy a ponerme igual de repelente que el niño del chiste, preguntando a Papá Noel, al Olentzero o a los Reyes Magos: pero, ¿qué tipo de carbón me vais a traer?
Hace unos meses, en el artículo titulado “Historias (geológicas) de la cripta” (https://culturacientifica.com/2022/06/23/historias-geologicas-de-la-cripta/), ya os comentaba de manera muy sucinta cómo se forma el carbón, pero aquí quiero meterme más en faena, que ahora es el momento perfecto.

Antes de seguir, me gustaría recordar algunas cosas sobre el carbón. En primer lugar, se trata de una roca sedimentaria originada a partir de restos vegetales terrestres. En segundo lugar, esta vegetación tuvo que crecer bordeando zonas acuáticas tales como pantanos, estuarios o lagunas costeras. En tercer lugar, la materia orgánica, una vez muerta la vegetación, se tuvo que acumular en esos fondos acuáticos y enterrarse de manera muy rápida. Y, en cuarto lugar, su descomposición bacteriana se produjo en condiciones anóxicas, o, lo que es lo mismo, en ausencia de oxígeno.
Con el paso del tiempo, estas capas de carbón se van cubriendo por nuevos sedimentos que se depositan por encima, lo que hace que se vayan compactando poco a poco al estar sometidas a mayor presión y temperatura según se van enterrando. Este proceso, además, provoca la pérdida de agua de la roca, aumentando así su porcentaje de carbono. Esto hace que, aunque generalmente lo llamemos a todo carbón, en realidad nos encontremos con que existen muchas variedades o tipos de este material geológico de acuerdo a su composición química, su contenido en agua y a una de las propiedades más interesantes de esta roca, su poder calorífico, es decir, la cantidad de energía en forma de calor que se libera al combustionar el carbón (hacerlo reaccionar químicamente con oxígeno). Y, aunque podéis encontrar un montón de clasificaciones sobre los tipos de carbón que existen, yo me voy a quedar con los más conocidos, esos que estudiamos en el colegio, aunque se nos hayan olvidado con el paso de los años, y que se basa, principalmente, en el porcentaje de carbono que tiene la roca.

El primer tipo es la turba. Se genera cuando la materia vegetal enterrada todavía no se ha transformado en roca y es el carbón que tiene un menor porcentaje de carbono (alrededor del 50%) en su composición.
Cuando la turba se compacta se transforma en lignito. Es un material aún deleznable, no del todo litificado, pero sí más sólido que la turba, teniendo una mayor proporción de carbono (hasta un 70% o 75% del total).

Si seguimos enterrando el lignito lo convertiríamos en hulla. Este tipo de carbón sí que está ya consolidado y puede presentar hasta un 90% de carbono en su composición química.
Y el último tipo de carbón es la antracita. Es el que ha estado sometido a mayor presión y temperatura y aparece como una roca todavía más compacta que la hulla, alcanzando porcentajes de carbono comprendidos entre el 90% y el 95%.
Aunque todos estos tipos de carbón se han empleado, y emplean todavía en la actualidad, como combustible, los más buscados son la hulla y la antracita, ya que son los que tienen un mayor poder calorífico, gracias a esa elevada proporción en carbono presente en su composición química. Es decir, son los que liberan mayor cantidad de energía en forma de calor al combustionarlos. Pero no se trata de unos materiales tan abundantes como nos gustaría en la Tierra, porque, como os he comentado antes, todo es cuestión de tiempo.
Seguro que habéis visto turberas actuales, ya sea de manera presencial en algunas marismas o zonas pantanosas que hayáis visitado o en fotografías y documentales. Y seguro que también conocéis turberas famosas de zonas del centro y del norte de Europa porque han aparecido fósiles, incluso de seres humanos, en los que se han conservado las partes blandas o el pelo de los organismos debido a esa falta de oxígeno y que tenían decenas o cientos de miles de años de antigüedad. Pues ese carbón, después de todo ese tiempo, seguía siendo turba. Así que os podéis imaginar lo que tarda en formarse el carbón de los tipos hulla y antracita. Sí, la respuesta es millones de años.
Para que os hagáis una idea, los depósitos de carbón más antiguos que existen en el registro fósil son del Devónico (periodo geológico sucedido hace entre 419 y 359 millones de años). Pero más del 80% de los depósitos de carbón de nuestro planeta se formaron a partir de los vegetales que poblaron los pantanos y marismas del Carbonífero (periodo ocurrido hace entre 359 y 299 millones de años) y casi todo el resto de yacimientos explotados por el ser humano son del Cretácico (periodo que aconteció hace entre 145 y 66 millones de años).
Por eso se trata de un recurso fósil, ya que se ha originado a partir de restos orgánicos del pasado, no renovable, porque se tarda millones de años en formar y lo estamos consumiendo a un ritmo mucho más rápido (escala de tiempo humana) que no permite su reposición en los yacimientos, y escaso, ya que se tienen que dar unas condiciones geológicas muy concretas para que se pueda generar (no toda la materia vegetal circundante a zonas acuáticas se acaba convirtiendo en turba). Y creo que no hace falta que comente nada sobre su grado de contaminación atmosférica con gases de efecto invernadero cuando lo combustionamos.
Con todo esto, me reafirmo en que me parecería un regalazo encontrarme alguna variedad de carbón debajo del árbol durante estas fiestas. Aunque debo reconocer que preferiría que fuese del que está compuesto totalmente por azúcar, que sigo siendo una golosa empedernida.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Yo sí quiero que me regalen carbón se ha escrito en Cuaderno de Cultura Científica.
Valentina Borok, una reconocida especialista en ecuaciones en derivadas parciales
Ella era tan brillante que yo sabía que yo no lo era tanto.
Svetlana Jitomirskaya sobre su madre, Valentina Borok.
Valentina Borok fue una destacada matemática ucraniana cuyas contribuciones más relevantes tuvieron lugar en las décadas de los años 1970 y 1980. Fue una de las pocas personas judías ucranianas que sobrevivió a la ocupación alemana durante la Segunda Guerra Mundial. Apoyó incondicionalmente a estudiantes judíos excluidos de la investigación matemática en su país.

Valentina Mijáilovna Borok nació el 9 de julio de 1931 en Járkov (Ucrania). Era la única hija de Mijail Borok (1896-1950), doctor en química y experto en ciencia de materiales, y Bella Sigal (1901-¿?), economista. Aunque Sigal fue una estudiante destacada e inició sus estudios de postgrado, fue contratada enseguida por el gobierno. A principios de la década de 1930, llegó a ocupar uno de los principales cargos en el Ministerio de Economía de Ucrania; era una mujer judía ocupando una posición privilegiada en el gobierno. Intuyó el futuro oscuro que esperaba a su pueblo y, a principios de 1937, abandonó voluntariamente su cargo alegando motivos familiares y renunciando con ello a los muchos beneficios que conllevaba su posición. Eligió un trabajo discreto que probablemente salvó a su familia de la violencia antijudía que llegaba. El Holocausto en Ucrania acabaría a principios de la década de 1940 con más de un millón y medio de judíos de Ucrania.
Tras la guerra, los estudios en matemáticasTras sobrevivir a las vicisitudes de la guerra, Valentina comenzó sus estudios de matemáticas en la Universidad Estatal de Kiev en 1949. Allí conoció a Yakov Yitomirski, un compañero de estudios con el que se casaría posteriormente.
En su segundo año de estudios universitarios, comenzó a investigar bajo la supervisión de Georgi Shilov (1917-1975), especialista en análisis funcional. Se graduó en 1954 y, siguiendo a Shilov, se trasladó a la escuela de postgrado de la Universidad Estatal de Moscú. En 1957, y bajo la supervisión de su mentor, Borok defendió su tesis doctoral centrada en sistemas de ecuaciones lineales en derivadas parciales con coeficientes constantes.
Entre 1960 y 1994, Valentina Borok trabajó en la Universidad Estatal de Járkov, convirtiéndose en profesora titular en 1970. A partir de 1983 dirigió el departamento de análisis.
Una gran parte de los trabajos de investigación (centrados en diferentes aspectos de las ecuaciones en derivadas parciales) que publicó a lo largo de su carrera los realizó en colaboración con Yakov Yitomirski. Fueron alrededor de ochenta artículos publicados en las principales revistas científicas rusas y ucranianas.
La escuela de ecuaciones en derivadas parciales de BorokA principios de los años 1970 Borok fundó en Járkov una escuela de postgrado sobre teoría general de ecuaciones en derivadas parciales. Supervisó allí dieciséis tesis doctorales y muchas más tesis de maestría. En general, sus estudiantes comenzaban a trabajar con ella en su etapa universitaria y luego continuaban su formación en la escuela de postgrado. Lamentablemente, a una parte de sus discípulos se les negó la entrada en la escuela de postgrado por ser judíos. Se veían obligados a aceptar trabajos de postgrado a tiempo completo que dejaban poco tiempo para la investigación. Borok continuó trabajando con ellos de manera no oficial, animándolos a continuar con su investigación a pesar de sus dificultades. Cuando las tesis de estos estudiantes estuvieron preparadas, Valentina Borok organizó su defensa en universidades de otros estados de la ex Unión Soviética con otros asesores formales.
El curso de análisis que impartía Valentina Borok en la Universidad Estatal de Járkov era seguido por aquellos estudiantes que deseaban aprender con rigor. En esas clases tenían un primer contacto con la investigación a través de los «problemas creativos» que Borok les proponía para obtener la máxima calificación.
Borok también redactó notas de los cursos que impartía, tanto de asignaturas troncales como de otras más especializadas, sobre análisis y ecuaciones en derivadas parciales.
En 1994, una grave enfermedad obligó a Borok a dejar su trabajo y a viajar a Israel para recibir el tratamiento médico que en Ucrania no existía. Vivió los diez últimos años de su vida en Haifa. Falleció el 4 de febrero de 2004.
Michail y Svetlana, también investigando en matemáticasEl hijo y la hija de Valentina y Yakov también eligieron las matemáticas como profesión.
Michail Zhitomirski (1958) trabaja en teoría de variedades diferenciables en el Technion, Instituto Tecnológico de Israel en Haifa.
Svetlana Yakovlevna Jitomirskaya (1966) es especialista en sistemas dinámicos y física matemática. Junto al Medalla Fields Artur Ávila resolvió en 2009 el conocido como problema de los diez martinis; su nombre alude a la oferta del matemático Mark Kac (1914-1984) que prometía pagar diez martinis a quien lo solucionara. La historia de Svetlana la contaremos, pero será en otra ocasión.
Referencias
- Svetlana Jitomirskaya, Valentina Mikhailovna Borok, MacTutor History of Mathematics Archive, 2004
- Valentina Mikhailovna Borok, Biographies of Women Mathematicians, Agnes Scott College
- Valentina Borok, Wikipedia
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
Nota del editor:
Los nombres de este texto que originalmente se escriben en cirílico se han transliterado al castellano (así, Járkov, Mijáilovna, Yitomirski), de tal manera que al leerlos con las normas del castellano suenen lo más parecido a como lo hacen en las lenguas originales. En los enlaces podemos encontrar Mikhailovna, que es una transliteración al inglés (la grafía kh suena como la j castellana). Las diferentes transliteraciones empleadas por los hijos de Yacov Yitormirski al inglés (Michail Zhitomirski, Svetlana Jitomirskaya) se han respetado por ser las grafías con las que publican y son conocidos. Finalmente, se mantiene el nombre Kiev, que es el asentado en castellano para la capital de Ucrania, si bien la romanización del original ucraniano es Kyiv, que posee una combinación gráfica ajena al castellano.
El artículo Valentina Borok, una reconocida especialista en ecuaciones en derivadas parciales se ha escrito en Cuaderno de Cultura Científica.
La evolución del simbolismo matemático
Todos, en mayor o menor medida, estamos familiarizados con el simbolismo matemático. En un país mínimamente desarrollado es difícil encontrar a alguien que no sepa qué significan estos cinco símbolos en este orden: 2+1 = 3. De hecho, la presencia del simbolismo matemático es tan común, efectiva y eficiente que ni nos paramos a pensar que durante buena parte de la existencia de la humanidad no existió. Ni siquiera durante la mayor parte de la historia de la escritura. Y es que el simbolismo matemático es un invento progresivo, con avances y retrocesos, y que no toma carta de naturaleza plena hasta el siglo XVII. Europa será el crisol donde se obtenga.
El uso de símbolos para representar ideas matemáticas es lo que caracteriza a una rama de estas que conocemos como álgebra. En una expresión algebraica como
x3-ax2+10x-1 = 5
podemos distinguir tres tipos de símbolos: por una parte, los que representan cantidades conocidas (10, 1, 5) o dadas (a), por otra los que representan cantidades desconocidas o incógnitas (en este caso x) y, finalmente, los que expresan operaciones o relaciones (3, 2, +, -, =). En puridad, existe un cuarto simbolismo que es posicional, es decir, cómo cambia el significado de un símbolo por la posición con respecto a los demás, pero en lo que sigue no nos referiremos a él explícitamente y nos concentraremos en el origen de los otros tres tipos.
Muchas civilizaciones anteriores a la griega, particularmente la babilonia y la egipcia, tienen textos matemáticos. Suelen ser tablas contables, de control de producción agrícola o de medida de terrenos, aunque alguno hay de lo que parece entrenamiento en cálculo. Todos estos textos tienen en común que describen los problemas literariamente y que el sistema de numeración se basa en la repetición de símbolos. Estos textos emplean el mismo sistema de escritura durante, literalmente, miles de años sin cambios sustanciales. Ello nos hace ver que cumplían con las necesidades de escribas, almaceneros, agrimensores y cobradores de impuestos. O, visto de otra manera, no existía una necesidad de abstracción matemática que favoreciese la aparición de una forma más eficiente de representar las relaciones entre cantidades.
Hay que esperar a la era imperial romana para encontrar un avance realmente significativo, aunque sea de manos de un griego. Los griegos representaban las cantidades numéricas empleando letras, pero Diofanto, probablemente en el siglo III de la era común, da un paso más en el simbolismo en su Aritmética, la misma que Fermat estudiaba cuando se le ocurrió su famoso último teorema. Introduce abreviaturas para las expresiones más habituales, así como una notación especial para la incógnita y las distintas potencias de la incógnita. El gran paso hacia la abstracción matemática de Diofanto fue crear una abreviatura para “igual a”, lo que constituye un paso fundamental desde un álgebra verbal, descriptiva, hacia un álgebra simbólica y abstracta.
A pesar de sus carencias (solo existe una incógnita, no existe notación para un número general conocido, etc.) Diofanto consigue separarse de la geometría como único modo de expresar los conceptos y operaciones matemáticos.
Tras Diofanto se entra en los años oscuros donde prácticamente no existen avances. Habitualmente, los libros de historia citan los trabajos de los árabes como transmisores de la cultura grecolatina y, por tanto, de las matemáticas. Hay muchos que piensan en la labor realizada por los traductores en Castilla como fundamental. Y, efectivamente, esto es así, pero no para el avance del simbolismo algebraico, que retrocede a épocas anteriores a Diofanto, con un retorno a la literalidad y la geometría. En el 1800 a.e.c. los babilonios resolvían ecuaciones cuadráticas expresadas en forma de texto; tres mil años después, a comienzos del siglo XII e.c., Omar Jayam sigue haciéndolo igual.
La conexión con el conocimiento musulmán existe pero es diferente a la que habitualmente se cree. Fueron los intereses comerciales de Leonardo Pisano, más conocido como Fibonacci, y sus viajes por el Mediterráneo, particularmente a Egipto, donde habría entrado en contacto con las ideas matemáticas persas e hindúes además de las musulmanas, los que trajeron una revolución a Europa en forma de libro.

El Liber abacci (1202) de Fibonacci probablemente tenga uno de los comienzos más revolucionarios de la historia de la ciencia. Comienza tal que así:
“Hay nueve figuras de los indios: 9,8,7,6,5,4,3,2,1. Con estas nueve figuras, y con el signo 0 que en árabe se llama zephirum, se puede escribir cualquier número, como se demostrará.”
Los siguientes 7 capítulos del libro (de un total de 15) se dedican a explicar cómo usar y realizar operaciones con estos nuevos numerales.
Fibonacci aporta un avance fundamental, como vemos, que facilita la aritmética enormemente. Pero sigue habiendo limitaciones importantes. Fibonacci usa un sistema sexagesimal para expresar sus resultados. La fundamental, sin embargo, es que para incógnitas y operaciones Fibonacci también sigue a los musulmanes, aunque traduciéndolos al latín italianizado. Así aparecen radix (raíz), res/causa/cosa (para la incógnita), census (propiedad, para el cuadrado), o cubus (cubo). Los problemas se siguen expresando literariamente.
Los desarrollos son muy lentos y, si bien los nuevos numerales indo-arábigos se popularizan rápidamente, hay que esperar hasta 1494, a la Summa de Luca Pacioli, para registrar un nuevo avance, que parece un retroceso. Pacioli vuelve a un sistema parecido al que Diofanto usó más de mil doscientos años antes, usando los numerales de Fibonacci y expresando la incógnita como co, su cuadrado como ce y el cubo como cu, simples abreviaturas de los nombres italianos.
Se producen algunos avances menores más, pero el sistema de Pacioli es tan eficaz para el uso habitual que será necesaria una crisis matemática para provocar el siguiente paso adelante en la notación simbólica. Y esa crisis será la resolución de la ecuación cúbica.
Diofanto y Cardano ya asumían la existencia “operativa” de los números negativos. Cardano atribuía la misma operatividad de facto a los complejos, pero para Rafael Bombelli que atacaba la resolución de ecuaciones cúbicas irreducibles y llegó a dar reglas de signos para la operación con números complejos, la notación disponible era una tortura. Bombelli se ve forzado a la introducción del corchete en su obra l’Algebra (1572):
Multiplichisi, R.c.[2 più di meno R.q.3] per R.c. [2 meno di meno R.q.3]
donde R.q. y R.c. son, respectivamente, la raíz cuadrada y la raíz cúbica.
Simbolismo matemático modernoEl simbolismo moderno estaba a punto de surgir de pura necesidad. Los avances en trigonometría y sobre todo en álgebra requerían una forma más racional de expresar ideas matemáticas. Y este avance se dio en dos pasos gigantescos. Pero esos pasos se darían en Francia, que se convertiría en los siguientes siglos en el centro de las matemáticas.
El primero lo supuso la publicación de De artem analyticem isagoge en 1591 por parte de François Viète. En honor a la verdad, este libro fue un gran paso adelante y uno pequeño hacia atrás. Adelante porque en él se emplean de forma sistemática letras para representar números. Si bien esta idea se puede remontar a Diofanto, Viète va más allá y distingue rangos de letras y sus aplicaciones. Las cantidades podían ser de dos clases: “cosas buscadas” (quaesita) y “cosas conocidas” (data). Las incógnitas se escribían usando vocales mayúsculas A,E,I,O,U,Y y las constantes con consonantes también mayúsculas B,C,D,F,… Por ejemplo, en simbolismo de Viète la ecuación
bx2+dx = z
pasa a ser
B in A quadrum, plus D plano in A, aequari Z solido
Este ejemplo también ilustra el paso atrás que mencionábamos antes, que es un retorno a la geometría que se expresa a través de la “ley de homogeneidad”, según la que todos los términos de la ecuación deben tener las mismas dimensiones. Como bx2 tiene tres dimensiones, dx también debe tenerlas (de ahí lo de D plano) al igual que z. Esto hace la notación tediosa y aparentemente poco operativa, si bien Viète manejaba polinomios de grado 45 con soltura.
Y entonces llegó La géométrie de René Descartes en 1637. Este libro es el primero que se lee como un texto moderno de matemáticas. Descartes toma todos los conocimientos existentes sobre simbolismo matemático, los simplifica, los racionaliza y los emplea en un libro que marca el comienzo de la geometría algebraica. Solo dos cosas importantes están ausentes: el signo = para la igualdad y, paradójicamente, los ejes cartesianos, y es que Descartes no veía la necesidad de que los ejes estuviesen a 90 grados.
En La géométrie las letras minúsculas del comienzo del alfabeto representan datos conocidos, y las letras del final del alfabeto las incógnitas buscadas. La x se convirtió en la representación de la incógnita por antonomasia porque Descartes le dio libertad a su impresor de usar la letra del final del alfabeto que más le conviniera, eligiendo este la x porque es la que menos uso tiene en francés.
A partir de este momento se produce una triple revolución en las matemáticas: la generalización de la impresión de libros, el uso de un simbolismo potentísimo y la posibilidad de reducir la geometría a álgebra supondrán un florecimiento tal, que en solo cincuenta años después de La géométrie se publicaba, por ejemplo, los Principia mathematica de Newton.
Para saber más:
Teorías fantásticas sobre el origen de la grafía de las cifras
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este artículo apareció en Experientia docet el 25 de septiembre de 2012
El artículo La evolución del simbolismo matemático se ha escrito en Cuaderno de Cultura Científica.
¿Qué experimentan las personas al borde de la muerte?
¿Existe algo después de la muerte? Aunque multitud de religiones intenten dar su propia respuesta a esta angustiosa pregunta a lo largo de la historia de la humanidad, lo cierto es que no existe ninguna prueba de que alguien que haya sufrido una muerte cerebral (irreversible) haya podido volver al mundo de los vivos para contarlo.

Una situación, muy diferente, es el proceso de transición a la muerte. Algunas personas sí son capaces de sobrevivir a este periodo difuso, al filo de la expiración, e informan de tener las conocidas como experiencias cercanas a la muerte (ECM). Se estima que un 10 % de los individuos que sobreviven a una reanimación cardiopulmonar (RCP) tras un paro cardíaco describen ECM durante el periodo de reanimación cuando estaban supuestamente inconscientes y al borde de la muerte. Algunos incluso describen que pudieron ver y oír detalles durante la parada cardíaca (en la que no hay bombeo de sangre ni tampoco respiración).
Las descripciones de los pacientes sobre estas experiencias, intensas y surrealistas, suelen tener varios puntos en común. Muchos describen haber contemplado una panorámica de la historia de su vida o los fragmentos más importantes de ella. Otros experimentan alucinaciones, sensación total de paz, sueños o sentir que habían salido fuera de su cuerpo (experiencias extracorporales).
¿Qué ocurre en el cerebro en estos momentos tan críticos? En la actualidad, el conocimiento sobre la actividad cerebral durante las ECM es muy limitado por la gran dificultad de estudiar este fenómeno en vivo y en directo. Sin embargo, un estudio clínico está en marcha desde 2014 para dar respuestas sobre las ECM: el estudio AWARE II (cuya traducción de las siglas en inglés es «CONSCIENTE»). Esta investigación observacional, en el que participan 25 hospitales de Estados Unidos y Reino Unido, indaga especialmente en cómo la forma en la que se hace la RCP tras un paro cardíaco influye en la consciencia y en el funcionamiento neurológico, funcional y cognitivo de la persona.
Los responsables del estudio plantean que «Es posible que los pacientes que son capaces de relatar estas experiencias puedan tener un mejor pronóstico en cuanto a daño cerebral reducido, mejor habilidad funcional y mejor adaptación psicológica al evento. Creemos que estos pacientes podrían tener mejor flujo sanguíneo al cerebro durante el paro cardíaco, lo que llevaría a consciencia y actividad de la mente».
Al borde la muerteEn el estudio participaron 567 pacientes que fueron hospitalizados entre mayo de 2017 y marzo de 2022. Al sufrir una parada cardíaca, los sanitarios les aplicaron una maniobra de reanimación estandarizada, al mismo tiempo que se registraba la actividad cerebral mediante electroencefalograma y se medía el grado de oxigenación cerebral mediante un dispositivo portátil. También se colocó un tablet sobre los pacientes que mostraba diversas imágenes durante el proceso de reanimación (para comprobar si los recuerdos que relatan los pacientes son, efectivamente, reales). Posteriormente, los supervivientes a la parada, que dieron su consentimiento, participaron en entrevistas (grabadas) extensas sobre sus experiencias.
Los resultados de este estudio, liderado por investigadores del hospital NYU Langone Health (en Nueva York), aún no se han publicado en una revista científica, pero sí anunciaron datos clave de sus últimos hallazgos de forma preliminar en las recientes Sesiones Científicas de la Asociación Americana del Corazón el pasado 6 de noviembre en Chicago.
Los científicos descubrieron que el cerebro de los pacientes en parada cardíaca experimenta picos de actividad, incluyendo diferentes tipos de ondas cerebrales (como alfa, beta, delta, teta y gamma) durante un tiempo máximo de una hora, hasta que se realizó la RCP. Algunos de estos picos de actividad también se dan, de forma normal, en las personas conscientes que realizan procesos cognitivos superiores como pensar y recordar. Los autores plantean que este registro de la actividad cerebral podría ser la prueba objetiva de las experiencias cercanas a la muerte.
Sam Parnia, director de investigación de Cuidados Intensivos y Reanimación de la Universidad Estatal de Nueva York y líder del estudio, explica a los medios que: «Estas experiencias lúcidas no pueden considerarse un truco de un cerebro enfermo o moribundo, sino una experiencia humana única que surge al borde de la muerte». El médico defiende la hipótesis de que en estos instantes críticos para la vida se produce una desinhibición del cerebro que lleva a experimentar recuerdos, percepciones y procesos mentales sin los límites que están presentes normalmente estando conscientes.
En un futuro próximo podremos conocer todos los detalles del estudio tras su publicación en una revista. Dado que es la primera gran investigación sistemática que se centra en el fenómeno de las ECM, con pruebas objetivas, es de esperar que arroje datos muy valiosos.
Para saber más:
RCP-ECA: Una nueva reanimación cardiopulmonar, para salvar más vidas
Una buena muerte
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo ¿Qué experimentan las personas al borde de la muerte? se ha escrito en Cuaderno de Cultura Científica.
Los pelirrojos
“Jamás pensé que hubiera en el país tantos pelirrojos como los que habían acudido por aquel solo anuncio. Los había de todos los matices: rojo pajizo, limón, naranja, ladrillo, de perro setter, rojo hígado, rojo arcilla… pero no había muchos que presentaran la auténtica tonalidad rojo fuego.”
Sir Arthur Conan Doyle, La liga de los pelirrojos, 1891.
“De pequeño sufrió acoso por su tez llena de pecas, su pelo pelirrojo, por ser extrajero y por hablar mal el alemán”.
Gianni Infantino, presidente de la FIFA durante la Copa del Mundo en Catar, 2022.
Fue Beatriz de Vera la que publicó en la página web de la agencia SiNC un resumen de lo que sabemos hasta ahora de los pelirrojos. Primero aclarar que, a pesar de la muchedumbre de pelirrojos que abruma a Sir Arthur Conan Doyle (de las declaraciones de Gianni Infantino no comento nada), solo suponen entre el 1% y el 2% de la población mundial. Son las variantes de un solo gen, el MC1R, los que provocan el color rojo del pelo. Se han detectado siete variantes de este gen que, más otros 50 a 70 genes, son, en conjunto, los responsables de la pigmentación de la piel provocada por la síntesis del pigmento melanina en las células especializadas de la piel llamadas melanocitos.

Tal como cuentan en su revisión Saioa López y sus colegas, de la UPV/EHU, el gen MC1R codifica una proteína que actúa como receptor de la hormona melanocortina que se sintetiza en la hipófisis. Este receptor está situado en la membrana de los melanocitos, las células de la piel que sintetizan el pigmento melanina. Cuando la melanocortina se une al receptor, en el interior de la célula se dispara la síntesis del pigmento. Si el gen MC1R está mutado, y recordar que se han encontrado siete variantes, el receptor cambia e, incluso, puede no aparecer y, entonces, la célula no recibe el mensaje y el pigmento no se sintetiza. El resultado es la piel clara, sin o con poca melanina, y, en su caso, con el pelo rojo, y según la mutación del MC1R, con diversas tonalidades de rubio.
Cuando el MC1R funciona normal, se sintetiza el pigmento eumelanina, que da color oscuro a la piel. Cuando el MC1R muta y no funciona normal, se sintetiza el pigmento feomelanina, de color rojo. Y, así, los pelirrojos tienen pelo rojo, manchas en la piel o pecas, y tendencia a quemarse con la exposición al sol por la falta de la protección que supone la eumelanina.
La aparición de estas mutaciones en nuestra especie no está fechada con seguridad. Algunas variantes de este gen ya estaban en los neandertales, que vivieron desde hace 500000 años hasta su extinción hace 40000 años. El grupo de Carlos Lalueza-Fox, de la Universitat de Barcelona, publicó hace unos años que, en los neandertales, hay una mutación del gen MC1R que no se ha encontrado en nuestra especie. Pero los autores proponen que esa mutación provocaría un cambio parecido en el color de la piel y, por tanto, algunos neandertales serían pelirrojos.
La hipótesis más aceptada es que estas mutaciones se seleccionaron porque aclaran la piel y permitieron que las especies del género Homo, y entre ellas la nuestra, colonizaran el norte de Eurasia. En esas regiones hay menos horas de sol y más necesidad de aprovecharlas para la síntesis de vitamina D, esencial para el metabolismo del calcio y el buen funcionamiento de los huesos. Una piel más clara ayuda a una mayor absorción de la luz solar y a una mayor síntesis de vitamina D que una piel pigmentada. Por ello, el mayor número de pelirrojos está en Irlanda, Escocia, Inglaterra, Holanda, norte de Alemania, Islandia y Noruega.

Ha sido la típica movilidad de la especie humana la que ha extendido las mutaciones del gen MC1R por el norte de Eurasia. Y, por otra parte, esta extensión de la piel clara en el norte es la causa de que los niños con piel oscura que viven en esa región, para asegurar un crecimiento equilibrado, reciben suplementos nutricionales con vitamina D en países como Inglaterra, Noruega y Suecia.
Han estudiado la distribución del gen MC1R en el sur de Europa Santos Alonso y sus colegas de la UPV/EHU en Leioa. Secuenciaron el gen en 1217 individuos de España, con muestras de 21 poblaciones, incluyendo una de las islas Canarias. Los autores concluyen que destacan dos fuerzas evolutivas que actúan sobre el gen. Por una parte, tienden a mantener la formación ancestral del gen, la más común en África, y para ello se eliminan las mutaciones que vayan apareciendo. Pero, por otro lado, una de las mutaciones, la V60L, aparece con una frecuencia mayor de la esperada y es la que lleva a la piel clara y al pelo rubio o pelirrojo. Aparece, sobre todo, en las poblaciones del norte de la Península con menos radiación ultravioleta.
Esa misma movilidad de nuestra especie que llevó las mutaciones de piel clara al norte de Eurasia también es la causa de que hayan llegado a países con más sol. Este cambio ha supuesto que puedan desarrollar cáncer de piel, incluido el más agresivo, el melanoma. El pigmento de la piel defiende la superficie del cuerpo del componente ultravioleta de la luz solar que, si atraviesa la piel, puede dañar el ADN de las células y, en último término, provocar la aparición de células cancerosas.
Hay autores, como el grupo de Devarati Mitra, del Hospital General de Massachusetts, que afirman que la síntesis y presencia de feomelanina, el pigmento de color rojo típico de los pelirrojos, ya es un riesgo de desarrollo de cáncer, incluso no depende de la dosis de luz ultravioleta solar recibida.
Por cierto, las hormonas femeninas, como el estrógeno y la progesterona, provocan también la síntesis de melanina. Así, las mujeres, incluso las pelirrojas, tienen la piel más oscura que los hombres. Además, con manchas en la piel, como las típicas pecas de las pelirrojas. Y más todavía durante el embarazo, con una mayor producción de hormonas, más síntesis de melanina y, en consecuencia, más morenas, aunque sea en invierno.

Hay características de los pelirrojos todavía sin explicación, tal como cuentan Bárbara Hernando y su grupo, de la Universitat Jaume I de Castellón. Los pelirrojos tienen el umbral del dolor más bajo, la sangre tarda más en coagular y, en las mujeres pelirrojas, hay una mayor tendencia a la endometriosis.
Según el estudio de Catherine Binkley y su equipo, de la Universidad de Louisville, las mutaciones del gen MC1R se relacionan con mayor miedo a los dentistas, quizá por ese umbral del dolor más bajo, y, a su vez, con mayor ansiedad en la consulta del dentista e, incluso, los pelirrojos doblan el número de los que evitan las revisiones dentales respecto a quienes no tienen cambios en el MC1R. Es más, muchos pelirrojos ni siquiera van al dentista.
En el estudio de C.L. Randall y su grupo, de la Universidad de Pittsburgh, con el seguimiento de 817 voluntarios, con el 62% mujeres y edad media de 34.7 años, encuentran que las variantes del gen MC1R influyen en la percepción de dolor dental y, a su vez, predisponen a los pacientes a desarrollar un mayor temor la dolor lo que, por su parte, aviva los temores a los tratamientos dentales.
Los expertos en anestesia comparten la sensación, basada en anécdotas que se cuentan entre ellos, de que los pacientes pelirrojos necesitan más anestesia que los que tienen otro color de pelo. Edwin Liern y sus colegas, de la Universidad de Louisville, en Kentucky, lo han ensayado con 20 mujeres, de 18 a 40 años de edad, 10 de ellas pelirrojas y el resto con pelo oscuro. El dolor lo provocan con pequeñas descargas eléctricas intradérmicas y se elimina con diferentes dosis de anestesia.
Los resultados muestran que las pelirrojas necesitan un 19% más de anestesia para no sentir dolor. Los autores no encuentran una explicación clara de esta diferente sensibilidad al dolor en personas con el pelo rojo.
Referencias:
Binkley, C.J. et al. 2009. Genetic variations associated with red hair color and fear dental pain, anxiety regarding, dental care and avoidance of dental care. Journal of American Dental Association 140: 896-905.
Hernando, B. et al. 2016. Sex and MC1R variants in human pigmentation: Differences in tanning hability and sensitivity to sunlight between sexes. Journal of Dermatological Science doi: 10.1016/j.jdemsci.2016.09.004
Lalueza-Fox, C. et al. 2007. A Melanocortin 1 Receptor allele suggests varying pigmentation among Neanderthals. Science 318: 1453-1455.
Liern, E.B. et al. 2004. Anesthetic requirement is increased in redheads. Anesthesiology 101: 279-283.
López, S.et al. 2012. Evolution of human skin pigmentation. Genetic factors underlying variability and association with eye and hair color. Revista Española de Antropología Física 33: 7-19.
Martínez-Cadenas, C. et al. 2013. Simultaneous purifying selection on the ancestral MC1R allele and positive selection on the melanoma-risk allele V60L in South Europeans. Molecular Biology and Evolution 30: 2654-2665.
Mitra, D. et al. 2012. An ultraviolet radiation independent pathway in melanoma carcinogenesis in the red hair/fair skin background. Nature doi: 10.1038/nature11624
Randall, C.L. et al. 2016. Fear of pain mediates the association between MC1R genotype and dental fear. Journal of Dental Research 95: 1132-1137.
Robles Espinoza, C.D. et al. 2015. Germline MC1R status influences somatic mutation burden in melanoma. Nature Communications DOI: 10.1038/ncomms12064
Vera, B. de. 2016. La ciencia de los pelirrojos. SiNC La ciencia es noticia 17 septiembre.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Los pelirrojos se ha escrito en Cuaderno de Cultura Científica.
¿Qué es realmente una dieta saludable y sostenible?
Según la Organización de las Naciones Unidas para la Alimentación (FAO), las dietas sostenibles son aquellas que generan un impacto ambiental reducido, contribuyen a la seguridad alimentaria y nutricional y a que las generaciones actuales y futuras lleven un estilo de vida saludable. Además de proteger y respetar la biodiversidad y los ecosistemas, son culturalmente aceptables, accesibles, económicamente justas y asequibles y nutricionalmente adecuadas, inocuas y saludables, optimizando los recursos naturales y humanos.
En la actualidad, la necesidad de cambiar a dietas y sistemas alimentarios más sostenibles es cada vez más evidente. De hecho, en la última década cada vez más países del mundo han empezado a incorporar consideraciones de sostenibilidad en sus políticas alimentarias y programas de educación al consumidor.
Pero ¿somos conscientes del impacto ambiental que provocan nuestras elecciones alimentarias? ¿Cómo podemos reducir la huella de carbono asociada a nuestra alimentación? Y, sobre todo, ¿sabemos con certeza qué características debe reunir nuestra dieta para que sea saludable a la par que sostenible?
Para tratar de arrojar luz sobre estas cuestiones, Nerea Telleria, doctora en Nutrigenómica y Nutrición Personalizada por la Universidad del País Vasco UPV/EHU, ofreció el pasado 19 de enero la charla “¿Qué es realmente una dieta saludable y sostenible?” en la Biblioteca Bidebarrieta de Bilbao.
Durante la charla, además de dar respuesta a las preguntas planteadas, Telleria, investigadora del grupo Alimentación Sostenible de la UPV/EHU, explicará algunas claves para seguir una dieta saludable y sostenible como, por ejemplo, tener una alimentación basada principalmente en alimentos de origen vegetal, optar por alimentos locales y de temporada, reducir el consumo de carne roja, alimentos ultraprocesados o bebidas azucaradas, así como minimizar el desperdicio de alimentos, entre otras recomendaciones.
Para saber más:
La dieta saludable es cuestión de química
Ni dieta equilibrada ni nutrientes. Es cosa de adherencia
Edición realizada por César Tomé López
El artículo ¿Qué es realmente una dieta saludable y sostenible? se ha escrito en Cuaderno de Cultura Científica.
Dispositivos microfluídicos de separación de plasma por impresión 3D
El Clúster de Microfluídica de la UPV/EHU ha utilizado una formulación de resina hecha a medida para impresión 3D de alta resolución para la fabricación de dispositivos modulares de separación de plasma que trabajan con tamaños de muestra muy reducidos. La metodología empleada demuestra la gran contribución que esta tecnología microfluídica puede aportar al mercado de los dispositivos biomédicos de separación de plasma.
En el marco de los dispositivos de tipo ‘Lab-on-a-Chip’, que integran una o varias funciones propias de un laboratorio en un único chip de dimensiones milimétricas, se están desarrollando con éxito pruebas de diagnóstico para la determinación de biomarcadores en sangre. Las mejoras que la microfluídica puede aportar al análisis y a los dispositivos de tipo médico son muy sustantivas, porque se trabaja con cantidades muy pequeñas y se obtienen los mismos resultados. La impresión 3D ha tenido un impacto significativo en este campo, aunque el desarrollo de plataformas microfluídicas impresas en 3D totalmente funcionales con componentes integrados sigue siendo un reto.
Las células sanguíneas interfieren en muchas determinaciones de biomarcadores, lo que conduce a valores de concentración inexactos. De ahí que la separación del plasma sea un paso crítico para mejorar el rendimiento analítico y desarrollar sistemas de detección fiables y precisos. La estudiante de doctorado del Clúster de Microfluídica de la UPV/EHU Sandra García Rey utilizó una formulación de resina hecha a medida para impresión 3D de alta resolución para lograr una rápida optimización de un prototipo operativo de un módulo de separación de plasma.
Nuevos dispositivos biomédicos de separación de plasma“Imagínate un canal de unas cinco o diez micras —explica el doctor Fernando Benito López, uno de los investigadores principales del clúster—, cuya superficie está funcionalizada con receptores para capturar cierta molécula, o biomarcador, de la sangre y analizarla mediante fluorescencia. Los glóbulos rojos impedirían la visión de esa fluorescencia. Por tanto, hemos generado una especie de agujero donde se eliminan los glóbulos blancos y rojos por gravedad; así, por el canal solo pasa el plasma y se eliminan las interferencias que podrían provocar en el sistema integrado de detección por métodos ópticos. Es decir, este módulo se pondría delante del sistema de análisis”. En opinión de Benito López, este nuevo sistema permite que todo el proceso esté integrado dentro del dispositivo fluídico. Además, el dispositivo mejora la calidad del análisis, “porque es más rápido y se producen menos errores, porque la intervención humana es menor”.
El dispositivo microfluídico fabricado para separar el plasma de la sangre de forma fácil y fiable ha demostrado el potencial de la tecnología de impresión estereolitográfica (tecnología láser que emplea una resina líquida sensible a la luz UV) en 3D para la microfabricación. “Se puede conseguir una estructura fluídica óptima de una forma mucho más rápida que utilizando métodos convencionales, como la fotolitografía”, señala el doctor Benito López. Los investigadores afirman que esta investigación permitirá la fabricación de dispositivos de una sola pieza impresos en 3D con componentes de separación de plasma integrados para la detección de biomarcadores en la sangre. Además, han demostrado que “se puede trabajar con diferentes resinas”.
Referencia:
Sandra Garcia-Rey, Jacob B. Nielsen, Gregory P. Nordin, Adam T. Woolley, Lourdes Basabe-Desmonts, Fernando Benito-López (2022) High-Resolution 3D Printing Fabrication of a Microfluidic Platform for Blood Plasma Separation Polymers DOI: 10.3390/polym14132537
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Dispositivos microfluídicos de separación de plasma por impresión 3D se ha escrito en Cuaderno de Cultura Científica.
Chladni y el eufón
Cuando un cuerpo vibra (y hay alguien cerca para oírlo), decimos que produce sonido [*] . En ocasiones, esa vibración es periódica. Entonces nos produce una sensación de “tono” que viene determinada por la frecuencia natural de vibración del objeto. Si lo que vibra es una cuerda, por ejemplo, su tono tendrá una frecuencia fundamental que depende de su longitud, su grosor y su tensión. Pero además de esta frecuencia fundamental, el tono está compuesto por una serie de armónicos cuyas frecuencias son múltiplos de la fundamental.
Las cuerdas, como los tubos de los instrumentos de viento, son objetos alargados, tienen un patrón de vibración aproximadamente unidimensional. Por eso, los sonidos que generan son perfectamente armónicos, sus distintos modos de vibración responden a un único eje de simetría. En cambio, los cuerpos bidimensionales o tridimensionales suelen presentar modos de vibración más complejos, que responden a simetrías respecto a múltiples ejes. En la mayoría de los casos, esto significa que al vibrar producen una onda no periódica, ruidosa o semi ruidosa, que está compuesta por frecuencias no armónicas.
Los modos de vibración de los objetos bidimensionales fueron estudiados por Ernst Chladni. Este físico, considerado como el padre de la Acústica, es recordado por las figuras que llevan su nombre y que ya exploramos en otra entrada del Cuaderno de Cultura Científica. Al rociar un polvo fino sobre una superficie sonora, como una plancha de cristal o de metal, este tiende a acumularse sobre los nodos del movimiento, haciendo visible la vibración. Es un fenómeno muy sorprendente, resulta casi hipnótico. Pero además de estos experimentos, Chladni fue el primer físico que estudió de manera sistemática la vibración del diapasón, alrededor del año 1800. Lo modeló como una barra recta, libre por ambos extremos, que se dobla gradualmente hasta alcanzar una forma de U. Aunque hoy sabemos que este modelo no permite calcular correctamente los sobretonos del diapasón [1], el trabajo de Chladni allanó el camino que convertiría a este instrumento en una herramienta indispensable en toda orquesta y en todo laboratorio de física durante el siglo XIX.
El interés de Chladni por el diapasón tenía una motivación bastante práctica. Este abogado reconvertido en físico basó su modo de vida en demostraciones públicas de experimentos físicos que representaba por toda Europa. Era una suerte de físico ambulante. Durante sus giras, además de dejar al público anonadado con sus famosas figuras, Chladni solía interpretar música con diversos instrumentos de su propia invención. Uno de los más famosos era el eufón y estaba íntimamente relacionado con el diapasón.

El eufón era un instrumento de teclado que funcionaba con barras de vidrio resonantes, equivalentes a diapasones. Podríamos imaginarlo como en el tatarabuelo del piano Rhodes, solo que sin amplificación, ni martillos, ni grupos de rock melenudos. Estaba inspirado en otro instrumento de cristal que, para desgracia de Chladni, acabó siendo mucho más popular que su propio invento: la armónica de cristal de Benjamin Franklin. Esta armónica consta de una serie de platos o boles de cristal de diferentes tamaños que giran accionados por un pedal. El instrumentista debe mojarse los dedos ligeramente y al rozar con ellos los platos giratorios, produce un sonido brillante y puro. Y sí, el señor que sale en los billetes de cien dólares, además de arquitecto y presidente de los Estados Unidos, en sus ratos libres se dedicaba a inventar instrumentos musicales.
En el eufón, no hay platos giratorios sino unas barras que se frotan contra una rueda giratoria cubierta de fieltro. Hoy es común encontrar instrumentos llamados eufones con barras de metal en internet, aunque el descendiente más claro de este instrumento es el Cristal Baschet.
Aunque el eufón disfrutó de una amplia aclamación en tiempos de Chladni, nunca llegó a establecerse como un instrumento orquestal serio. En parte, porque su sonido resultaba tenue y difícil de modular. Otros instrumentos basados en el diapasón, como el dulcitono, el tipofono, el euphonium y otros inventos de la época corrieron una suerte parecida. Solo en el siglo XX y gracias a la electrónica, los diapasones pudieron proyectar su voz, y con ella, conquistaron de nuevo el mundo de la música.
Referencia:
[1] Daniel A. Russell (2020) The Tuning Fork- An Amazing Acoustics Apparatus Acoustics Today
[*] Nota del editor:
Esta frase, sobre todo la parte entre paréntesis, podría suscitar en un lector precipitado el deseo de iniciar algún tipo de discusión metafísica. Posibilidad que debería disolverse si se define sonido no como «vibración» sino como «la percepción de la vibración por un encéfalo humano», que es como debe interpretarse a la vista de lo que sigue. Sobre esta cuestión véase Sonido (1).
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo Chladni y el eufón se ha escrito en Cuaderno de Cultura Científica.
El rompecabezas del abogado galés
Hace unos días estaba yo documentándome sobre ejemplos de arte textil relacionados con los cuadrados latinos cuando me encontré con el trabajo del biólogo, estadístico, coleccionista de arte textil y artista textil estadounidense Stephen Threlkeld. En la galería de arte Oxford Treehouse Gallery (Oxford Mississippi, Estados Unidos) me encontré con dos obras textiles que llamaron mi atención, Fibonacci Spiral (espiral de Fibonacci) y Latin Square I (cuadrado latino I).

La primera pieza textil, Fibonacci Spiral (espiral de Fibonacci), está relacionada con la famosa sucesión de Fibonacci (véanse las entradas ¡Póngame media docena de fibonaccis!, El origen poético de los números de Fibonacci o Poemas Fibonacci). Esta sucesión numérica empieza con los siguientes números 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, etcétera, y tiene la propiedad de que cada término de la sucesión es la suma de los dos términos anteriores. A partir de esta sucesión se puede construir una espiral de la siguiente forma. Primero se construye una sucesión de cuadrados, cuyos lados están determinados por los números de la sucesión, que se unen formando un rectángulo de la siguiente forma.
Después, en cada cuadrado se traza un arco de circunferencia, de radio igual al lado del correspondiente cuadrado, de forma que la unión de los arcos forma una espiral (véase la siguiente imagen) que recibe el nombre de espiral de Fibonacci.

La segunda obra textil, Latin Square I (cuadrado latino I), es la que llamó mi atención desde la perspectiva de encontrar arte textil relacionado con los cuadrados latinos. Esta obra es, de hecho, un cuadrado latino de orden 5 formado por colores. Recordemos que un cuadrado latino de orden n es un retículo cuadrado de tamaño n x n en el que cada entrada es un número del 1 al n (aunque bien pueden considerarse n símbolos cualesquiera, por ejemplo, las letras del alfabeto latino que utilizó el matemático suizo Leonhard Euler o los colores utilizados por algunos artistas contemporáneos, como el artista concreto Richard P. Lohse o el artista textil Stephen Threlkeld, una de cuyas obras se muestra en la siguiente imagen), de tal forma que cada número de {1,…, n} aparece una vez, y sólo una vez, en cada fila y cada columna. Para más información sobre los cuadrados latinos véase la entrada Cuadrados latinos, matemáticas y arte abstracto.

Si asignamos los números 1, 2, 3, 4, 5 a los colores de la primera fila, el cuadrado latino de orden 5 numérico, asociado al anterior cuadrado latino de colores, es el que aparece en la siguiente imagen.
Tanto este cuadrado latino, como el que aparece en otra de sus obras, Latin Square II (cuadrado latino II), son cuadrados latinos de orden 5 que no están ligados a un grupo algebraico, es decir, no son la tabla de Cayley de un grupo finito de 5 elementos (para más información sobre la relación entre cuadrados latinos y grupos algebraicos, véase la entrada Cuadrados latinos, matemáticas y arte abstracto o el libro Cayley, el origen del algebra moderna). Esta era una propiedad que a mí me interesaba especialmente, aunque el interés de Stephen Threlkeld en los cuadrados latinos, como entenderemos en un momento, no estaba relacionado con el álgebra moderna, sino con su utilización en el diseño de experimentos estadísticos (también en la entrada Cuadrados latinos, matemáticas y arte abstracto se muestra un sencillo ejemplo de este tipo de aplicación en estadística).
Para entender el interés de Stephen Threlkeld en los cuadrados latinos hay que saber más sobre este artista. En la página de la galería de arte Oxford Treehouse Gallery dan una pequeña reseña biográfica que nos permitirá conocerle un poco mejor y entender el motivo de su interés en estos objetos combinatorios.
Stephen Threlkeld se licenció en Oceanografía y se doctoró en Zoología, trabajó como ecólogo acuático y estadístico, fue autor y editor durante unos 40 años, así como profesor de biología. En paralelo, llevaba una segunda vida como coleccionista de arte.
Tras sus primeras incursiones en la pintura y el diseño gráfico, tomó clases para aprender a tejer en Nuevo México y Carolina del Norte, y ahora se expresa artísticamente a través de este medio. Sus tejidos se inspiran a menudo en rasgos y colores del paisaje americano, y a veces incluyen series matemáticas o temas biológicos.
Aunque en esta pequeña reseña biográfica ya nos dan una pista de cuál podía ser el interés de Threlkeld por los cuadrados latinos, cuando me puse en contacto con él, por correo electrónico, para interesarme por estas obras me confirmó que durante sus años de profesor de biología había enseñado en sus clases diseño de experimentos estadísticos.
Por otra parte, en nuestra comunicación por correo electrónico, Stephen Threlkeld llamó mi atención sobre una obra textil suya que yo no había descubierto en mi búsqueda, The Welsh Lawyer (el abogado galés), que estaba basada en el “rompecabezas/problema del abogado galés”, que el estadístico y biólogo británico Ronald A. Fisher (1890-1962), autor del libro The Designs of Experiments / El diseño de experimentos (1935), había propuesto en su libro.

Efectivamente, el estadístico y biólogo Ronald Fisher incluye el siguiente rompecabezas en su libro El diseño de experimentos, por el siguiente motivo, “es útil para familiarizar la mente con las relaciones combinatorias que subyacen en el uso del cuadrado latino, y similares, para el diseño experimental”.
Rompecabezas del abogado galés: Dieciséis pasajeros de un transatlántico descubren que son un grupo excepcionalmente representativo. Cuatro son ingleses, cuatro escoceses, cuatro irlandeses y cuatro galeses. También hay cuatro de cuatro edades diferentes, 35, 45, 55 y 65 años, y no hay dos de la misma edad que sean de la misma nacionalidad. Por profesión, cuatro son abogados, cuatro soldados, cuatro médicos y cuatro clérigos, y no hay dos de la misma profesión con la misma edad o nacionalidad.
También resulta que cuatro son solteros, cuatro casados, cuatro viudos y cuatro divorciados, y que no hay dos del mismo estado civil que tengan la misma profesión, ni la misma edad, ni la misma nacionalidad. Por último, cuatro son conservadores, cuatro liberales, cuatro socialistas y cuatro fascistas, y no hay dos de las mismas simpatías políticas que tengan el mismo estado civil, ni la misma profesión, ni la misma edad, ni la misma nacionalidad.
Se sabe que tres de los fascistas son un abogado inglés soltero de 65 años, un militar escocés casado de 55 años y un médico irlandés viudo de 45 años. Es fácil entonces precisar el fascista restante.
Además, el socialista irlandés tiene 35 años, el conservador de 45 años es escocés y el inglés de 55 años es clérigo. ¿Qué sabes del abogado galés?
La solución de este rompecabezas está relacionada, como mencionaba R. A. Fisher, con los cuadrados latinos, más concretamente con los cuadrados latinos mutuamente ortogonales. A continuación, expliquemos brevemente qué son estos objetos combinatorios, de los que ya habíamos hablado en la entrada Los cuadrados greco-latinos de Leonhard Euler.
Para introducir los cuadrados latinos mutuamente ortogonales vamos a aprovechar un rompecabezas clásico, relacionado con este concepto. En 1725, el matemático francés Jacques Ozanam (1640-1718) incluye en su libro Récréations mathématiques et physiques el siguiente rompecabezas con cartas.
Rompecabezas con cartas de Jacques Ozanam: Colocar los reyes, reinas, jotas y ases de una baraja de cartas, formando un cuadrado 4 x 4, tal que cada fila y cada columna contenga una vez, y solo una vez, cada una de las figuras y cada uno de los palos.
Si nos fijamos un momento en el rompecabezas podemos descubrir que en las soluciones al mismo, ya que hay más de una solución, hay dos cuadrados latinos implicados. Si nos fijamos solo en las figuras (reyes, reinas, jotas y ases) estas forman un cuadrado latino, ya que en la solución “cada fila y cada columna contiene una vez, y solo una vez, cada una de las figuras”, lo mismo ocurre si solo nos fijamos en los palos (corazones, diamantes, tréboles y picas, en la baraja francesa, o copas, oros, bastos y espadas, en la baraja española). Por otra parte, estos dos cuadrados latinos están relacionados por el hecho de que cada carta tiene una figura y un palo, y esa carta es la única con esa figura y ese palo. Esta propiedad es la que nos va a indicar que los dos cuadrados latinos, de figuras y de palos, son mutuamente ortogonales. Pero antes de meternos en este concepto combinatorio, veamos alguna solución del rompecabezas de las cartas de Jacques Ozanam.

Como vemos en la imagen, tanto las figuras, como los palos, de estas dos soluciones, son cuadrados latinos. Pero vayamos al concepto matemático que recoge que los cuadrados latinos sean mutuamente ortogonales.
Dados dos cuadrados latinos L1 y L2 de orden n (es decir, que son retículas de tamaño n x n con una serie de n símbolos, por ejemplo, los números del 1 al n, distribuidos en la retícula según el concepto de cuadrado latino, luego cada símbolo aparece una vez, y sólo una vez, en cada fila y cada columna) se puede construir con ellos un nuevo retículo cuadrado n x n formado por pares ordenados de símbolos de esos dos cuadrados latinos, de forma que cada casilla del retículo está formada por el par ordenado que consiste en el símbolo de la misma casilla del cuadrado latino L1 y el símbolo de la misma casilla de L2 (los símbolos de cada cuadrado latino pueden ser distintos, por ejemplo, Leonhard Euler utilizaba letras latinas para uno de los cuadrados latinos y letras griegas para otro, por eso, al retículo que se forma con los dos se le suele llamar cuadrado greco-latino). Entonces, se dice que los cuadrados latinos son mutuamente ortogonales si cada uno de los n2 posibles pares ordenados, formados por los n símbolos, aparece exactamente una vez en toda la retícula n x n, como en el siguiente ejemplo.

Como se observa en la anterior imagen tenemos dos cuadrados latinos de orden 4, uno con letras griegas y otro con letras latinas, de forma que al formar el retículo 4 x 4 de los pares ordenados están las 16 combinaciones posibles de pares de letra griega y letras latina (y solo una vez). Aunque si preferís ver el ejemplo con números, sería el que aparece en la siguiente imagen.

Hemos visto dos cuadrados latinos de orden 4 que son mutuamente ortogonales, pero también existen cuadrados latinos (como el siguiente, de orden 4) que no admiten ningún cuadrado latino tal que ambos sean mutuamente ortogonales.

No es difícil demostrar que no existe un cuadrado latino de orden 4 que junto al anterior sean mutuamente ortogonales. Dejo esta pequeña cuestión como problema para quien quiera disfrutar del placer de la demostración.
Como se explica en la entrada Los cuadrados greco-latinos de Leonhard Euler, el matemático suizo Leonhard Euler introdujo y estudió, en los artículos De Quadratis Magicis (1776) y Recherches sur une nouvelle espece de carrés magiques (1782), los cuadrados greco-latinos como un nuevo método para construir cuadrados mágicos, aunque también el matemático coreano Choi Seok-jeong (1646-1715), en su texto Gusuryak (1700), utilizó cuadrados latinos ortogonales para construir un cuadrado mágico (véase Las matemáticas como herramienta de creación artística).
Por otra parte, el concepto de cuadrados latinos mutuamente ortogonales se puede extender a más de dos cuadrados latinos de la siguiente forma. Dados k cuadrados latinos de orden n, L1, L2, …, Lk, se dice que son mutuamente ortogonales si son mutuamente ortogonales dos a dos. Veamos un par de ejemplos. El primero está formado por los siguientes tres cuadrados latinos mutuamente ortogonales.

Los dos primeros claramente son mutuamente ortogonales ya que son el ejemplo que hemos mostrado más arriba. Además, el primero y el tercero son mutuamente ortogonales, así como el segundo y el tercero, como se puede observar a través de los retículos 4 x 4 formados a partir de esas parejas de cuadrados latinos (primero y tercero; segundo y tercero), los cuadrados greco-latinos asociados, que se muestran en la siguiente imagen.
Otro ejemplo serían los siguientes cuatro cuadrados latinos de orden 5 que son también mutuamente ortogonales (como podéis comprobar vosotros mismos).
Al igual que a partir de dos cuadrados latinos de orden n mutuamente ortogonales se puede construir el nuevo retículo n x n, el cuadrado greco-latino, para k cuadrados latinos de orden n mutuamente ortogonales se puede también definir un nuevo retículo formado por las k-tuplas ordenadas de los elementos de los k cuadrados latinos, una especie de cuadrado greco-latino generalizado, que recoge la información de los k cuadrados latinos. Por ejemplo, en el caso de los tres cuadrados latinos de orden 4 mutuamente ortogonales anteriores, el cuadrado greco-latino generalizado asociado es el que aparece en la siguiente imagen.
Existe mucha investigación sobre los cuadrados latinos mutuamente ortogonales, aunque en esta entrada solo vamos a comentar un resultado importante. Una pregunta lógica cuando se introduce el concepto de cuadrados latinos de orden n mutuamente ortogonales es cuántos cuadrados latinos pueden ser mutuamente ortogonales para cada orden. Por ejemplo, para orden 2 no hay cuadrados mutuamente ortogonales, ya que los dos únicos cuadrados latinos de orden 2 (véase la siguiente imagen) no son mutuamente ortogonales.
Para orden 3 solo puede haber dos cuadrados latinos que sean mutuamente ortogonales, como los de la siguiente imagen, pero no podemos conseguir tres cuadrados latinos de orden 3, entre los 12 que existen, que sean mutuamente ortogonales.
Para orden 4 solo pueden conseguirse hasta tres cuadrados latinos mutuamente ortogonales, como en el ejemplo anterior, pero ya no es posible encontrar cuatro cuadrados latinos de orden 4 que sean mutuamente ortogonales. De hecho, en general, para cuadrados latinos de orden n, la cantidad de cuadrados latinos que pueden llegar a ser mutuamente ortogonales –que se suele denotar N(n)– siempre es menor o igual que n – 1. Aunque no siempre se alcanza la cantidad n – 1. De hecho, para n = 6 no existen cuadrados latinos (de orden 6) mutuamente ortogonales, luego N(6) = 1, es la conocida conjetura de Euler, probada por el matemático amateur francés Gaston Tarry en 1901 (véase la entrada Los cuadrados greco-latinos de Leonhard Euler).

Pero volvamos al rompecabezas del abogado galés. Los datos de este problema eran los siguientes:
“Dieciséis pasajeros de un transatlántico descubren que son un grupo excepcionalmente representativo. Cuatro son ingleses, cuatro escoceses, cuatro irlandeses y cuatro galeses. También hay cuatro de cuatro edades diferentes, 35, 45, 55 y 65 años, y no hay dos de la misma edad que sean de la misma nacionalidad. Por profesión, cuatro son abogados, cuatro soldados, cuatro médicos y cuatro clérigos, y no hay dos de la misma profesión con la misma edad o nacionalidad.
También resulta que cuatro son solteros, cuatro casados, cuatro viudos y cuatro divorciados, y que no hay dos del mismo estado civil que tengan la misma profesión, ni la misma edad, ni la misma nacionalidad. Por último, cuatro son conservadores, cuatro liberales, cuatro socialistas y cuatro fascistas, y no hay dos de las mismas simpatías políticas que tengan el mismo estado civil, ni la misma profesión, ni la misma edad, ni la misma nacionalidad.”
Las hipótesis del rompecabezas nos recuerdan al concepto de cuadrados latinos mutuamente ortogonales. De hecho, se puede resolver con los tres cuadrados latinos de orden 4 anteriores (que en esencia es el único ejemplo para ese orden), como veremos a continuación.
Vamos a considerar que las columnas del cuadrado greco-latino generalizado (de orden 4) que vamos a asociar al problema, que numeramos 1, 2, 3, 4, son las nacionalidades de los pasajeros (1 = inglés, 2 = escocés, 3 = irlandés, 4 = galés) y que las filas son los estados civiles de los pasajeros (1 = divorciado, 2 = viudo, 3 = casado, 4 = soltero). Además, vamos a designar con las cuatro primeras letras griegas (alpha, beta, gamma, delta) las simpatías políticas, que representaremos como el primer cuadrado latino del ejemplo anterior (ya que sabemos que ninguno de los pasajeros comparte nacionalidad, estado civil y simpatías políticas, aunque aún no sabemos la correspondencia con las cuatro opciones (conservador, liberal, socialista y fascista), que descubriremos más adelante con la información extra del rompecabezas. El segundo cuadrado latino de orden 4 del ejemplo (que junto al anterior cuadrado latino son mutuamente ortogonales) lo vamos a utilizar para las edades (35, 45, 55 y 65) y las denotaremos con letras latinas minúsculas (a, b, c d), que nos interesa que ambos cuadrados latinos sean mutuamente ortogonales ya que ninguno de los pasajeros comparte nacionalidad, estado civil, simpatías políticas y edades. Finalmente, el tercer cuadrado latino, que junto a los otros dos son mutuamente ortogonales, lo utilizaremos para las profesiones (abogado, soldado, médico y clérigo) y las denotaremos con las letras latinas mayúsculas (A, B, C, D). Todo esto lo podemos resumir en la siguiente imagen.
Pero el rompecabezas nos da algo más de información:
“Se sabe que tres de los fascistas son un abogado inglés soltero de 65 años, un militar escocés casado de 55 años y un médico irlandés viudo de 45 años. Es fácil entonces precisar el fascista restante.
Además, el socialista irlandés tiene 35 años, el conservador de 45 años es escocés y el inglés de 55 años es clérigo. ¿Qué sabes del abogado galés?”
Esta información nos va a permitir conocer qué letras representan a qué características. Así, como: i) uno de los fascistas es soltero, inglés, abogado y de 65 años, nos vamos al cuadrado greco-latino generalizado anterior y miramos a la casilla que corresponde con inglés (columna 1) y soltero (fila 4), luego “delta d D”, de donde deducimos que delta = fascista, d = 65 y D = abogado; ii) otro fascista es militar escocés (columna 2) casado (fila 3) de 55 años, de donde sacamos que b = 55 y A = militar; iii) otro es médico irlandés (columna 3) viudo (fila 2) de 45 años, por tanto, a = 45 y C = médico; respecto al cuatro fascista, por el que nos preguntan en el rompecabezas, como no hay dos pasajeros que compartan nacionalidad, estado civil, simpatías políticas, edades y profesiones, entonces tiene que ser divorciado (fila 1), galés (columna 4), clérigo y de 35 años, de donde c = 35 y B = clérigo.
Las asignaciones que faltan, para las letras griegas, la sacamos de la información restante. El socialista irlandés (columna 3) tiene 35 años (c), luego como en la columna 3 la casilla con una c es “beta c A”, entonces beta = socialista; además, el socialista irlandés que tiene 35 años es militar y está soltero. Como el conservador de 45 años (a) es escocés (columna 2), luego miramos la columna 2, la casilla con la letra a, que es “gamma a B”, de donde, gamma = conservador; y podemos completar su información conservador, escocés, 45 años, clérigo y soltero. Ya solo nos falta saber a qué corresponde alpha, que por descarte es alpha = liberal.
Recogiendo toda esta información en el retículo cuadrado tenemos:
La pregunta del rompecabezas es “¿Qué sabes del abogado galés?”. Si tenemos en cuenta que abogado es la letra D y galés es la columna 4, vamos a la casilla que tiene la letra D en la columna 4, que es “beta a D”, en la fila 3, de donde deducimos que:
¡el abogado galés es socialista, está casado y tiene 45 años!
Para terminar solo me queda animaros a que volváis a ver la obra textil The Welsh Lawyer (el abogado galés), de Stephen Threlkeld, que la disfrutéis y que comprobéis que efectivamente es el cuadrado greco-latino generalizado de tres cuadrados latinos de orden 4 mutuamente ortogonales.
Bibliografía:
1.- Raúl Ibáñez, Cayley, el origen del algebra moderna, RBA, 2017.
2.- Raúl Ibáñez, Del ajedrez a los grafos, la seriedad matemática de los juegos, El mundo es matemático, RBA, 2015.
3.- Raúl Ibáñez, Las matemáticas como herramienta de creación artística, Catarata, 2023 (pendiente de publicación).
4.- Stephen Threlkeld, comunicación privada
5.- Página web del artista Stephen Threlkeld
6.- Ronald A. Fisher, The Designs of Experiments, Oliver and Boyd, 1935.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El rompecabezas del abogado galés se ha escrito en Cuaderno de Cultura Científica.
Neurociencia de la conducta social
Es conocido que el contacto social genera sensaciones positivas, afecto, vínculos y confianza, que pueden desembocar en el establecimiento de relaciones interpersonales a distinta escala: familias, redes sociales, comunidades y sociedades. El contacto social promueve la salud tanto mental como física y es clave para el bienestar a largo plazo. Sin embargo, el contexto en el que se establece el contacto social también puede generar sensaciones negativas relacionadas con el tipo y la cantidad de contacto que estén socialmente aceptados, algo en lo que intervienen variables como el género, la raza, la edad, el estatus o la cultura.

La conducta social viene de serie: está programada en el sistema nervioso de forma estereotípica y es específica de cada especie, si bien está modulada en cada individuo por sus experiencias previas. Solo ahora estamos empezando a comprender la interacción entre los circuitos neuronales subyacentes, desde la periferia (la piel) hasta el encéfalo, donde se generan respuestas conductuales ante el contacto social.
En 2019, el investigador Ikerbasque Mazahir T. Hasan, del centro Achucarro Basque Center for Neuroscience, desarrolló una tecnología genética llamada vGATE por sus siglas en inglés (virus-delivered Genetic Activity-induced Tagging of cell Ensembles) [1] que permite identificar y marcar permanentemente circuitos cerebrales activados vía experiencias previas. Lo verdaderamente revolucionario de la tecnología vGATE es que permite que las neuronas marcadas puedan ser manipuladas de diversas formas, lo que abre la puerta a investigar de manera precisa sus propiedades y poder así asociar el papel de los circuitos concretos con experiencias sensoriales y procesos de aprendizaje, memoria y conducta.
Los ratones se utilizan en neurociencia para estudiar varios tipos de conducta social. Cuando dos ratones se encuentran por primera vez sus interacciones a lo largo del tiempo se pueden dividir en varias fases: detección, acercamiento, investigación y acción. Los investigadores emplearon el sistema vGATE [2] centrándose en una región del cerebro: el núcleo intralaminar posterior del tálamo. Con este sistema, identificaron y marcaron ensamblajes celulares (o engramas) activados por el contacto social.
En las neuronas objetivo los investigadores introdujeron una proteína capaz de activarlas con un control temporal preciso. La activación quimiogenética de las neuronas marcadas provocó un aumento en las interacciones físicas directas entre roedores hembras familiares sin afectar otras maneras de conducta social. Los investigadores concluyeron que los engramas o ensamblajes identificados muy probablemente modulan la conducta social en mamíferos.
Neurociencia de la conducta socialEste resultado es solo un primer paso para elaborar una neurociencia de la conducta social. En estudios futuros el sistema vGATE podría ser utilizado para mapear y manipular circuitos encefálicos asociados a diferentes tipos de conducta social, incluyendo la cooperación.
Un posibilidad muy interesante surge del hecho de que el sistema vGATE también es capaz de identificar circuitos encefálicos alterados, anormales o patológicos. Así, proyectos futuros podrían descifrar la conexión entre el contacto de la piel y los circuitos encefálicos donde la experiencia del tacto puede transformarse en respuestas conductuales diferentes dependiendo del estado del propio encéfalo. Si bien el contacto social táctil puede provocar sensaciones positivas en una mayoría de individuos, en otros puede provocar lo contrario, como es común en un gran número de individuos neurodivergentes, por ejemplo con trastorno del espectro autista (TEA).
Comprender los mecanismos que utilizan los circuitos encargados del contacto social, así como la conducta que sigue a esta activación, podría abrir nuevos e innovadores caminos para el campo de la terapéutica de los circuitos cerebrales. Algo que haría algo más fácil la vida de las personas con TEA.
Referencias:
[1] Hasan et al. (2019) A fear memory engram and its plasticity in the hypothalamic oxytocin system Neuron doi: 10.1016/j.neuron.2019.04.029
[2] Keller et al. (2022) A thalamo-preoptic pathway promotes social grooming in rodents Current Biology doi: 10.1016/j.cub.2022.08.062
Para saber más:
Mala neurociencia
Todo cabe en el encéfalo
Carácter emocional e hipersocial del cerebro
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Neurociencia de la conducta social se ha escrito en Cuaderno de Cultura Científica.
¿Una pluma en el manto de Marte?
En la geología planetaria estamos acostumbrados a ir cambiando la visión de nuestro Sistema Solar de tanto en tanto. Casi podríamos decir que nuestra concepción de la vida interna de los planetas y satélites de nuestro vecindario planetario era bastante aburrida hasta entrada la década de los ochenta.
Las misiones espaciales cada vez más capaces y numerosas nos obligaron a cambiar la mentalidad: nuestro Sistema Solar vivía más allá de la Tierra. Veíamos volcanes activos en pequeñas lunas y superficies jóvenes que nos indicaban que la geología había transformado recientemente las caras de algunos planetas y otros tantos satélites. Esto ha supuesto una verdadera revolución y un cambio de paradigma, hasta cierto punto inesperado, que de nuevo demuestra que nuestro planeta no es único ni especial, sino que forma parte de una diversidad de cuerpos con distintos grados de actividad interna y externa. Esta diversidad no podía conocerse hasta el inicio de la carrera espacial, porque para hacer geología muchas veces lo primero que tiene que hacer el geólogo es mirar y poder ver.
En ese reconocimiento de ignorancia, pero también de humildad, son muchas las sorpresas que nos está desvelando Marte en los últimos años, quizás también porque es el cuerpo mejor explorado hasta el momento que no sea la Tierra o la Luna.

Pienso ahora en las primeras imágenes que tomamos de la superficie de Marte con la misión Mariner IV en 1965 y el jarro de agua fría que pudo suponer a los científicos el ver de cerca un planeta en apariencia muerto. Sin ríos, sin océanos, sin actividad volcánica aparente y cubierto por cráteres. Muy diferente a los mapas con “canales” que incluso en la década de los 60 todavía aparecían sobre las cartografías -aunque cada vez menos científicos creían que existían-, pero que daban el aspecto de que algo se movía en el planeta.
Con cada pizca de conocimiento ganado nos hemos dado cuenta de que nuestro Sistema Solar no es un lugar de blancos y negros, sino que hay una escala de grises que hace que cada cuerpo sea diferente a todos los demás, aunque en el fondo seamos muy parecidos.

En abril de este año nos hacíamos otra pregunta “¿Hay terremotos de origen volcánico en Marte?”, ya que la misión InSight, que aterrizó en 2019 en Marte, detectó unos terremotos cuya forma de onda recordaba mucho a algunos terremotos de origen volcánico en nuestro planeta.
Lo curioso del caso es que aterrizó en un sitio que, a priori, parecía aburrido, pero lo suficientemente plano como para posarse sin problemas y encontrar un hueco entre las rocas donde colocar el sismógrafo, pero a una distancia lo suficientemente cerca de un punto de gran interés donde parecía haber existido actividad en el pasado reciente, tanto a nivel volcánico como a nivel sísmico.
¿Qué fuerza estaba alimentando esos fenómenos? ¿Está Marte todavía activo en su interior? Hoy sabemos que Marte tuvo una gran actividad geológica en los primeros 1000 o 1500 millones de años después de su formación, pero que paulatinamente esta fue descendiendo hasta convertirse en el Marte aparentemente frío que observamos hoy.
Pero las observaciones nos remiten a erupciones volcánicas que pudieron ocurrir hace tan solo unos 50.000 años, un tiempo verdaderamente reciente a escala geológica en una región conocida como Elysium Planitia, y donde el número de eventos sísmicos parece más alto que en el resto del planeta.
Un nuevo estudio publicado en Nature Astronomy da un verdadero golpe de efecto explicando la causa de esta actividad: una pluma en el manto de Marte. ¿Qué son las plumas del manto? Bueno, para que nos hagamos una idea son masas de roca a muy alta temperatura que comienzan a ascender a través del manto gracias a su menor densidad.

Para quien no se imagine como son este tipo de fenómenos, una forma sencilla de visualizarlo es mediante una lámpara de lava, en la que un material -normalmente una cera- es más densa que el agua cuando está fría y cae hacia el fondo de la lámpara, pero cuando se calienta en contacto con la bombilla que hay debajo e ilumina la lámpara se expande y logra flotar hasta la parte de arriba.
En nuestro planeta las plumas del manto son responsables de la formación de archipiélagos como el de Hawái o también de grandes erupciones volcánicas como las que ocurren en lo que denominamos grandes provincias ígneas.
Precisamente, una de las explicaciones sobre la existencia de volcanes de gran tamaño como los que vemos en la región marciana de Tharsis es la existencia de una pluma que alimentó durante mucho tiempo el vulcanismo, permitiendo un importante crecimiento de los edificios volcánicos desde un punto fijo, a diferencia de nuestro planeta, donde la corteza se iría moviendo sobre la pluma del manto debido a la tectónica de placas.
Los científicos han encontrado distintas evidencias -además de la actividad volcánica- que apuntan en la dirección de que la actividad observada hoy día en la región de Elisyum Planitia tiene como origen una pluma todavía activa hoy en el manto de Marte, contradiciendo la visión que teníamos anteriormente en la que Marte era un planeta prácticamente inactivo por dentro.

¿Cuáles son estas evidencias? La primera es que estos materiales han abombado la corteza de Marte en más de 1500 metros en algunos puntos, y los análisis gravimétricos muestran que esta deformación está sustentada por los materiales que hay abajo.
Y hay dos expresiones geológicas y topográficas que complementan esta observación: La primera es que los cráteres anteriores al ascenso de esta pluma del manto están inclinados, como si algo les hubiese empujado desde abajo, y además esta inclinación tiene consistencia con el abombamiento de la corteza.
El segundo es que este hinchamiento provoca una extensión de la corteza que se traduce en la presencia de fallas normales y fosas tectónicas como Cerberus Fossae, que a su vez es el punto donde se ha detectado la actividad sísmica y volcánica más reciente del planeta.
Todos estos datos apuntan a la posible existencia de una pluma de más de 4000 kilómetros de diámetro, lo que hace que tengamos que replantearnos que mecanismo puede hacer que todavía a día de hoy haya una pluma como esta activa en el interior de Marte.
Este descubrimiento no solo tiene implicaciones puramente geológicas, sino que también puede tener algunas de orden astrobiológico, ya que la presencia de unas temperaturas adecuadas cerca de la superficie podría generar ambientes habitables en el interior de Marte, convirtiendo este lugar en una diana perfecta para la búsqueda de vida pasada o presente en el planeta rojo.
Referencia:
Broquet, A., Andrews-Hanna, J.C. (2022) Geophysical evidence for an active mantle plume underneath Elysium Planitia on Mars. Nat Astron doi: 10.1038/s41550-022-01836-3
Para saber más:
¿Hay terremotos de origen volcánico en Marte?
Vulcanismo y habitabilidad planetaria
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo ¿Una pluma en el manto de Marte? se ha escrito en Cuaderno de Cultura Científica.
Las religiones condicionan los valores culturales

Han estudiado la influencia de la nacionalidad y las creencias religiosas en la semejanza o diferencia entre los valores culturales de la gente. Lo han hecho a partir de las respuestas dadas en la Encuesta Mundial de Valores por 243,118 personas de 88 países, entre 2005 y 2019. El estudio ha arrojado resultados interesantes pero, antes de glosarlos, conviene advertir de que, aunque las distancias entre los miembros de diferentes religiones son mayores si se incluyen en el análisis valores religiosos o relacionados directamente con ellos, no desaparecen cuando solo se consideran los valores culturales no relacionados con la moral o creencias religiosas.
La distancia cultural entre los cristianos y los seguidores de las otras religiones del Libro o abrahámicas –musulmanes y judíos–, son menores que la que mantienen con hindúes, taoístas, creyentes de religiones ancestrales, y espiritualistas y paganos. Por otro lado, los valores culturales de los cristianos de diferentes tradiciones se asemejan bastante entre sí, sobre todo los de católicos y protestantes; los ortodoxos están algo más alejados. Los budistas, por su parte, tienden a parecerse más a los seguidores de tradiciones orientales –taoístas y religiones nativas– e hinduistas, aunque no difieren tanto de los cristianos como cabría suponer. Es reseñable también que, consideradas en conjunto, las llamadas Cinco Grandes Religiones –cristianismo, islam, judaísmo, hinduismo y budismo– se asemejen bastante en sus valores culturales y estén, en conjunto, más alejadas de las religiones ancestrales y de las paganas y espiritualistas. Al fin y al cabo, las Cinco Grandes tienen algo en común: han configurado sistemas de cooperación a gran escala mediante mecanismos tales como rituales, devociones, parentescos ficticios y sistemas de castigo y recompensa –a cargo de Dios, para las religiones del Libro, y del Karma en el hinduismo y budismo–.
En un mismo país, los fieles de una tradición religiosa se parecen más a los de su misma tradición que a los de otras. Y aunque la nacionalidad es el factor que en mayor medida condiciona los valores culturales, la distancia entre los de personas de diferentes países es menor para quienes comparten una misma fe. En otras palabras, la pertenencia a la misma religión contribuye a reducir la distancia cultural entre países. Por otro lado, incluso en países con conflictos de base religiosa, las diferencias culturales entre los fieles de diferentes credos son menores que las que tienen con correligionarios de otra nacionalidad. Este hallazgo sugiere que esos conflictos no tienen, en realidad, fundamento religioso, sino identitario. La adscripción religiosa operaría en este caso como elemento de identidad.
Cuando se comparan correligionarios de diferentes credos, se observa que la mayor semejanza entre los de distinta nacionalidad se produce en los católicos, una religión con una larga historia de gran influencia de una autoridad –el Papa– sobre los fieles. Esto también se observa en los ortodoxos, aunque en menor medida. Los correligionarios menos parecidos pertenecen a religiones mucho más fragmentadas desde el punto de vista doctrinal. Por último, las personas muy religiosas tienden a compartir valores culturales, incluso aunque pertenezcan a diferentes credos. Lo mismo ocurre con las poco religiosas. De hecho, dentro de un mismo país y credo, hay diferencias entre las personas más y menos religiosas. Así pues, el grado de compromiso con la religión es un condicionante en sí mismo de los valores culturales.
El sistema de creencias, las normas y el código moral propio de las religiones hacen de estas factores culturales muy poderosos. Gran parte de las diferencias culturales y sociales entre los grupos humanos tienen su origen, por ello, en las creencias religiosas.
Fuente: White, C. J. M., Muthukrishna, M., Norenzayan, A. (2021): Cultural similarity among coreligionists within and between countries. PNAS 118 (37) e2109650118
Para saber más:
Nacionalismo, ideología y religión
Ciencia, arte, religión
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Las religiones condicionan los valores culturales se ha escrito en Cuaderno de Cultura Científica.
Las bases genéticas de las enfermedades digestivas
Las enfermedades gastrointestinales son trastornos que suelen manifestarse a causa de problemas en el aparato digestivo. Algunas de las más conocidas como la enfermedad intestinal inflamatoria o el síndrome del colon irritable pueden derivar en problemas graves para la salud humana y requerir, en algunos casos, incluso de cirugía.
Algunos factores ambientales, la microbiota y la desregulación del sistema inmune pueden llegar a influir directamente en la aparición de ciertas enfermedades digestivas. En algunos casos, como el de la enfermedad de Crohn o la colitis ulcerosa, ambas consideradas como enfermedad intestinal inflamatoria, muestran un potente componente genético y hereditario. En este sentido, para poder conocer más acerca del posible origen de estas enfermedades es clave profundizar en el estudio de los genes, de la microbiota y de la función del intestino.
A este respecto, en el Instituto de Investigación Sanitaria ISS Biodonostia de Donostia-San Sebastián trabajan en una línea de investigación enfocada en la genética gastrointestinal y en cómo la herencia genética puede llegar a afectar a la microbiota de los humanos.
Con el objetivo de mostrar al público el papel que juega la genética en el desarrollo de enfermedades y síndromes del aparato digestivo, el líder del grupo de Genética Gastrointestinal del ISS Biodonostia, Koldo García, ofreció el 15 de diciembre de 2021 la charla “Desentrañando las bases genéticas de las enfermedades digestivas”, en la Biblioteca Bidebarrieta de Bilbao.
Durante la charla, además de mostrar los últimos avances en el estudio de los procesos digestivos, Koldo García, licenciado en Biología y doctor en Genética por la Universidad del País Vasco, explicó los progresos en materia genética que a día de hoy están permitiendo avanzar en el diagnóstico de este tipo de enfermedades. Asimismo, profundizó en otros factores ambientales que tienen relación con los procesos gastrointestinales.
(Si no se reproduce el vídeo en su navegador, pulse el enlace)
Para saber más:
ADN, microbiota y riesgo de celiaquía
Sobre la predisposición genética a padecer enfermedades
Edición realizada por César Tomé López
El artículo Las bases genéticas de las enfermedades digestivas se ha escrito en Cuaderno de Cultura Científica.
La profesora me tiene manía

Imaginemos la siguiente situación: Inés, profesora de inglés, entra al aula en su primer día de clase. Tras una mirada a su grupo de estudiantes, se fija en los dos chicos sentados en la última fila.
Al girarse para escribir en la pizarra se crea un cierto alboroto. Inés se vuelve, con el propósito de restablecer el orden, y a quienes primero dirige la mirada es a esos dos chicos de la última fila; sin embargo, eran de los que observaban con interés lo que escribía.
Cuando Inés reflexione acerca de lo ocurrido se podría plantear: ¿por qué al darme la vuelta he mirado en primer lugar a esos alumnos? Si lo hace, indicaría que es consciente en alguna medida de su comportamiento.
Análisis, contraste y reconocimientoUna vez aquí, el reto es dotar a Inés de las herramientas necesarias para comprender ese comportamiento y así poder hacerle frente. Estas herramientas partirán del análisis de la situación, pasarán por el contraste entre el comportamiento manifestado y otros modos de actuar, y finalizarán reconociendo qué creencias y valores subyacen a su comportamiento.
Si, por el contrario, nuestra profesora imaginaria no es capaz de reconocer que ante el alboroto ha fijado la atención en los chicos de la última mesa, la situación es más compleja. Puede ser porque no es consciente de su propio comportamiento. O porque, aun siéndolo, no quiere reconocerlo, bien por “no dar su brazo a torcer” o bien porque carece de herramientas para enfrentarse a ello.
¿Existen los comportamientos inconscientes?Aunque hay una serie de rasgos que definen nuestro carácter y que tienen que ver con nuestro repertorio de comportamientos, también hay respuestas automáticas o reactivas.
Cuando hacemos una valoración inicial de una persona o de una situación, utilizamos modelos y estereotipos más que argumentos. Además, esperamos una serie de respuestas o comportamientos que asociamos a esa valoración. Incluso, somos capaces de modular nuestro comportamiento para obtener una respuesta que confirme esa creencia.
Esa necesidad de confirmación se debe en realidad a una necesidad de seguridad, más imprescindible aún cuanto más automático sea nuestro proceder. A más automatismo, menos consciencia, y más dificultad de “dar nuestro brazo a torcer”.
Una suma de experienciasEsos comportamientos son automáticos porque se construyen a partir de la suma de las experiencias vividas, observadas y escuchadas tanto por Inés como por su alumnado y por sus padres y madres. Se construyen a través de la interrelación con las personas del entorno, y muy especialmente con aquellas que consideramos “de prestigio”.
Esa suma de experiencias aprendidas mediante modelado, sin la intermediación de la palabra, crea la estructura desde la que se construyen nuestros comportamientos más automáticos.
La personalidad o el carácterEsa estructura, configurada de un modo casi inconsciente, tiene, paradójicamente, la responsabilidad de constituir nuestro carácter. Influye directamente en el modo en que nos presentamos y nos reconocemos, en el modo en que presentamos y reconocemos a los demás.
Es la referencia desde la que evaluamos nuestras actuaciones y las de las personas que nos rodean, la referencia de nuestros valores. Es también la referencia desde la que surgen las creencias que nos sirven para considerar el por qué y para qué de esto o de aquello, de este comportamiento o de aquel.
Y también es la referencia de las expectativas, esas que nos informan acerca de qué se puede esperar de tal o cual comportamiento.
Para ser más conscientes de nuestros comportamientos y sus motivaciones y efectos es imprescindible la utilización del lenguaje.
El lenguaje permitirá a Inés comprender el porqué de su comportamiento y el de los alumnos, observar los estereotipos, contraponerlos con reflexiones e identificar las creencias y los valores sobre los que se ha construido su comportamiento.
Explicar y debatirComo conocedora y principal responsable del diseño y gestión de las relaciones en el aula, es la primera a la que le corresponde realizar ese trabajo. Pero lo necesitan también los estudiantes de su clase y, por supuesto, los padres y las madres.
Para empezar, Inés debe de expresar con argumentos adaptados a la edad de su alumnado aspectos referidos tanto a la dinámica de la clase como al aprendizaje en sí. Debe explicarles qué es para ella importante en esa relación, qué es el respeto, qué comportamientos lo reflejan y cuáles no, la importancia del debate, qué hay que tener en cuenta para debatir, etc.
En cuanto al aprendizaje, tendrá que señalar qué conceptos es imprescindible conocer o cuál es el camino a recorrer cuando algo no se entiende.
Escuchar y argumentarAnte estas propuestas justificadas por la docente, el alumnado podrá contraargumentar; padres y madres serán informados y escuchados, aunque la responsabilidad última de esas decisiones las tenga ella.
La importancia de hacer todas estas normas y expectativas explícitas radica en que, cada vez que se expresan razones, se da un espacio al otro y a sus opiniones: el otro se siente escuchado y considerado. Esto facilita el que, ante cualquier incumplimiento de los acuerdos en los que se basa esa relación, se utilicen razones y no juicios arbitrarios basados en estereotipos.
En el caso de Inés, la profesora de inglés del principio, ella podría admitir que ha mirado en primer lugar a los estudiantes de la fila de atrás; darse cuenta de que es uno de sus comportamientos automáticos, porque demasiado a menudo ha escuchado que los estudiantes que se ponen detrás el primer día de clase suelen ser los más disruptivos; pero contrastarlo con su experiencia como docente, que le ha demostrado en muchas ocasiones que eso no es así.
Por eso, sus estudiantes tendrían el derecho y el deber de criticar, respetuosamente, ese comportamiento automático y contraponerlo al que piensan que sería correcto.
Sobre la autora: Ana Arribillaga, Profesora titular del departamento de psicología evolutiva y de la educación, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
Para saber más:
El artículo La profesora me tiene manía se ha escrito en Cuaderno de Cultura Científica.
Minerales que nos orientan
Lo reconozco, he usado un título muy “clickbait”. O muy “anzuelo” si nos olvidamos de los anglicismos. Porque, aunque parezca que me he pasado al lado oscuro de las pseudociencias que abogan por pregonar unos falsos “poderes mágicos” de esos sólidos cristalinos que son los minerales, nada más lejos de la realidad.
Ahora nos parece muy fácil orientarnos cuando iniciamos un viaje gracias al dispositivo GPS, que incluso tenemos incluido en el propio teléfono móvil. Pero, ¿qué pasa cuando perdemos cobertura y no hay señal con los satélites? Pues solo tenemos dos opciones: o nos perdemos (y reconozco que yo soy bastante de este grupo) o utilizamos un aparatito muy cómodo y que cualquier profesional de la Geología siempre lleva en su mochila, una brújula.

La historia de la brújula también es muy geológica. Para ello tenemos que remontarnos más de 2000 años en el pasado a una región llamada Magnesia, que actualmente forma parte de Turquía pero que, en aquella época, estaba incluida en territorio griego. Allí, un joven pastor encontró una extraña roca que tenía la propiedad de atraer el hierro a la que llamaron “piedra de Magnesia” (no es que se volvieran muy locos a la hora de ponerle nombre, la verdad). Esta propiedad obsesionó al propio Tales de Mileto, que descubrió que este mineral no sólo atraía el hierro, sino que cualquier pieza de hierro que era frotada con la roca acababa adquiriendo esa misma propiedad. Hoy en día conocemos a ese mineral con el nombre de magnetita (cuya fórmula química es Fe3O4) y a la propiedad que tiene de atraer metales la denominamos magnetismo.
No volvemos a saber mucho de este mineral hasta un par de siglos después, cuando quedan registros por escrito de que los antiguos chinos utilizaron la magnetita para imantar pequeñas piezas de hierro que, al dejarlas que girasen libremente sobre una tabla de madera flotando en un cuenco con agua, descubrieron que siempre señalaban en la misma dirección: el N-S magnético. Aunque tampoco tenemos pruebas escritas de que le diesen alguna utilidad, más allá de cuestiones pseudomágicas, a este descubrimiento.
Hasta que llegamos al s. XII, donde escritos ingleses reflejan que algunos navegantes utilizaban estas pequeñas piezas de hierro imantadas con magnetita y dejadas girar sobre un corcho en un cuenco de agua para orientarse en alta mar cuando no disponían de otras referencias como el sol, la estrella Polar o la línea de costa. Así es como nacieron las primeras brújulas de la historia.
Pero la magnetita no es el único mineral que ha utilizado el ser humano en su historia para orientarse en sus viajes náuticos. En las sagas vikingas, se alude a la “piedra solar” como un instrumento empleado por estos famosos navegantes para conocer su localización en alta mar sin ninguna referencia terrestre y cuando el día estaba tan nublado que era imposible localizar la posición del sol.

Aunque todavía se especula sobre qué mineral podría ser esta “piedra solar” vikinga, parece que hay dos posibles candidatos con muchas opciones. El primero es la cordierita, un silicato de hierro, aluminio y magnesio (con la fórmula química (Mg,Fe)2Al4Si5O18) muy común en las rocas de las tierras nórdicas y que tiene una curiosa propiedad, la birrefringencia. Se trata de una propiedad óptica que tienen algunos minerales y que consiste en una doble refracción de la luz, es decir, en una división de un solo haz luminoso en dos rayos paralelos. De esta manera, si ponemos un cristal de cordierita lo más transparente posible sobre un texto escrito, veremos duplicadas las letras, lo cual llama mucho la atención en actividades de divulgación con peques (y no tan peques).

El otro candidato a “piedra solar” de los vikingos es una variedad de calcita (cuya fórmula química es CaCO3) conocida como espato de Islandia. Se trata de cristales muy transparentes y que también poseen la propiedad de la birrefringencia, muy abundante en la isla de la que toma el nombre. Como los vikingos ya realizaban expediciones náuticas antes de conquistar Islandia, parece que utilizaron de manera habitual la cordierita hasta que descubrieron los abundantes yacimientos de esta variedad de calcita, pudiendo sustituir entonces su GPS mineral.
La importancia de la birrefringencia es que no es necesario que los cristales minerales reciban una luz directa muy potente, de tal manera que, en días nublados donde es muy difícil precisar la posición exacta del Sol, el fenómeno óptico se sigue produciendo de manera muy evidente. Aunque es cierto que no se sabe muy bien cómo empleaban estos minerales los vikingos para orientarse en alta mar, ya que apenas hay evidencias arqueológicas y sólo podemos remitirnos a textos escritos, se especula que podrían hacerlo de dos maneras: o bien levantando hacia el cielo un único cristal para calcular el ángulo de refracción de ambos haces de luz, o bien utilizando dos minerales a la vez y realizando una triangulación con una tercera pieza, posiblemente de madera, que permaneciese siempre en una posición fija. Lo que sí es seguro es que, empleando unos simples minerales, consiguieron navegar de manera precisa por el norte de Europa y América.
Resulta sorprendente cómo el ser humano ha sido capaz de lograr culminar esas epopeyas náuticas durante los siglos pasados empleando únicamente un par de minerales, sin saber exactamente la ciencia que había detrás de las propiedades que los caracteriza. Pero esto no tenía nada de magia, por lo que ya tenemos una herramienta más para poner en evidencia a esas pseudociencias de las que hablaba al principio. ¿O acaso no os han entrado ganas de poneros a hablar de griegos, chinos y vikingos cuando alguien intente explicaros las propiedades místicas de los minerales?
Para saber más:
Introducción histórica a la mineralogía
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Minerales que nos orientan se ha escrito en Cuaderno de Cultura Científica.
Magdalena Mouján Otaño, la matemática que escribía relatos de ciencia ficción
Es un problema que con la lógica común no podemos manejar. Demasiadas paradojas. Otra lógica necesitamos, que aún no ha sido construida.
Extracto de Gu ta Gutarrak de Magdalena Mouján Otaño

Magdalena Mouján Otaño nació en la localidad de Pehuajó (provincia de Buenos Aires, Argentina) el 26 de marzo de 1926. Era hija de Armando Mouján y María Teresa Otaño Alberdi.
El abuelo materno de Magdalena, Pedro Mari Otaño (1857-1910), fue un famoso poeta descendiente de una dinastía de bertsolaris y natural de Zizurkil (Gipuzkoa). Por avatares de la vida, emigró a Argentina en 1898 junto a su esposa, María Magdalena Alberdi Descarga, y tres hijos. María Teresa, la madre de Magdalena, nació en Argentina en 1899. Aunque Mouján Otaño nació 16 años después del fallecimiento de su abuelo materno, estuvo muy influenciada por su poesía y sus raíces vascas; su madre le enseñó el idioma de sus antepasados, el euskera.
Magdalena asistió a las escuelas primaria y secundaria en Pehuajó. Posteriormente ingresó en la Universidad Nacional de La Plata, donde tuvo como profesores a los matemáticos Manuel Sadosky (1914-2005) –considerado por algunas personas como el padre de la computación en Argentina– y a Luis Santaló (1911-2001) –quien había abandonado España por motivos políticos durante la Guerra Civil Española–.
Se graduó en matemáticas en la Universidad Nacional de La Plata y consiguió un doctorado en esta área en 1950.
Mouján Otaño comenzó a enseñar matemáticas, área en la que también investigó, y escribió algunos artículos de divulgación para la revista Mundo Atómico entre los años 1952 y 1955.
Investigación operativa: una nueva disciplinaEn 1957, el matemático Agustín Durañona y Vedia (1904-1980) propuso a la Junta de Investigaciones Científicas y Experimentaciones de las Fuerzas Armadas (JICEFA) la creación de un Grupo de Investigación Operativa –que lideraría él mismo– al que se incorporaron Magdalena Mouján Otaño, el ingeniero de estructuras Horacio C. Reggini (1933-2022) y el ingeniero de caminos Isidoro Marín (1921-2020). Tras dos años de estudio e investigación en esta nueva disciplina, los componentes de grupo publicaron más de veinte trabajos teórico-prácticos, asesoraron a organismos del estado, e impartieron cursos y conferencias. Con su trabajo, los miembros de este equipo ayudaron a introducir la investigación operativa en Argentina.
Durante su trayectoria docente, Magdalena Mouján Otaño enseñó matemáticas y estadística en varias universidades públicas y privadas de Argentina, como la Universidad Católica de la Plata, la Universidad Nacional de Córdoba, la Universidad Nacional del Comahue o la Universidad Nacional de Luján.
La computadora ClementinaEn 1966, Mouján Otaño entró a formar parte de la Comisión Nacional de Energía Atómica y fue una de las primeras personas en trabajar con la computadora Clementina, ubicada en el Instituto de Cálculo dependiente de la Universidad de Buenos Aires. Este ordenador, un Ferranti Mercury, fue la primera computadora en instalarse en Argentina con fines científicos. Su nombre se debía a que había sido programada para reproducir la canción Oh My Darling, Clementine.
Sadosky fue el responsable de llevar ese ordenador a Argentina; el equipo que lideraba el trabajo de la computadora Clementina contaba, además, con dos amigas y compañeras de estudios de Magdalena, la matemática Rebeca Guber (1916-2020) y la matemática y programadora Cecilia Berdichevsky (1925-2010).

Parte de los cálculos realizados con ayuda de ese ordenador se utilizaron en la construcción del reactor RA1.
Mouján Otaño, escritora de ciencia ficciónEn 1966, tras el golpe de estado del general Juan Carlos Onganía, Magdalena abandonó temporalmente la docencia universitaria, al no apoyar al golpista. Al cabo de unos años, Mouján Otaño regresó a su trabajo de profesora y comenzó a crear relatos de ciencia ficción bajo el seudónimo de Inge Matquim, consiguiendo un gran éxito como escritora.
Uno de sus relatos más conocidos es Gu ta Gutarrak –Nosotros y los nuestros, en euskera–. Trata de una familia vasca que realiza un viaje en el tiempo para encontrar sus orígenes. Este cuento se lo dedicó a su abuelo, quién escribió en 1899 el poema del mismo título en el que se preguntaba –lejos del lugar en el que había nacido– sobre el origen del euskera y del pueblo vasco.
En esta divertida historia, uno de los hijos del protagonista –Xaviertxo, que es superdotado– se convierte en físico para «estudiar la estructura del continuo espacio-tiempo». Sus conocimientos le permiten construir una máquina del tiempo –bautizada como Pimpilimpausa (mariposa, en euskera)– con la ayuda de su hermana pequeña –Malentxo– que inventa una nueva lógica, la necesaria para evitar las paradojas producidas por los saltos en el tiempo. Esta máquina supone «… la gran revolución en la física, algo mucho más importante que la relatividad, y que la teoría cuántica y la bomba atómica…». Gu ta Gutarrak puede leerse en este enlace.
Magdalena Mouján Otaño falleció el 16 de julio de 2005, a los 79 años. Pidió ser enterrada junto a su abuelo, el bertsolari, en el cementerio de Mar del Plata.
Referencias-
Carlos Domingo, Construcción, uso y reforma del Reactor Argentino 1 (RA1), 2005
-
Marta Macho Stadler, Magdalena Mouján Otaño: matemáticas y ciencia ficción, Mujeres con ciencia, Vidas científicas, 29 marzo 2018
-
Isidoro Marín, Investigación Operativa en Argentina, Investigación Operativa no. 38 (2015) 2-17
- John J. O’Connor and Edmund F. Robertson, Magdalena Mouján, MacTutor History of Mathematics archive, University of St Andrews
-
Uxune Martinez, Magdalena Mouján (1926-2005): Argentinako matematikari gutarra, Zientzia Kaiera, 26 diciembre 2014
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Magdalena Mouján Otaño, la matemática que escribía relatos de ciencia ficción se ha escrito en Cuaderno de Cultura Científica.
Einstein y Werner Heisenberg
El físico alemán Werner Heisenberg fue uno de los primeros investigadores de la mecánica cuántica, ayudando a establecer sus ecuaciones y contribuyendo a la interpretación más extendida de éstas, la que se conoce como interpretación de Copenhague. Einstein fue uno de los ídolos de Heisenberg, y los dos científicos se reunieron en múltiples ocasiones para discutir las implicaciones de la mecánica cuántica, pero discreparon a menudo y en multitud de temas, desde la ciencia a la política.

Werner Heisenberg descubrió el trabajo de Einstein mientras estudiaba en la Universidad de Múnich, donde asistió a un curso sobre la relatividad que impartió Arnold Sommerfeld. A Heisenberg le encantó la insistencia de Einstein en que sólo debemos teorizar sobre lo que podemos percibir (posición que tenía su origen en la influencia de Ernst Mach): toda la relatividad surgía de la insistencia en que, si bien diferentes personas observan diferentes sucesos, todas esas observaciones son válidas. Este concepto se grabó en el cerebro de Heisenberg, y se convertiría en una de las creencias fundamentales que darían forma a su ciencia posterior.
Heisenberg quería escribir su tesis doctoral sobre la relatividad, pero fue disuadido de ello por su compañero de estudios Wolfgang Pauli. En esa época Pauli estaba escribiendo lo que llegaría a ser el primer gran ensayo sobre la teoría de la relatividad, que para él era un campo de la ciencia que ya había sido bastante bien establecido. El verdadero futuro está, le dijo Pauli a Heisenberg, en la física atómica.
Heisenberg, sin embargo, se sentía intrigado por la figura de Einstein. En 1922, el joven alemán se dirigió a Leipzig para asistir a una conferencia de su ídolo. Habría sido la primera vez que Heisenberg se encontrase con el hombre al que tanto respetaba, pero no sería así. La fecha de la conferencia coincidió con el comienzo de los ataques antisemitas contra Einstein: es el año de publicación de La crisis actual de la física alemana de Johannes Stark. Nada más llegar a la sala donde tendría lugar la conferencia, a Heisenberg le entregaron un folleto en el que, según Heisenberg escribiría en su libro La parte y el todo, se denunciaba a Einstein como “un extraño al espíritu alemán, y exagerado por la prensa judía”. Heisenberg, cristiano luterano y “ario”, había pertenecido al movimiento juvenil nacionalista de Alemania casi toda su vida, por lo que se vio sorprendido por este ataque nacionalista a un campo exclusivamente científico. Ese día, habida cuenta de las tensiones existentes y los previsibles incidentes, se buscó un sustituto: Max von Laue fue el conferenciante.
Einstein y Heisenberg se encontraron por primera vez en 1924, durante una visita que Einstein hizo a la Universidad de Gotinga. En esta universidad defendería Heisenberg ese mismo año su tesis doctoral, codirigida por Max Born y Arnold Sommerfeld, tras haber ampliado sus conocimientos de matemáticas con David Hilbert. En ese período, se estaba desarrollando la teoría de la mecánica cuántica, y a Einstein no le gustaba el rumbo que esas teorías estaban tomando: conforme los físicos intentaban aportar nuevas explicaciones a cómo los átomos emitían radiación, desarrollaban teorías que sólo ofrecían respuestas probabilísticas. Sus teorías podían predecir un rango de posibilidades para cómo se comportaría un átomo, pero una y otra vez, los científicos se veían forzados a creer que no había un resultado definido para un suceso dado. Cuando se trataba de partículas, decían estos físicos, simplemente no hay una perfecta correlación entre causa y efecto. Heisenberg fue arrastrado por el entusiasmo de crear un nuevo campo científico. Einstein, por otro lado, no podía creer la alocada dirección que estaba tomando la física. Por tanto el encuentro entre Einstein y Heisenberg fue interesante: el joven de 23 años conoció a su ídolo solo para descubrir que tenían ideas opuestas. Fue el comienzo de una separación creciente entre Einstein y la mayoría de sus contemporáneos, pero Heisenberg todavía tenía la esperanza de convencer a Einstein de la corrección de la nueva ciencia.
Fue en septiembre de 1925 cuando Heisenberg hizo su primera aportación asombrosa a la física. Publicó un artículo en el que se exponían las matemáticas necesarias para crear las predicciones probabilísticas que otros estaban estudiando. Básicamente esta fue la primera formulación de la mecánica cuántica. Esta formulación se llama álgebra de matrices [1], y conseguía lo mismo que la famosa ecuación de Schrödinger, que éste desarrollaría el año siguiente. Hubo una gran rivalidad entre los dos hombres sobre qué método debería ser usado. Hoy día se usan ambos, pero la mayoría de los científicos prefieren la mecánica ondulatoria de Schrödinger por ser más simple.
Años después, Heisenberg diría que desarrolló sus teorías basándose en lo que él veía como la filosofía de Einstein de solo analizar observables. Pero el artículo de las matrices de Heisenberg no consiguió que Einstein cambiara sus posiciones ni un ápice. Casi inmediatamente Einstein replicó con una carta a Heisenberg en la que planteaba numerosas objeciones, y que Heisenberg respondió en noviembre rebatiendo cada una de ellas. En esta carta parece que Heisenberg todavía creía que sus dos puntos de vista podrían reconciliarse algún día.
El abismo entre los dos científicos era más grande de lo que Heisenberg creía. En abril de 1926, los dos físicos se encontraron cara a cara por segunda vez tras la conferencia que Heisenberg había dictado en la Universidad de Berlín y a la que Einstein asistió. Heisenberg contaría después la historia de cómo cuando Einstein planteó una objeción al álgebra matricial de Heisenberg, éste intentó usar la filosofía de Einstein contra el propio Einstein, señalando que él había hecho lo mismo que Einstein con la relatividad, usando sólo lo que uno podía percibir directamente para formular sus teorías. Después de todo, esta filosofía, conocida como positivismo, era la preferida por Heisenberg. Einstein, sorprendido, dijo: “Pero, ¿no creerás de verdad que sólo las magnitudes observables deben aparecer en una teoría física?” Pasmado por la respuesta, Heisenberg dijo: “Pensaba que fue precisamente usted el que hizo de esta idea la base de su teoría de la relatividad”. Einstein replicó: “Quizás usé este tipo de filosofía; pero en cualquier caso es una tontería. Solo la teoría decide lo que uno puede observar”.
El punto de vista de Einstein había claramente cambiado en los últimos veinte años. Ahora creía que uno tenía que usar algo más que sólo lo observable para construir una teoría válida. Heisenberg tuvo que afrontar el hecho de que el hombre que él veía como el pionero de la física moderna no le apoyaba.
En 1927, Heisenberg desarrolló el concepto por el que es más famoso, el Principio de Incertidumbre. Basándose en lo difuso del comportamiento de las partículas, Heisenberg postuló que ciertas propiedades atómicas nunca podrían conocerse con exactitud. Si, por ejemplo, uno sabía la posición exacta de un electrón, no podía saber su velocidad exacta. Al principio, Heisenberg explicaba esta idea diciendo que uno simplemente no puede medir la posición sin afectar a la velocidad; medir la posición cambia la velocidad, y viceversa. Por lo que no se pueden conocer ambas variables al mismo tiempo. Pero poco después, Heisenberg y la mayor parte de los físicos dieron una interpretación más profunda: no se trataba de una cuestión de medir simultáneamente, sino de que ambas variables simplemente no podían ser precisas al mismo tiempo. Si el electrón tuviese una velocidad definida entonces estaría difuminado en el espacio, sin una posición definida, y viceversa. A Einstein, como era de esperar, le gustó esta teoría de Heisenberg tan poco o menos que las anteriores.
Ese año de 1927 la Conferencia Solvay se celebró en octubre sobre “Electrones y fotones”, fue durante la misma que Einstein, desencantado con el principio de incertidumbre que Heisenberg había presentado, exclamó “Dios no juega a los dados”, a lo que Niels Bohr replicó “Einstein, deja de decirle a Dios lo que tiene que hacer”.
A pesar de las discrepancias en lo científico, el respeto entre Einstein y Heisenberg era enorme. Einstein se dio cuenta rápidamente de lo adecuadamente que la mecánica cuántica, incluyendo las “extrañas matemáticas” de Heisenberg, predecían el comportamiento de los átomos. Pensaba que la nueva ciencia era valiosa, solo que no estaba completa. De hecho, Einstein nominó a Heisenberg para el premio Nobel a la primera oportunidad tras la conferencia Solvay, en 1928, y también en 1931 y 1932. En la nominación de 1931 escribió: “Esta teoría contiene sin duda un trozo de la verdad última”. Heisenberg ganó el premio Nobel de 1932.
En frentes opuestosEinstein y Heisenberg estaban unidos por razones distintas a la ciencia. Ambos experimentaron la persecución nazi, y ambos se vieron obligados a tomar decisiones difíciles durante la Segunda Guerra Mundial. En los años 30, toda la física moderna se convirtió en tabú en Alemania, a la que se llamaba despreciativamente “ciencia judía”. Practicarla era arriesgarse al ostracismo, y Heisenberg se encontró con que, por el hecho de ser un fundador de la mecánica cuántica, se le prohibía el acceso a varias universidades alemanas.
También se le puso a Heisenberg la etiqueta de “judío blanco”, aunque él era luterano y “ario”, y se le emparejaba con Einstein en los ataques de los medios alemanes y de los físicos antisemitas alemanes Philipp Lénárd y Johannes Stark. Un periódico nazi escribió en julio de 1937: “Heisenberg es sólo un ejemplo entre otros muchos […] Son todos representantes del judaísmo en la vida espiritual alemana que deben ser eliminados igual que los mismos judíos”.
Si bien Heisenberg rechazaba la ideología nazi, era un nacionalista y, a pesar de todas las invitaciones que recibió por parte principalmente de científicos estadounidenses para emigrar a Estados Unidos, tomó la decisión de permanecer en Alemania. Por otra parte, una visita de la madre de Heisenberg a la madre del Reichsführer SS (jefe máximo de la SS) Heinrich Himmler, acabó con los ataques a Heisenberg.
Aunque la relatividad era públicamente menospreciada por los Nazis, el hecho cierto es que nadie ponía en duda la validez de E = mc2, la ecuación que haría posible la construcción de una bomba atómica. En 1939 Einstein estaba viviendo en los Estados Unidos y, sabiendo lo destructiva que una bomba como esa podría ser, escribió una carta al presidente Franklin Roosevelt advirtiéndole del peligro.

Heisenberg, sin embargo, estaba aún en Alemania, y como físico con capacidades útiles se encontró de repente con el favor del gobierno nazi, y se le pidió que trabajase en la construcción de la bomba atómica. El hecho cierto es que Heisenberg pasó la mayor parte de la guerra trabajando en física nuclear, pero para usos energéticos, no armamentísticos. Años más tarde Heisenberg diría que esto fue así debido a sus propias manipulaciones: había hecho su contribución a la paz mediante la confusión, quitando importancia delante de los nazis a los usos prácticos de una bomba como esa y llevándoles a creer que probablemente no podría hacerse. Heisenberg afirma que dijo a sus superiores que creía que la guerra habría terminado antes de que nadie pudiera construir una bomba.
Solo tenemos la versión de Heisenberg de esta historia [2]. Hay quien no cree esta versión y afirma que Heisenberg intentó ocultar sus errores. Su fuerza estaba en la física teórica, no en la experimentación, quizás creyese realmente que no podía construirse. Sea como fuese, el hecho cierto es que después de la guerra trabajó para limitar el uso de las armas nucleares y para reparar las relaciones entre Alemania y el resto del mundo.
La última vez que Einstein y Heisenberg se encontraron fue en 1954 en Princeton, pero sus diferencias científicas eran las mismas de siempre. Heisenberg trató una vez más de convencer a Einstein de la validez de los planteamientos de la mecánica cuántica, pero Einstein fue contundente: “No me gusta vuestro tipo de física. Pienso que os va muy bien con los experimentos…pero no me gusta”. Einstein murió en 1955, sin admitir la mecánica cuántica que Heisenberg simbolizaba.
Tras la muerte de Einstein, Heisenberg escribió un artículo en el que atacaba a Einstein por su carta a Roosevelt, diciendo que un auténtico pacifista nunca debería haber iniciado el esfuerzo para construir una bomba que terminaría resultando en la muerte de miles. Pero culpar a Einstein por haber empezado, de alguna manera, el Proyecto Manhattan parece evidentemente injusto, a la par que incierto. El artículo de Heisenberg estaba probablemente más inspirado por los temas pendientes que tuviese con Einstein, sugiriendo que había más problemas entre los dos de lo que Heisenberg nunca llegase a admitir.
Notas:
[1] Un relato fantástico (porque intervienen dioses nórdicos) de las vicisitudes de la creación del algebra matricial de la mecánica cuántica es La leyenda de Helgoland.
[2] Obviamente, durante la guerra la gente en el otro bando creía cosas distintas. Una narración basada en las consecuencias de algunas de estas creencias es Hay que secuestrar a Heisenberg. El seguimiento en Suiza que se menciona daría lugar a un libro y este a una película.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este artículo se publicó en Experientia Docet el 13 de noviembre de 2009.
El artículo Einstein y Werner Heisenberg se ha escrito en Cuaderno de Cultura Científica.
La extraña paradoja tras los suplementos de vitamina D

La vitamina D es una molécula especial en muchos sentidos. En primer lugar, se trata, en realidad, de una prohormona (una molécula precursora de una hormona) que ejerce efectos muy variados sobre diferentes tejidos. Su papel más destacado es la mineralización de los huesos, pero también está involucrada en el funcionamiento del sistema inmunitario, la función endocrina del páncreas, el desarrollo cerebral… Por si esto fuera poco, la vitamina D tiene la peculiaridad de que su forma activa se sintetiza en la piel tras la exposición directa a los rayos ultravioleta del sol. Así, en circunstancias normales, la principal fuente de esta molécula no son los alimentos, sino la radiación solar (un 80-90 % del total).
Es precisamente esta particular forma de obtener la vitamina D la que ocasiona que el déficit de esta molécula sea, en apariencia, algo relativamente frecuente. Este déficit no solo aparece en países con limitada radiación solar, como los nórdicos, sino también en naciones en las que no esperaríamos que se diese por contar con abundantes días soleados y una radiación solar importante. Este es el caso de España.
Aunque existe muchísima controversia al respecto, si se considera que existe deficiencia de vitamina D cuando los niveles en suero sanguíneo de 25-hidroxivitamina D son menores a 20 ng/ml, entonces, según la Sociedad Española de Endocrinología y Nutrición (SEEN), el 40 % de la población española y más de un 80 % de las personas mayores de 65 años tendría déficit de esta molécula.
Ante esta alarmante magnitud de déficit vitamínico en nuestra sociedad, cualquier profano en la materia esperaría que los médicos solicitasen, de rutina, análisis de sangre entre sus pacientes para detectar si, efectivamente, alguno de ellos sufre este déficit y así recetar suplementos de vitamina D. Sería lo lógico, ¿no? Pues no. De hecho, no se recomienda realizar cribados universales en las consultas médicas para detectar los niveles de vitamina D en la población general, salvo que existan factores de peso para ello en casos de riesgo (osteoporosis, ancianos de edad avanzada…).
Aun en el caso de que se detectase deficiencia leve de vitamina D, las diferentes guías clínicas y sociedades médicas no aconsejan dar suplementos de esta molécula por sistema. En su lugar, y si es posible, se aconseja al paciente aumentar la exposición al sol y consumir más alimentos ricos en esta vitamina (pescado azul, huevos, hígado…).
Entonces, si el déficit de vitamina D es tan frecuente en nuestro país y en otros muchos, ¿por qué no se hacen screenings ni se pautan suplementos? La razón es sencilla: porque los ensayos clínicos muestran, una y otra vez, que el consumo de complementos o suplementos dietéticos con vitamina D no aporta ningún beneficio para la salud a la población sana sin déficits y, en muchas ocasiones, ni siquiera a las personas con déficits.
La ausencia total de beneficio de la suplementación de vitamina DUn ensayo clínico reciente en este sentido, que llama la atención por la ausencia total de beneficio de la suplementación de vitamina D, se realizó en Mongolia sobre 8.851 niños con déficit de esta molécula (menos de 20 ng/ml en suero). Los investigadores querían averiguar si el consumo de suplementos de vitamina D3 (14.000 unidades internacionales cada semana, durante 3 años) en este colectivo tendría algún efecto positivo sobre la salud, en comparación con el grupo placebo. No encontraron ninguna diferencia entre ambos grupos, salvo por el hecho de que el grupo de niños que recibió vitamina D a lo largo de los años ya no tenía déficits. No hubo ningún efecto sobre la altura, la masa corporal o el desarrollo en la pubertad. Nada. Y esto no solo ocurría entre los niños con un déficit normal previo (menos de 20 ng/ml de vitamina D en suero), sino también incluso en aquellos con un déficit grave (menos de 10 ng/ml) al comienzo del estudio.
Resultados decepcionantes como los anteriores se dan constantemente en ensayos clínicos. La suplementación de vitamina D tampoco ofrece beneficio para disminuir el riesgo de tuberculosis en niños con déficits, no mejora la mineralización de los huesos en la población general, no previene fracturas ni caídas, y no reduce el riesgo de muerte por todas las causas, de cáncer o de enfermedades cardiovasculares.
Además de la ausencia generalizada de beneficios por el consumo de suplementos de vitamina D, algunos estudios han observado incluso riesgos para la salud. Un estudio observacional de casi 31.000 participantes detectó que el consumo de dosis mayores de 10 microgramos al día en personas sin déficits se asociaba con un incremento de mortalidad por todas las causas y por cáncer en particular. Por otro lado, un exceso de este nutriente puede provocar daños en los riñones y en otros órganos y tejidos.
¿A qué se debe esta paradoja en torno a la vitamina D? Hay dos explicaciones principales. La primera, que realmente los umbrales actuales para definir cuando existe un déficit por esta molécula no son correctos (son demasiado altos) y eso nos lleva a diagnosticar deficiencias que, en realidad, no existen porque no provocan daños sobre la salud. Por eso, añadir más vitamina D no aporta beneficio. De hecho, existe desde hace un tiempo mucha discusión científica sobre por debajo de qué nivel se puede considerar una deficiencia de vitamina D.
Otra posible explicación sobre por qué no se ven efectos saludables por el consumo de suplementos de vitamina D, incluso en personas con claros déficits, es que existe algún problema en el organismo que impide la transformación de esta molécula a su forma activa (el calcitriol), que es la que realiza las diversas funciones, o existe otro factor que no conocemos y que limita sus efectos aún en la forma activa.
Sea la razón que sea, lo que el conjunto de la evidencia científica nos sugiere es que no hay razón para consumir complementos de vitamina D, salvo casos muy definidos. Si lo que se quiere es tener unos buenos niveles, exponerse al sol de forma moderada, hacer ejercicio físico y comer alimentos ricos en este nutriente son una opción más recomendable, por ofrecer numerosos beneficios para la salud, además de más asequible.
Para saber más:
A tomar el sol
El enigma de los suplementos nutricionales
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo La extraña paradoja tras los suplementos de vitamina D se ha escrito en Cuaderno de Cultura Científica.
El violín bien temperado
Los 24 preludios y fugas en todas las tonalidades musicales son una de las más conocidas e importantes obras docentes e investigadoras del gran Johann Sebastian Bach. Por medio de “El clave bien temperado” Bach nos explica y demuestra en la práctica cómo funcionan los posibles temperamentos en un teclado. En los violines, las notas musicales se afinan de forma directa pisando sobre las cuerdas, en cualquier tono o microtono. Esto da total libertad al músico para interpretar en cualquier tonalidad, pero el lutier debe construirle un instrumento cuya caja de resonancia quede bien afinada: el violín bien temperado.
Savart, Chladni y Vuillaume
A mediados del siglo XVIII la edad de oro de la lutería cremonense tocó a su fin. Los gremios familiares mantuvieron celosamente sus secretos durante más de dos siglos y gran parte de su conocimiento se consideró olvidado. Por fortuna, la era de la Ilustración recogió los medios científicos para redescubrir el saber de los antiguos constructores de instrumentos. El físico Félix Savart, aplicó los métodos de su amigo Ernst Chladni junto con su dispositivo para medir frecuencias en las tablas armónicas de múltiples violines históricos, desmontadas y prestadas por el gran lutier francés Jean-Baptiste Vuillaume.
Los elementos constituyentes más importantes de la caja de resonancia de un violín son las tapas y los fondos, tablas armónicas construidas en abeto (picea abies) y en arce (acer platanoides), respectivamente. Savart propuso estudiar qué sonidos deberían tener la tapa y el fondo de un violín antes de unirse en una caja de resonancia, con la idea de explicar y publicar la ciencia de los grandes lutieres. Savart observó que la frecuencia de los modos normales de vibración por parejas (tapas y fondos) de los mejores instrumentos coincidían entre sí a intervalos cercanos. Estas medidas permitieron a Vuillaume no solamente reparar en su taller de París los mejores instrumentos de todos los tiempos, sino construir nuevos violines, verdaderas copias tonales indistinguibles de los apreciados Stradivarius y Guarnerius.
Las tablas armónicas de Carleen Maley HutchinsLa gran científica y lutier Carleen Hutchins publicó en 1981 otro importante hallazgo de acústica musical describiendo en detalle métodos para construir cajas resonantes de violines de gran calidad [1]. Hutchins modernizó los experimentos de Savart y Chladni mediante un sencillo generador y amplificador electrónico de audio, para excitar los modos normales de vibración de sus tablas armónicas, trazar las líneas nodales de Chaldni, así como medir las frecuencias de dichos modos de vibración.
Cientos de experimentos realizados por Hutchins confirmaron las observaciones de Savart: cuando las frecuencias principales de la tapa y del fondo de un violín están separadas menos de un tono, el instrumento tiene buenas cualidades musicales. No solamente verificó estos resultados, sino que además descubrió que tres modos normales de vibración de las tablas armónicas tienen especial importancia para poder fabricar instrumentos bien temperados.

La portada de Scientific American de octubre de 1981 ilustra precisamente los modos normales de vibración más importantes medidos por Hutchins: modos #1, #2 y #5, de sus tapas (fila superior) y sus fondos (fila inferior). Tal y como describe la autora, estos tres modos eran ajustados por los grandes lutieres golpeando las tablas armónicas y escuchando su sonido. Estos experimentos de golpeos son muy sencillos de efectuar observando las figuras de Chladni: para excitar un modo de vibración concreto, basta con sujetar una tabla en un punto nodal (zona oscura en el patrón de Chladni) y golpear seguidamente en un punto ventral (zona clara en el patrón de Chaldni). Esto nos permite escuchar el sonido de las tablas armónicas, tal y como hacían los antiguos constructores en una época en la que no existían sistemas de medida más allá de sus manos y sus oídos.
Los secretos de la lutería al descubiertoUna de las funciones más importantes de la ciencia es descubrir y publicar el conocimiento para su uso, avance y disfrute general. Los secretos de los antiguos constructores de instrumentos quedaron por fin al descubierto por parte de la ciencia. Hoy en día ninguna autoridad experta en música, instrumentistas o lutieres, es capaz de distinguir o juzgar como superior la calidad sonora y expresión musical de los antiguos violines con respecto a los buenos nuevos instrumentos desarrollados en la actualidad [2].
Sabemos ya hoy cómo construir violines basados en la ciencia, no en los secretos. La acústica musical nos ha enseñado que el tallado de las tablas armónicas de un violín reduce claramente tanto su masa como su rigidez y también altera la capacidad de las placas para absorber energía. Así pues, la frecuencia y la forma de un modo normal de vibración determinado puede ajustarse selectivamente. El adelgazamiento de las tablas armónicas en una zona de flexión pronunciada reduce la rigidez más que la masa, de modo que la frecuencia disminuye. Por otro lado, la eliminación de madera en una zona de poca flexión reduce la masa más que la rigidez, de forma que la frecuencia aumenta. Estos procedimientos científicos se explican hoy día en las mejores escuelas de lutería internacionales y ello nos ha permitido producir excelentes violines bien temperados en todo el mundo.
Referencias
[1] Caleen M. Hutchins (1981) The acoustics of violin plates. Scientific American, vol 245, n. 4, pp: 170-186.
[2] Adrian Cho (2017) Million-dollar Strads fall to modern violins in blind ‘sound check’. Science. doi: 10.1126/science.aal1163
Sobre el autor: Victor Etxebarria Ecenarro está diplomado como lutier por el Conservatorio Juan Crisóstomo de Arriaga (Bilbao) y es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)
El artículo El violín bien temperado se ha escrito en Cuaderno de Cultura Científica.