¿Todo esto con electrones?
¿Sabías que algunas moléculas y sus electrones pueden generar superpoderes? ¿Cómo es posible que un disco duro almacene información magnética? ¿O que una televisión emita luces y colores tan puros? El secreto está en los electrones.
Gran parte de lo que eres y la mayoría de las cosas con las que interaccionas en tu día a día están compuestas de moléculas. Como personas dedicadas a la química, podemos estudiar prácticamente cualquier molécula que se nos ocurra y así poder avanzar en direcciones nuevas para encontrar aplicaciones fascinantes. En particular, nos interesan los materiales magnéticos, es decir, compuestos que tienen electrones desapareados. Generalmente, una molécula usa todos sus electrones para crear enlaces químicos, como lo hacen dos átomos de hidrógeno cuando se enlazan para formar el H2 donde se aparean los electrones (apuntan en sentido opuesto). Pero con un poco de cuidado, y mucha química, se puede conseguir que algunos electrones se queden sin usar como cuando utilizamos metales para crear moléculas, lo que las dota de superpoderes.

Por ejemplo, algunas moléculas quirales (aquellas que si se miran en el espejo no se ven a sí mismas, sino a otras moléculas que se les parecen mucho, como si de la mano izquierda y derecha se tratase) pueden filtrar la corriente eléctrica. ¿Esto qué quiere decir? Que usando los compuestos que sintetizamos en nuestros laboratorios podemos filtrar los electrones en base a una propiedad fundamental llamada espín. ¿Para qué? Entre otras cosas, para generar hidrógeno como fuente de energía alternativa a los combustibles fósiles. Ese hidrógeno (gas), que es muy escaso en la naturaleza, puede obtenerse “rompiendo” la molécula de agua, que es muy abundante. Pero “romper” implica usar energía, que debería proceder de fuentes limpias. En nuestro laboratorio, desarrollamos materiales capaces de disminuir la cantidad de energía necesaria para “romper” el agua y obtener hidrógeno. Esos materiales bloquean uno de los dos tipos de electrones que existen (espín up y espín down), y permiten el paso del segundo tipo de electrones. Es decir, generan corrientes espintrónicas que tienen la capacidad de favorecer la reacción de “ruptura” del agua, una reacción de oxidación-reducción donde también se genera oxígeno.

Los discos duros también funcionan gracias a los electrones desapareados. En la actualidad, la mayoría operan con partículas magnéticas que las componen, las cuales guardan la información del lenguaje binario (el 1 o el 0) en función de la orientación del momento magnético de los electrones en cada dominio magnético. Siendo esto así, es predecible pensar que, cuanto menor sea el tamaño de dominio, el dispositivo dispondrá de capacidad para almacenar mayor densidad de información ocupando el mismo espacio. En este sentido, las moléculas basadas en iones de tipo lantánido están revolucionando la investigación en esta área, ya que cada molécula es capaz de almacenar la información de un bit. A diferencia de las partículas magnéticas, donde hacen falta millones de átomos para almacenar la información de un bit, las moléculas magnéticas pueden hacerlo únicamente combinando unas pocas decenas. Así, el potencial de estos nuevos materiales se presenta muy cautivador.

Estos mismos iones pueden dar lugar también a emisión de colores puros. Los iones lantánidos tienen estados excitados muy bien definidos energéticamente, lo que hace que cuando los electrones relajen de estos estados excitados, se libere una cantidad de energía muy concreta y asociada a un único color. Por ejemplo, las moléculas compuestas por iones de europio tienen estados excitados situados a energías con respecto al estado fundamental que producen emisiones de fotones cuya longitud de onda mayoritaria es de 615 nm, mientras que para los iones de terbio las emisiones rondan los 540 nm. Estas longitudes de onda se corresponden con los colores rojo y verde en el espectro visible, respectivamente. Es importante mencionar que, no todas las moléculas compuestas por estos iones presentan emisión de luz, ya que es fundamental diseñar y elegir bien los ligandos orgánicos que rodearán los iones para que haya una efectiva transferencia de energía entre ambos elementos y den lugar, así, a procesos de emisión de luz.

Tal y como has podido observar, las moléculas junto con sus electrones pueden dar lugar a infinidad de propiedades y aplicaciones interesantes, y esto no ha sido más que una pincelada de lo que pueden ofrecer.
Autores: Javier Cepeda Ruiz, profesor titular de la Facultad de Química de la UPV/EHU; Daniel Reta Mañeru, Ikerbasque Research Associate Professor, Facultad Química & DIPC; Eider San Sebastian Larzabal, profesora agregada de la Facultad de Química de la UPV/EHU y Andoni Zabala Lekuona, profesor adjunto de la Facultad de Química de la UPV/EHU.
La Facultad de Química de la UPV/EHU cumple este año 50 años. Con motivo de este aniversario se han organizado un gran número de actividades festivas, de orientación del alumnado de secundaria, investigación, transferencia y divulgación. Entre estas últimas podemos encontrar “12 meses – 12 temas”, conjunto de actividades que pretende mostrar a la sociedad las temáticas desarrolladas en la Facultad. Entre estas actividades podemos encontrar el ciclo de charlas “50 años difundiendo la química”, en Ernest Lluch Kulturetxea, así como vídeos de divulgación, entrevistas en radio y artículos en los blogs de divulgación de la Cátedra de Cultura Científica. Durante todo el año contaremos con invitados especiales, como los cuatro Centros de Investigación nacidos de la Facultad (CIDETEC, CFM, DIPC y POLYMAT), así como los Premios Nobel Albert Fert y Jean Marie Lehn. Se puede consultar el conjunto de actividades programadas en la página web de nuestro 50 Aniversario.
El artículo ¿Todo esto con electrones? se ha escrito en Cuaderno de Cultura Científica.
Un túnel transatlántico
Por algún curioso motivo, hay ideas, que, pase el tiempo que pase, no dejan de ser «innovadoras». No importa si ya se le ocurrieron a alguien hace más de cien años, ni si se llevaron a cabo con relativo éxito, también da igual si se han escrito novelas y hasta rodado películas sobre ellas: siempre habrá algún gurú tecnológico que las redescubra y las presente como novedosas. La posibilidad de construir un túnel transatlántico que una Europa con América es una de esas ideas.
A finales del siglo XIX, y hasta los años cincuenta del siglo XX —cuando comenzaron los primeros vuelos comerciales transatlánticos—, cruzar el océano que separaba el Viejo del Nuevo Continente en un barco de vapor podía llevar más de una semana, y no siempre en condiciones óptimas de comodidad. En un momento, además, en el que la industrialización y la idea de progreso tecnológico marcaban la agenda, fue cuestión de muy poco tiempo que a algunos visionarios se les empezaran a ocurrir formas —más o menos disparatadas— de solucionar ese problema.
El germen de todo esto se remonta al ingeniero George Medhurst. Entre finales del siglo XVIII y principios del XIX patentó algunos sistemas de propulsión que utilizaban aire comprimido. Este invento llevó a los sistemas de envío mediante tubos neumáticos que se utilizaron en edificios como la Oficina General de Correos en Londres e incluso a la invención del ferrocarril atmosférico: una especie de rudimentario sistema de hyperloop que, aunque con bastantes problemas, llegó a entrar en funcionamiento y probarse en alguna ocasión con personas.

Medhurst solo sembró una semilla que otros se encargarían de nutrir, pero parece que la idea arraigó en el imaginario colectivo porque, desde entonces, empezaron a proliferar historias de ficción en las que los túneles neumáticos se convirtieron en el transporte del futuro. Dadas las velocidades que se calculó que podrían alcanzar los vehículos que circularan por ellos, normalmente trenes, eran la solución perfecta para acortar distancias entre continentes.
Parece que el primero que utilizó esta idea fue Michel Verne, hijo de Julio Verne, en Un expreso del futuro, publicada en francés en 1888 y traducida al inglés en 1985. Pero pronto muchos otros la irían refinando, como Hugo Gernsback, en Ralph 124c 41+ (1911) o Lucille Taylor Hansen, en «The undersea tube» (1929). Las películas sobre el tema se remontan, casi, casi, a los orígenes del cine de ciencia ficción, sirva como ejemplo la francoalemana Der Tunnel (1933), que vio su versión inglesa dos años después, y que se basaba en la novela homónima de Bernhard Kellerman, escrita en 1913.

Créditos: Dominio público.
Pero ¿sería factible llevar a cabo, a día de hoy, semejante obra de ingeniería? Pues, pese a las promesas de algunos magnates, parece que no. Si todavía no se ha conseguido desarrollar un hyperloop en tierra, ni siquiera para trayectos relativamente cortos, conseguir hacerlo bajo el océano y para un trayecto de más de 5000 km es poco menos que inalcanzable. Construir simplemente algo similar al Eurotúnel ya sería una empresa titánica, y no digamos en aquellos tramos que podrían encontrarse a más de 8000 m de profundidad y a presiones más de 800 veces mayores que a nivel del mar. Pensemos que el Titanic se encuentra a 3784 m y, como se ha demostrado, bajar hasta ahí no suele ser ni fácil ni una buena idea sin una cuidadosa preparación. A eso se añaden las dificultades logísticas. Ya solo el transporte de los materiales requeriría una cantidad estratosférica de recursos y, además, las obras en alta mar solo podrían llevarse a cabo en determinadas épocas del año, cuando el clima fuera favorable, lo que ralentizaría —y encarecería— muchísimo el proceso.
Aun así, veamos las diferentes opciones de diseño que ya se han planteado. Una sería excavar bajo el lecho marino, en caso de que tuviéramos maquinaria que lo permitiera, o, por ejemplo, instalar módulos prefabricados sobre él. En ambos casos, y asumiendo que las altas presiones no fueran un problema —que lo serían, especialmente en el segundo caso, si hay que bajar a unir los fragmentos de túnel—, el escollo sería cruzar la dorsal mesoatlántica, con su alta tasa de actividad volcánica y sísmica, por no mencionar el desplazamiento de las placas tectónicas, así que, en principio, estas opciones quedarían descartadas. Otra posibilidad que se ha planteado sería construir el túnel mediante módulos «flotantes», sumergidos a unas decenas de metros de la superficie, utilizando un sistema de lastres similar al de los submarinos y algún tipo de anclaje al fondo mediante cables o columnas —algo que ya plantearía un reto de ingeniería de envergadura similar al propio túnel—. En este caso, las corrientes o el oleaje harían muy difícil estabilizarlo, incluso con tecnología similar a la que se utiliza en las plataformas petrolíferas, por no mencionar la fatiga estructural.
A todo lo anterior habría que añadir las tareas de mantenimiento, ya no solo de la estructura en sí, sino de los sistemas de energía y ventilación, de comunicaciones… y habría que contar con salidas de emergencia y un plan de evacuación que, en esas condiciones y de no funcionar a la perfección, podrían convertir cualquier error de funcionamiento en una tragedia. Y no hablemos del impacto que algo así podría tener en el ecosistema marino. Así que, al menos de momento, parece que el túnel transatlántico nos daría demasiados quebraderos de cabeza, ¿nos compensan, teniendo la opción de viajar en avión?
Lamentablemente, parece que tendremos que esperar, pero no desistamos del todo. Como ha sucedido tantas otras veces, nunca se sabe cuándo el desarrollo científico y tecnológico dará con la clave que no permita construir nuestro túnel submarino. Al fin y al cabo, hace no tanto, veíamos imposible volar como las aves o que un ordenador escribiera poesía, así que, ¿quién sabe qué será lo siguiente?
Bibliografía
Bowler, P. J. (2017). A history of the future. Cambridge University Press.
Discovery Channel (2003). Transatlantic tunnel. Extreme engineering.
Self, D. (2020). Pneumatic Networks. The Museum of RetroTechnology.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo Un túnel transatlántico se ha escrito en Cuaderno de Cultura Científica.
El sistema de numeración en base Phi
En la pasada entrada del Cuaderno de Cultura Científica titulada ECHO, un cómic áureo, que habíamos dedicado a la presencia del número áureo, de la divina proporción, en la serie de cómic ECHO (2008-2011), del dibujante y guionista estadounidense Terry Moore, se mencionaba que uno de los personajes, que era matemática, había propuesto sustituir el sistema de numeración decimal (en base 10) por el sistema de numeración en base Phi en la investigación científica. En esta entrada vamos a explicar qué es el sistema de numeración en base Phi.

Empecemos, recordando que el sistema de numeración posicional moderno utilizado en casi todo el mundo es el decimal, es decir, que tiene base 10 (véase el libro Los secretos de la multiplicación, de los babilonios a los ordenadores). Por lo tanto, consta de diez cifras básicas, 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 y todo número natural se puede representar con ellas al expresarlo en función de las potencias de 10. Por ejemplo, el número 273.054 tiene el valor de 2 veces la cantidad de 100.000 (centenas de millar), 7 veces la cantidad de 10.000 (decenas de millar), 3 veces la cantidad de 1.000 (unidades de millar), 0 veces la cantidad de 100 (centenas), 5 veces la cantidad de 10 (decenas) y 4 veces la unidad 1, que son las potencias de 10, a saber, 100.000 = 105, 10.000 = 104, 1.000 = 103, 100 = 102, 10 = 101 y 1 = 100.

Pero este sistema de numeración no solo nos sirve para representar los números naturales (bueno, los enteros, incluido el signo negativo), sino también los números reales, es decir, también aquellos que tienen una parte decimal. Por ejemplo, el número real, de hecho, racional, [3,52793] tiene el valor de 3 veces la unidad, 5 veces la cantidad de [0,1] (décimas), 2 veces la cantidad de [0,01] (centésimas), 7 veces la cantidad de [0,001] (milésimas), 9 veces la cantidad de [0,0001] (diezmilésimas) y 3 veces la cantidad de [0,00001] (cienmilésimas), que son también las potencias de 10, aunque ahora se incluyen las negativas, a saber, 0,1 = 10-1; 0,01 = 10-2; 0,001 = 10-3; 0,0001 = 10-4 y 0,00001 = 10-5.

Aunque el sistema de numeración (posicional) decimal es el que utilizamos de manera natural en nuestra vida cotidiana, sabemos que existen otros sistemas de numeración en otras bases, como el sistema de numeración binario o en base 2, b = 2, que es el que utilizan nuestros ordenadores, los sistemas octal (base 8, b = 8) y hexadecimal (base 16, b = 16), que también son muy utilizados en informática, el sistema duodecimal o docenal (base 12, b = 12), que es por el que abogan como sistema cotidiano los miembros de las sociedades The Dozenal Society of America y The Dozenal Society of Great Britain (véase la entrada El sistema duodecimal, o si los humanos hubiésemos tenido seis dedos en las manos) o el sistema sexagesimal (base sesenta, b = 60), que ya utilizaron los babilonios, pero en general para cualquier número natural b mayor o igual que 2, como b = 3 (sistema ternario), b = 4 (sistema cuaternario), b = 5 (quinario), etcétera. De algunos de estos sistemas ya hemos hablado en algunas entradas del Cuaderno de Cultura Científica, como Las bases de numeración o cómo hacer trucos de magia binarios o Sobre cómo escribir el número pi en base cuatro.
En general, dada una base de numeración b –por ejemplo, como cualquiera de las que hemos comentado 2, 3, 4, 5, 8, 12, 16 o 60– la representación posicional de cualquier número en la misma viene dada por una expresión d1d2…dr (donde los dígitos di –para i entre 1 y r– pertenecen a la familia de las b cifras básicas del sistema de numeración, que tienen valores entre 0 y b – 1) teniendo en cuenta que el número puede escribirse, de forma única, como
Por lo tanto, la representación del número está ligada a la base elegida. Así, si tomamos el sistema binario (b = 2) el anterior número (273.054) se representa como (1000010101010011110)2, ya que “273.054” = 218 + 213 + 211 + 29 + 27 + 24 + 23 + 22 + 21; en la base octal (b = 8) como (1.025.236)8, porque “273.054” = 1 x 86 + 2 x 84 + 5 x 83 + 2 x 82 + 3 x 8 + 6; o en la base hexadecimal (b = 16), donde las cifras básicas son denotadas por 0, 1, …, 9, A, B, C, D, E, F, como (42A9E)16, puesto que “273.054” = 4 x 164 + 2 x 163 + A x 162 + 9 x 16 + E, donde estamos utilizando el subíndice de las representaciones (2, 8 y 16) para recordar que esa es una representación en esa base de numeración.

De la misma forma se representan los números decimales. Por ejemplo, si se considera el número 0,696044921875 (escrito de forma natural, en base decimal), este se representa de las siguientes formas en distintas bases:
a) en base binaria (b = 2), como (0,101100100011)2, puesto que “0,696044921875” = 2-1 + 2-3 + 2-4 + 2-7 + 2-11 + 2-12 = 0,5 + 0,125 + 0,0625 + 0,0078125 + 0,00048828125 + 0,000244140625;
b) en base cuaternaria (b = 4), como (0,230203)4, puesto que “0,696044921875” = 2 x 4-1 + 3 x 4-2 + 2 x 4-4 + 3 x 4-6 = 2 x 0,25 + 3 x 0,0625 + 2 x 0,00390625 + 3 x 0,000244140625;
c) base octal (b = 8), como (5443)8, puesto que “0,696044921875” = 5 x 8-1 + 4 x 8-2 + 4 x 8-3 + 3 x 8-4 = 5 x 0,125 + 4 x 0,015625 + 4 x 0,001953125 + 3 x 0,000244140625;
d) en base hexadecimal (b = 16), donde las cifras básicas son 0, 1, …, 9, A, B, C, D, E, F, como (0,B23)16, puesto que “0,696044921875” = B x 16-1 + 2 x 16-2 + 3 x 16-3 = 11 x 0,0625 + 2 x 0,00390625 + 3 x 0,000244140625.
¿Un sistema de numeración irracional?Como se comentaba al principio de esta entrada, uno de los personajes del cómic ECHO, del dibujante y guionista de cómic estadounidense Terry Moore, proponía sustituir el sistema de numeración decimal por el sistema de numeración en base Phi en la investigación científica.

Pero el número áureo Phi no es un número natural, como las bases que hemos explicado más arriba y a las que podemos estar más acostumbrados (al menos si nos interesan los números), más aún, es un número irracional (sobre los números irracionales podéis leer la entrada El infinito en un segmento (2)), con infinitos decimales que se extienden sin fin, pero sin ningún patrón periódico.
Phi = 1, 61803398874989484820458683436563811772030917…
¿Es posible que Phi sea la base de un sistema de numeración? La respuesta es afirmativa, de hecho, si no fuese así no estaríamos escribiendo esta entrada.
Recordemos brevemente la definición de Phi y la ecuación algebraica asociada, que nos va a ser de utilidad para nuestro objetivo de escribir los números como potencias de la razón áurea.
Se dice que un segmento de recta está dividido en extrema y media razón cuando la longitud del segmento total es a la parte mayor, como la de esta parte mayor es a la menor. Es decir, si tenemos un segmento como el que aparece en la siguiente imagen, buscamos el punto del mismo que divide al segmento en dos partes, de longitudes a y b, de forma que la proporción o razón (división) entre la parte mayor y la menor, a/b, es igual a la proporción entre la longitud del segmento y la parte mayor (a + b)/a.
Ahora, si llamamos Phi (Φ) al cociente a/b, la condición anterior se puede escribir como la ecuación algebraica siguiente:
Esta es una ecuación algebraica de segundo grado, cuyas soluciones, sin más que utilizar la conocida fórmula de resolución de la ecuación de segundo grado que estudiamos en el instituto, son las siguientes (una es Phi y la otra es 1 – Phi, que teniendo en cuenta que Phi-1 = b / a en la expresión de definición de Phi, se tiene que la otra raíz es 1 – Phi = – Phi-1).
En conclusión, tenemos dos fórmulas que nos van a ser de mucha utilidad a la hora de expresar los números naturales como sumas de potencias de Phi.
Para representar los números naturales en base Phi, primero vamos a ver que podemos expresar los números naturales como suma de potencias de Phi, positivas o negativas. Para lo cual van a ser de mucha utilidad las dos identidades anteriores del número Phi y basta jugar un poco con ellas para obtener las siguientes igualdades.

Lo primero que observamos al realizar las anteriores identidades de los primeros números naturales es que, efectivamente, es posible expresarlos como suma de potencias de Phi. Por lo tanto, podemos representar esos números utilizando únicamente dos cifras básicas, 1 (para las potencias de Phi que están) y 0 (para las potencias de Phi que no están), aunque, como se utilizan potencias negativas, las representaciones van a tener una expresión con “decimales”, es decir, utilizaremos una “coma” y se van a colocar los coeficientes, 0s y 1s, de las potencias positivas a la izquierda y de las negativas a la derecha de la coma, como es habitual en cualquier sistema de numeración. En la siguiente tabla se han recogido las que serían las representaciones de los diez primeros números (teniendo en cuenta las anteriores igualdades).

Aunque hay algún pero que podemos poner antes de afirmar que estas serían las representaciones en base Phi de los números naturales. La cuestión es que los números pueden representarse como suma de potencias, positivas y negativas, del número Phi de más de una manera, como podemos observar para los siguientes números.

Si tenemos en cuenta lo anterior, cada número tendría más de una representación Phinaria, lo cual no es deseable. En concreto, para los números que hemos mostrado arriba se tendría que el número uno tendría al menos dos representaciones, como 1 y como 0,11; el número dos tendría al menos otras dos, a saber, 10,01 y 1,11; el tres otras dos, que son 100,01 y 11,01; o el cuatro tendría las representaciones 101,01 y 101,0011; y así podríamos seguir. Más aún, hemos puesto dos expresiones de los números como suma de potencias de Phi, pero podríamos poner más de dos. Por ejemplo, para el número dos tendríamos infinitas formas de expresarlo como potencias, positivas y negativas, de Phi, como se muestra en la siguiente imagen.

Y si lo expresamos en forma de representaciones Phinarias con ceros y unos, serían
10,01 = 1,11 = 1,1011 = 1,101011 = … = 10,0011 = 10,001011 =…
Por lo tanto, debemos buscar una forma de asignar a cada número una representación en base Phi única. Jugando con las anteriores expresiones hemos podido darnos cuenta de que se verifica la expresión
que está detrás del hecho de que existan muchas maneras de expresar los números naturales como sumas de potencias de Phi. Si pensamos en las representaciones Phinarias, la anterior igualdad se traduce a la siguiente igualdad
donde hemos utilizado el subíndice Phi para indicar que estamos con representaciones Phinarias. Esta expresión es la responsable de la existencia de infinitas representaciones, como podemos observar en las representaciones en base Phi anteriores del número dos. Así, se observa por ejemplo que
10,01 = 1,11.
Más aún, a toda representación Phinaria que termine en 1 se le puede sustituir el 1 por 011, por lo anterior, así en el caso del número dos tenemos que
10,01 = 10,0011 = 10,001011 =…
o también
1,11 = 1,1011 = 1,101011 = …
Representaciones en base Phi minimales y maximalesCon el objetivo de poder asignar una representación en base Phi única para cada número natural se van a introducir las representaciones Phinarias maximales y minimales.
Una representación Phinaria de un número natural se dice que es minimal si es la que posee la menor cantidad de unos (1) de entre todas las representaciones en base Phi de dicho número. Por la propiedad anterior, de que en toda representación Phinaria se puede sustituir 11 por 100, se tiene que las representaciones minimales son aquellas para las cuales no hay dos unos consecutivos (11). Así, la representación Phinaria minimal de todas las representaciones en base Phi del número dos que se han mostrado más arriba, es 10,01. Las demás representaciones tienen tres unos (1,11; 10,0011), cuatro unos (1,1011; 10,001011) o más (1,101011, etc.). De esta manera:
todo número natural posee una única representación en base Phi minimal (sin unos consecutivos).
De hecho, esta representación es la que se suele utilizar de forma habitual, por lo que se la denomina representación Phinaria estándar (o simplemente representación Phinaria, cuando no hay lugar a dudas).
Aunque también se podría considerar la denominada representación en base Phi maximal de un número natural, que es aquella que tiene la mayor cantidad de unos (1) de entre todas las representaciones Phinarias de dicho número, pero que no termine en 011 (así evitamos esa ampliación infinita por la parte de la derecha que hemos observado con el número dos). Estas representaciones no tienen dos ceros consecutivos (00). Si observamos las representaciones Phinarias del número dos que se han mostrado más arriba, las únicas que no terminan en 011 son 10,01 y 11,1. Por lo tanto, la representación en base Phi maximal de dos es 1,11. Y ahora también tenemos que:
todo número natural posee una única representación en base Phi maximal (sin unos consecutivos).
Vamos a terminar incluyendo las representaciones minimales (estándar) y maximales de los primeros números naturales.
Ahora ya sabemos cuál es la representación en base Phi de los números naturales (la que hemos denominado estándar). Por ejemplo, el año en el que estamos, mientras escribo esta entrada, que es el año 2025 se escribiría en base Phi como
1 010 010 000 101 010,000 001 000 010 000 1.
Más aún, no solo se representan los números naturales (enteros), sino que se podrían representar, de nuevo, todos los números reales, pero no vamos a entrar en ello en esta entrada.

Bibliografía
1.- Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, Ariel, 2006.
2.- Ron Knott: Using Powers of Phi to represent Integers (Base Phi)
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El sistema de numeración en base Phi se ha escrito en Cuaderno de Cultura Científica.
La textura de los alimentos como generador de emociones en la infancia
La textura es un aspecto fundamental en la aceptación de los alimentos por parte de la población infantil. A lo largo de los años, numerosos estudios [1]–[3] han demostrado que los niños y niñas tienden a preferir texturas homogéneas y fáciles de masticar, mientras que las texturas más complejas pueden generar rechazo. Sin embargo, la aceptabilidad no es el único criterio que influye en sus elecciones alimentarias. En este sentido, estudios predictivos [4]–[6] han mostrado que el comportamiento alimentario está influenciado en gran medida por respuestas inconscientes e involuntarias como las emociones.

Desde hace siglos, los filósofos y científicos han intentado responder a una pregunta fundamental: ¿qué es una emoción y cómo se genera? Existen distintas teorías que buscan explicarlo.La teoría de las emociones básicas [7], inspirada en Darwin [8], sostiene que las emociones son respuestas universales e innatas que nos han ayudado a sobrevivir a lo largo de la evolución. Según esta perspectiva, emociones como la alegría, el miedo o la ira están asociadas a patrones específicos de expresiones faciales y reacciones fisiológicas. Un ejemplo de estos patrones se muestra en la Figura 1.

Por otro lado, las teorías dimensionales [10] consideran que las emociones no son categorías discretas, sino experiencias que varían en dos dimensiones principales: la valencia emocional (cómo de positiva o negativa es la emoción) y el nivel de activación emocional (cómo de excitada o relajada es la emoción). Finalmente, las teorías de la evaluación (o appraisal en inglés) [11] sugieren que las emociones surgen a partir de la evaluación cognitiva que hacemos de una situación, basándonos en nuestras experiencias previas. Desde este punto de vista, el cerebro no solo reacciona automáticamente, sino que interpreta el contexto y ajusta la respuesta emocional de forma flexible.
Aunque cada teoría aborda la emoción desde una perspectiva distinta, todas coinciden en que se trata de un fenómeno complejo que involucra múltiples componentes del organismo: desde cambios conductuales o fisiológicos hasta procesos cognitivos que influyen en nuestra forma de actuar.
Una de estas respuestas conductuales puede ser la expresión facial. Desde hace décadas, los científicos han estudiado cómo la expresión de nuestra cara refleja nuestras emociones. En este sentido, el sistema Facial Action Coding System (FACS; Figura 2) [12], desarrollado por Paul Ekman y colaboradores, establece que ciertos movimientos musculares en el rostro están asociados a puntos concretos de la expresión (denominados en inglés Action Units o AUs) que a su vez se relacionan con emociones básicas como la alegría, la tristeza o el miedo.

Mientras que el rostro refleja la emoción a nivel conductual, el sistema nervioso autónomo (ANS por sus siglas en inglés) revela lo que sucede en el interior del cuerpo. Una de las formas de medir esta respuesta es a través de la conductividad de la piel (SCR, por sus siglas en inglés; Figura 3), un método que detecta cambios en la actividad de las glándulas sudoríparas en la piel, especialmente en las manos. Cuando experimentamos una emoción intensa—como sorpresa, miedo o excitación—, nuestro sistema nervioso activa automáticamente la producción de sudor. Estos pequeños cambios en la humedad de la piel alteran su conductividad eléctrica, lo que puede ser medido mediante sensores colocados en los dedos.

En este contexto, un estudio reciente publicado en la revista científica Food Quality and Preference [16] ha profundizado en la relación que existe entre la textura de los alimentos y las emociones de la población infantil analizando cómo reaccionan los niños y niñas de entre 5 y 12 años ante alimentos sólidos con diferentes texturas. Para ello, se combinaron métodos tradicionales, como los cuestionarios, con tecnologías avanzadas que miden tanto sus expresiones faciales como la conductividad de su piel, lo que permite captar reacciones emocionales tanto conscientes como inconscientes.
En este estudio, las investigadoras trabajaron con un grupo de 45 niños y niñas, a quienes se les ofrecieron tres muestras de un mismo producto elaborado a partir de zumo de manzana, pero con distintas texturas: una blanda (denominada T6), otra de fácil masticación (T7.1) y una más firme (T7.2; Figura 4). Cada individuo evaluó estos productos en cuatro etapas sensoriales: observación, olfacción, manipulación y consumo. Durante todo el proceso, sus expresiones faciales fueron registradas con el software de reconocimiento automatizado FaceReader (Noldus Information Technology, Países Bajos) que analiza estos movimientos musculares y los traduce en emociones específicas, así como su nivel de excitación emocional que se midió con sensores de conductividad de la piel. Además, después de probar cada muestra, se les pidió que calificaran cuánto les gustaba en una escala del 1 al 7.

Uno de los hallazgos más llamativos fue que, aunque los niños y niñas calificaron los tres productos con niveles de aceptabilidad similares (textura T6: 4,6+1,8; textura T7.1: 4,6+2,0; textura T7.2: 4.3+2.0), sus reacciones emocionales fueron significativamente diferentes según la textura del alimento y la etapa sensorial en la que se encontraban (Figuras 5-8).
-
El producto más blando provocó más expresiones faciales de sonrisa en la fase inicial.
-
Las texturas más firmes generaron más expresiones de miedo y desagrado, especialmente durante la masticación. La textura más dura también generó expresiones faciales de miedo y sorpresa durante la fase de consumo, lo que sugiere una reacción negativa de alerta ante lo que se percibe como un alimento más difícil de masticar.
-
Curiosamente, las investigadoras también encontraron que las reacciones emocionales eran más intensas y la activación emocional mayor durante la observación y la olfacción que durante la manipulación y el consumo. Esto sugiere que la población infantil de edad escolar desarrolla expectativas sobre el alimento antes de probarlo, y que estas expectativas pueden influir en su respuesta emocional cuando finalmente lo consumen.




Estos resultados son especialmente relevantes para la industria alimentaria y para quienes trabajan en nutrición infantil. Aunque el público infantil pueda aceptar un alimento desde el punto de vista del gusto, su respuesta emocional podría afectar su disposición a consumirlo regularmente. Por ejemplo, si un alimento genera expresiones faciales de sorpresa y/o miedo durante la observación o la olfacción, es posible que sea rechazado antes de probarlo, incluso si luego gusta su sabor. Esto refuerza la idea de que, para mejorar la aceptación de ciertos alimentos es crucial considerar no solo su sabor, sino también la forma en que se presentan y su textura.
Referencias:
[1] A. S. Szczesniak, “Texture is a sensory property,” Food Qual. Prefer., vol. 13, no. 4, pp. 215–225, 2002, doi: 10.1016/S0950-3293(01)00039-8.
[2] M. Laureati et al., “Individual differences in texture preferences among European children: Development and validation of the Child Food Texture Preference Questionnaire (CFTPQ),” Food Qual. Prefer., vol. 80, p. 103828, 2020, doi: https://doi.org/10.1016/j.foodqual.2019.103828.
[3] M. Laureati, C. Cattaneo, V. Lavelli, V. Bergamaschi, P. Riso, and E. Pagliarini, “Application of the check-all-that-apply method (CATA) to get insights on children’s drivers of liking of fiber-enriched apple purees,” J. Sens. Stud., vol. 32, no. 2, 2017, doi: 10.1111/joss.12253.
[4] J. R. Dalenberg, S. Gutjar, G. J. Ter Horst, K. De Graaf, R. J. Renken, and G. Jager, “Evoked emotions predict food choice,” PLoS One, vol. 9, no. 12, pp. 1–16, 2014, doi: 10.1371/journal.pone.0115388.
[5] G. Juodeikiene et al., “Effects of emotional responses to certain foods on the prediction of consumer acceptance,” Food Res. Int., vol. 112, no. May, pp. 361–368, 2018, doi: 10.1016/j.foodres.2018.06.064.
[6] S. S. Samant, M. J. Chapko, and H. S. Seo, “Predicting consumer liking and preference based on emotional responses and sensory perception: A study with basic taste solutions,” Food Res. Int., vol. 100, no. April, pp. 325–334, 2017, doi: 10.1016/j.foodres.2017.07.021.
[7] P. Ekman, “All emotions are basic,” in The nature of emotion, P. Ekman and R. J. Davidson, Eds., Oxford University Press, 1994, pp. 56–58.
[8] C. Darwin, The expression of the emotions in man and animals. Cambridge: Cambridge University Press, 1872. doi: DOI: 10.1017/CBO9781139833813.
[9] R. Plutchik, “The nature of emotions: Human emotions have deep evolutionary roots, a fact that may explain their complexity and provide tools for clinical practice,” Am. Sci., vol. 89, no. 4, pp. 344–350, Apr. 2001, [Online]. Available: http://www.jstor.org/stable/27857503
[10] J. A. Russell, “A circumplex model of affect,” J. Pers. Soc. Psychol., vol. 39, no. 6, pp. 1161–1178, 1980, doi: 10.1037/h0077714.
[11] L. Barrett, “Solving the emotion paradox: Categorization and the experience of emotion,” Pers. Soc. Psychol. Rev., vol. 10, pp. 20–46, Feb. 2006, doi: 10.1207/s15327957pspr1001_2.
[12] P. Ekman, W. Friesen, and J. C. Hager, Facial Action Coding System: The manual on CD-ROM. Instructor’s Guide. Salt Lake City: Network Information Research Co, 2002.
[13] iMotions Biometric Research Simplified, “What is GSR? The definite guide,” 2015. [Online]. Available: https://imotions.com/guides/facial-expression-analysis/
[14] J. J. J. Braithwaite et al., “A guide for analysing Electrodermal Activity (EDA) & Skin Conductance Responses (SCRs) for psychological experiments,” 2015. doi: 10.1017.S0142716405050034.
[15] S. D. Kreibig, “Autonomic nervous system activity in emotion : A review,” Biol. Psychol., vol. 84, no. 3, pp. 14–41, 2010, doi: 10.1016/j.biopsycho.2010.03.010.
[16] N. da Quinta, A. B. Baranda, Y. Ríos, R. Llorente, A. B. Naranjo, and I. Martinez de Marañón, “Children’s physiological and behavioural response during the observation, olfaction, manipulation, and consumption of food products with varied textures. Part 2: Solid products,” Food Qual. Prefer., vol. 115, p. 105120, 2024, doi: https://doi.org/10.1016/j.foodqual.2024.105120.
[17] R. Soussignan and B. Schaal, “Children’ s facial responsiveness to odors: Influences of hedonic valence of odor, gender, age, and social presence,” Dev. Psychol., vol. 32, no. 2, pp. 367–379, 1996, doi: 10.1037/0012-1649.32.2.367.
[18] G. G. Zeinstra, M. A. Koelen, D. Colindres, F. J. Kok, and C. de Graaf, “Facial expressions in school-aged children are a good indicator of ‘dislikes’, but not of ‘likes,’” Food Qual. Prefer., vol. 20, no. 8, pp. 620–624, 2009, doi: 10.1016/j.foodqual.2009.07.002.
Nota:
1 El significado de los puntos de expresión facial de la parte superior de la cara es: AU01: elevador de cejas interno (inner brow raiser); AU02: elevador de cejas externo (outer brow raiser); AU04: bajador o descensor de cejas (brow lowerer); AU05: elevador de párpado superior (upper lid raiser); AU06: elevador de mejillas (cheek raiser); AU07: tensor de párpado (lid tightener); AU43: ojos cerrados (eyes closed) [12].
La asociación de dichos puntos de expresión facial con emociones se realizó en base a las indicaciones aportadas por otras publicaciones científicas [12], [17], [18]. Los puntos de expresión AU01, AU02, AU04 y AU43 se asociaron con emociones negativas. Por otro lado, AU06 se asoció con emociones neutras. Finalmente, se consideró que AU05 y AU07 no tienen relación directa con una emoción.
 
Sobre la autora: Noelia Da Quinta es doctora en Calidad y Seguridad alimentarias e investigadora postdoctoral en comportamiento del consumidor en AZTI.
Sobre AZTI: El propósito de AZTI es impulsar un cambio positivo para el futuro de las personas, contribuyendo a una sociedad saludable, sostenible e íntegra. Especializado en el medio marino y la alimentación, AZTI aporta productos y tecnologías de vanguardia y de valor añadido basados en ciencia e investigación sólidas. AZTI es miembro de Basque Research and Technology Alliance (BRTA).
Basque Research & Technology Alliance (BRTA) es un consorcio que se anticipa a los retos socioeconómicos futuros globales y de Euskadi y que responde a los mismos mediante la investigación y el desarrollo tecnológico, proyectándose internacionalmente. Los centros de BRTA colaboran en la generación de conocimiento y su transferencia a la sociedad e industria vascas para que sean más innovadoras y competitivas. BRTA es una alianza de 17 centros tecnológicos y centros de investigación cooperativa y cuenta con el apoyo del Gobierno Vasco, SPRI y las Diputaciones Forales de Araba, Bizkaia y Gipuzkoa.
El artículo La textura de los alimentos como generador de emociones en la infancia se ha escrito en Cuaderno de Cultura Científica.
Los casquetes polares de Marte y el interior del planeta rojo
Cuando en una de esas noches en las que Marte y la Tierra se encuentran relativamente cerca -bueno, cerca en el sentido astronómico, ya que es difícil que nos acerquemos a menos de 55 millones de kilómetros- y miramos con un telescopio modesto, hay algo que salta a la vista y que, sin poder ver ningún otro detalle de la superficie con tanta claridad entre la turbulencia atmosférica, nos hace sentir cierta familiaridad: los casquetes polares de Marte.
Más allá de que para los geólogos las capas de polvo y hielo de los casquetes polares -como una inmensa tarta de chocolate y galletas- pueden albergar una importantísima información sobre la historia climática del planeta rojo, hay algo más que nos pueden enseñar estas grandes masas de hielo al igual que las hemos podido aprovechar en la Tierra: conocer mejor la rigidez del manto y, a la vez, como de frío está el interior del planeta.

En la Tierra tenemos una compleja historia de periodos glaciares e interglaciares. Durante las popularmente conocidas como “edades del hielo” -los periodos glaciares-, sobre los continentes suelen formarse grandes masas de hielo y, con su enorme peso, tienen la capacidad de ir hundiendo la corteza que hay debajo, flexionándola como cuando clavamos un dedo sobre una bola antiestrés.
Cuando el clima va cambiando hacia un periodo más cálido -o interglaciar- y el hielo comienza a fundirse, este peso se va liberando y la corteza “rebota” hacia arriba en un proceso que conocemos como rebote isostático, que como decía en el párrafo anterior, nos da pistas sobre el estado del interior de nuestro planeta.
En Marte podemos medir estos procesos gracias al casquete de hielo que existe en el polo Norte, un enorme depósito de hielo y polvo de varios kilómetros de espesor acumulados durante millones de años y que es capaz de, por su peso, deformar la corteza de con una magnitud que podemos medir a través de las misiones espaciales. Y un nuevo artículo publicado por Broquet et al. (2025), nos ha abierto, gracias a la deformación que produce el peso de este hielo sobre la corteza del planeta, una ventana para conocer mejor el funcionamiento interno de Marte.
¿Cómo han abordado los científicos este problema? Porque no ha habido ninguna misión específica dedicada a estudiar esta cuestión en la superficie de Marte, pero tampoco desde la órbita. A pesar de eso, han logrado cuatro indicios diferentes para reconstruir con más detalle estos procesos de deformación y respuesta de la corteza y el manto marciano.
La primera de estas pistas viene dada por el estudio de los perfiles de radar tomados por los instrumentos MARSIS y SHARAD, que les ha permitido observar una especie de “radiografía” de los casquetes polares gracias a las ondas de radio que rebotan -y en algunos casos son absorbidas- por las distintas capas del casquete polar. Con estos perfiles se ha podido calcular el espesor real de la capa de hielo y estudiar el estado de las rocas que soportan esta masa de hielo, descubriendo que no ha sufrido una flexura o flexión muy grande como consecuencia del peso.

Por otro, el estudio del campo gravitatorio de Marte, que no es estático, sino que va cambiando con el paso del tiempo. Cuando el hielo se va acumulando sobre los casquetes y se deforma la corteza, ocurren cambios sutiles que se pueden ir siguiendo a lo largo de los años marcianos, permitiendo a los científicos ver que parte de la superficie rebota o se hunde. Este hecho incluso puede observarse con el cambio de las estaciones, ya que hay parte del hielo que se sublima a la atmósfera durante la primavera y el verano y cae de nuevo durante el invierno, generando una alteración del campo gravitatorio suficientemente perceptible.
Los datos sísmicos de la misión InSight han sido también muy importantes, ya que de ellos se aprecia que no han ocurrido terremotos importantes cerca del polo norte, indicando que la deformación en la corteza del planeta es muy pequeña, permitiendo acotar a los científicos que cantidad de flexión está sufriendo la corteza con respecto a la actividad sísmica observada. Por cierto, este hecho tiene también una derivada práctica importante, y es que, de cara al riesgo sísmico para las futuras misiones tripuladas marcianas, el polo norte podría ser relativamente “tranquilo” y, por lo tanto, un lugar seguro. Si las rocas que sirven de apoyo al casquete polar hubiesen sufrido una mayor deformación, lo más probable es que hubiese una mayor actividad sísmica también.
Por último, los investigadores han confeccionado una serie de modelos físicos que simulan la evolución del calor interno de Marte desde su formación hasta el día de hoy, permitiendo poner a prueba varios escenarios sobre como podía ser la estructura interna del planeta, y, combinando estos escenarios con los datos reales, saber cuales podrían ser los más certeros.
¿Y qué resultados arroja la combinación de todos estos datos junto con los modelos? El primero es que el manto de Marte, la capa que hay justo debajo de la corteza, es más viscosa de lo que se había pensado hasta ahora. La viscosidad, en este sentido, es la resistencia a fluir del manto. Esto no quiere decir que el manto esté fundido, si no que, a escala geológica, las rocas del manto se comportan como un fluido, pero se encuentran en estado sólido.

Esto es importante porque un manto muy viscoso nos indica que el interior de Marte está hoy relativamente frío -si no sería menos viscoso- y que los elementos radiogénicos que producen calor a partir de la desintegración radioactiva probablemente no estén distribuidos de una manera uniforme en su interior. Y de hecho es probable que muchos de estos elementos estén concentrados en la corteza, permitiendo que, por otro lado, esta esté más caliente.
Las implicaciones de esta observación son muy importantes: Sabemos que Marte ha tenido actividad volcánica en el pasado reciente -incluso en los últimos miles de años- y que puede que este fenómeno se deba no a la presencia de magmas que puedan provenir del manto, sino que estos podrían incluso formarse dentro de la propia corteza gracias a una mayor concentración de elementos radiogénicos suficientes para elevar la temperatura, fundir la roca y dar lugar a los magmas que posteriormente fluirían hacia la superficie.
Para concluir, otro aspecto que me ha parecido muy interesante del estudio es que el casquete polar del hemisferio norte es relativamente joven -a escala geológica- y que el hielo podría haberse estado acumulando desde hace entre 1.7 y 1.2 millones de años, por lo que la deformación de la corteza todavía estaría en marcha y no podemos apreciar todavía su verdadera magnitud debido a la lentitud de este proceso. Dicho esto, el poder establecer una fecha para cuando se comenzó a formar este casquete polar nos puede ayudar a comprender mejor la historia climática del planeta y la relación de este con los distintos ciclos astronómicos (oblicuidad, excentricidad, precesión…).
Todavía nos queda mucho para saber todos los detalles de la estructura interna del planeta Marte, pero cada trocito que descubrimos -aunque sea a través de misiones que muchas veces no parecen conectadas entre si- nos ayuda a estar más cerca de poder responder a por que Marte y la Tierra son planetas tan diferentes.
Bibliografía:
A. Broquet, et al. (2025) Glacial Isostatic Adjustment Reveals Mars’s Interior Viscosity Structure. Nature doi: 10.1038/s41586-024-08565-9
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Los casquetes polares de Marte y el interior del planeta rojo se ha escrito en Cuaderno de Cultura Científica.
Glaucoma, un vacío inquietante en un campo lleno de milagros

Más allá de la celebrada conversión del agua en vino, si tuviésemos que citar el milagro bíblico por excelencia seguramente diríamos «devolverles la vista a los ciegos». Pero, lo que durante siglos ha sido casi una habilidad mágica, disponible en exclusiva para divinidades, en nuestros días empieza a considerarse algo accesible y cercano en numerosas investigaciones biomédicas. Vivimos tiempos fascinantes en biomedicina y, cuando hablamos de «curar la ceguera» nos encontramos, casi a diario, un buen puñado de estudios científicos y noticias que nos colocan un paso más cerca de conseguirlo.
Ya sea con células madre para recuperar lesiones oculares, o implantes biónicos que, mediante neuroestimulación, podrían permitir restaurar funciones sensoriales, o el desarrollo avanzado de prototipos de córnea artificial, e incluso mediante técnicas de edición genética CRISPR para reparar la retina. Las posibilidades que se abren ante nosotros son tantas y tan variadas que no parece demasiado arriesgado adelantar que, en las próximas décadas, asistiremos a la conclusión de un milagro milenario.
Sin embargo existen ciertas enfermedades de la vista que no parecen avanzar tan rápido, determinados trastornos que afectan a un alto porcentaje de las personas ciegas y que no aún no cuentan con ningún avance revolucionario. Es el caso del glaucoma un amplio y heterogéneo grupo de enfermedades oculares neurodegenerativas caracterizadas por un daño gradual e irreversible del nervio óptico que en la actualidad afecta a más de 70 millones de personas. El daño por glaucoma es permanente, no cuenta con cura o tratamiento y se ha convertido en la segunda causa principal de ceguera en todo el mundo.
Ante este aparente vacío entre tanto milagro cotidiano y, teniendo en cuenta las elevadas cifras que ostenta el glaucoma, cualquier avance sobre el tema, por pequeño y lejano que parezca, resulta más que bienvenido. Encontramos un esperanzador ejemplo en un estudio publicado hace unas semanas en PNAS Nexus, el journal open Access de la célebre Proceedings of the National Academy of Sciences (PNAS), por el que se presentan dos anticuerpos que «podrían detener esta degradación y posiblemente salvar la visión de las personas antes de que sea demasiado tarde».
Comencemos el análisis de este estudio con una aproximación a las causas que generan la enfermedad. En términos generales el glaucoma consiste en un daño al nervio óptico, responsable de llevar al cerebro las imágenes convertidas en impulsos eléctricos en la retina. La mayoría de las veces ese daño en el nervio óptico está provocado por un aumento de la presión intraocular. Si nuestro ojo fuese un balón de baloncesto su correcto funcionamiento dependería de una delicada presurización, que está regulada por la producción y el drenaje equilibrados del humor acuoso, un líquido transparente que nutre el segmento anterior ocular. En un ojo sano, ese líquido se drena continuamente permitiendo una correcta visión mientras que «en la mayoría de las formas de glaucoma un drenaje deficiente del humor acuoso desemboca en un aumento de la presión intraocular».
Este mal drenaje del líquido y su consecuente aumento de la presión pueden tener varias causas y la principal de ellas nos lleva a hablar de una proteína en concreto que, a la postre, se ha convertido en la protagonista del nuevo estudio: la miocilina.
Las proteínas realizan o regulan miles de funciones en nuestro cuerpo y, a grandes rasgos, son largas cadenas de aminoácidos que se pliegan de determinadas formas para realizar su trabajo. Es fundamental que el plegamiento sea el correcto, de lo contrario, la proteína no podrá llevar a cabo su función biológica. De hecho, es un problema inquietante ya que una proteína mal plegada puede «contagiar» su mala configuración a otras, dando lugar a un amplio grupo de enfermedades, como el Alzheimer, el Parkinson, o las enfermedades priónicas. Precisamente, la investigación sobre plegamiento de proteínas realizada en este tipo de enfermedades neurodegenerativas ha sido la base e inspiración para la nueva publicación sobre el glaucoma.
«Una de las mutaciones que causa glaucoma congénito y que es la responsable de un alto porcentaje de los casos de esta enfermedad provoca que una proteína, miocilina, debido a esta mutación, se sintetice mal plegada en las células que la producen, perdiendo su función», nos explica la neurocientífica Conchi Lillo, investigadora en patologías visuales en el Instituto de Neurociencias de Castilla y León y profesora titular de la Universidad de Salamanca. «Esta proteína es importante para el correcto drenaje del humor acuoso que baña la cámara anterior del ojo, así que el mal funcionamiento de la proteína, debido a este plegamiento incorrecto, provoca que este drenaje no se produzca de una forma eficiente».

En el estudio publicado en PNAS Nexus los autores presentan un posible tratamiento para frenar el glaucoma congénito producido por el mal plegamiento de la miocilina empleando anticuerpos generados en el laboratorio que son capaces de neutralizar la forma incorrecta de la proteína. «Los anticuerpos que neutralizan la miocilina mal plegada se sintetizaron inmunizando a ratones con antígenos de esta proteína. La reacción inmunitaria que provoca esta inmunización en su organismo hace que en su suero sanguíneo aparezcan los anticuerpos contra ese antígeno, que se pueden aislar y utilizar para comprobar si son eficaces para neutralizar miocilina», explica Lillo. «Para ello, se probó su efectividad usando estos anticuerpos aislados en células en cultivo que expresaban esta proteína miocilina mal plegada, comprobando que efectivamente, realizaban esa función».
El glaucoma representa un vacío en un mundo repleto de milagros. Entre los extraordinarios éxitos logrados en el complejo, y casi divino, arte de devolver la vista al ciego, esta patología sigue siendo un preocupante oasis en el que avanzar está siendo muy difícil. Por eso resulta fácil dejarse entusiasmar por cualquier pequeño detalle o ventana al futuro, pero hay que ser realista y entender que este estudio publicado aún está muy lejos de ser aplicable. «Son resultados prometedores porque se ha encontrado una posible diana terapéutica para abordar la raíz del problema que se produce en el glaucoma, pero hay que tener cautela con las expectativas, ya que este “posible tratamiento” no se ha probado aún en animales de experimentación y ni siquiera las células en cultivo empleadas para estas pruebas son las que en los ojos humanos producen la miocilina mal plegada en la enfermedad de glaucoma».
Referencias:
Raquel L Lieberman, et al. «Antibody-mediated clearance of an ER-resident aggregate that causes glaucoma» PNAS Nexus (2025) DOI:10.1093/pnasnexus/pgae556
Tess Malone «Under Pressure: Georgia Tech Researchers Discover a New Way to Treat Glaucoma» Georgia Tech (2025)
Sobre el autor: Javier «Irreductible» Peláez (Puertollano, 1974) es escritor y comunicador científico. Autor de 500 años de frío. La gran aventura del Ártico (Crítica, 2019) y Planeta Océano (Crítica 2022). Es uno de los fundadores de la plataforma Naukas.com, editor de ciencia en Yahoo España y Latinoamérica. Es guionista científico en los programas de televisión «El Cazador de Cerebros» y «Órbita Laika» de RTVE. Durante más de una década ha escrito en diferentes medios de comunicación (El País, El Español, National Geographic, Voz Populi). Es autor de los podcasts Catástrofe Ultravioleta y La Aldea Irreductible, y ha colaborado en diferentes proyectos radiofónicos y televisivos (Radio Nacional de España, Radio Televisión Canaria). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.
El artículo Glaucoma, un vacío inquietante en un campo lleno de milagros se ha escrito en Cuaderno de Cultura Científica.
Aprender y convivir en contextos multiculturales en educación infantil
La jornada Las Pruebas de la Educación regresó un año más para revisar la eficacia de las estrategias educativas actuales a partir de la evidencia científica. El desarrollo del lenguaje oral en la infancia y su poder en la creación de distintas realidades sobre un mismo tema, así como la riqueza del aprendizaje en entornos multiculturales fueron algunas de las cuestiones analizadas durante la séptima edición de este seminario.
Andrea Khalfaoui, profesora en el departamento de Ciencias de la Educación en la Universidad del País Vasco, argumenta en “Aprender y convivir en contextos multiculturales en Educación Infantil: una mirada informada por la evidencia” cómo la multiculturalidad, presente hoy día en muchas aulas, puede emplearse como palanca de aprendizaje.
La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la Facultad de Educación de Bilbao, tuvo lugar el 21 de febrero de 2025 en la sala Juliana Agirrezabala de la Facultad de Educación de Bilbao de la Universidad del País Vasco UPV/EHU en Leioa (Bizkaia). Las ponencias fueron impartidas por un abanico de expertos y expertas del ámbito de la educación, la formación y el aprendizaje.
La séptima edición del seminario está especialmente dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. El objetivo es crear un espacio de reflexión compartida, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Aprender y convivir en contextos multiculturales en educación infantil se ha escrito en Cuaderno de Cultura Científica.
El fascinante invento para detectar materia oscura en el interior de Júpiter
Miremos a los cielos imitando a los antiguos. Y con ello tratemos de entender cosas casi incomprensibles como la materia oscura. Acaso esto alivie el desconsuelo de que sea más sencilla la cosmología que la política.
Hagamos volar nuestra curiosidad como si fuera una cometa pensando en unas partículas ligeras y extrañas. Y redondeemos nuestro juego de niños imaginando planetas gigantes que quieren atraparlas. Pues de eso justamente trata uno de los últimos retos de la astrofísica: pretende descubrir a fondo la naturaleza de la materia oscura entendiéndola como algo formado por partículas hipotéticas propuestas por los científicos. Y para ello se recurre a Júpiter, uno de nuestros vecinos pesados. Y cuando digo pesado no es que nos aburra, sino que es muy masivo. No por casualidad lo llamamos el gigante rojo.

Este planeta fundamentalmente gaseoso tiene una densidad baja, y su gravedad en la superficie tan solo es algo más de 2 veces la de la Tierra. Sin embargo, el campo gravitatorio en el interior parece que podría ser muy intenso, según sugieren las complejas mediciones de la misión Juno. Esto se debería a la presencia de elementos metálicos atrapados a muy altas presiones en el núcleo del planeta.
Este poderío gravitatorio confiere a Júpiter la capacidad de atrapar unas partículas ligeras que teóricamente podrían componer la materia oscura, los llamados WIMP. Claro que “ligera” significa aquí que es una partícula con la misma energía que un protón o un neutrón, es decir, del orden del gigaelectronvoltio.
Como bien sabían los electroduendes, esta sería precisamente la energía necesaria para hacer que un electrón se mueva por una diferencia de potencial de mil millones de voltios. No debería sorprendernos esta semejanza en escalas de energía. De hecho, hay hipótesis que sugieren que las partículas de materia oscura podrían ser neutrones espejo.
Pero no solo tenemos que entender qué es la materia oscura. Tan o más importante es detectarla.
Materia oscura errantePodría haber partículas de materia oscura vagando por el universo que se adentrasen en el acogedor Júpiter. Y en ese traicionero albergue sufrirían diversos choques con todo el resto de partículas (idénticas o las del propio planeta). Sería como si la materia oscura jugase un campeonato planetario de billar. En cada uno de estos topetazos las partículas de materia oscura irían perdiendo energía para quedar finalmente aniquiladas siguiendo las reglas de la mecánica cuántica, que este año está de aniversario.
El fructífero resultado de la destrucción de los WIMP sería la emisión de neutrinos susceptibles de ser detectados en la Tierra.
Los efectos de la aniquilaciónUna de las maneras de saber que ha llegado a nuestro planeta uno de esos neutrinos, fruto de la aniquilación de los WIMP, es el efecto Cherenkov. Se manifiesta como un destello característico en forma de cono de luz azul (pura radiación electromagnética) que producen ciertas partículas cargadas.
Para que el efecto se produzca, las cargas han de viajar más rápido que la luz al atravesar un medio como agua o gas. Pero no nos llevemos las manos a la cabeza: por su naturaleza, esas partículas no superarían la velocidad de la luz en el vacío. Este fenómeno luminoso es muy parecido al “boom sónico”. Y en el campo de la astrofísica experimental se construyen sensores especializados que identifican esas vertiginosas partículas y miden sus velocidades.
El medio de preferencia de muchos de estos sensores es el agua, por la particular interacción que tienen los neutrinos con el H₂O. Además, no nos vamos a engañar, el agua es abundante y barata (o lo era).
Los detectores colosalesPero para hacernos una idea del tamaño de un bicharraco de estos vamos con los datos del detector Super-Kamiokande (de tipo Cherenkov, obviamente). Este ingenio, crucial para entender algunos aspectos de la física de los neutrinos, contiene 50 000 toneladas de agua purísima.
Conviene enfatizar que los neutrinos que escaparían de Júpiter, como cualquier otro neutrino, no tienen carga. Así que no son exactamente esas las partículas que detectarían el detector Cherenkov. Más bien iría a la caza y captura de partículas cargadas secundarias surgidas de las interacción de los neutrinos con la materia. En concreto, serían producidas en esos encuentros no consentidos entre los neutrinos y las moléculas de agua.
Pero sabiendo que Super-Kamiokande se ha usado para detectar neutrinos solares y sumando dos y dos surge esta pregunta: ¿no serviría el Sol también como diana idónea para la materia oscura ligera?
La temperatura importaEn principio el campo gravitatorio del Sol es también muy intenso y tiene capacidad de ser penetrado por los WIMP. Debería ser entonces susceptible de poder usarse del mismo modo que Júpiter.
La contrariedad es que el interior de nuestra estrella tiene una temperatura elevadísima. Por este motivo, los núcleos atómicos protagonistas de los choques más relevantes se moverían muy rápido. Esto causaría una ganancia de energía cinética por parte de la partícula ligera de materia oscura. Con este aumento de velocidad, a las partículas de materia oscura les sería más fácil escapar de esa prisión estelar sin ser aniquiladas. Y si no se aniquilan, no podríamos detectarlas.
En cambio, la temperatura de Júpiter aún siendo alta no lo es tanto y le resulta más fácil capturar WIMP. Pasa algo parecido a lo que ocurre con la sopa del cuento de Ricitos de Oro y los tres osos. Para que un astro pueda atrapar en su interior a la materia oscura ha de estar a una temperatura propicia.
El invento para el porvenirEl afán por comprender estos y otros fenómenos impulsa la construcción de detectores aún más potentes, como el proyectado Hyper-Kamiokande, un ingenio que ahora cuenta con participación española. Este futuro detector tendrá 5 veces más agua que su predecesor. Sus colosales especificaciones lo harán protagonista de mucha física del futuro.
Pero siempre me queda la duda de si realmente queremos llegar a ese porvenir. Descubrir por fin la naturaleza de la materia oscura traerá consigo cierta melancolía. Poco a poco nos quedaremos sin preguntas que resolver y la física será solo para nostálgicos. Aunque la intuición, o la esperanza, me dicen que falta mucho para que el universo nos ceda todos sus secretos.
Sobre la autora: Ruth Lazkoz es catedrática de física teórica de la Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo El fascinante invento para detectar materia oscura en el interior de Júpiter se ha escrito en Cuaderno de Cultura Científica.
(Ni son) tierras (ni son) raras
Uno de los temas más candentes de la actualidad mundial son las tierras raras, debido a la urgencia que están mostrando ciertos países por hacerse con ellas. Pero, ¿qué son las tierras raras? Y ¿por qué son tan importantes?
Pues debo comenzar diciendo que su nombre nos lleva, directamente, a dos errores. Por un lado, la palabra tierra hace que pensemos en ese sedimento que cubre la parte más superficial del terreno, es decir, en algún tipo de suelo, pero nada más lejos de la realidad. Tierra es un término arcaico utilizado en química para referirse a los elementos que aparecen en forma de óxidos en la naturaleza y que se ha mantenido hasta la actualidad, prácticamente a modo de homenaje, pero no tiene nada que ver con la definición geológica de “tierra” como sedimento. Y, por otro lado, la palabra rara nos lleva a suponer que son muy escasos, pero tampoco es cierto. Estos elementos son relativamente comunes en nuestro planeta, incluso en términos totales que calcula que son más abundantes que todo el oro presente en la Tierra, pero se les denomina “raros” porque, generalmente, aparecen en concentraciones muy pequeñas dentro de los minerales y rocas y, sobre todo, porque su diferenciación química (es decir, su extracción del resto de componentes de los minerales) es muy compleja y bastante difícil.

Entonces, ¿qué son las tierras raras? Pues este término hace referencia a 17 elementos químicos de la Tabla Periódica, los 15 de la serie de los lantánidos* (lantano, cerio, praseodimio, neodimio, prometio, samario, europio, gadolinio, terbio, disprosio, holmio, erbio, tulio, iterbio y lutecio) a los que se suman el escandio y el itrio. Estos elementos no aparecen en nuestro planeta en forma nativa, como lo pueden hacer el cobre o el oro, sino que siempre aparecen formando compuestos en la estructura química de ciertos minerales en concentraciones muy bajas, concretamente de partes por millón (para que os hagáis una idea, las concentraciones en porcentaje corresponden a 1/100 partes, mientras que las concentraciones en partes por millón equivalen a 1/1.000.000 del total).
Las tierras raras pueden aparecer en minerales más o menos conocidos, como el apatito o los clinopiroxenos, o en otros con nombres algo más raros, como la monacita o la bastnasita. Pero estos minerales con ciertas concentraciones de tierras raras no se forman en cualquier lugar, sino que lo hacen en contextos geológicos muy concretos. Principalmente, se trata de zonas en las que afloran rocas ígneas, principalmente volcánicas, que se han producido por el ascenso de magmas muy profundos que se han ido enriqueciendo en estos elementos químicos mientras iban ascendiendo por el manto y la corteza terrestres. También aparecen en lugares que han sufrido metamorfismos particulares en los que han estado relacionados fluidos hidrotermales que han atravesado rocas ricas en tierras raras y, en su circulación hacia la superficie, han ido precipitándolas a su paso en diferentes venas minerales. Y hay un tercer contexto un poco más especial aún, los medios sedimentarios formados por la erosión y el depósito de fragmentos de estas rocas ígneas y metamórficas con minerales que incluyen tierras raras en su composición.

Como os decía al principio, la explotación de estos yacimientos minerales no es ni barata, ni sencilla. Los minerales que incluyen tierras raras suelen aparecer entremezclados con otros que no nos interesan, por lo que hay que hacer una selección previa, junto con un estudio geológico muy detallado, de las zonas y los materiales que queremos extraer. Y, una vez obtenidos esos minerales, hay que someterlos a un proceso químico largo y complejo para poder aislar las tierras raras. Eso implica un análisis preliminar de la viabilidad económica del yacimiento, para asegurar que se va a obtener un beneficio con su explotación, porque es muy fácil que las empresas acaben en bancarrota si no tienen cuidado.
Una vez visto todo esto, ¿por qué son tan famosas e importantes las tierras raras? Pues por sus propiedades magnéticas y luminiscentes. Actualmente se han convertido en componentes indispensables en la estrategia de transición ecológica, ya que forman parte de catalizadores, imanes, baterías, componentes electrónicos o pantallas de aerogeneradores, vehículos eléctricos o mecanismos informáticos. También tienen un papel primordial en el avance médico, ya que permiten generar nuevas herramientas de diagnóstico y tratamiento para enfermedades tan dañinas como el cáncer. Por estos motivos, han entrado de cabeza en los listados de materiales críticos y estratégicos a nivel mundial, por lo que su búsqueda y explotación evitará la dependencia de Europa o Estados Unidos de terceros países, como China, principal exportador de tierras raras en la actualidad.
Pero hay un motivo menos noble y más prosaico por el que han cobrado tanta importancia social hoy en día. Las tierras raras también son unos materiales básicos para el desarrollo de la industria armamentística. Satélites más eficientes, mejores sistemas de comunicación, nuevos dispositivos de posicionamiento y vigilancia nocturna, vehículos militares autopropulsados y con dispositivos de blindaje mejorados, armamento con mayor capacidad destructiva, capaces de recorrer distancias más largas y con más autonomía, y un largo etcétera. Quizás este uso de las tierras raras explica más cosas de las que suceden en el mundo actual que la búsqueda de un futuro más sostenible.
Películas post-apocalípticas, como Mad Max, nos enseñaron que las guerras del futuro se producirían por el agua y el combustible. Parece que se olvidaron de un tercer origen: la búsqueda de minerales críticos. Yo prefiero pensar que esas cosas no van a suceder y que, lo único que tenemos seguro hoy en día, es que la Geología nos permitirá buscar y explotar de manera segura y sostenible los recursos naturales que necesita la humanidad para seguir evolucionando, socialmente hablando. Espero no equivocarme.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
*Nota del editor: La IUPAC, prescriptivista ella, «recomienda» (como lo haría don Vito) el nombre «lantanoides». Pero esto se debe a la necesidad de mantener la coherencia en inglés, donde la terminación -ide de «lanthanide» (lantánido) se reserva para determinados compuestos que, en castellano, acaban en -uro (carburo o hidruro, por ejemplo, son carbide o hidride en inglés). Podemos, por tanto, emplear en castellano el nombre que creó Victor Goldschmidt en 1925 para denominar este conjunto de elementos sin incurrir en anatema.
El artículo (Ni son) tierras (ni son) raras se ha escrito en Cuaderno de Cultura Científica.
Liudmila Vsévolovna Kéldysh, de la teoría de conjuntos a la topología geométrica
Con una habilidad pedagógica poco común, [Liudmila Kéldysh] sabe cómo conducir a un estudiante desde la solución de los problemas más simples hasta el trabajo independiente.
P. S. Aleksandrov, A. B. Sosinskii, A. V. Chernavskii, M. A. Shtan’ko (1974).

Liudmila Vsévolovna Kéldysh nació en Oremburgo (Rusia) el 12 de marzo de 1904. Era la hija mayor (de siete) de Maria Aleksándrovna Skvórtsova y Vsévolod Mijáilovich Kéldysh, un ingeniero militar. Debido a la naturaleza del trabajo de su padre, la familia viajaba con frecuencia; Liudmila vivió en Helsinki (1905-1907), San Petersburgo (hasta 1909) y después en Riga (Letonia) hasta que la invasión alemana obligó a la familia a huir a Moscú.
Tras terminar sus estudios secundarios, continuó su educación en la Universidad Estatal de Moscú, graduándose en 1925. En 1923, mientras estudiaba, se unió al grupo de investigación de Nikoláai Luzin, el grupo Luzitania. Allí conoció a Piotr Serguéyevich Nóvikov, con quien se casó en 1934.
Trabajando en teoría de conjuntosEn 1930 Keldysh comenzó a enseñar en el Instituto de Aviación de Moscú. Un año más tarde tuvo a su primer hijo, Leonid Kéldysh, nacido de un matrimonio anterior al comentado anteriormente.
A partir de 1934 comenzó a enseñar en el Instituto de la Academia de Ciencias de la URSS especializándose en teoría de conjuntos. En los años posteriores nacieron sus hijos Andréi Petróvich Nóvikov y Serguéi Petróvich Nóvikov; este último se convirtió en el primer matemático soviético en recibir la Medalla Fields, fue en 1970.
Liudmila defendió su tesis, supervisada por Luzin, en 1941. Trataba sobre conjuntos de Borel. Antes de recibir su título de doctora en Ciencias Físicas y Matemáticas, la familia huyó del avance de las tropas alemanas, instalándose en Kazán, en los institutos evacuados de la Academia de Ciencias. Keldysh y sus hijos no tenían el estatus de evacuados, solo el de refugiados. Finalmente fueron alojados en el gran gimnasio de la Universidad de Kazán, junto con varios cientos de refugiados como ellos. Su marido llegó posteriormente, enfermo. Resistieron pasando numerosas necesidades e incertidumbre.
A finales de 1942 pudieron regresar a Moscú y la situación comenzó a mejorar. En esa época, el matrimonio tuvo dos hijas, Nina y Elena.
Trabajando en topología geométricaA partir de 1945, su trabajo se centró más en la topología geométrica. Publicó numerosos trabajos de investigación hasta la década de 1960. Por todo su trabajo, entre otros, recibió en 1958 el Premio del Presidium del Soviet Supremo.
A finales de los años 1950, Keldysh organizó un seminario sobre topología geométrica en el Instituto Steklov de Matemáticas, centrándose en particular en embebimientos topológicos. Este seminario resultó importante para el desarrollo de las matemáticas en Rusia y estuvo activo hasta 1974. Uno de sus estudiantes más brillantes, Alekséi Chernavskii, comenzó a participar en el seminario en 1970, y comentaba sobre la manera en la que trabajaban:
Comenzamos a organizar nuestros talleres sistemáticamente en varios puntos del campo de Moscú, combinando topología, fútbol o esquí según la estación, anécdotas, conversaciones serias sobre la vida, etc.
En 1964, Liudmila fue nombrada profesora titular en la Universidad Estatal de Moscú, publicando en 1966 el libro Embebimientos topológicos en el espacio euclidiano (en ruso) para ayudar a sus estudiantes de investigación. Se dedicó a la docencia hasta 1974, año en el que renunció a su trabajo en protesta por la expulsión de uno de sus estudiantes.
Liudmila falleció el 16 de febrero de 1976, un año después de su marido. En agosto de 2004, en el centenario de su nacimiento, se celebró en Moscú el congreso en su honor «Topología geométrica, geometría discreta y teoría de conjuntos«.
BonusEn una entrevista realizada al matemático Serguéi Nóvikov (1938-2024) en 2001, comentaba que su familia jugó un papel muy importante en su decisión de dedicarse a la ciencia; en particular hablaba de su madre:
Mi padre, Piotr Serguéyevich Nóvikov, fue un matemático famoso. Todos los matemáticos conocen su trabajo sobre la teoría de algoritmos y la teoría combinatoria de grupos, incluida la indecidibilidad del problema de la palabra y la solución del problema de Burnside para grupos de torsión. En la década de 1930 fue uno de los mejores expertos en la llamada teoría descriptiva de conjuntos y en la década de 1940 en lógica matemática. También inició en la década de 1930 una nueva rama de la física matemática: la reconstrucción de un dominio homogéneo acotado a partir de su potencial gravitatorio en el infinito. Mi madre, Liudmila Vsévolovna Kéldysh, también fue una matemática destacada: profesora titular y experta en teoría de conjuntos y topología geométrica. La familia tuvo cinco hijos, y yo era el tercero de ellos, el más joven de los tres hijos. Todos los hijos se hicieron físicos y matemáticos, mientras que las hijas eligieron otras profesiones. Mi hermano mayor, Leonid Kéldysh, es uno de los teóricos de la física del estado sólido y de la física de la materia condensada más conocidos a nivel internacional. Mi otro hermano, Andréi Nóvikov, era un experto en teoría algebraica de números, pero lamentablemente murió prematuramente. Además, el hermano de mi madre, Mstislav Kéldysh, era un matemático muy talentoso en la teoría de funciones de variable compleja y en ecuaciones diferenciales. Hizo una contribución especialmente fundamental a las ramas aplicadas de la aerodinámica. […]
Referencias
- J J O’Connor and E F Robertson, Ljudmila Vsevolodovna Keldysh, MacTutor History of Mathematics Archive, University of St. Andrews
- P. S. Aleksandrov, A. B. Sosinskii, A. V. Chernavskii, M. A. Shtan’ko, Lyudmila Vsevolodovna Keldysh (on the occasion of her seventieth birthday), Russian Mathematical Surveys 29 (4) (1974) 155-161
- S. I. Adian, A. A. Mal’tsev, E. V. Sandrakova, A. B. Sosinskii, A. V. Chernavskii, M. A. Shtan’ko, Lyudmila Vsevolodovna Keldysh (on the centenary of her birth), Russian Mathematical Surveys 60 (4) (2005) 581-588
- Ludmila Keldysh, Wikipedia
- Victor M. Buchstaber, Interview with Sergey P. Novikov, EMS Newsletter 42 (2001) 17-20
El artículo Liudmila Vsévolovna Kéldysh, de la teoría de conjuntos a la topología geométrica se ha escrito en Cuaderno de Cultura Científica.
¿Por qué los investigadores se interesan por los modelos de lenguaje reducido?
Los modelos más grandes pueden lidiar con una mayor variedad de tareas, pero el tamaño reducido de los modelos más pequeños los convierte en herramientas atractivas.
Un artículo de Stephen Ornes. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Los modelos de lenguaje extenso funcionan bien porque son muy grandes. Los modelos más recientes de OpenAI, Meta y DeepSeek utilizan cientos de miles de millones de “parámetros”: los botones ajustables que determinan las conexiones entre los datos y que se modifican durante el proceso de entrenamiento. Con más parámetros, los modelos pueden identificar mejor los patrones y las conexiones, lo que a su vez los hace más potentes y precisos.
Pero esta potencia tiene un coste. Entrenar un modelo con cientos de miles de millones de parámetros requiere enormes recursos computacionales. Para entrenar su modelo Gemini 1.0 Ultra, por ejemplo, Google habría gastado 191 millones de dólares. Los modelos de lenguaje extenso (LLM, por sus siglas en inglés) también requieren una potencia computacional considerable cada vez que responden a una solicitud, lo que los convierte en notorios devoradores de energía. Una sola consulta a ChatGPT consume aproximadamente diez veces más energía que una sola búsqueda en Google, según el Electric Power Research Institute.
En respuesta, algunos investigadores están pensando ahora en pequeño. IBM, Google, Microsoft y OpenAI han lanzado recientemente modelos de lenguaje reducido (SLM, por sus siglas en inglés) que utilizan unos pocos miles de millones de parámetros, una fracción de sus contrapartes LLM.
Los modelos reducidos no se utilizan como herramientas de uso general como sus primos más grandes, pero pueden ser excelentes para tareas específicas, más definidas, como resumir conversaciones, responder preguntas de pacientes como un chatbot de atención médica y recopilar datos en dispositivos inteligentes. “Para muchas tareas, un modelo de 8 mil millones de parámetros es, de hecho, bastante bueno”, afirma Zico Kolter, un científico informático de la Universidad Carnegie Mellon. También pueden ejecutarse en un ordenador portátil o un teléfono móvil, en lugar de en un gran centro de datos. (No hay consenso sobre la definición exacta de “reducido”, pero todos los nuevos modelos alcanzan un máximo de alrededor de 10 mil millones de parámetros).
Para optimizar el proceso de entrenamiento de estos modelos reducidos, los investigadores utilizan algunos trucos. Los modelos extensos suelen extraer datos de entrenamiento sin procesar de Internet, y estos datos pueden estar desorganizados, desordenados y ser difíciles de procesar. Pero estos modelos grandes pueden generar un conjunto de datos de alta calidad que se puede utilizar para entrenar un modelo reducido. El enfoque, llamado destilación de conocimiento, hace que el modelo más grande transmita eficazmente su entrenamiento, como un maestro que da lecciones a un estudiante. “La razón por la que [los SLM] son tan buenos con modelos tan reducidos y tan pocos datos es que utilizan datos de alta calidad en lugar de material desordenado”, explica Kolter.
Los investigadores también han explorado formas de crear modelos reducidos comenzando con modelos extensos y recortándolos. Un método, conocido como poda, implica eliminar partes innecesarias o ineficientes de una red neuronal, la extensa red de puntos de datos conectados que subyace a un modelo extenso.
La poda se inspiró en una red neuronal de la vida real, el cerebro humano, que gana eficiencia al cortar las conexiones entre las sinapsis a medida que una persona envejece. Los enfoques de poda actuales se remontan a un artículo de 1989 en el que el científico informático Yann LeCun, ahora en Meta, argumentaba que hasta el 90% de los parámetros de una red neuronal entrenada podrían eliminarse sin sacrificar la eficiencia. Llamó al método «daño cerebral óptimo». La poda puede ayudar a los investigadores a ajustar un modelo de lenguaje reducido para una tarea o entorno en concreto.
Para los investigadores interesados en cómo los modelos de lenguaje hacen lo que hacen, los modelos más reducidos ofrecen una forma económica de probar ideas novedosas. Y como tienen menos parámetros que los modelos extensos, su razonamiento puede ser más transparente. “Si quieres crear un modelo nuevo, necesitas probar cosas”, apunta Leshem Choshen, científico investigador del Laboratorio de Inteligencia Artificial Watson del MIT-IBM. “Los modelos reducidos permiten a los investigadores experimentar con riesgos menores”.
Los modelos grandes y costosos, con sus parámetros cada vez más numerosos, seguirán siendo útiles para aplicaciones como chatbots generalizados, generadores de imágenes y el descubrimiento de fármacos. Pero para muchos usuarios, un modelo reducido y específico funcionará igual de bien, y además será más fácil para los investigadores entrenarlo y construirlo. “Estos modelos eficientes pueden ahorrar dinero, tiempo y computación”, afirma Choshen.
El artículo original, Why Do Researchers Care About Small Language Models?, se publicó el 12 de febrero de 2025 en Quanta Magazine.
Traducido por César Tomé López
El artículo ¿Por qué los investigadores se interesan por los modelos de lenguaje reducido? se ha escrito en Cuaderno de Cultura Científica.
El gen NOVA1 y el origen de nuestro lenguaje hablado
El lenguaje hablado desempeñó un papel esencial en la evolución de la especie humana. Un lenguaje simbólico complejo nos permitió comunicarnos oralmente, coordinar actividades, transmitir conocimientos, mitos y valores. En definitiva, hizo posible una cultura que nos dio ventaja sobre otras especies animales.
El origen del lenguaje hablado implicó complicadas adaptaciones anatómicas relacionadas con la fonación, y el desarrollo de nuevas conexiones cerebrales. Hasta ahora sabemos muy poco de los cambios genéticos que estuvieron detrás de estas innovaciones evolutivas. Una investigación realizada por un equipo de la Universidad Rockefeller y publicada en Nature Communications acaba de proporcionar una interesante pista acerca de estos cambios genéticos.
NOVA1 (neuro-oncological ventral antigen-1) es un gen que se expresa en el sistema nervioso central de los vertebrados. Era conocido por su papel en un síndrome paraneoplásico neurológico. Si células tumorales expresan de forma aberrante NOVA1, se generan anticuerpos que pueden atacar a las neuronas, con graves consecuencias para el sistema nervioso.
La inactivación de NOVA1 en ratones es letal, por fallos en el desarrollo neuromotor. Se empezó a sospechar su relación con el lenguaje humano a partir del estudio de un paciente que tenía mutada e inactivada una de las dos copias del gen. Este paciente tenía graves deficiencias en el aprendizaje y particularmente en el desarrollo del lenguaje.
El estudio de la secuencia de la proteína NOVA1 humana mostró algo sorprendente. Se trata de una secuencia muy bien conservada, prácticamente sin diferencias entre humanos. Eso sí, nuestra proteína difiere en un solo aminoácido de la de neandertales y denisovanos, nuestros parientes más próximos. En la posición 197 de la secuencia una isoleucina fue sustituida por una valina en el linaje de Homo sapiens. Esta variante es conocida como I197V.
Antes de analizar qué significa esta sustitución vamos a ver cuál es la función de NOVA1. Se trata de una proteína que se une al ARN y regula el empalme alternativo (alternative splicing) controlando la formación de diferentes ARN mensajeros a partir de un mismo gen (explicado en la figura 1). De esta forma, NOVA1 puede modular la expresión de un gran número de proteínas en el sistema nervioso.

Cuando el grupo de la Rockefeller identificó los ARN afectados por la función de NOVA1 se observó una elevada proporción de genes relacionados con la vocalización. Además, NOVA1 mostraba una elevada expresión en el cerebro medio y particularmente en la sustancia gris periacueductal, vinculada a comportamientos de miedo y reacciones defensivas en mamíferos. Las neuronas de esta área conectan con el tronco cerebral y el núcleo ambiguo, desde donde se controlan las vías motoras respiratorias y, en particular, la musculatura de boca, faringe y laringe. De esta forma se coordina la respiración con la producción de sonidos, que solo se produce durante la espiración.
¿Influyó la variante humana I197V en el desarrollo de nuestra fonación? Para responder a esta pregunta, el equipo generó ratones modificados genéticamente para expresar la proteína NOVA1 humana, con la variante I197V. Por supuesto, los ratones no comenzaron a charlar entre ellos, pero mostraron sorprendentes diferencias en su vocalización.
Los ratones recién nacidos, cuando son separados de sus madres, emiten ultrasonidos para llamarlas. Estos chillidos constan de cuatro tipos de “sílabas”: simples (una sola nota), ascendentes y descendentes (dos notas separadas por un salto de frecuencia hacia arriba o abajo) y múltiples (varias notas de diferente frecuencia) (Figura 2). Los ratones humanizados (I197V) utilizaron más las sílabas simples en sus llamadas. Esto no varió la respuesta de sus madres, que los buscaban igual que a los ratoncillos no humanizados.

Más diferencias se encontraron en ratones machos adultos en presencia de hembras sexualmente receptivas. Las sílabas simples de los ratones humanizados se emitieron en frecuencias más bajas, y en las demás sílabas aumentó la varianza de sus frecuencias. Dicho de otra forma, su vocalización se volvió más compleja y rica en tonos. Lo que sería importante comprobar, como reconocen los propios autores del artículo, es si esta vocalización aumentó su atractivo para las hembras.
Estos resultados son similares a los que se obtuvieron hace algunos años con el gen FOXP2, el conocido como “gen del lenguaje”, ya que sus mutaciones alteran el lenguaje hablado en humanos. La proteína FOXP2 humana tiene dos aminoácidos diferentes respecto a la del ratón. Los ratones transgénicos dotados de la secuencia FOXP2 humana muestran ciertos cambios en la vocalización de sílabas complejas, pero las simples se hacen más frecuentes, disminuyendo la complejidad global de sus “conversaciones”. Por otra parte, la secuencia FOXP2 humana no es exclusiva de nuestra especie, ya que es idéntica a la de neandertales y denisovanos.
Falta mucho por hacer, por ejemplo, comprobar si la actuación de NOVA1 sobre la fonación se produce a nivel del control motor de la respiración y la musculatura laríngea, o si lo hace a nivel de la corteza cerebral, donde se expresa a menores niveles. Nuestra corteza cerebral regula el tono, la amplitud y la modulación de la frecuencia del lenguaje hablado. De todas formas, NOVA1, junto a lo que ya sabíamos de FOXP2, sin duda contribuirá al conocimiento de los mecanismos moleculares que dirigieron la evolución de nuestro lenguaje hablado.
Referencias
Tajima, Y., Vargas, C.D.M., Ito, K. et al. (2025). A humanized NOVA1 splicing factor alters mouse vocal communications. Nat Commun. doi: 10.1038/s41467-025-56579-2
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga
El artículo El gen NOVA1 y el origen de nuestro lenguaje hablado se ha escrito en Cuaderno de Cultura Científica.
Cine y Ciencia: High Life

Dentro la octava edición del ciclo Cine y Ciencia, coorganizado por Filmoteka y el DIPC junto a otros agentes culturales, durante enero y febrero he presentado High Life, una fascinante película de Claire Denis (2018). La veo como una respuesta contemporánea a 2001: A Space Odyssey de Stanley Kubrick, usando una perspectiva de género que subvierte los cánones tradicionales del cine de exploración espacial. Mientras Kubrick idealizó la figura del bebé como símbolo de un futuro utópico y abstracto, Denis nos presenta un bebé real, corporal y vulnerable, que exige cuidado y genera nuevas formas de parentesco en un futuro distópico, sucio y extractivista.
La película cuestiona la reproducción biológica convencional y la explotación de la misma, situando la narrativa en una nave donde los vínculos familiares y la supervivencia se reinventan. Además, incorpora diversos elementos científicos procedentes de la astrofísica. Durante el debate posterior a la proyección, estos temas también se discutieron con el personal del DIPC, evidenciando cómo la obra se sitúa en la intersección entre el cine, la ciencia y las cuestiones éticas y sociales. En este contexto, hablamos también de reproducción asistida y eugenesia, así como dinámicas de poder y control, y mencioné el lema de Donna Haraway “Make Kin, Not Babies”. Esta antropóloga y filósofa aboga por la creación de lazos de parentesco alternativos, basados en el cuidado mutuo y la coexistencia, en lugar de depender únicamente de la reproducción biológica.
Así, High Life no solo se contrapone a la visión clásica de la proyección del futuro que ofrece 2001, sino que también plantea una ácida crítica hacia algunas prácticas científicas y reproductivas. Denis propone una mirada feminista, posthumana y decolonial en la que la construcción de comunidades y el cuidado mutuo se convierten en elementos esenciales para la supervivencia, desafiando los imperativos biológicos tradicionales y abriendo el debate sobre las tecnologías reproductivas en un contexto de ambigüedad moral. Comparto aquí algunas notas que utilicé en las presentaciones de Vitoria, Donostia y Pamplona.
El cine
Esta película no deja a nadie indiferente. Tiene poco diálogo, hay largas elipsis y flashbacks, y puede parecer lenta, pero piensen que sucede en una nave que se mueve a una velocidad cercana a la de la luz, y eso genera efectos curiosos en el tiempo. Resulta bastante dura a veces, porque contiene: prácticas de reproducción asistida pero no consentida; eugenesia y también eutanasia; dos suicidios; sexo en solitario, sexo asistido mecánicamente, y sexo involuntario; suplantación de personalidad, homicidio; restricciones físicas; violaciones consumadas y sin consumar, peleas y toda clase de fluidos corporales. Si son muy sensibles, prepárense.
Y con todo High Life fue una sólida candidata a la Concha de Oro cuando compitió en la sección oficial del Zinemaldia en 2018. Generó división de opiniones en la crítica y el público. La película es una novedad audaz en cualquier programación porque renuncia a toda clase de superioridad moral, también a la de la ciencia. Claire Denis está en contra del cine moralizante, hace películas sin mensaje, pero sí cargadas de preguntas que exploran la propia definición de lo humano. Su idea de cine se parece más a un poema que a un sermón. Pero es una directora que habla con científicos, contó con un asesor astrofísico (Aurélien Barrau) y de hecho tomó de Stephen Hawking la idea de la importancia de procrear en el espacio para superar las limitaciones temporales de una vida individual, y la necesidad de incubadoras especiales para ello.
High Life parece muy consciente de algunos grandes clásicos del género, como 2001 y Solaris. Sin embargo, desde la primera escena, queda claro que Denis se aleja del canon tradicional de las películas de exploración espacial. Hay un bebé, pero no ya el bebé idealizado del final de 2001, sino un bebé real que llora y hay que alimentar. Esa atención a los detalles más físicos y corporales de la vida en el espacio hace que la película sea algo único dentro del subgénero. High Life es diferente desde la primera escena. Parte de un tropo bastante manido, la del astronauta reparando su nave, pero le añade un elemento desconcertante: la familia, el vínculo humano, ya no es algo que se ha quedado en la Tierra, sino que acompaña al astronauta, dedicado a algo tan poco habitual en una nave espacial como el cuidado de un bebé… a la vez que repara la nave.
Claire Denis presentó la idea al protagonista, Robert Pattinson, como una historia de “ciencia-ficción e incesto con una menor de edad”, pero también afirmó que “no es una película de ciencia-ficción”, aunque tenga elementos científicos. Es la historia de un hombre que, tras perder a todos sus compañeros de viaje, sigue viviendo para cuidar a un bebé (esa sería la “vida elevada”, en referencia a la vita nuova de Dante) y llega con ella a un lugar más allá del espacio y el tiempo. Claire Denis dijo que vio a Pattinson como el protagonista ideal porque transmitía esa impresión de un joven que no ha tenido una vida, que no conoce la vida porque ha vivido siempre en la cárcel, pero allá en lo alto recibe una vida nueva, porque “no hay nada más vivo que un bebé” (Denis dixit).
La ciencia de High LifeEn su presentación de la primera película del ciclo, el biopic dedicado a Stephen Hawking, Pedro Miguel Etxenike dijo que no hablaría sobre agujeros negros porque en la audiencia había gente que sabía más que él. Yo debería hacer lo mismo, pero en mis presentaciones menciono un par de elementos científicos reales en la película: el proceso Penrose y las imágenes generadas por el Telescopio del Horizonte de Sucesos (EHT). Y también, de manera más oblicua, el experimento Biosphere 2.
El proceso de Penrose un mecanismo teórico descrito en 1969 que haría posible extraer energía de un agujero negro en rotación. El proceso de Penrose también tiene paralelismos con otros fenómenos relativistas, como la radiación de Hawking, que describe la emisión de partículas desde el horizonte de eventos de un agujero negro.
Esa promesa prometeica de una fuente ilimitada de energía a veces me parece que es un McGuffin que nos distrae del verdadero tema de la película, que es… cómo reproducir la vida en lo alto, tal y como el título nos lo está diciendo. Ya desde la primera escena (el huerto) la película describe la vida en un huerto cerrado en naves espaciales que parecen sarcófagos, por pasillos como el que tanto recuerda a Solaris, una vida precaria, con necesidad de reparación constante (esa llave de carraca girando en el espacio como el hueso de 2001).
La estación científica más grande conteniendo un ecosistema cerrado fue Biosfera 2, en Oracle, Arizona. Biosphere 2 fue construida entre 1987 y 1991 para probar sistemas ecológicos cerrados como sustituto de la biosfera terrestre y poder sustentar la vida humana en el espacio. Solo se usó dos veces con este propósito (1991-1993 y 1994), con problemas como escasez de oxígeno y alimentos, muerte de especies, tensiones entre la tripulación y conflictos de gestión. Sin embargo, el segundo experimento logró autosuficiencia alimentaria sin necesidad de oxígeno adicional.

La muy recomendable historia de Biosfera 2 nos muestra el interés de la antropología para esta película. Las alusiones a leyes de la naturaleza que en realidad son tabús sociales (“si rompes las leyes de la naturaleza, pagarás por ello”), a la invención de rituales y al parentesco como vínculo constituyente son ubicuas en la peli.
Como una antropóloga, Claude Denis se fija en las relaciones de género y de poder en una pequeña comunidad humana, y en el sexo como elemento material presente en ambas. En las ciencias sociales, seguramente es la antropología la que más se ha dedicado a estudiar esas relaciones de género y de poder, pero la antropología tiene una relación ambivalente con la ciencia en general. Por un lado, es una disciplina que surge de otras ciencias (Boas, el padre de la antropología norteamericana, era doctor en física; Malinowski, el de la británica, en filosofía) y por el otro, al estudiar culturas en las que la ciencia no tiene o no ha tenido el peso que ha tenido en Occidente, la antropología puede dirigir su mirada hacia la ciencia desde presupuestos distintos.
Un ejemplo sería Bruno Latour, que estudió a los científicos en un laboratorio, el Salk Institute, donde trabajaba el premio Nobel Roger Guillemin, como si fueran un grupo humano más. Sin salir de la película, tenemos el científico indio que protagoniza un flashback. Encarna la mirada decolonial de Denis y cuestiona las estructuras de poder inherentes al conocimiento científico. El científico reconoce que la curiosidad es el motor de la ciencia, pero al mismo tiempo plantea una crítica: ¿dónde están los límites éticos de esa curiosidad? ¿Hasta dónde podemos llegar para obtener conocimiento o recursos energéticos?
Por ejemplo, la película sitúa su trama en un contexto donde personas en prisión participan en un experimento científico a cambio de salvar sus vidas. Salvar la vida a cambio de trabajo tiene un nombre clásico: esclavitud. ¿Es ético que una población esclavizada o subalterna sirva a la ciencia? ¿Tienen realmente opción? ¿Hay un consentimiento informado y voluntario, o es un simulacro de consentimiento?
La respuesta a todas esas preguntas es no. Los tripulantes han sido engañados y lo saben. Saben y no saben, como los donantes en Never Let Me Go, una película sobre transplantes que tiene algunos elementos en común con esta, y a la que he dedicado alguna reflexión. En High Life, por la aceleración creciente que necesitan para mantener la sensación de gravedad, los viajeros se acercan a la velocidad de la luz (¡99%!) con lo que el tiempo pasa más despacio en la nave relativamente a la Tierra, así que la tripulación está haciendo un viaje al futuro de la Tierra; no hay vuelta atrás, al menos no a la Tierra tal como la conocieron. Por eso la desesperación, la violencia latente, y el control social vía el sexo en solitario y las drogas: placeres individuales que aíslan a los tripulantes, les vuelven “tristes y solos”, como en la canción que canta Boise a Monte en el huerto.
Veamos High Life, pues, como un documento etnográfico singular. En los primeros 15 minutos asistiremos a una serie de rituales: comer, excretar, dejar un mensaje al futuro, vestir a los difuntos (tras interrumpir la criogenización) y disponer de sus restos mortales. Veremos personajes que son mitos: Tcherny (André Benjamin) es el mito de Anteo, el personaje “terrestre”, que todavía siente el vínculo con la Tierra y con la tierra, y que está cansado de “volar” (Latour: Dónde aterrizar). Como Prometeo, Monte (Robert Pattinson) arriesga su vida para traer una fuente de energía que salve a la humanidad. Como Antígona, Boyse (Mia Goth) cubre con tierra el cadáver de los caídos. La Dra. Dibs (Juliette Binoche, musa habitual en el cine de Denis, en una interpretación impresionante) aparece como una hechicera o sacerdotisa de una “nueva religión”, y como Medea (otra) ha matado a sus hijos; matar a los hijos es violar el sagrado principio de la reproducción, y por eso “es el único crimen que merece tal nombre” como dice ella misma. Una película que habla tanto de la ciencia como de los mitos con los que aún convivimos.
Sobre el autor: Antonio Casado da Rocha es investigador titular en el Departamento de Filosofía de los Valores y Antropología Social de la UPV/EHU
El artículo Cine y Ciencia: High Life se ha escrito en Cuaderno de Cultura Científica.
El desarrollo del lenguaje oral en educación iInfantil
La jornada Las Pruebas de la Educación regresó un año más para revisar la eficacia de las estrategias educativas actuales a partir de la evidencia científica. El desarrollo del lenguaje oral en la infancia y su poder en la creación de distintas realidades sobre un mismo tema, así como la riqueza del aprendizaje en entornos multiculturales fueron algunas de las cuestiones analizadas durante la séptima edición de este seminario.
Julián Palazón, psicólogo, pedagogo y profesor en la Universidad Internacional de Valencia explica en “El desarrollo del lenguaje oral en Educación Infantil” la importancia del lenguaje oral como fundamento de la comprensión lectora y la habilidad aritmética, entre otras ideas.
La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la Facultad de Educación de Bilbao, tuvo lugar el 21 de febrero de 2025 en la sala Juliana Agirrezabala de la Facultad de Educación de Bilbao de la Universidad del País Vasco UPV/EHU en Leioa (Bizkaia). Las ponencias fueron impartidas por un abanico de expertos y expertas del ámbito de la educación, la formación y el aprendizaje.
La séptima edición del seminario está especialmente dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. El objetivo es crear un espacio de reflexión compartida, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo El desarrollo del lenguaje oral en educación iInfantil se ha escrito en Cuaderno de Cultura Científica.
Los polímeros: el material más versátil que existe
¿Te imaginas un material suave como la piel, flexible como un junco y fuerte como el acero? Quizás pensaras que se trata de ciencia ficción, más si te dijera que este material está casi totalmente formado por solo cuatro elementos: carbono, hidrógeno, nitrógeno y oxígeno, con algunas adiciones de cloro, flúor y azufre. Pues no, no es ciencia ficción, de hecho, los utilizas muchas veces todos los días. Se trata de los polímeros, que son imprescindibles para el transporte, las comunicaciones, la producción de energía renovable, el material deportivo, nuestras casas, la ropa, las revistas y libros, la medicina y la conservación de alimentos. En esta entrada os vamos a explicar qué son los polímeros y qué importancia tienen en nuestro presente y futuro.

Veamos cómo con tan pocos elementos, se pueden conseguir materiales con una versatilidad enorme. Si pudiéramos ver el interior de las paredes de un tupper, nos encontraríamos que está constituido por una maraña de hilos parecida a un plato de espagueti. Cada uno de estos hilos sería una cadena de polímero. Las cadenas de polímero están formadas por unidades repetidas, denominadas monómero, y miles de estas unidades se enlazan una detrás de otra, dando lugar a cadenas muy largas. A la reacción o al proceso de unir esas unidades se le denomina polimerización, y la cadena resultante se llama polímero o macromolécula (una molécula muy grande).
Modificando el proceso de polimerización, podemos obtener cadenas lineales, ramificadas o redes tridimensionales obteniendo propiedades mecánicas completamente diferentes.

Por ejemplo, el polietileno (PE), que está únicamente compuesto por carbono e hidrógeno, puede formar cadenas lineales que pueden ordenarse perfectamente y cristalizar, obteniendo un material rígido. Sin embargo, el polietileno ramificado no puede cristalizar, por lo que es blando y ha sido muy utilizado en bolsas de basura.

En vez de hacer las cadenas de polímero independientes, se pueden formar redes tridimensionales con uniones entre diferentes cadenas. Para ello se polimerizan monómeros multifuncionales. Si la red que se forma es abierta, entonces nos encontramos ante un material que se deforma bajo presión, pero que recupera su forma al desaparecer la presión. Estos polímeros se llaman elastómeros y a ellos pertenecen el caucho y la silicona. Si la red que se forma es muy cerrada, tenemos un polímero que no se deforma con la presión, como el polietileno reticulado que se usa en las prótesis de cadera.
Por el contrario, si insertamos un grupo funcional en la red, por ejemplo, un carboxilo que tiene mucha afinidad por el agua, conseguimos el material absorbente que se usa en los pañales. O si insertamos flúor, que repele el agua, conseguimos materiales repelentes como el Gore-Tex. Existe un material que, con solo carbono, hidrógeno, nitrógeno y oxígeno, a igualdad de peso, es más fuerte que el acero. Se trata del Kevlar, que basa sus propiedades en multitud de puentes de hidrógeno entre las diferentes cadenas de polímero.
En este momento, con una población que en 50 años se ha duplicado hasta alcanzar los 8.000 MM de personas, los polímeros son imprescindibles para el desarrollo sostenible que es impensable sin energía renovable, sin el ahorro de energía que suponen los vehículos más ligeros, sin la ayuda de los polímeros para tener una agricultura menos dependiente de las condiciones climáticas y para conservar los alimentos producidos, sin las membranas de polímero necesarias para desalinizar el agua de mar y sin la contribución de los polímeros a la salud. Además de estos polímeros que podemos denominar imprescindibles, también se usan polímeros para aplicaciones de un solo uso. La excelente relación calidad/precio ha llevado a sobreutilización de polímeros de un solo uso. Esta sobreutilización y la resistencia de los polímeros a la intemperie, junto con la falta de sistemas de recolecta de residuos sólidos en los países menos desarrollados y la falta de civismo en países desarrollados, dan como resultado su acumulación en el medio ambiente. Esto puede crear serios problemas al medio ambiente, su fauna y a los humanos. Por ello, es necesario reducir la utilización de los polímeros de un solo uso a aquellas aplicaciones que lo justifiquen, y hay que recogerlos y reciclarlos adecuadamente.
Hace 50 años, el Prof. Gonzalo Martín Guzmán, tuvo la visión de crear una Facultad de Química única en España y Europa especializada en polímeros. Esta investigación está hoy agrupada en POLYMAT, donde más de 210 investigadores e investigadoras (de 35 países) desarrollan una investigación de vanguardia en el mundo de los polímeros.

Estos investigadores se centran en lo que hemos llamado polímeros imprescindibles y desarrollan nuevos polímeros con mejores propiedades para poder producir más usando menos material. También investigan alternativas al reciclaje de los polímeros de uso único, responsables de una gran parte del impacto medioambiental. Además, desarrollan polímeros para mejorar la eficacia de las placas solares y de las baterías necesarias para almacenar la energía producida. Por otro lado, conscientes de que los recursos fósiles son limitados, desarrollan métodos para producir polímeros a partir de materias primas renovables o de desechos de polímero. Además, desarrollan métodos para optimizar el funcionamiento de las plantas de desalinización. Por último, en el campo de la salud desarrollan polímeros bioabsorbibles para catéteres, hidrogeles para curado de heridas y dosificación de fármacos a través de la mucosa y andamios poliméricos para la regeneración de cartílago y tendones.

Por lo tanto, el mensaje a recordar es que los polímeros son imprescindibles para el desarrollo sostenible, pero que debemos reducir su uso en aplicaciones no esenciales y en todos los casos recogerlos y reciclarlos. Como los polímeros todavía pueden ofrecer mucho más, los investigadores de la Facultad de Química y POLYMAT seguirán trabajando para dar respuesta a los retos como energía, salud, sostenibilidad y alimentación que plantean los polímeros hoy en día y a futuro.
Autores: Miren Aguirre Arrese, profesora agregada de la Facultad de Química de la UPV/EHU; María Paulis Lumbreras, catedrática de Ingeniería Química en la UPV/EHU y directora del POLYMAT y José M. Asua González, catedrático emérito de Ingeniería Química en la UPV/EHU y fundador de POLYMAT.
La Facultad de Química de la UPV/EHU cumple este año 50 años. Con motivo de este aniversario se han organizado un gran número de actividades festivas, de orientación del alumnado de secundaria, investigación, transferencia y divulgación. Entre estas últimas podemos encontrar “12 meses – 12 temas”, conjunto de actividades que pretende mostrar a la sociedad las temáticas desarrolladas en la Facultad. Entre estas actividades podemos encontrar el ciclo de charlas “50 años difundiendo la química”, en Ernest Lluch Kulturetxea, así como vídeos de divulgación, entrevistas en radio y artículos en los blogs de divulgación de la Cátedra de Cultura Científica. Durante todo el año contaremos con invitados especiales, como los cuatro Centros de Investigación nacidos de la Facultad (CIDETEC, CFM, DIPC y POLYMAT), así como los Premios Nobel Albert Fert y Jean Marie Lehn. Se puede consultar el conjunto de actividades programadas en la página web de nuestro 50 Aniversario.
El artículo Los polímeros: el material más versátil que existe se ha escrito en Cuaderno de Cultura Científica.
La novela que inspiró las máquinas pensantes de Alan Turing
Es imposible, por mucho que algunos se empeñen en lo contrario, entender el desarrollo científico y tecnológico de nuestra especie sin entender el contexto histórico, social y hasta literario cada época. En ocasiones, los crossovers entre ciencia y humanidades que dan lugar a un nuevo descubrimiento son evidentes y otras veces, muy sutiles, pero, casi siempre, son desconocidos.
Una mención casual a una novela en la biografía de una persona, dato al que habitualmente no prestaríamos atención, puede esconder más significado del que se aprecia a simple vista. Y sirvan como ejemplo estas líneas que aparecen en la biografía que Ethel Sara Turing escribió de su hijo, Alan Turing:
En su infancia, Alan no había sido lector de ficción, ya que prefería enciclopedias u obras científicas. Al final de su adolescencia, sí que leyó cierta cantidad de obras de ficción, pero decía que la naturaleza de los títulos le planteaba cierta dificultad a la hora de elegir. Tenía una predilección especial por Los papeles póstumos del Club Pickwick [Charles Dickens], los libros de George Borrow y Erewhon, de Samuel Butler.
A continuación, añade: «Esta última novela, posiblemente, lo llevó a plantearse la posibilidad de construir una auténtica máquina inteligente». Y no tan posiblemente, porque el propio Turing la menciona en alguno de sus artículos. ¿Hasta dónde llegó esa influencia? Eso ya es más complicado de cuantificar, pero tal vez fue más profunda de lo que pensamos.

Erewhon —anagrama de nowhere— es una novela que sigue la tradición utópica y de viajes extraordinarios que tan popular se hizo en el siglo XVIII con aventuras como Los viajes de Gulliver (1726), de Jonathan Swift. Pero tiene una vuelta de tuerca adicional. La obra se gestó tras la publicación de El origen de las especies (1859), de Charles Darwin, que, en un momento dado, llegó a las manos de Samuel Butler —que se vivía en Nueva Zelanda en aquel momento. Este, a modo de reflexión acerca de la teoría de Darwin, envió en 1863 una carta al director del periódico local The Press titulada «Darwin among the machines» en la que planteó la posibilidad de que las máquinas —que cobraban protagonismo a marchas forzadas en la nueva sociedad industrial que se estaba desarrollando— pudieran representar algún tipo de vida mecánica sometida a los dictados de la evolución biológica. Esa idea se convirtió en la primera semilla de su obra.
La utopía de Butler, como muchas otras de la época, es una sátira de la sociedad victoriana a la que él pertenece, tanto en lo referente a sus valores morales como intelectuales y religiosos. Pero lo realmente interesante en lo que concierne a este artículo son los tres capítulos titulados «El libro de las máquinas», que aparecen hacia el final de la novela y que no son más que el desarrollo de las ideas que planteó en su carta al director de 1963. Así, podemos leer reflexiones como: «Pero las máquinas que producen otras máquinas no crean máquinas de su misma especie. Un dedal lo fabrica una máquina, pero no lo fabricó otro dedal y él jamás será capaz de fabricar otro». ¿Estaba sugiriendo, de manera muy sutil, la posibilidad de una máquina universal como la que formalizó luego Alan Turing, en 1936? Ciertamente, a la idea le falta mucho desarrollo, pero ¿es posible que le sirviera de inspiración al matemático?

Y Butler va mucho más allá en sus reflexiones sobre las máquinas, ya que, al tratarlas como seres vivos sujetos a la evolución, advierte de sus posibles peligros, hoy bastante trillados y de los que seguramente todos hemos oído hablar: que nuestra dependencia de ellas nos lleve a perder habilidades —manuales, intelectuales…— y que, a su vez, limiten nuestra creatividad y supriman nuestro sentido crítico; que evolucionen hasta volverse autónomas e inteligentes y acaben sustituyéndonos… No solo eso, plantea ideas tan ciberpunk como que tecnología y seres humanos somos inseparables: «El hombre piensa como piensa, siente como siente por los cambios que las máquinas han provocado, y la existencia de estas es una condición sine qua non para la de él y viceversa» —¿algo que objetar a esta afirmación en la era de internet?—. Y se anticipa, curiosamente, a la miniaturización y a las formas en las que estas máquinas podrían aprender. ¿Hasta qué punto pudo, por tanto, estimular Erewhon, con estos planteamientos, la imaginación, ya desbordante de por sí, del pequeño Alan que la leyó por primera vez?
Porque las menciones a esta obra no vamos a encontrarlas solo en fuentes secundarias, como el testimonio de su madre. «Intelligent machinery, a heretical theory», una conferencia que Alan Turing impartió alrededor de 1951 —apenas tres años antes de morir— y que se publicó como artículo a título póstumo, acaba con el siguiente párrafo:
Supongamos ahora, a modo de argumento, que este tipo de máquinas son una posibilidad real y veamos las consecuencias de construirlas. Hacerlo, por supuesto, se encontraría con una gran oposición, a menos que hayamos avanzado mucho en la tolerancia religiosa desde los días de Galileo. Habría una gran oposición por parte de los intelectuales que temen quedarse sin trabajo. Sin embargo, es probable que estos intelectuales se equivoquen al respecto. Habría mucho por hacer para intentar, por ejemplo, mantener nuestra propia inteligencia a la altura de las normas establecidas para las máquinas, ya que parece probable que una vez el método de pensamiento de estas hubiera comenzado, no tardaría mucho en superar nuestras débiles capacidades. No existiría la posibilidad de que las máquinas murieran, y podrían conversar entre sí para agudizar su ingenio. Por lo tanto, en algún momento deberíamos esperar que asuman el control, tal como se menciona en Erewhom, de Samuel Butler.

Leer este artículo en paralelo al «Libro de las máquinas» es como visitar el mismo mundo reflejado en un espejo: en uno de los lados, se encuentra la visión del científico, en el otro, la del humanista; en un lado, la de la ciencia, en el otro, la de la ficción. Lo que cabría preguntarse ahora es: ¿cuál de los dos es la realidad y cuál el reflejo? Tal vez, y como sugirió Butler, pase como con los seres humanos y la tecnología y, en el fondo, no pueda existir lo uno sin lo otro.
Por cierto… ¿a alguien le suena el concepto de Yihad «butleriana» que aparece en Dune? Bueno, pues ese nombre tampoco es casual.
Bibliografía
Butler, S. (2012 [1872]). Erewhon, o al otro lado de las montañas. Akal.
Turing, A. M. (c. 1951). Intelligent machinery, a heretical theory. The Turing Digital Archive.
Turing, S. (2012 [1859]). Alan M. Turing. Cambridge University Press.
.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo La novela que inspiró las máquinas pensantes de Alan Turing se ha escrito en Cuaderno de Cultura Científica.
ECHO, un cómic áureo
Hace unos años documentándome sobre algunos cómics y novelas gráficas descubrí por casualidad la imagen de la superheroína protagonista de la serie de cómic ECHO (2008-2011), del dibujante y guionista de cómic estadounidense Terry Moore. En la imagen se veía una joven con una especie de traje metálico pegado a su cuerpo y en la parte superior del tórax el símbolo del número de oro, la letra griega Phi, como en la siguiente imagen.

Averigüé un poco más sobre este cómic y terminé comprándome los tres volúmenes (que contienen los 30 números de la serie) publicados en España por Norma Editorial, con la esperanza de que el número áureo tuviera cierta relevancia en la historia, puesto que el símbolo del número de oro era el que identificaba a esta superheroína.
ECHO, de Terry MooreEl autor de esta serie de cómic es el creador de cómics independiente estadounidense Terry Moore (1954), conocido por sus series: Strangers in Paradise (1993-2007), que ha recibido varios premios, como el prestigioso Premio Eisner en 1996, a la mejor serie por entregas y el Premio Reuben, de la National Cartoonists Society, al mejor cómic en 2003; Rachel Rising (2011-2016), que también ha recibido varios premios y nominaciones, el premio al mejor letrista en 2014 y al mejor dibujante en 2015, para su autor, categoría en la que fue nominado en los años 2013, 2014 y 2016, de los Premios Harvey, además, el cómic fue nominado a mejor serie nueva en 2012, y mejor serie continua en 2012 y 2013, así mismo fue nominada a los Premios Eisner, en las categorías de mejor serie continua, en 2012, mejor guionista/artista, en 2012 y 2014, y mejor dibujante, en 2014; o la serie Motor Girl (2016-2017).

La serie de cómics ECHO, de Terry Moore, se publicó en el sello editorial Abstract Studio, sello creado en 1994 por el propio Terry Moore para publicar sus cómics, desde varios de los volúmenes de Strangers in Paradise, así como ECHO, Rachel Rising, Motor Girl o las más recientes Five Years (2019) y Parker Girls (2023).
ECHO ganó el Premio Harvey a la mejor serie nueva, en 2009, así como el Premio Shel Dorf al mejor cómic autopublicado del año, en 2011. Además, fue nominado en las categorías de mejor serie continua y mejor guionista/artista de los Premios Eisner de 2011.

Como hemos mencionado más arriba, esta serie se compone de 30 números, agrupados en seis volúmenes de 5 números cada uno, aunque en España Norma Editorial lo publicó en tres partes (cuyas portadas vemos en la anterior imagen).
Expliquemos de qué va el cómic. La protagonista es Julie Martin, una fotógrafa en un momento difícil de su vida: bancarrota, a punto de divorciarse y su hermana hospitalizada. Un día, mientras trabaja en una sesión de fotos en el desierto, un objeto extraño cae del cielo y se adhiere a su pecho. Este objeto resulta ser una armadura experimental con tecnología avanzada. Entonces su vida cambia por completo. La armadura, que tiene pegada a su cuerpo y no se puede quitar, le otorga habilidades especiales, pero también la convierte en el objetivo de quienes quieren recuperarla, el ejercito de los Estados Unidos y la Agencia Nacional de Seguridad. Además, un misterioso vagabundo que se cree la reencarnación de Dios quiere destruirla. Julie se ve envuelta en una peligrosa persecución, en la que contará con el apoyo de un guarda forestal, Dillon Murphy, mientras intenta descubrir los secretos de la armadura y proteger a sus seres queridos.
El proyecto PHIEn el número 17 del cómic ECHO, perteneciente al volumen 4, titulado Collider, se desvela el motivo por el cual el traje/armadura que Julie tiene pegado al cuerpo tiene la letra griega Phi.
El compañero de aventuras de Julie, Dillon Murphy, que resulta que era el novio de Annie Trotter, la matemática responsable de la creación del traje experimental y su anterior propietaria hasta que muere tras un accidente realizando unas pruebas y el traje acaba accidentalmente en el cuerpo de Julie, junto con otro de los personajes del cómic que ayuda a Julie y Dillon en su búsqueda de respuestas, el barman y motero Dan Backer, quedan para hablar con un científico (Dr. Dumfries) del Instituto Nuclear Heitzer que trabajaba con Annie, con el objetivo de obtener información sobre la armadura experimental y sobre lo que está ocurriendo.
Este científico les explica qué es el Proyecto Phi en el que estaban trabajando en el Instituto Nuclear Heitzer y que dio lugar a tan poderoso traje, un arma con poder suficiente para destruir la Tierra. Les cuenta que todo empezó cuando el instituto contrató a la joven Annie Trotter por su extraordinaria tesis doctoral, sobre la cual acabó cimentándose el Proyecto Phi. Según Annie el sistema de numeración decimal no era el más adecuado para la investigación de temas extremadamente complejos, como los que supuestamente se desarrollaban en el Instituto Nuclear Heitzer, puesto que es un sistema de numeración muy ligado al ser humano, creado a su imagen y semejanza, al basarse en que los humanos tenemos diez dedos en las manos, las cuales fueron nuestra primera calculadora.

En las dos últimas viñetas de la anterior imagen podemos leer lo siguiente:
Básicamente, lo que ella [Annie] decía era que las matemáticas de base 10 eran una aproximación cuyas inexactitudes culminaban en los callejones sin salida de las matemáticas más elaboradas.
Sí, parece una locura, ¿verdad? Pero pensadlo bien … las secuencias de base 10 se desarrollaron en la edad prehistórica. Quiero decir, ¡hemos intentado aplastar un quark con el hueso de Lebombo!
Según la teoría de Annie, “si quieres comprender los mecanismos del universo, debes dejar atrás los mecanismos de la humanidad. Incluyendo la base 10”. Y su solución fue utilizar el sistema de numeración en base Phi (el número áureo), un sistema que, según ella, era más universal que el decimal y más apropiado para las complejas investigaciones que estaban desarrollando en el instituto.
Pero ya volveremos sobre ello, primero veamos qué es eso del hueso de Lebombo y qué pinta en esta historia.
El hueso de LebomboEl hueso de Lebombo es un trozo de peroné de un babuino, de unos 7,5 centímetros de largo, que se encontró en las montañas de Lebombo, en la frontera entre Suazilandia y Sudáfrica, con 29 muescas o marcas rectas utilizadas para contar, y que tendría entre 41.000 y 43.000 años (según la datación por radiocarbono). Es difícil tener la certeza del significado de esas 29 muescas, pero se cree que podrían representar la fase de la luna, que es de 29 días y 12 horas, luego podría haber sido una especie de calendario lunar, aunque también cabe la posibilidad de que fuese un registro del ciclo de menstruación de una mujer.

En el comic se utiliza el hueso de Lebombo para explicar que el sistema de numeración decimal es muy antiguo, que viene de la prehistoria, y que quizás habría que cambiarlo por un sistema de numeración más actual y moderno, que en el cómic va a ser el sistema de numeración en base el número áureo. Lo curioso es que el hueso de Lebombo está formado por una serie de muescas, en concreto 29 muescas, pero no es un ejemplo de sistema de numeración decimal, sino de los primeros registros numéricos que se han conservado (que podríamos decir que es un sistema de numeración básico en base uno, ya que simplemente se traza una muesca -con valor de uno- veintinueve veces).
Por otra parte, en la imagen del hombre prehistórico sujetando un hueso (en la viñeta comentada), este se parece más al hueso de Ishango, aunque el tamaño tampoco se corresponde, ya que el hueso de verdad este tiene unos 10 centímetros de largo. Es una pequeña licencia artística, lo mismo que utilizar el hueso de Lebombo para ilustrar que el sistema decimal es muy antiguo.
El hueso de Ishango es también un trozo de peroné de un babuino, que se encontró en el territorio que era el Congo Belga, en concreto, en Ishango, en la frontera entre Ruanda y la República Democrática del Congo, cerca del nacimiento del río Nilo. Este hueso también consta de una serie de muescas, pero agrupadas en varios grupos de diferentes cantidades de muescas.

En las siguientes dos páginas se explica la importancia y universalidad del número de oro, que justificaría la utilización de ese número como base de un sistema de numeración adecuado a la “investigación revolucionaria” que pretenden desarrollar en el Instituto Nuclear Heitzer.
A continuación, recordemos qué es el número de oro, del cual ya hemos hablado en el Cuaderno de Cultura Científica en algunas entradas como Visitad los museos, también en clave matemática, ¿Es áureo el Aston Martin de James Bond? ó Crímenes áureos.
La proporción áurea es un concepto matemático muy antiguo, que ya fue estudiado, al menos, por los griegos, en particular, por los pitagóricos. La definición de esta proporción aparece recogida en el gran texto matemático Los Elementos de Euclides (aprox. 325-265 a.c.). Y dice así:
Se dice que un segmento de recta está dividido en extrema y media razón cuando la longitud del segmento total es a la parte mayor, como la de esta parte mayor es a la menor.
Es decir, si tenemos un segmento como el que aparece en la siguiente imagen, buscamos el punto del mismo que divide al segmento en dos partes, de longitudes a y b, de forma que la proporción o razón (división) entre la parte mayor y la menor, a/b es igual a la proporción entre la longitud del segmento y la parte mayor (a + b)/a.
Ahora, si llamamos Phi (Φ) al cociente a/b, la condición anterior se puede escribir como la ecuación algebraica siguiente:
Esta es una ecuación algebraica de segundo grado, cuyas soluciones, sin más que utilizar la conocida fórmula de resolución de la ecuación de segundo grado que estudiamos en el instituto, son:
De estas dos raíces de la ecuación de segundo grado, la proporción buscada (Phi) es la primera, puesto que se corresponde con el caso en el que a es mayor que b, como se considera en la definición, mientras que la otra solución es su inversa ya que se corresponde con el caso en el que el numerador es más pequeño que el denominador, es decir, b/a, la inversa de Phi. Ahora, si tenemos en cuenta quienes son Phi (Φ) y su inversa en la expresión de la definición de esta razón se tiene la siguiente igualdad:
Al número Phi, cuyos primeros dígitos son
1, 61803398874989484820458683436563811772030917…,
se le conoce con varios nombres: “extrema y media razón” (como se le denomina en Los Elementos de Euclides), “divina proporción” (nombre que le dio el matemático italiano Luca Paccioli (aprox. 1447-1517) en su libro Divina proportione (1509)), “proporción áurea”, “sección áurea” (el matemático alemán Martin Ohm (1792-1872) fue el primero en utilizar el término “sección áurea o dorada” en la segunda edición de su libro de texto Die reine Elementar-Mathematik / Matemáticas puras elementales (1835)), “número áureo”, “número de oro” o “Phi” (el físico e inventor Mark Barr (1871-1950) fue quien introdujo el símbolo Phi (Φ) para referirse a este número, ya que era la primera letra griega del nombre del escultor, pintor y arquitecto griego Fidias (aprox. 500-431 a.n.e.), responsable de supervisar la reconstrucción de la Acrópolis de Atenas, en la que está el Partenón, y realizó algunas de las esculturas de este último, como la estatua de la diosa Atenea, quien según algunos autores utilizaba la extrema y media razón para el diseño de sus esculturas). Aunque en muchos textos se afirme que algunos de estos nombres son antiguos, esto no es así, como se ha comentado, salvo en el caso del nombre griego “extrema y media razón”.
El rectángulo áureoA partir de la definición del número de oro como extrema y media razón de un segmento recto, es decir, como una proporción, surge de manera natural el concepto de rectángulo áureo. Se dice que un rectángulo es áureo si la proporción a/b entre su alto, a, y su ancho, b, es precisamente la divina proporción Phi = 1,618…

Es una creencia muy difundida que el rectángulo áureo es el más bello, o el más placentero estéticamente, entre todos los posibles rectángulos. Por citar uno de los muchísimos ejemplos que existen, en el libro Mathematical Concepts, A Historical Approach / Conceptos matemáticos, una aproximación histórica (1967), de la matemática estadounidense Margaret Willerding (1919-2003), se escribe lo siguiente.
El rectángulo áureo fue utilizado por los arquitectos griegos en las dimensiones de sus templos y otros edificios. Los psicólogos han demostrado que la mayoría de la gente elige inconscientemente tarjetas postales, fotos, espejos y paquetes con estas dimensiones. Por alguna razón, el rectángulo áureo es el que más atractivo artístico tiene.
Esta idea de que el rectángulo áureo es el que nos parece más hermoso viene del experimento realizado en la década de 1860 por el físico, filósofo y psicólogo alemán Gustav Fechner (1801-1887). El experimento era simple y consistió en lo siguiente. Fechner dispuso diez rectángulos de diferentes proporciones, desde el cuadrado (proporción 1) hasta el rectángulo 2:5 (proporción 2,5), pasando por los rectángulos 3:4 (proporción 1,33), 2:3 (proporción 1,5) o 5:8 (proporción 1,6), como se muestran en la siguiente imagen, y preguntó a diferentes personas cuál de ellos les parecía estéticamente más bonito. Tres de los rectángulos se llevaron el 75% de los votos, en concreto, los de proporciones 1,5 (el 20,6%), 1,6 (el 35%) y 1,77 (20%), mientras que los demás no llegaban al 8%, incluso el rectángulo 5:6 (proporción 1,2) prácticamente no fue elegido.

A partir de ese momento, el rectángulo áureo y, en general, la divina proporción, se convirtieron en símbolo de belleza. Por ejemplo, en la The New Columbia Encyclopedia, en su entrada sobre la sección áurea se afirma que
El rectángulo áureo, cuya longitud y anchura son los segmentos de una línea dividida según la sección áurea, ocupa un lugar importante en la pintura, la escultura y la arquitectura, porque sus proporciones se han considerado durante mucho tiempo las más atractivas a la vista.
Aunque, muchos investigadores modernos han puesto en duda el experimento estadístico de Gustav Fechner, por el uso de tan solo 10 opciones y la disposición de los rectángulos, de forma ordenada, en orden creciente de sus proporciones. En este sentido, un artículo muy interesante que pone en duda algunas de las creencias sobre la sección áurea, entre ellas esta, según la cual, el rectángulo áureo es el rectángulo más agradable desde el punto de vista estético, es Misconceptions about the Golden Ratio / Confusiones sobre la proporción áurea, del matemático George Markowsky. En particular, afirma que tendrían que haberse considerado muchos más rectángulos y distribuidos de una forma aleatoria, por ejemplo, como en la siguiente imagen.

En las últimas décadas se han realizado muchos intentos de reproducir el experimento de Fechner, de manera más rigurosa, por diferentes investigadores, entre ellos psicólogos y matemáticos, algunos con la idea de avalar el trabajo de Fechner, otros para tirarlo por tierra y algunos para ver cuál puede ser la realidad, obteniéndose todo tipo de respuestas. Esto merecería un análisis más profundo, que no voy a realizar en esta entrada. De hecho, hay varias cuestiones interesantes relacionadas, como la metodología del experimento (claramente la de Fechner no fue la adecuada), si la pregunta directa de cuál de los rectángulos es más hermoso no induce a reflexionar sobre ella y a dar una respuesta más racional, y finalmente si el hecho de que durante mucho tiempo se haya dado por bueno que el rectángulo áureo es el más hermoso no condiciona en la actualidad las respuestas. Para leer un poco más sobre el tema podéis consultar el libro de Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, o realizar vuestra propia investigación sobre los estudios realizados.
Dejando aparte estas cuestiones, veamos cómo construir un rectángulo áureo de forma sencilla. Dado un cuadrado (en la imagen el cuadrado ABCD), que podemos considerar de lado 1, es fácil ver, por el teorema de Pitágoras, que el segmento que va desde el punto M que está en la mitad de uno de los lados (el de abajo, AB, en la imagen) a uno de los vértices del lado opuesto (el de arriba a la derecha, C, en la imagen) tiene longitud igual a raíz cuadrada de 5 dividido 2 (√5/2). Si ahora trazamos el arco de circunferencia centrado en M y de radio esa longitud, es decir, que pasa por el punto C, y llamamos E al punto de intersección de la circunferencia con la recta que extiende el segmento AB, entonces el rectángulo creado AEFD es un rectángulo áureo, puesto que el largo es Phi [1/2 + √5/2 = (1 + √5)/2] y el ancho es 1, luego tiene proporción áurea.

Una de las particularidades de esta construcción es que el pequeño rectángulo BEFC añadido al cuadrado ABCD para formar el rectángulo áureo AEFD, también es un rectángulo áureo. Por lo tanto, ese rectángulo áureo BEFC también puede descomponerse en un cuadrado y un pequeño rectángulo áureo, como se muestra en la siguiente imagen. A ese más pequeño rectángulo, que también es áureo, le podríamos descomponer, una vez más, en cuadrado y pequeño rectángulo áureo, y así hasta el infinito.
Volvamos al cómic ECHO para ver cómo aparece el número Phi. Como comentábamos más arriba, Phi es el nombre del proyecto que ha dado lugar a ese traje experimental con tecnología muy avanzada. El motivo del nombre, Proyecto Phi, era que la matemática Annie Trotter se había dado cuenta de que la clave para avanzar en una investigación tan compleja era desechar el sistema de numeración decimal, que es un sistema de numeración muy humano (“si quieres comprender los mecanismos del universo, debes dejar atrás los mecanismos de la humanidad. Incluyendo la base 10”), por un sistema más universal, el sistema de numeración en base Phi (que explicaré en mi siguiente entrada del Cuaderno de Cultura Científica).
Nos habíamos quedado en el punto del cómic en el que se explica la importancia y universalidad del número de oro. En este punto se produce el siguiente diálogo.
[Dr. Dumfries]: Annie recalculó las teorías más importantes usando la base Phi y cambió todo lo que pensábamos que sabíamos de la Física. ¡Tachán!
[Dan Backer]: Phi. ¿1,618, Phi?
[Dr. Dumfries]: ¡Sí! ¡Exactamente!
[Dillon Murphy]: ¿Cómo es que conoces Phi?
[Dan Backer]: Me gusta el Arte.
[Dillon Murphy]: Estoy perdido.
[Dr. Dumfries]: Es muy simple. El Phi lleva por aquí desde el imperio babilonio, por lo menos. Los griegos a los que te referías Dillon… en tiempos antiguos, definieron Phi como el extremo de una línea, y significa proporción.
[Griego 1]: Es un número irracional.
[Griego 2]: Pero es la solución a tu ecuación cuadrática.
Y entonces nos encontramos con las siguientes viñetas.
En la segunda viñeta de la imagen se dice “cuando el ser humano se dio cuenta de este fenómeno, empezó a verlo por todas partes” y mediante dibujos se indica que la divina proporción se encuentra en la Naturaleza, tanto en las plantas en relación con los números de Fibonacci (es cierto que en la Filotaxis, una parte de la Botánica, los números de Fibonacci y el ángulo áureo juegan un papel fundamental, como se puede ver, por ejemplo, en la conferencia El teorema de la Rosa), como en las medidas de los animales o las personas, y además se utiliza en la Música, el Arte, la Arquitectura o el Diseño. Sobre todo esto no hablaremos hoy, aunque pueden leerse las entradas del Cuaderno de Cultura Científica anteriormente citadas o las referencias de la bibliografía.
La estructura del cómicEn la siguiente entrada del Cuaderno de Cultura Científica hablaremos del sistema de numeración en base Phi que se ha mencionado y que era tan importante, en la ficción, para la matemática Annie Trotter y su investigación.
Para terminar esta entrada mostraremos que no solo aparece el número áureo en el contenido del cómic ECHO, sino también en su estructura. Para empezar, cada página del cómic está formada por un rectángulo de viñetas, como es habitual en la mayoría de los cómics, pero en este caso este rectángulo es áureo, como puede verse en la siguiente imagen (en la que hemos tomado el dibujo original de una de las páginas del cómic que Terry Moore tiene colgadas en el blog de la editorial Abstract Studio).

Si nos fijamos bien en el dibujo original, hay diferentes líneas que marcan la estructura del dibujo, una de ellas es la que se corresponde con la descomposición del rectángulo áureo en un cuadrado y un pequeño rectángulo áureo (que a su vez se puede descomponer), que en este caso determina la estructura del dibujo, como se ve en la siguiente imagen.

Pero incluso los diseños de algunas de las viñetas están marcados por el rectángulo áureo y sus descomposiciones. Veamos algunos ejemplos.
Bibliografía
1.- Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, Ariel, 2006.
2.- George Markowsky, Misconceptions about the Golden Ratio, The College Mathematical Journal 23, n. 1, 1992.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo ECHO, un cómic áureo se ha escrito en Cuaderno de Cultura Científica.
Un nuevo estado magnético, el vortión, que imita las sinapsis neuronales
Investigadores de la Universitat Autònoma de Barcelona (UAB) han desarrollado experimentalmente un nuevo estado magnético: el vortión o vórtice magnetoiónico. La investigación permite un nivel de control sin precedentes de las propiedades magnéticas a escala nanométrica y a temperatura ambiente, y abre nuevos horizontes para el desarrollo de dispositivos magnéticos avanzados.
La utilización de grandes cantidades de datos (Big Data) ha multiplicado la demanda energética en las tecnologías de la información. En general, para almacenar la información se utilizan corrientes eléctricas que calientan los dispositivos y disipan energía. Controlar las memorias magnéticas con voltaje, en lugar de corrientes eléctricas, puede minimizar este gasto. Una estrategia para hacerlo podría ser el uso de los materiales magnetoiónicos, que permiten manipulación de sus propiedades magnéticas añadiendo o extrayendo iones mediante cambios en el voltaje aplicado. Sin embargo, hasta ahora, la mayor parte de los estudios en este ámbito se han centrado en capas continuas, no en el control de las propiedades en bits de dimensiones nanométricas, necesarios para almacenar datos con densidad elevada. Por otro lado, es conocido que en la escala sub-micrométrica aparecen fenómenos magnéticos nuevos, que no existen en la escala macroscópica, como los vórtices magnéticos (que recuerdan pequeños remolinos magnéticos), los cuales tienen aplicaciones en el modo como se graban y leen los datos magnéticos actualmente, así como en biomedicina. Modificar el estado vórtice en muestras ya preparadas suele ser imposible o requiere grandes cantidades de energía.
Investigadores del Departamento de Física de la UAB, con la colaboración de científicos del ICMAB-CSIC, del Sincrotrón ALBA y de centros de investigación de Italia y de los Estados Unidos, proponen una nueva solución que combina la magnetoiónica y los vórtices magnéticos. Los investigadores han desarrollado experimentalmente un nuevo estado magnético que han denominado vórtice magnetoiónico, o vortión. El nuevo objeto permite controlar «a la carta» las propiedades magnéticas de un nanopunto (un punto de dimensiones nanométricas) con gran precisión. Esto se logra extrayendo iones de nitrógeno mediante la aplicación de voltaje, lo que permite un control eficiente con un consumo de energía muy bajo.
«Se trata de un objeto hasta ahora inexplorado en la nanoescala», explica el investigador ICREA del Departamento de Física de la UAB Jordi Sort, director de la investigación. «Existe una gran demanda para controlar los estados magnéticos a escala nanométrica pero, sorprendentemente, la mayor parte de la investigación en magnetoiónica se ha enfocado hasta ahora en el estudio de películas de materiales continuos. Si nos fijamos en los efectos del desplazamiento de iones en estructuras discretas de dimensiones nanométricas, los llamados nanopuntos que hemos analizado, vemos que aparecen configuraciones de espín muy interesantes que evolucionan dinámicamente y que son exclusivas de este tipo de estructuras». Estas configuraciones de espín y las propiedades magnéticas de los vortiones varían en función de la duración del voltaje aplicado. De este modo, a partir de nanopuntos de un material inicialmente no magnético se pueden generar diferentes estados magnéticos (por ejemplo, vortiones con diferentes propiedades o estados con la orientación magnética uniforme) mediante la extracción gradual de iones aplicando un voltaje.
«Con los vortiones que hemos desarrollado podemos tener un control sin precedentes de propiedades magnéticas como la magnetización, la coercitividad, la remanencia, los campos críticos de formación y aniquilación del vortión, o la anisotropía. Son propiedades fundamentales para el almacenamiento de información en memorias magnéticas, y ahora hemos logrado controlarlas y ajustarlas de manera analógica y reversible mediante un proceso de activación por voltaje, con un consumo de energía muy bajo», explica Irena Spasojević, investigadora postdoctoral en el Departamento de Física de la UAB y primera firmante del trabajo.
«El procedimiento de actuación por voltaje en lugar de corriente eléctrica evita el calentamiento en dispositivos como ordenadores portátiles, servidores o centros de datos, reduciendo drásticamente la pérdida de energía».
Los investigadores han demostrado que con un control preciso del grosor de la capa magnética generada con voltaje, el estado magnético del material se puede variar a voluntad, de manera controlada y reversible, entre un estado no magnético, un estado con una orientación magnética uniforme (como el que presenta un imán), o el nuevo estado vórtice magnetoiónico.
Este nivel de control sin precedentes de las propiedades magnéticas a escala nanométrica y a temperatura ambiente abre nuevos horizontes para el desarrollo de dispositivos magnéticos avanzados con funcionalidades que pueden adaptarse una vez el material ha sido sintetizado. Esto proporciona una mayor flexibilidad que es necesaria para satisfacer demandas tecnológicas específicas. «Prevemos, por ejemplo, la integración de vórtices magnetoiónicos reconfigurables en redes neuronales como sinapsis dinámicas, capaces de imitar el comportamiento de las sinapsis biológicas», avanza Jordi Sort. En el cerebro, las conexiones entre las neuronas, las sinapsis, presentan diferentes pesos (intensidades) que se van adaptando de manera dinámica según la actividad y aprendizaje. Del mismo modo, los vortiones podrían ofrecer enlaces neuronales con pesos sinápticos sintonizables, reflejados en valores de magnetización o de anisotropía reconfigurables, para dispositivos espintrónicos neuromórficos (inspirados en el cerebro). De hecho, «la actividad de las neuronas y sinapsis biológicas también está controlada por señales eléctricas y migración de iones, de manera análoga a nuestras unidades magnetoiónicas», comenta Irena Spasojević.
Los investigadores consideran que, además de su impacto en dispositivos inspirados en el cerebro, en computación analógica o en memorias multi-nivel, los vortiones podrían tener otras aplicaciones como, por ejemplo, en técnicas de terapia médica (teragnosis), seguridad de datos (ciberseguridad), o en dispositivos de computación mediante espín magnético (espín-lógica) o para la generación de ondas de espín (magnónica).
Referencia:
Spasojevic, I., Ma, Z., Barrera, A. et al. (2025) Magneto-ionic vortices: voltage-reconfigurable swirling-spin analog-memory nanomagnets. Nat. Commun. doi: 10.1038/s41467-025-57321-8
Edición realizada por César Tomé López a partir de materiales suministrados por la Universitat Autònoma de Barcelona.
El artículo Un nuevo estado magnético, el vortión, que imita las sinapsis neuronales se ha escrito en Cuaderno de Cultura Científica.
Ryugu, un asteroide “mu salao”
La búsqueda de agua líquida -existente tanto en el presente como en el pasado de nuestro sistema solar- es una de las prioridades de la astrobiología y, desde hace algunas décadas, las misiones espaciales han intentado buscar el rastro del agua no solo en Marte, sino también en la Luna o incluso en los asteroides y cometas.
¿Por qué? Pues porque la vida tal y como la conocemos -de momento no conocemos otra vida que la terrestre- necesita de agua líquida para poder florecer y sobrevivir y, siguiendo su pista, igual podemos encontrar lugares que fueron habitables antaño, incluso en sitios que hoy son realmente extremos, pero que podrían haber preservado biomarcadores -los distintos productos de la actividad vital de los organismos- que detectables en el futuro con misiones de retorno de muestras o con instrumentos más avanzados in situ.
En diciembre de 2014 despegó la misión Hayabusa 2 en dirección al asteroide Ryugu con el objetivo de no solo estudiarlo desde su órbita, sino también de traer muestras a la Tierra, hecho que logró en diciembre de 2020 al regresar un total de 5.4 gramos del asteroide que comenzaron a estudiarse poco tiempo después.
Este “pequeño” asteroide de unos 900 metros de diámetro no es un cuerpo monolítico, sino que es de los que conocemos como pila de escombros o “rubble pile” por su nombre en inglés. Estos son, en términos sencillos, un montón de fragmentos de roca que viajan juntos por el espacio por efecto de la gravedad. A mí me gusta imaginármelos como un montón de grava -eso sí, de muy distintos tamaños- de la que podemos comprar en una tienda de materiales de construcción cualquiera. Muy probablemente estos asteroides se hayan formado a partir de un cuerpo más grande que fue destruido hace mucho tiempo.

Una de las cosas que hacen especial a Ryugu es que es un asteroide de tipo C, muy interesantes por ser cuerpos realmente primitivos y que pueden albergar materiales que hayan sufrido muy pocos cambios desde la formación del Sistema Solar. Concretamente tiene mucha afinidad con un grupo de meteoritos denominado CI, un tipo de meteoritos cuya composición, similar a la medida en la fotosfera solar, se considera la químicamente más primitiva de todos los meteoritos que existen.
Y, ¿De dónde procedería este asteroide? Los científicos piensan que el cuerpo a partir del cual se formó nació más allá de la “línea del hielo” del agua y del dióxido de carbono poco tiempo después de la formación de nuestro sistema solar. Para quien nunca haya escuchado este término, la línea “de hielo”, “de congelación” o incluso “de la nieve” es la distancia mínima desde una estrella -en este caso nuestro Sol- donde la temperatura es lo suficientemente baja para que los compuestos volátiles se condensen formando granos sólidos que les permitan unirse para dar lugar a planetesimales, los embriones de la formación planetaria.
Las muestras de Ryugu que nos ha traído la sonda Hayabusa 2 han sido una verdadera caja de sorpresas. En un estudio publicado en Nature Astronomy por Matsumoto et al. (2024), los científicos han encontrado pequeñas venas minerales y zonas compuestas por carbonatos de sodio, por cloruros e incluso por sulfatos en los granos de muestra del asteroide.
Estas sales, además, estaban asociadas a los filosilicatos, minerales hidratados que son una prueba de la alteración de otros minerales por parte del agua. Al principio, los científicos dudaron si estas partes ricas en sodio en realidad procedían de nuestro planeta a causa de una posible contaminación de las muestras, pero descartaron esta hipótesis por cómo están distribuidas y por la forma que tienen en los distintos granos de material que se han analizado.
El descubrimiento de estas sales de sodio es algo más importante que añadir un mineral más o menos a la lista. La presencia de carbonatos, cloruros y sulfatos de sodio sugieren que un agua alcalina y rica en sales fluyó por el interior del cuerpo que dio lugar a Ryugu.

Pero, ¿Cómo pudo convertirse ese cuerpo original en algo tan “salado”? Y por favor, entiendan la pregunta anterior como algo más evocativo que literal. El agua que recorría el cuerpo original alterando los minerales que encontraba a su paso probablemente era muy salada, quizás incluso podía ser una salmuera, que con el paso del tiempo iba ganando salinidad por la evaporación o la congelación del agua tras las últimas etapas de alteración acuosa que sufriría ese cuerpo.
Imaginemos unas salinas en nuestro planeta, los lugares donde se fabrica la sal que consumimos a diario en nuestra mesa. Normalmente son grandes extensiones de agua poco profunda donde se deja que lentamente el agua se evapore, permitiendo que se vaya concentrando en el agua y posteriormente precipitando. Un proceso similar podría haber ocurrido en el espacio por la evaporación o congelación del agua. En este último caso, la pérdida de calor y posterior congelación podría representar el momento en el que el calor interno -probablemente de origen radiogénico- del cuerpo dejó de ser suficiente para mantener el agua en estado líquido.
Hay un detalle más: como hemos dicho antes, el agua también era probablemente alcalina, con un pH alto, similar a algunos lagos de nuestro planeta. Y esta alcalinidad es consistente con los modelos de alteración acuosa que ya se habían postulado para este tipo de cuerpos.
Estos descubrimientos, incluso en un asteroide, tienen consecuencias de cara a la posible habitabilidad de estos. Sí, ya se que un asteroide puede ser un lugar realmente inhóspito para nuestros estándares sobre las condiciones adecuadas para la vida, pero quizás algunos no lo fueron tanto durante la infancia de nuestro sistema solar.
Es cierto que la composición de las aguas que circularon por el cuerpo original del que proceden los fragmentos de Ryugu era probablemente muy salina y alcalina, pero eso no es en ningún caso una barrera para la vida. Hay organismos extremófilos en nuestro planeta que viven en condiciones similares.

También pone de manifiesto que el agua salada, o muy salada, podría ser muy abundante en el Sistema Solar y, de hecho, pensamos que muchos de los océanos subterráneos que sospechamos que existen en los satélites de los gigantes gaseosos, tienen como ingrediente clave las sales, lo que les permite un mayor tiempo de vida de estos océanos -a nivel geológico- que si fueran de agua dulce, ya que las sales actúan como un poderoso anticongelante.
Todavía nos queda mucho por conocer de nuestro sistema solar e incluso ya empezamos a vislumbrar como cuerpos que antaño no parecían más que los ladrillos de la formación planetaria, casi anodinos, podrían haber reunido ciertas condiciones para ser cuerpos habitables, aunque fuese durante periodos relativamente cortos en comparación con cuerpos de tamaño planetario. ¿Qué sorpresas nos traerán las próximas misiones de retorno de muestras? No lo sabemos, pero seguro que seguirán dándonos muchas alegrías y nuevos descubrimientos.
Referencias:
Matsumoto, T., Noguchi, T., Miyake, A. et al. Sodium carbonates on Ryugu as evidence of highly saline water in the outer Solar System. Nat Astron 8, 1536–1543 (2024). doi: 10.1038/s41550-024-02418-1
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Ryugu, un asteroide “mu salao” se ha escrito en Cuaderno de Cultura Científica.
¿Es lo mismo ser inteligente que tener altas capacidades?

Que pensamos con la cabeza puede parecer una obviedad, pero no siempre estuvo claro. Fue en los siglos IV y III a. e. c. cuando en Grecia Herófilo diseccionó científicamente a humanos; que sepamos, fue la primera persona en hacerlo y en señalar que la cabeza es la sede de la inteligencia (Aristóteles, por su parte, proponía que el cerebro servía para enfriar la sangre). Hubo que esperar mucho más hasta que comenzara a hacerse un registro sistemático de tareas consideradas “inteligentes”. Ocurrió a finales del siglo XIX gracias al británico Francis Galton, pero usó los resultados de estas mediciones para justificar sesgadamente teorías innatistas y eugenésicas.
Desde entonces, las propuestas ofrecidas para explicar qué significa ser inteligente pueden agruparse en dos tipos:
- Los modelos factoriales, que utilizan las matemáticas (análisis factoriales) para buscar puntos en común (factores) entre variables (puntuaciones en los test).
- Los modelos no factoriales, que no usan test, sino que parten de observaciones y comparaciones entre casos.
Debido a que las altas capacidades se relacionan con las puntuaciones en los test de inteligencia, podría pensarse que se ciñen exclusivamente al cociente intelectual, pero no es así. O, al menos, no debería. La idiosincrasia humana es más compleja que un simple número. Por consiguiente, para desentrañar este corpus, como hizo Herófilo, vamos por partes.
¿Sabemos medir la inteligencia?En Francia nació la que está considerada como la primera prueba de inteligencia: el test de Binet-Simon (1905). Se creó para detectar deficiencias cognitivas en niños y niñas en edad escolar e implementar una educación especial (aquí apareció por primera vez el cociente intelectual). Al diseñar el test, su autor principal insistió en señalar que no servía para medir fielmente la inteligencia, sino que solo desarrolló una herramienta para resolver una necesidad específica en un contexto determinado.
Sin embargo, esta nueva corriente basada en medir inteligencia con tareas exclusivamente académicas (excluyendo creatividad, música, habilidades sociales, emocionales…) fue aumentando y han ido surgiendo otras pruebas. Las más conocidas son las escalas Weschler (WAIS-IV, WISC-V y WPPSI-IV). Otra menos conocida es la batería de actividades mentales diferenciales y generales.

Estas y otras pruebas conceden mayor importancia a establecer rankings de cociente intelectual que a explicar la estructura de algo llamado inteligencia.
¿Qué es el factor ‘g’?Con los resultados en estos tipos de test, los análisis factoriales han demostrado que las habilidades cognitivas están influidas por una capacidad común llamada factor “g” (general). Pero el factor “g” no se considera sinónimo de inteligencia. Además, el cociente intelectual es un número que se obtiene como resultado de aplicar la inteligencia, y tampoco sirve para definirla.
El principal autor que defiende un modelo no factorial, Howard Gardner (que acuñó el concepto de “inteligencias múltiples”), no niega la utilidad del análisis factorial para agrupar variables y formar categorías abstractas (como “g”). Pero sí pone objeciones a que la concepción de lo que llamamos inteligencia se vea reducida a un filtro estadístico.
También Robert Sternberg, autor de la teoría triárquica (analítica, práctica y creativa), critica que la inteligencia se limite exclusivamente a la habilidad para responder a problemas académicos.
Parece, pues, que no existe consenso sobre cómo “desmembrar” la inteligencia. Incluso ha llegado a cuestionarse si existe algo a lo que llamar así. A pesar de ello, los test de cociente intelectual son la principal herramienta para comenzar a examinar las altas capacidades.
¿Qué son las altas capacidades?El concepto altas capacidades se utiliza a modo de paraguas para englobar a aquellas personas que destacan por encima de la media en test de cociente intelectual y que, además, muestran otras particularidades. Bajo este paraguas se incluyen los siguientes términos:

- Superdotación: se diagnostica al obtener una puntuación de cociente intelectual superior a 130 (percentil 98). Sin embargo, Joseph Renzulli (apoyado por Lewis Terman) critica sólidamente esta separación “a bisturí” y propone el modelo de enriquecimiento triádico. Según este modelo, la superdotación debería identificarse valorando la interacción entre tres elementos: un cociente intelectual superior a la media, alto compromiso con la tarea y alta creatividad. Renzulli argumenta que las personas más creativas y productivas se encuentran por debajo del percentil 95 (cociente intelectual de 125), y con un punto de corte tan alto se deja fuera a quienes tienen el mayor potencial para alcanzar altos niveles de logro.
- Talento: capacidad de dominar excepcionalmente una o varias competencias, cuya adquisición puede explicarse con el modelo integral de desarrollo del talento de Françoys Gagné. Se ha propuesto diagnosticar un talento con puntuaciones superiores a 125 en áreas específicas de una prueba citada previamente, la batería de actividades mentales diferenciales y generales, resultando en talento lógico, verbal, numérico o visoespacial.Además, como los test de cociente intelectual excluyen la creatividad, se ha propuesto usar el test de Torrance de pensamiento creativo para valorar este talento. Una combinación de estos cinco talentos resultaría en talentos múltiples, complejos o conglomerados.
- Prodigio: se consideran niñas o niños prodigio a quienes han sido capaces de producir trabajos admirables comparándolos con los de una persona adulta –aunque a menudo limitado a una única área (música, matemáticas…)– y sin haber cumplido los 10 años. Suelen tener un cociente intelectual destacable, aunque no extraordinario.
- Genio/a: persona que se encuentra en el extremo más alto de las altas capacidades (con un cociente intelectual mayor de 145) y ha realizado alguna contribución muy notable en un área determinada.
Conviene citar la precocidad, un término evolutivo referido a manifestar habilidades antes de lo característico para la edad cronológica habitual (especialmente, lenguaje fluido). Y la eminencia, referida a quien ha añadido a la sociedad grandes aportaciones, pero como fruto de la oportunidad o la suerte, sin que los factores intelectuales han sido determinantes.
¿Hay inteligencia más allá del cociente intelectual?Un estudio reciente que ha aplicado análisis factorial a test que valoran las llamadas “inteligencias centradas en las personas” (social, emocional y personal) ha revelado que también dependen del factor “g”. Y éstas no se exploran en los test de inteligencia tradicionales, es decir, que no participan en el cociente intelectual. Esos resultados tienen importantes consecuencias, ya que demuestran lo que numerosas teorías han estado criticando: que la inteligencia no puede limitarse al cociente intelectual actual.
Como crítica añadida a los test de cociente intelectual, la música no está considerada psicométricamente como un talento. Y la creatividad, como componente a valorar durante el diagnóstico de las altas capacidades, tampoco es registrada por este tipo de test, como ya se ha mencionado. Los estudios empíricos de la creatividad han mostrado solo una ligera correlación con el cociente intelectual. Esto implica que el cociente intelectual es una condición necesaria a valorar, pero ciertamente no es suficiente.
En definitiva, la inteligencia y las altas capacidades no son lo mismo. Ser inteligente se asocia a velocidad de procesamiento, memoria, fluidez verbal… es decir, a las tareas que rastrean los test de “inteligencia”, que resultan deficientes para detectar todas las capacidades humanas. Y tener altas capacidades significa poseer un cociente intelectual superior como requisito imprescindible, pero se requieren otros elementos, como motivación, creatividad o haber producido trabajos prodigiosos y geniales.
Y así, tras “abrir en canal” a estos conceptos, coincidimos con Herófilo en que los análisis profundos son más reveladores que las observaciones de corte superficial.
Sobre el autor: Jorge Romero-Castillo, Profesor de Psicobiología e investigador en Neurociencia Cognitiva, Universidad de Málaga
Este artículo fue publicado originalmente en The Conversation. Lea el original.
El artículo ¿Es lo mismo ser inteligente que tener altas capacidades? se ha escrito en Cuaderno de Cultura Científica.