Las bases de numeración o cómo hacer trucos de magia binarios
En la anterior entrada del Cuaderno de Cultura Científica titulada El arte de la sencilla baldosa de Truchet hablábamos de la expresión del número pi en base cuatro, en la que utilizamos las cuatro cifras básicas 1, 2, 3, 0, y dejamos para una entrada futura, que es la que hoy tenéis delante, explicar las diferentes bases de numeración y cómo obtener las expresiones de cada número en dichas bases.

Para empezar, recordemos que el sistema de numeración posicional moderno utilizado en casi todo el mundo es decimal, es decir, que tiene base 10 (véase el libro Los secretos de la multiplicación, de los babilonios a los ordenadores). Por lo tanto, consta de diez cifras básicas, 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 y todo número se puede representar con ellas al expresarlo en función de las potencias de 10. Por ejemplo, el número 3.457 tiene el valor de 3 veces la cantidad de 1.000, 4 veces la cantidad de 100, 5 veces la cantidad de 10 y 7 veces la unidad 1, que son las potencias de 10, a saber, 1.000 = 103, 100 = 102, 10 = 101 y 1 = 100.
En general, dada una base de numeración b –ya sea esta igual a 2, 3, 12 o 60- la representación posicional de cualquier número en la misma viene dada por una expresión d1d2…dr (donde los dígitos di –para i entre 1 y r– pertenecen a la familia de las b cifras básicas del sistema de numeración, que tienen valores entre 0 y b – 1) teniendo en cuenta que el número puede escribirse, de forma única, como
Por lo tanto, la representación del número está ligada a la base elegida. Así, si tomamos el sistema binario (b = 2) el anterior número se representa como (110110000001)2, ya que “3.457” = 211 + 210 + 28 + 27 + 1; en la base octal (b = 8) como (6600)8, porque “3.457” = 6 x 83 + 6 x 82; o en la base hexadecimal (b = 16), donde las cifras básicas son 0, 1, …, 9, A, B, C, D, como (D81)16, puesto que “3.457” = D x 162 + 8 x 16 + 1, donde estamos utilizando el subíndice de las representaciones (2, 8 y 16) para recordar que esa es una representación en esa base de numeración.
La base de numeración binariaVeamos esto más despacio para el caso de la base binaria, b = 2. En este caso solamente hay dos cifras básicas, 0 y 1, y expresar un número N en el sistema binario es escribirlo como suma de potencias de 2, donde cada dígito nos dice cuántas veces se toma esa potencia (como las cifras básicas son solo 0 y 1, entonces cada dígito nos dice si está o no dicha potencia). Así, si tenemos una expresión binaria como (101101)2, podemos saber cuál es su valor viendo qué potencias de 2 nos indica esa expresión que aparecen. Como el número binario tiene 6 dígitos, eso quiere decir que las potencias implicadas son 25 = 32, 24 = 16, 23 = 8, 22 = 4, 21 = 2 y 20 = 1 y los dígitos nos dicen si la correspondiente potencia está o no, como se muestra a continuación,
entonces, el número expresado con la representación binaria (101101)2 es 1 x 32 + 0 x 16 + 1 x 8 + 1 x 4 + 0 x 2 + 1 x 1 = 32 + 8 + 4 + 1 = 45.
De hecho, este es el método general para pasar de un número binario a su expresión decimal, que es la que nosotros entendemos mejor. Esto es, se cuentan cuántos dígitos r hay implicados –por ejemplo, en la expresión binaria 1110100001011001 hay 16 dígitos- y se van considerando qué potencias de 2, desde 2r-1 hasta 20 = 1, aparecen en función de si hay un 1 o un cero en la correspondiente posición, empezando por la derecha (aunque también podríamos realizar esa lectura empezando por la izquierda y tomando las potencias desde 20 = 1 hasta 2r-1) –por ejemplo, en la expresión binaria anterior, 1110100001011001, aparecen las potencias 215 = 32.768, 214 = 16.384, 213 = 8.192, 211 = 2.048, 26 = 64, 24 = 16, 23 = 8 y 20 = 1, por lo tanto, el número representado en forma binaria por (1110100001011001)2 es el número representado en el sistema decimal como 59.481.

Recíprocamente, si queremos ver cuál es la representación binaria de un número N, por ejemplo, el número N = 197, tendremos que ver cómo expresarlo como suma de potencias de 2. Como las potencias de 2 que pueden verse implicadas son 27 = 128, 26 = 64, 25 = 32, 24 = 16, 23 = 8, 22 = 4, 21 = 2 y 20 = 1, ya que 28 = 256 ya es mayor que el número en cuestión, tenemos que ver cómo expresar el número 197 como suma de estas. Para empezar, en nuestra expresión aparecerá 27 = 128, además, 197 – 128 = 69; por lo tanto, también aparecerá 26 = 64; como 69 – 64 = 5, no aparecerán 25 = 32, 24 = 16, ni 23 = 8, pero sí 22 = 4; por último, 5 – 4 = 1, que es 20. En conclusión, 197 = 128 + 64 + 4 + 1 y la expresión binaria es (11000101)2.
Podemos dar un algoritmo general teniendo en cuenta el conocido como teorema de la división o lema de la división de Euclides, que nos dice que si tenemos un número natural a (dividendo), que queremos dividirlo por un número natural b (divisor), nos dará como resultado un cierto número natural c (cociente) y nos quedará de resto un número r, que toma valores entre 0 y b – 1, que ya no se puede dividir por b, de manera que podemos expresar la división como a = b x c + r. El lema de la división de Euclides es el que nos permite afirmar que todo número N puede expresarse, de forma única, como suma múltiplos de potencias de la base, es decir, como
La idea del algoritmo de cambio de base está en utilizar, hasta que ya no podemos hacerlo más, el teorema de la división. Dado un número N que queremos cambiar de la base decimal a la base b se aplica el lema, primero considerando N como dividendo y después, en cada paso, el dividendo será el cociente del paso anterior. Veámoslo con un ejemplo concreto, por ejemplo, el número anterior N = 197.
De forma que, si tomamos las raíces y las colocamos de izquierda a derecha, es decir, empezando por las unidades, obtenemos la expresión binaria del número, en este caso, de 197, así: 11000101, como ya habíamos visto antes.
Esto se debe a que, de nuevo en este ejemplo, aunque es algo general, aplicando el teorema de la división se obtiene
es decir, la expresión de N en las potencias de 2.

Un truco de magia binario
Existe un sencillo truco de magia relacionado con los números binarios. Es muy sencillo y podéis hacérselo a vuestros familiares y amistades. Es un truco relativamente conocido, que incluso alguna empresa ha utilizado para su publicidad, como el siguiente ejemplo “Estas cartas son mágicas” de la empresa Coca Cola.


Expliquemos en qué consiste el truco de magia de las tarjetas numéricas. Se le pide a una persona que piense en un número del 1 al 63. Aunque también se puede complicar esto un poco y hacer un poco de espectáculo, es decir, podemos inventarnos cualquier acción para que alguien del público acabe obteniendo un número del 1 al 63, pero que nosotros debemos desconocer.
Una vez que esa persona del público tiene en la cabeza el número, entre 1 y 63, determinado, que nadie más conoce, se le muestran las siguientes seis tarjetas y se le pide que nos diga en cuál de ellas está el número que ha elegido. Le vamos preguntando “¿está en esta tarjeta?” y nos irá contestando “sí” o “no”. Si contesta “sí” sumamos el número de la esquina de la tarjeta correspondiente y si contesta “no” no lo sumamos. Al para todas las tarjetas el resultado final de la suma será el número que esa persona tiene en la cabeza. Las tarjetas son las siguientes:
Por ejemplo, imaginemos que una persona nos contesta lo siguiente al mostrarle las tarjetas: sí, sí, no, sí, no y sí, entonces el número que ha pensado es 1 + 2 + 8 + 32 = 43.
¿Cuál es la base de este truco? Como podemos imaginar la base es el sistema binario de numeración, como vamos a explicar brevemente. Empezando por el final, cuando la persona del público nos va diciendo en cada tarjeta si el número está –dice “sí”- o no está –dice “no”-, realmente nos está dando la representación binaria del número que ha pensado. Por ejemplo, en el caso anterior (sí, sí, no, sí, no y sí), sería (1 0 1 0 1 1)2 –ya que las hemos mostrado desde las unidades- que no es otro que 25 + 23 + 2 + 1 = 43.
Esto es así porque a la hora de crear las tarjetas, en la primera tarjeta, la que tiene un 1 en la esquina, están todos los números que tienen un 1 en la primera posición de la derecha de su representación binaria, que son todos los impares. Podemos comprobarlo en la siguiente lista con las representaciones binarias de los números entre 1 y 63.
En la segunda tarjeta están los números que tienen un 1 en la segunda posición de la derecha de su representación binaria (2, 3, 6, 7, 10, 11, 14, 15, …, 62, 63), en la tercera los que tienen un 1 en la tercera posición de la derecha de su representación binaria (4, 5, 6, 7, 12, 13, 14, 15, …, 60, 61, 62, 63) y así hasta la última tarjeta.

La base duodecimal
A lo largo de esta entrada hemos hecho hincapié en el cambio de base del sistema binario, pero todo lo comentado sirve para cualquier otra base, ya sea la base 12 (del sistema duodecimal, del que hablamos algo en la entrada El sistema duodecimal, o si los humanos hubiésemos tenido seis dedos en las manos), la base 60 (que utilizaban los babilonios y del que hablamos algo en la entrada ¿Sueñan los babilonios con multiplicaciones eléctricas?) o cualquier otra base.
Terminemos con un ejemplo para la base 12, la duodecimal. Denotaremos las cifras básicas de este sistema de numeración como 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B (donde A tiene el valor de 10 y B de 11). Consideremos en número 13.762 y expresémosle en base 12. Si consideramos el algoritmo de la división de Euclides, tenemos que:
Por lo tanto, los restos son 10, 6, 11 y 7, que, si recordamos que el primero corresponde a las unidades (parte derecha de la representación duodecimal), nos da la representación del número 13.762 en base 12 como
La siguiente cuestión será cómo representar los números que no son naturales (ni enteros), como 0,25; 3,7675 o el número pi, pero de eso hablaremos en la siguiente entrada del Cuaderno de Cultura Científica.
Bibliografía:
1.- Raúl Ibáñez, Los secretos de la multiplicación, de los babilonios a los ordenadores, Catarata, 2019.
2.- George Gheverghese Joseph, La cresta del pavo real, las matemáticas y sus raíces no europeas, Pirámide, 1996.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Las bases de numeración o cómo hacer trucos de magia binarios se ha escrito en Cuaderno de Cultura Científica.
Einstein y Ernst Mach
Ernst Mach es más conocido hoy por dar su nombre a la velocidad del sonido en la atmósfera terrestre, pero para Einstein fue el hombre que estableció la base para la relatividad y un héroe admirado que empleó una considerable cantidad de tiempo pensando cómo se debería hacer ciencia.

Einstein leyó a Mach cuando era estudiante y ya era seguidor suyo en 1902, cuando vivía en Zúrich y se reunía regularmente con sus amigos Conrad Habicht y Maurice Solovine. Einstein insistió para que el grupo leyese los dos libros de Mach publicados hasta esa fecha: El desarrollo de la mecánica y El análisis de las sensaciones.
Mach fue un ejemplo de una clase de profesor que se hizo cada vez más escasa en el siglo XX: un científico cuyos intereses cubrían un amplio abanico de materias, desde la óptica y la mecánica a la filosofía, pasando por la dinámica de ondas, las experiencias sensoriales o la teoría cognitiva. Fue la filosofía lo primero que llamó la atención de Einstein. Mach era abiertamente un positivista extremo, es decir, mantenía que sólo se pueden extraer conclusiones de lo que se puede percibir directamente. Las teorías científicas, según Mach, no pueden pretender ser más que un resumen de hechos observables. Hacer inferencias que no fuesen directamente atribuibles a algo que se pudiese ver, tocar o percibir de alguna manera, era entrar en el mundo de la fantasía.
Todos los científicos estarían de acuerdo, por supuesto, en que las teorías están basadas en último extremo en lo que podemos percibir, pero Mach llevó esta posición mucho más lejos que los demás. Por ejemplo, durante años se negó a creer en la existencia de los átomos ya que serían demasiado pequeños para ser percibidos directamente con nuestros propios ojos.
Los estudios de Mach sobre la mecánica y la inercia también tuvieron su impacto en Einstein. Dado que Mach creía solamente en cantidades que se pudiesen tocar, afirmó enfáticamente que el “tiempo” no tiene ningún significado real. Escribió que era una idea abstracta, producto de la mente humana y sujeta, por lo tanto, a sus caprichos. Este rechazo del “tiempo absoluto” parece que liberó el pensamiento del joven Einstein; cuando se publicó la teoría especial de la relatividad de Einstein en 1905, se apoyaba directamente en el concepto de que no existe ni tiempo ni espacio absolutos. De hecho, todo lo que hay en la teoría especial de la relatividad se deriva directamente de la percepción humana; dado que la gente en diferentes marcos de referencia experimenta diferentes cosas, Einstein afirmó que la realidad misma era diferente en esos marcos de referencia. Una actitud genuinamente positivista que Mach no pudo menos que aprobar.
De hecho, Mach tuvo ideas parecidas cuando joven. Einstein siempre creyó que Mach había estado en el camino correcto para descubrir la relatividad en parte de sus trabajos de juventud, y que la única razón por la que no lo había hecho fue porque la época no fue la propicia. Einstein comenzó a pensar en el problema en un momento en el que las miradas de la comunidad científica estaban puestas en el hecho de que la velocidad de la luz era constante, mientras que Mach lo hizo dos décadas antes. La constancia de la velocidad de la luz fue un importante punto de partida para el desarrollo de la relatividad, y uno al que Mach no tuvo acceso.
Einstein también usó el trabajo de Mach unos diez años más tarde cuando estaba escribiendo la teoría general de la relatividad. Mach había hecho una propuesta, a la que Einstein se refería como el principio de Mach, según la cual la causa de que cualquier objeto permanece en reposo o continúa moviéndose es directamente atribuible a su relación con todos los demás objetos del universo. Esto constituía una modificación de la ley de la inercia de Newton: un objeto en reposo tiende a estar en reposo, y un objeto en movimiento tiende a estar en movimiento. Mach quería determinar simplemente por qué la ley de Newton era así, y su respuesta fue que la responsable era la distribución de masa en el universo. Se puede ver como, si la idea de que la masa afecta a la inercia se introdujo en el cerebro de Einstein, le pudo haber ayudado a crear su teoría general de la relatividad, que afirma que, básicamente, la masa crea la gravedad.
Einstein, un metafísico para MachEinstein siempre reconoció la obra de Mach como el catalizador de su teoría de la relatividad. Pero Mach eligió distanciarse del trabajo de Einstein. Para cuando se publicó la teoría general de la relatividad en 1915, Einstein había ido demasiado lejos en la dirección a la que Mach se refería como “conceptos metafísicos”. La teoría general de la relatividad explica la gravedad postulando la curvatura de algo llamado espaciotiempo; para Mach la teoría era demasiado abstracta para ser aceptable.
Einstein, sin embargo, nunca admitió del todo que su héroe había rechazado la relatividad, achacando a la vejez la actitud de Mach. A pesar de ello, Einstein también se apartó de su estricta adhesión al trabajo de Mach. Así, se hizo cada vez más evidente que el principio de Mach no tenía, de hecho, mucho que ver con la relatividad general; el primero tenía que ver con la inercia, el segundo con la gravedad. No solo eso, a pesar de la reticencia inicial de Einstein a la idea, la relatividad permite un universo sin ninguna masa. En su última década de vida, Einstein había dejado completamente de asociar el principio de Mach con su propio trabajo. En una carta de 1954 escribió “uno no debería hablar más en absoluto del principio de Mach”.
Einstein también dejó, bastante enfáticamente, de seguir el positivismo de Mach. Aunque apoyarse solamente en los sentidos le ayudó a crear su primera teoría de la relatividad, Einstein abandonó esta actitud tan rígida con el paso del tiempo. Conforme se desarrollaba la mecánica cuántica la mayor parte de la comunidad científica comenzaba a aceptar una teoría que se basaba solamente en la medición directa del mundo atómico. Pero la teoría todavía albergaba complejidades innatas que Einstein pensaba que estaban aún por resolver: la medición directa no era suficiente.
Mach también rechazó la mecánica cuántica, porque si bien se basaba solamente en mediciones para sacar conclusiones, estas mediciones eran de un tipo demasiado abstracto. ¿Quién, después de todo, ha visto un electrón con sus ojos? Sin experiencia sensible, Mach no tenía interés en esta nueva rama de la ciencia.
A pesar de sus diferencias científicas, Einstein siempre consideró a Mach una de las grandes influencias en su vida. En 1916, Einstein escribió un obituario sobre Mach en el que alababa al hombre que había empleado tanto tiempo estudiando, como una ciencia en sí misma, cómo la ciencia debería hacerse. Sin ese autoexamen, escribía Einstein, “los conceptos que han probado ser útiles para ordenar las cosas adquieren fácilmente una autoridad tal sobre nosotros que olvidamos sus orígenes terrenos y los aceptamos como axiomas inalterables… La senda del avance científico se hace a menudo infranqueable durante mucho tiempo por esos errores”.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este artículo se publicó en Experientia Docet el 11 de julio de 2009.
El artículo Einstein y Ernst Mach se ha escrito en Cuaderno de Cultura Científica.
¿Cómo se esculpe el paisaje de Titán?
La llegada de la sonda Cassini al sistema de Saturno en julio de 2004 marcó el inicio de una nueva revolución en cuanto a nuestro conocimiento del sistema del gigante gaseoso. Especialmente interesante resultó la geología de los satélites, que en los casos particulares de Encélado y Titán resultaron ser mucho más activos a nivel geológico de lo que se había imaginado hasta el momento.

Pero el pastel tenía una guinda. El aterrizaje de la sonda Huygens sobre Titán y los sucesivos sobrevuelos de la Cassini descubrieron que este satélite, uno de los más grandes de nuestro Sistema Solar, y además con una atmósfera más densa que la de nuestro planeta, no es que tuviese una geología interna activa, sino que además tenía procesos externos relacionados con la atmósfera y las estaciones que esculpían su superficie.
No solo eso. Titán, junto con la Tierra, es el único cuerpo del Sistema Solar del que tengamos pruebas fehacientes de que tenga un ciclo hidrológico. Eso sí, en el sentido laxo de la palabra, ya que la temperatura media en su superficie ronda los -180 ºC, por lo que el ciclo hidrológico en realidad está constituido por compuestos orgánicos, como el metano, que pueden encontrarse en fases líquidas y gaseosas en ese rango de temperaturas, lo que permite la presencia de nubes desde las que llueven estos.

La lluvia de estos compuestos orgánicos erosiona la superficie, formando redes fluviales como las que vemos en la Tierra o Marte, y acaban acumulándose en lagos y mares, algunos de los cuales vuelven a evaporarse a la atmósfera, dejando un depósito mineral como en las salinas terrestres donde se fabrica la sal común, pero con una química muy distinta.
Pero no solo eso, en Titán también hay desiertos, desiertos de arena que desde la órbita parecen como los terrestres o los marcianos. La sonda Huygens aterrizó en una rambla seca cubierta de guijarros de distintos tamaños, redondeados por el transporte a lo largo del tiempo.

Estos hechos también nos parecerían normales si no fuese porque la superficie de Titán no es rocosa, como la de los planetas interiores, sino que está formada por hielo, un hielo que a simple vista se comporta de una manera similar a como lo haría la roca… pero, ¿qué procesos permiten que el hielo acabe formando un paisaje similar al de nuestro planeta?
Un equipo de investigadores ha publicado recientemente un artículo en Geophysical Research Letters que pretende responder a estas cuestiones usando la arena como un mecanismo formador del relieve que observamos en los polos y en las latitudes medias de Titan. Sorprendente, ¿verdad?.
En nuestro planeta, la formación de dunas viene precedida por la formación, valga la redundancia, de depósitos sedimentarios costeros o fluviales de un material fino que permite que el viento sea capaz de moverlo. En Titán podría haber muchos más mecanismos que sean capaces de generar partículas de ese tamaño: por ejemplo, tenemos la erosión de las capas de hielo superficial a partir de la lluvia o los cauces fluviales, la aglutinación de partículas de compuestos orgánicos desde la atmósfera, la erosión de los depósitos evaporíticos que quedan en el lecho de los mares y lagos cuando estos se evaporan…

Uno de los mayores problemas de los científicos a la hora de entender los procesos relacionados con la arena de Titán es que se pensaba que durante la formación de las distintas partículas que conforman la arena, poco a poco estas irían disminuyendo de tamaño a causa del transporte por el simple hecho de ir desgastándose. En cambio, parece que no es el caso y que, durante su movimiento, son capaces de mantener, al menos parcialmente, su tamaño al ir aglutinándose con otras partículas.
Si no, con el paso del tiempo y sin un gran aporte de nuevos granos de arena, entiéndase en este caso arena formada por pequeños cristales de hielo y no por minerales como en nuestro planeta, estos granos irían menguando tanto que las dunas, probablemente, desaparecerían durante su migración.
En Titán aparecen las dunas de arena en dos lugares muy diferentes: por un lado, en los polos y, por otro, en las llanuras de las latitudes medias. Es muy probable que la mayor parte de esta arena se forme en el ecuador, donde sabemos que hay un régimen de viento suficiente como para erosionar y transportar los granos de estas zonas a las latitudes adyacentes.
A las latitudes medias llegarían estos granos que podrían ir uniéndose por fenómenos de aglutinación de tal forma que las partículas tendrían cada vez un tamaño más y más grande, siendo finalmente incapaces de moverse con el viento y pudiendo, con el paso del tiempo, dar lugar a la topografía que vemos, como si fuésemos uniendo cubitos de hielo hasta formar un iceberg, pero a gran escala.
En cambio, en los polos, la situación parece más compleja, y el transporte de la arena desde latitudes ecuatoriales no parece una posibilidad. En estas zonas polares aparece un relieve muy característico denominado “terreno laberíntico” cuyo origen se discute, y que podría ser debido a zonas elevadas que han sido erosionadas por ríos de metano, que han sufrido procesos de disolución como en las zonas kársticas de la Tierra o que, por procesos tectónicos, han quedado zonas elevadas y hundidas unas con respecto a las otras.

Los autores de este estudio se inclinan a pensar que este relieve en realidad se parece más a las zonas kársticas y que lo que vemos es el resultado del colapso del terreno fruto de la disolución de unas areniscas, también en sentido laxo, formadas por compuestos orgánicos.
¿Cómo se formarían estas areniscas que a su vez forman el terreno laberíntico tras su disolución?. En nuestro planeta, las areniscas son rocas formadas principalmente por granos de roca de tamaño arena (entre 0.0625 a 2 mm de diámetro), pero si no hay una fuente de arena que alimente esta zona, ya hemos dicho antes que desde el ecuador no podían transportarse, ¿de dónde vienen?
Es cierto que en los polos el régimen de vientos es mucho más débil que en el ecuador, pero a cambio tienen una mayor formación de tormentas y, por lo tanto, de escorrentía, por lo que la erosión y el transporte pueden llevarse a cabo mediante los compuestos orgánicos en estado líquido. Estas arenas transportadas por los ríos irían acumulándose con el tiempo, formando extensos depósitos que con el tiempo sufrirían los procesos de disolución y que darán lugar al terreno laberíntico.
Dicho todo esto, y como concluyen los propios autores del estudio, mediante este modelo se puede explicar muy bien la distribución de los distintos tipos de terreno a ambos lados del ecuador de Titán usando únicamente un modelo sedimentario en el que la abrasión de las partículas, lo que permite generar la arena, por un lado y, por otro, los fenómenos de aglutinación que permiten generar los paisajes uniendo los granos, son los fenómenos fundamentales.
Sin duda, este mecanismo activo de depósito de sedimentos y formación de relieves en Titán pone de manifiesto que la geología del Sistema Solar todavía tiene muchas sorpresas y procesos que, aunque den relieves y formas que nos resultan muy habituales y cotidianas, en el fondo son muy diferentes.
Referencias
Lapôtre, M. G. A., Malaska, M. J., & Cable, M. L. (2022). The role of seasonal sediment transport and sintering in shaping Titan’s landscapes: A hypothesis. Geophysical Research Letters, 49, e2021GL097605 doi: 10.1029/2021GL097605
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo ¿Cómo se esculpe el paisaje de Titán? se ha escrito en Cuaderno de Cultura Científica.
La brújula de los salmones

El salmón nada hacia el fondo del Golfo de Bizkaia. Lo guía, según todos los indicios, el campo magnético terrestre, aunque al aproximarse a la costa, es el “olor” que emana del agua del Bidasoa el que le marca el camino y lo conduce hasta la desembocadura de su río natal. A partir de ese momento no necesitará orientarse: ya ha llegado. Solo le falta hacer el esfuerzo supremo, nadando río arriba y superando obstáculos, hasta llegar al lecho de grava donde desovará.
La señal que lo orienta a través de centenares de millas es geomagnética. Los salmones no son los únicos animales capaces de orientarse y navegar haciendo uso del campo magnético terrestre. Abejas, otros peces, varias aves y ratones, al menos, también la tienen, aunque no acabamos de conocer bien el mecanismo que lo hace posible. La hipótesis más aceptada es que hay unos orgánulos celulares con cristales de magnetita que interaccionan con el campo magnético. Esa interacción daría lugar a la generación y emisión de señales nerviosas que se procesan en el encéfalo u órgano equivalente para guiar el movimiento. Según esa hipótesis, los cristales de magnetita serían similares a los de mineral de hierro sintetizados por unas bacterias magnetotácticas -las llamamos así- que los utilizan para alinearse, de forma pasiva, con las líneas del campo magnético y de ese modo poder desplazarse en una misma dirección.
La magnetita, único material de propiedades magnéticas producido por los seres vivos, ha sido hallada en tres reinos: bacterias (organismos unicelulares sin núcleo ni compartimentos internos complejos), protistas (organismos unicelulares con núcleo y compartimentos internos complejos) y animales. Sus cristales se disponen en estructuras lineales envueltas en membranas, denominadas magnetosomas, que funcionan como barras o agujas biológicas imantadas. La estructura general de los magnetosomas es muy similar en los tres grupos de seres vivos citados. Aunque ocupan un volumen muy reducido en el interior de los organismos, tienen una gran sensibilidad para con fluctuaciones y variaciones espaciales muy leves del campo geomagnético de fondo al que están expuestos.
En un trabajo de investigación recién publicado han encontrado que las células del epitelio olfativo de los salmones (su órgano del olfato) contienen cristales de magnetita organizados en grupos compactos. Es muy significativo que esas células estén en la misma estructura que recibe la información olfativa, la que proporcionan las sustancias químicas que sirven a los salmones para identificar el río concreto al que se dirigen. Coincide, por tanto, la disposición de las estructuras para orientarse en el camino de vuelta al río natal -mediante magnetorrecepción- y la de las que les permiten precisar la ubicación de su desembocadura -mediante quimiorrecepción-, para iniciar el ascenso a la cabecera.
Los genes que controlan la producción de magnetita en las células olfativas magnéticas comparten ascendencia con los implicados en la misma tarea en ciertos microorganismos. Once de esos genes se encuentran en numerosos animales y nueve están presentes en un grupo de arqueas (organismos unicelulares sin núcleo ni compartimentos internos complejos, pero distintos de las bacterias) emparentado con los antecesores de los organismos superiores. Según los autores de la investigación, los magnetosomas habrían surgido en un grupo de bacterias hace entre dos mil y tres mil millones de años; y hace unos mil millones de años algunos de esos magnetosomas se habrían introducido en el interior de los primeros eucariotas (seres unicelulares con estructuras internas complejas) que, procedentes de un grupo de arqueas, acabarían dando lugar a los organismos multicelulares complejos, como esos salmones que tras pasar un tiempo en el mar, engordando, vuelven a su río a desovar.
Fuente: M. Renee Bellinger, Jiandong Wei, Uwe Hartmann, Hervé Cadiou, Michael Winklhofer, Michael A. Banks (2022): Conservation of magnetite biomineralization genes in all domains of life and implications for magnetic sensing. PNAS, 119 (3) e2108655119; DOI: 10.1073/pnas.2108655119
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La brújula de los salmones se ha escrito en Cuaderno de Cultura Científica.
Día de Pi con BCAM Naukas 2022: Almudena M. Castro – El último puzle de Bach
La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO proclamó el 14 de marzo Día Internacional de las Matemáticas.
Un año más, el Basque Center for applied Mathematics-BCAM y la Cátedra de Cultura Científica de la UPV/EHU se han suamdo a la celebración, organizando la tercera edición del evento BCAM-NAUKAS, que se desarrolló a lo largo del 14 de marzo en el Bizkaia Aretoa de la UPV/EHU.
Almudena M. Castro, es pianista, licenciada en bellas artes, graduada en física y divulgadora científica. En esta charla nos cuenta como un canon musical es como las matemáticas: tú das unas reglas y unas propiedades y después miras a ver qué sale. Esa lógica permite resolver el último puzle de Bach.
Para saber más:
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Día de Pi con BCAM Naukas 2022: Almudena M. Castro – El último puzle de Bach se ha escrito en Cuaderno de Cultura Científica.
Prevención de la conducta suicida en jóvenes usando perros
Un estudio piloto realizado por un equipo de las facultades de Psicología y Medicina y Enfermería de la UPV/EHU evalúa por primera vez un tratamiento para prevenir la conducta suicida en jóvenes mediante terapia asistida por animales. Tras la intervención, los jóvenes presentaron una reducción de la conducta suicida y de las autolesiones no suicidas, así como una mayor predisposición a buscar ayuda.

El suicidio juvenil es un problema de salud pública de carácter global. Según datos de la Organización Mundial de la Salud (OMS), el suicidio es la cuarta causa de muerte en el grupo de edad de entre 15 y 29 años, después de las lesiones por accidentes de tráfico, la tuberculosis y la violencia interpersonal. La reducción de la mortalidad por suicidio es uno de los objetivos prioritarios de la OMS.
Se han realizado diversos estudios que han aplicado la psicoterapia asistida por animales con jóvenes que presentan problemas de salud mental. Sin embargo, “en este trabajo hemos aplicado por primera vez la terapia asistida por animales, en nuestro caso perros, para tratar un fenómeno tan complejo como la conducta suicida en adolescentes y jóvenes”, indica Alexander Muela, primer autor del estudio.
La población joven que presenta una conducta suicida no siempre es capaz de exteriorizar o compartir con sus familiares o amigos su malestar emocional, y en muchas ocasiones tampoco buscan ayuda o desconfían de los tratamientos tradicionales. “Lo que hemos observado es que el hecho de incluir animales en la intervención favorece la motivación y adherencia al tratamiento. Además, ayuda a establecer un clima de seguridad y confianza porque el animal ejerce de lubricante social. Los perros que utilizamos están especialmente entrenados y preparados. Son animales dóciles, muy sociables y con gran flexibilidad ante estímulos estresantes. Son animales perfectos para ayudar a las personas que presentan una conducta suicida, ya que fomentan los lazos afectivos, reducen los sentimientos de rechazo y estigmatización, y promueven la comunicación espontánea, favoreciendo el efecto del tratamiento”, cuenta el investigador de la UPV/EHU.
“Después del tratamiento asistido con animales —continúa Muela— los jóvenes mostraron reducciones en la ideación suicida y en las autolesiones no suicidas, así como una mayor predisposición a buscar ayuda. Esta percepción de que podían pedir ayuda si la necesitaban puede reflejar un aumento de su confianza para recurrir a recursos de apoyo comunitarios en otros en momentos de gran sufrimiento emocional”.
“A través del tratamiento hemos observado que los jóvenes han aprendido a detectar las señales de alarma del suicidio y han aprendido estrategias de regulación emocional más recomendables que las autolesiones no suicidas.”, afirma Muela. “Aprender a manejar esas señales de alarma, a ser capaces de buscar y pedir ayuda, y conseguir un sentido vital más esperanzador son las claves de este tipo de intervenciones”, añade.
Según el investigador, “Los resultados preliminares obtenidos en este estudio piloto permiten afirmar que el programa puede resultar efectivo para reducir la conducta suicida y las autolesiones no suicidas en jóvenes con altos factores de riesgo de suicidio”. “Una de las principales consecuencias de la presencia de animales es que facilitan las intervenciones de aprendizaje socioemocional y representan un factor añadido que maximiza su impacto”, concluye el investigador de la UPV/EHU.
Referencia:
Alexander Muela, Nekane Balluerka, Eneko Sansinenea, Juan Manuel Machimbarrena, Jon Garcia-Ormaza, Nekane Ibarretxe, Ane Eguren y Patxi Baigorri. (2021) A Social-Emotional Learning Program for Suicide Prevention through Animal-Assisted Intervention Animals doi: 10.3390/ani11123375
Para saber más:
El peor enemigo de la prevención del suicidio
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Prevención de la conducta suicida en jóvenes usando perros se ha escrito en Cuaderno de Cultura Científica.
Armas extraterrestres
En la película “La novia de acero”, dirigida por Gordon Douglas y estrenada en 1952, el protagonista encarga a un herrero que le fabrique un cuchillo muy especial, ya que le pide que utilice los restos de un meteorito para fortalecer la hoja.
Esto que podría parecer mera ficción, se basa en algo mucho más habitual de lo que nos imaginamos. Y es que, entre esas masas rocosas procedentes del espacio exterior que acaban impactando contra nuestro planeta y que comúnmente denominamos meteoritos, existe un tipo muy especial, el de los meteoritos metálicos.

Los meteoritos metálicos están formados principalmente por hierro y níquel, acompañados en mucha menor proporción por otros elementos metálicos, como el cobalto. Su principal interés científico radica en que aportan una valiosa información sobre la composición y formación de los núcleos metálicos de los planetas rocosos, incluido el nuestro. De manera un poco poética, tener un meteorito metálico entre nuestras manos sería lo más cercano a tocar el centro de la Tierra.
Pero si algo ha caracterizado la evolución social de nuestra especie ha sido el uso de diferentes materiales para fabricar utensilios y herramientas, entre ellos el hierro. Y si, literalmente, te cae del cielo una gran masa de hierro, no te lo piensas dos veces antes de aprovechar ese metal. Sobre todo, si le aportas connotaciones místicas a la pieza que construyas con ese hierro enviado desde las estrellas, máxime si se trata de armas.
Uno de estos objetos tan particulares es una daga encontrada en la tumba del faraón egipcio Tutankamón, cuya hoja está fabricada con metal procedente de un meteorito. Que esta arma forme parte de su ajuar funerario remarca el alto estatus del fallecido, ya que en la época en la que vivió el uso del hierro no estaba muy extendido por Egipto y estas piezas se reservaban como regalos reales. Además, el uso de un meteorito para su construcción relaciona directamente al faraón con las estrellas, algo muy importante en la cultura egipcia.
Si damos un salto de varios milenios, encontramos un caso similar en Colombia. El 20 de abril de 1810, cayó un meteorito metálico en la localidad de Bocayá, al que dieron el nombre de meteorito de Santa Rosa de Viterbo. Pues un fragmento de este meteorito fue empleado para forjar una espada portada por Simón Bolívar durante las campañas militares para la independencia de varias naciones sudamericanas. La parte más mítica de esta espada la encontramos en la dedicatoria que le haría el naturalista francés Jean-Baptiste Boussingault: “Esta espada ha sido hecha con hierro caído del cielo para defensa de la libertad”.

Pero no siempre se les ha dado esta faceta mística a las armas construidas con metal procedente de meteoritos. A comienzos del siglo XIX se encontró en una pequeña región de Namibia un meteorito al que denominaron Gibeon, en honor a la localidad más cercana al lugar de hallazgo. Este meteorito, que debió impactar en la tierra hace cientos de millones de años, había sido utilizado durante generaciones por los pueblos cercanos para construir todo tipo de herramientas, incluidas sus armas.
Aunque los pueblos namibios empleasen los fragmentos del meteorito Gibeon simplemente como una abundante fuente de hierro de gran calidad para elaborar sus utensilios habituales, en épocas más recientes se les ha vuelto a dar cierto carácter exclusivo a las armas producidas con este metal. Hace unas décadas, el maestro artesano japonés Yoshindo Yoshiwara forjó con uno de esos fragmentos la “katana Tentetsutou” o “espada del cielo”, recordando de nuevo la procedencia del material con el que está hecha. Esta espada se considera como uno de los tesoros más modernos de Japón y se encuentra en exposición permanente en el Instituto de Tecnología de la Prefectura de Chiba, en Tokyo.

Hasta ahora he hablado de armas blancas, pero también existen armas de fuego construidas a partir del metal obtenido de fragmentos del meteorito Gibeon. En 2015, la armería estadounidense Cabot Guns lanzó al mercado una serie de pistolas hechas íntegramente de este material y que, además, funcionan. Estas armas reciben el sugerente nombre de “The Big Bang Set”, haciendo alusión al año de formación de este meteorito, estimado en más de 4000 millones de años, en los albores de la formación de nuestro sistema solar.
Los seres humanos siempre hemos dependido de los materiales que tenemos a nuestro alrededor para poder avanzar como especie y como sociedad, pero a veces estos materiales que encontramos a nuestra disposición no proceden de nuestro propio planeta, sino que vienen directamente del espacio. Estos visitantes del exterior deberían ser conservados como patrimonio geológico para poder conocer mejor los orígenes tanto de la Tierra como del propio Universo, aunque ahora muchos formen parte de nuestro patrimonio cultural e histórico.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Armas extraterrestres se ha escrito en Cuaderno de Cultura Científica.
Estrategias ganadoras en un par de juegos de cartas
En una comida de trabajo, ya casi en el momento de los postres, Tomás, un poco “alegre”, propone un par de juegos a sus colegas. Quizás le habría resultado más económico permanecer callado…
Primero de los juegos, para dos personasEn primer lugar, coloca 100 euros sobre la mesa, invita a jugar a Ana y Blas, y explica la dinámica de este primer desafío.
Ana y Blas deben sacar una carta al azar de una baraja francesa, es decir, una baraja de 52 cartas. Cada uno de ellos debe colocar esa carta en su frente para que la otra persona la vea; aunque ninguno puede ver su propia carta. Además, Ana y Blas no pueden comunicarse entre sí. Ambos jugadores deben escribir el color que piensan que posee su carta: roja o negra. Si alguno de ellos adivina el color, ambos ganan 50 euros. Si las dos respuestas son incorrectas, pierden. Tomás concede 5 minutos a Ana y Blas, para que ideen una estrategia previa para intentar ganar el juego.

¿Existe una estrategia ganadora? Pensad un poquito antes de leer el resto…
Llamemos R a una carta roja y N a una carta negra. Si la primera carta corresponde a la elegida al azar por Ana y la segunda a la de Blas, hay cuatro posibilidades: RR, NN, RN y NR. La siguiente estrategia es siempre ganadora:
-
Ana supone que ambos tienen la carta del mismo color: RR o NN.
-
Blas considera lo contrario a lo supuesto por Ana, asumiendo que los colores de sus cartas son diferentes: RN o NR.
Obviamente, uno de los dos debe estar en lo cierto, con lo que no pueden perder el juego.
Un segundo juego para cuatro personasTomás, un poquito más alegre tras el primer desafío, propone un segundo juego. Coloca 200 euros sobre la mesa e invita a Carlos, Diana, Eduardo y Fátima a jugar. Cada uno de ellos debe tomar al azar una carta de la baraja francesa, se la colocan en la frente, viendo las de sus colegas, pero no la suya. Esta vez, deben “adivinar” el palo de su propia carta: tréboles, corazones, diamantes o picas. Si al menos uno de ellos acierta el palo de la carta que ha tomado al azar, todos ganan 50 euros. De nuevo, no pueden hablar entre ellos, aunque Tomás vuelve a permitir a sus cuatro amigos que intenten establecer una estrategia previa para intentar ganar este desafío.

¿Existe una estrategia ganadora? Pensad un poquito antes de leer el resto…
Antes de razonar los entresijos del juego en el caso de cuatro personas, vamos a volver a analizar el caso de Ana y Blas de otra manera. Podríamos pensar en la tarjeta roja como un 0 y en la tarjeta negra como un 1. Entonces, la estrategia de Ana, como se ha explicado antes, se centraría los casos 00 y 11, que podría interpretarse como «la suma de nuestras tarjetas es par» (0+0=0 o 1+1=2). Y con esta nueva manera de pensar, la estrategia de Blas, que se centraría los casos 01 y 10, sería “la suma de nuestras cartas es impar” (0+1=1 o 1+0=1). Con este nuevo enfoque, vuelve a estar claro que uno de ellos debe tener razón necesariamente.
El caso de cuatro personas es una generalización del anterior y depende de la noción de aritmética modular, en particular, de las congruencias módulo 4. Ahora no basta con pensar “los palos son iguales» o «los palos son diferentes”; los jugadores deben afinar un poco más. Vamos a asignar a cada palo a un número: los tréboles son 0, los diamantes 1, los corazones 2 y las picas 3.
Es decir, si por ejemplo Carlos mira las frentes de sus colegas y ve corazones (Diana), corazones (Eduardo) y picas (Fátima), lo interpreta como 2+2+3=7. Supongamos que el palo de la carta de Carlos es de tréboles, que obviamente él desconoce. Consideremos entonces las siguientes estrategias:
-
Carlos adivina su palo suponiendo que la suma total debe de ser múltiplo de 4. Por ejemplo, si ve corazones, corazones y picas, propone que su carta es de diamantes, porque de este modo obtiene que 2+2+3+1=8.
-
Diana adivina su palo suponiendo que la suma total debe de ser congruente con 1 módulo 4. En el ejemplo que nos ocupa, ve tréboles (Carlos), corazones (Eduardo) y picas (Fátima) y, por lo tanto, propone para su propia carta tréboles, ya que así resulta: 0+2+3+0=5 (el resto de la división por 4 es 1).
-
Eduardo adivina su palo para que la suma total sea congruente con 2 módulo 4. En efecto, Eduardo ve (Carlos), corazones (Diana) y picas (Fátima), con lo que induce que su carta es de diamantes, al obtener la suma 0+2+3+1=6 (el resto de la división por 4 es 2).
-
Y, por último, Fátima adivina su palo pensando en que la suma total sea congruente con módulo 4. Ve tréboles (Carlos), corazones (Diana) y corazones (Eduardo), con lo que propone que su carta es de picas, al hacer la adición 0+2+2+3=7 (el resto de la división por 4 es 3).
En este ejemplo, la que acierta es Fátima. Pero está claro que, para cualquier otra combinación aleatoria de palos, una de las afirmaciones de Carlos, Diana, Eduardo o Fátima es necesariamente correcta (y solo una).
Si continúa de esta manera, Tomás va a perder mucho dinero en esta comida… probablemente para regocijo de sus colegas.
Referencia
$50 for All, Futility Closet, 27 de agosto de 2021
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Estrategias ganadoras en un par de juegos de cartas se ha escrito en Cuaderno de Cultura Científica.
Einstein y el efecto fotoeléctrico
El trabajo de Einstein sobre el efecto fotoeléctrico fue tan revolucionario como el de la relatividad, convirtiéndose en una de las teorías que darían un impulso definitivo a la creación de la mecánica cuántica. Aunque no tan llamativa como la teoría de la relatividad, fue el logro por el que mereció oficialmente el premio Nobel en 1921.
Cuando la luz incide sobre una placa de metal es capaz de arrancar electrones, provocando una corriente eléctrica, en esto consiste el efecto fotoeléctrico. Pero a principios del siglo XX, la teoría vigente de cómo la luz se movía no encajaba con lo que sucedía cuando se realizaba un experimento fotoeléctrico. En 1905, el “annus mirabilis” de Einstein, este publicó un artículo en el que ofrecía una solución que se basaba en la hipótesis de que la luz está formada por partículas discretas. Esta era una idea radical, pero que hoy se acepta completamente.
Heinrich Hertz fue el primero que se dio cuenta de la existencia del efecto fotoeléctrico en 1887, cuando bloqueó toda la luz que no necesitaba para un experimento eléctrico que estaba realizando. Hertz descubrió que las chispas eléctricas creadas por el aparato eran más débiles sin la luz adicional; por tanto, la luz misma que incidía en la placa de metal estaba induciendo electricidad. A finales del siglo XIX se tenía asumido que esta electricidad estaba específicamente constituida por los electrones que se habían arrancado de los átomos por la energía aportada por la luz incidente.
En 1902, el físico alemán Philipp Lénárd identificó algunos problemas con la idea de Hertz. Lénárd creía, al igual que sus contemporáneos, que la luz era una onda. Consecuentemente, podrían esperarse algunos resultados: más cantidad de luz aportaría más cantidad de energía a los electrones; una luz débil necesitaría un tiempo para transmitir suficiente energía a los electrones del metal como para arrancar algunos; y las dos afirmaciones anteriores serían independientes de la frecuencia de la luz incidente. Lénárd descubrió que no pasaba nada de todo esto. Cuando hizo que rayos de luz cada vez más intensos incidiesen sobre el metal, la cantidad de electrones arrancados aumentaba, pero siempre parecían tener la misma cantidad de energía. Además, los electrones comenzaban a escaparse en el momento en que la luz alcanzaba la placa, a no ser que la luz fuese de baja frecuencia, en cuyo caso no pasaba nada de nada. Lénárd hizo que estos problemas, con todo lujo de detalles y datos experimentales, fuesen conocidos públicamente (y ganó un premio Nobel por ello), pero no fue él el llamado a resolver el misterio.
Por otro lado, Max Planck también estaba trabajando con la radiación. Para resolver un conjunto de problemas completamente diferente, lanzó la hipótesis de que, quizás, la energía estuviese constituida por paquetes de tamaños específicos. En vez de un flujo continuo, la radiación estaría formada por “cuantos” de energía. En otras palabras, la radiación en vez de ser como un chorro de agua sería como una serie continua de pelotas de ping-pong. Al introducir esta idea, Planck consiguió que las matemáticas del trabajo que estaba realizando cuadrasen. Esto no quiere decir que Planck creyese necesariamente que la energía viniese realmente en paquetes discretos, al menos al principio pensó que esto no era más que un truco matemático que le había permitido salir de un atolladero.
Un truco matemático era la explicación física del efecto fotoeléctricoEinstein, por su parte, estaba dispuesto a aceptar que este truco matemático podría representar la realidad física. El 17 de marzo de 1905 publicó un artículo en el que partía de la hipótesis de que la luz no era una onda, sino que estaba constituida por partículas no demasiado diferentes a los propios electrones. Si se adoptaba este salto conceptual todo parecía tener sentido. En vez de que el rayo de luz añadiese energía continuamente a los electrones de la placa metálica, ahora había que interpretar el efecto fotoeléctrico como si cada fotón (el nombre que le daría en 1926 Gilbert Lewis al cuanto de luz) pudiese afectar solamente a un electrón cada vez. Esto explicaba los tres problemas fundamentales que planteaba el efecto fotoeléctrico.
El primer problema era que la incidencia de luz con mayor energía no correspondía a la expulsión de átomos con más energía. Con la solución de Einstein, se puede apreciar que cambiar la intensidad de la luz simplemente significa que hay más fotones. Más fotones significa que hay más electrones expulsados del metal, pero ello no implica que un electrón en concreto tenga más energía.
El segundo problema era que las ondas de baja intensidad no necesitaban más tiempo para arrancar los electrones del metal, sino que lo hacían inmediatamente. Esto podía interpretarse como que había menos fotones en el rayo de luz incidente. Si bien menor número de fotones significa menor número de electrones, un fotón individual no va a tener problemas expulsando a un electrón en el momento en que golpee la placa metálica. No hay necesidad de que múltiples ondas de energía se acumulen a lo largo del tiempo dándole finalmente al electrón energía suficiente para liberarse.
El tercer problema era que, en el marco de la teoría ondulatoria de la luz, uno no esperaría que un cambio en la frecuencia afectase al resultado, pero sí lo hacía. La explicación está en el hecho de que la cantidad de energía de cada fotón individual es directamente proporcional a su frecuencia. Por debajo de cierta frecuencia, un fotón simplemente no tiene energía suficiente como para arrancar un electrón, no importa el número de fotones que se estrelle contra la placa de metal (recordemos que el electrón no acumula la energía).
La teoría de Einstein no solo proporcionaba explicaciones a los problemas planteados por el efecto fotoeléctrico; también daba formas de ser comprobada experimentalmente. Su teoría implicaba que había una correlación entre la frecuencia de la luz y la energía dada a los electrones. Esta correlación era algo que podía medirse.
A pesar del hecho de que la correlación era verificable y que la hipótesis de Einstein explicaba satisfactoriamente el efecto fotoeléctrico, llevó bastante tiempo a la comunidad científica aceptar que no era solo un truco matemático. Incluso Einstein necesitó varios años hasta que se comprometió con la idea de que la luz era realmente un haz de partículas. Robert Millikan, una década más tarde, llevó a cabo experimentos con objeto de probar que la teoría era falsa y, a pesar de que los resultados apoyaban continuamente la hipótesis de los cuantos, Millikan siguió durante años negándose a creer que no existiese una explicación alternativa.
Para los años 20 del siglo pasado, se aceptaba (casi) universalmente que la luz estaba constituida por cuantos, a pesar de que también pareciera comportarse como una onda. Esta dualidad onda-corpúsculo fundamental se convirtió en uno de los pilares de la teoría cuántica, algo que ocupó mucho más la cabeza de Einstein que la propia teoría de la relatividad en los siguientes 30 años.
Referencia:
Einstein, A. (2005). Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt [AdP 17, 132 (1905)] Annalen der Physik, 14 (S1), 164-181 DOI: 10.1002/andp.200590004
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este artículo se publicó en Experientia Docet el 27 de junio de 2010.
El artículo Einstein y el efecto fotoeléctrico se ha escrito en Cuaderno de Cultura Científica.
Termoplásticos basados en resinas PAEK para la aviación eléctrica

El sector aeroespacial europeo emplea habitualmente materiales compuestos de plástico termoestable —también conocidos como composites basados en resina epoxi—, de bajo peso y alto rendimiento, en muchas aplicaciones. Sin embargo, estos materiales no son tan resistentes a las altas temperaturas como los componentes metálicos de las aeronaves, lo cual puede comprometer la seguridad en situaciones en las que se alcancen temperaturas extremas. Con el objetivo de mejorar el comportamiento de los actuales composites termoestables ante las exigencias de la cada vez mayor electrificación de la aviación, el equipo de investigación HITCOMP (High Temperature Characterization and Modelling of Thermoplastic Composites), coordinado por la Universidad Carlos III de Madrid (UC3M) ha planteado una alternativa: el uso de nuevos materiales termoplásticos basados en resinas PAEK.
Las resinas PAEK (siglas en inglés de poliariletercetona) constituyen una familia de plásticos semicristalinos en la que se forman cadenas de anillos de benceno con dos sustituciones (grupos arilo, fenilenos) unidos por eslabonaes que contienen oxígeno: alternativamente éter (R-O-R) y cetona (R-CO-R). Su temperatura de procesamiento está en el rango de 350-450 ºC. Suelen emplearse en impresoras 3D. Esta técnica ya tiene amplio uso aeroespacial.
«El sector aeroespacial está en proceso de transición hacia un avión más eléctrico. Esto implica más fuentes de calor y eventualmente de fuego, aumentando el efecto térmico sobre la estructura. En este marco, nuestro proyecto tiene como objetivo establecer una metodología innovadora que permita una caracterización de los termoplásticos que implique menos recursos y mejore la predicción de su comportamiento y resistencia cuando se someten a cargas mecánicas o a eventos de fuego y altas temperaturas».
Fernando López, investigador principal y coordinador del proyecto HITCOMP. Departamento de Física de la UC3M
En el transcurso del proyecto HITCOMP se ha demostrado que los componentes fabricados con una base termoplástica son más eficientes, desde el punto de vista de sus propiedades térmicas, que los composites termoestables. Una propiedad conocida que los hace muy útiles es que se pueden volver a fundir, moldear, procesar y reciclar, sin necesidad de ningún proceso de curado adicional para endurecerse y fraguar. Además, son materiales más versátiles, baratos y ecológicos que los composites termoestables convencionales y tienen una vida útil mayor, gracias a su alta capacidad de recuperación —pueden reciclarse o repararse con mayor facilidad— y su resistencia a la fatiga —el desgaste por uso— y la corrosión. La introducción de estos materiales supondría contar con aviones más seguros y ligeros, que consuman menos combustible, aprovechen mejor la energía y reduzcan sus emisiones.
Para sacar el máximo partido a los termoplásticos en la industria aeroespacial, dada su tendencia a fundirse y deformarse a altas temperaturas, hay que caracterizar su comportamiento cuando son sometidos a sobrecalentamientos, al fuego y a cargas mecánicas. Para conseguir mediciones precisas y no intrusivas de la temperatura real de los materiales durante las pruebas de fuego, el proyecto HITCOMP ha desarrollado un laboratorio de ensayos con técnicas novedosas de termografía infrarroja. El objetivo final es realizar ensayos virtuales de los termoplásticos y comparar sus prestaciones en aplicaciones reales con las de los composites termoestables convencionales.
Las medidas obtenidas mediante termografía infrarroja permiten realizar simulaciones por ordenador, que virtualizan los ensayos para seleccionar este tipo de materiales en la industria aeronáutica. Se espera que con su aplicación «disminuya notablemente el número de ensayos de validación, que son obligatorios y que encarecen y retrasan enormemente la aprobación de este tipo de materiales en la industria». A día de hoy, ya se han transferido a Airbus los modelos y equipos infrarrojos para que pueda estudiar su aplicación industrial.
Durante el proceso de investigación, el equipo también ha desarrollado un nuevo método —inspirado en los resultados previos del Laboratorio de Sensores, Teledetección e Imagen en el Infrarrojo de la UC3M (LIR-InfraRed LAB)— que permite utilizar estas técnicas de imagen infrarroja para determinar, a distancia y sin contacto, las propiedades térmicas de estos materiales.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Termoplásticos basados en resinas PAEK para la aviación eléctrica se ha escrito en Cuaderno de Cultura Científica.
La exploración de Zelandia, el continente sumergido
Laia Alegret
Zelandia es todo un continente oculto bajo las aguas del Pacífico, del que únicamente aflora una mínima parte: las islas de Nueva Zelanda y Nueva Caledonia.
El séptimo continente, que aún no figura en los libros de texto, se separó de Australia y de la Antártida hace unos 80 millones de años. Tras aquella separación sufrió importantes movimientos verticales, con momentos en los que estuvo sumergido a miles de metros de profundidad y otros en los que ascendió hasta la superficie. En la actualidad está escondido bajo el mar en un 94 %.
En 2017 se reconoció oficialmente como un continente, y ese mismo año España participó en una expedición internacional para explorarlo en detalle.
Entonces recibí una carta aceptando mi solicitud para participar como científica en una expedición internacional para explorar ¡un continente!

En pleno siglo XXI, cuando la atención general está puesta en las misiones espaciales, parecía impensable que todavía quedara un continente prácticamente desconocido: Zelandia.
La razón por la que no se conocía es que se encuentra sumergido, casi por completo, a más de 1 000 m de profundidad bajo las aguas del Pacífico. Solo afloran sus montañas más altas, las islas de Nueva Zelanda y Nueva Caledonia, que apenas constituyen un 6 % de su superficie.

Imagen: World Data Center for Geophysics & Marine Geology (Boulder, CO), National Geophysical Data Center, NOAA, Public domain / Wikimedia Commons
Como geóloga, la participación en esta expedición era una oportunidad única, comparable a las gestas de los descubridores de siglos pasados cuando exploraban mares y tierras desconocidos.
Pero en aquel momento quizás no fui consciente de la gran suerte que tuve de ser aceptada en el equipo como investigadora española. Algo que no podrá volver a repetirse. En 2022, la participación de España en el consorcio que financia estas expediciones de perforación submarina ha sido suspendida, tras 5 años sin abonar su cuota. Esto frena nuestra participación en un mar de descubrimientos.
La expedición a bordo del Joides ResolutionEl 27 de julio de 2017 el buque Joides Resolution partía del puerto de Towsnville (Australia) para extraer sondeos del fondo marino y estudiar en detalle el séptimo continente. Los otros seis, desde el punto de vista geológico, son Eurasia, África, Norteamérica, Sudamérica, Australia y la Antártida. A bordo, 32 científicos de 12 países diferentes, técnicos de laboratorio, sondistas, el personal y la tripulación del barco… hasta un total de 146 personas.

Durante dos meses navegamos por el mar de Tasmania perforando sondeos, lanzando cilindros huecos al fondo marino y recuperándolos rellenos del sedimento depositado a lo largo de 70 millones de años. Trabajamos en turnos de 12 horas, los 7 días de la semana, haciendo frente a los fenómenos meteorológicos y a los problemas técnicos derivados de una campaña que fue pura exploración.
Cada científico estudiaba un aspecto de las muestras en los laboratorios del barco. Los paleontólogos estudiábamos los miles de fósiles microscópicos que aparecían, mientras reforzábamos los abdominales al tratar de mantenernos erguidos frente al microscopio con el fuerte oleaje del mar de Tasmania. Pero siempre con la convicción de que estábamos haciendo un nuevo descubrimiento con cada núcleo de sedimento que llegaba al barco.
Recuperamos más de 3 kilómetros de sondeos y llegamos a perforar a casi 5 kilómetros de profundidad bajo la columna de agua.
El 26 de septiembre de 2017 desembarcamos en Hobart (Tasmania). Aún recuerdo las bromas sobre la novedad de volver a caminar y vivir en tierra firme. Desde entonces, los 32 científicos hemos seguido colaborando en el estudio de Zelandia.
Los análisis del sedimento depositado a lo largo de millones de años en los fondos marinos han permitido reescribir la historia geológica de un continente, Zelandia, y entender su relación con los movimientos de las placas tectónicas, los riesgos geológicos y el cambio climático.
Reescribiendo la historia de ZelandiaAl contrario de lo que se pensaba, hemos demostrado que, desde que Zelandia se separó de Australia y de la Antártida hace 80 millones de años, ha sufrido grandes movimientos verticales, con momentos en los que hubo tierra firme y otros en los que se hundió a miles de metros de profundidad.
Esto lo hemos deducido a partir de los fósiles microscópicos encontrados. El grupo estrella para reconstruir la profundidad de las aguas es el de los foraminíferos bentónicos, unos organismos unicelulares que protegen su única célula mediante una concha. Ocupan el mayor hábitat del planeta, los fondos marinos desde las playas hasta las llanuras abisales, y sus miles de especies son diagnósticas de la profundidad. Algunas de las muestras de Zelandia contienen especies típicas de medios profundos, mientras que en otras muestras predominan las especies características de playas someras, e incluso otros fósiles procedentes de tierra firme como restos de plantas, polen, esporas e insectos.

Laia Alegret
Estos movimientos se han relacionado con la subducción de la corteza oceánica del Pacífico por debajo de la corteza continental, un proceso que genera fricción de materiales, calor, riesgos geológicos como terremotos, maremotos y vulcanismo, y que también conduce a la formación de recursos minerales.
El océano Pacífico está prácticamente rodeado por zonas de subducción, que conforman el Anillo de Fuego del Pacífico. Los procesos de subducción se producen hoy en día en multitud de lugares del planeta, incluido el Mediterráneo, y el estudio de Zelandia ha sido fundamental para conocer mejor cómo se desarrollan.
En Zelandia encontramos también sedimentos clave para la investigación sobre el cambio climático. En los sondeos hemos identificado eventos de calentamiento global ocurridos en el pasado y que pueden ser empleados para mejorar los modelos predictivos del actual cambio climático. Estos y otros resultados se están publicado en revistas científicas de primer nivel y han propiciado el desarrollo de más proyectos y colaboraciones internacionales. La investigación de las muestras de Zelandia sigue en marcha, y dará lugar a muchos más descubrimientos.
Punto final a la participación de EspañaDesde 1968, los programas internacionales de perforación oceánica han recuperado sondeos de los fondos oceánicos para dar respuesta a preguntas fundamentales sobre el funcionamiento de nuestro planeta, las fuerzas que lo gobiernan, los cambios climáticos, la vida y la evolución.
La colaboración internacional contribuye no sólo a financiar las expediciones, sino también a formar grupos multidisciplinares de científicos que trabajan con objetivos comunes. Dicen que la unión hace la fuerza, y estos programas benefician a la comunidad global, a los países que participan y a los científicos, que establecen lazos de colaboración muy estrechos en redes internacionales.
España participa en los programas internacionales de perforación oceánica a través del consorcio europeo ECORD, que recibe aportaciones económicas de cada uno de sus países integrantes. La contribución española era de las más modestas del consorcio, pero permitía que científicos de centros españoles participaran en las expediciones y en los comités científicos asesores.
En 2017 dejó de contribuir al programa y desde entonces el Ministerio de Ciencia e Innovación no ha solventado la situación, por lo que la participación de España ha sido finalmente suspendida en marzo de 2022. Sería deseable que el Gobierno de España llegara pronto a un acuerdo que nos permita volver a participar en todo un mar de descubrimientos.
Sobre la autora: Laia Alegret es catedrática de paleontología de la Universidad de Zaragoza
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo La exploración de Zelandia, el continente sumergido se ha escrito en Cuaderno de Cultura Científica.
Día de Pi con BCAM Naukas 2022: Nicolás Moreno – Dime quién eres y te diré cómo te mueves
La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO proclamó el 14 de marzo Día Internacional de las Matemáticas.
Un año más, el Basque Center for applied Mathematics-BCAM y la Cátedra de Cultura Científica de la UPV/EHU se han suamdo a la celebración, organizando la tercera edición del evento BCAM-NAUKAS, que se desarrolló a lo largo del 14 de marzo en el Bizkaia Aretoa de la UPV/EHU.
Nicolás Moreno, que es investigador postdoctoral en el BCAM, se dedica, entre otras cosas, a las simulaciones de flujos en nanocanales. En esta charla nos cuenta una historia basada en hechos virales (de virus), en la que cualquier parecido con la realidad es pura ciencia.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Día de Pi con BCAM Naukas 2022: Nicolás Moreno – Dime quién eres y te diré cómo te mueves se ha escrito en Cuaderno de Cultura Científica.
Biomarcadores para determinar los hábitos del pastoreo neolítico
El grupo de investigación METABOLOMIPs de la UPV/EHU ha utilizado como biomarcadores los ácidos biliares y las hormonas de los depósitos de la cueva de El Mirador de Atapuerca, empleada como redil en la prehistoria, para determinar los hábitos del pastoreo neolítico.

En el Neolítico surgieron y se generalizaron la agricultura y el pastoreo, y a través de ellos se desarrollaron las sociedades agrarias. Las cuevas y abrigos rocosos comenzaron a utilizarse como corrales para el ganado. Una práctica de pastoreo habitual en todo el Mediterráneo, desde el Neolítico hasta la Edad del Bronce, era la quema del estiércol acumulado en las cuevas y abrigos rocosos de los rebaños para limpiar estos lugares, eliminar los parásitos, etc. Esta quema continua produjo una acumulación de diversas capas de sedimentos orgánicos y minerales que se denominan fumiers.
Los ácidos biliares de las capas que quedaron sin quemar en los fumiers permiten a los investigadores saber qué especies resguardaban en el redil, debido a que la composición de los ácidos biliares es diferente en cada especie. También dan una idea del tamaño el rebaño porque existe una proporcionalidad con la cantidad de ácidos biliares.
Por otra parte, el grupo de investigación METABOLOMIPs de la UPV/EHU ha empleado biomarcadores hormonales para conocer mejor cómo manejaban los rebaños los pastores prehistóricos. “Las proporciones hormonales son diferentes si las ovejas están en periodo de gestación, lactancia o cualquier otra situación”, explica Asier Vallejo, doctor de la UPV/EHU.

“En los trabajos arqueológicos de la cueva de El Mirador, situada en la Sierra de Atapuerca (Burgos), se habían encontrado muchos restos óseos animales, y presumían que se dividía el rebaño, porque en una parte de la cueva hay una mayor cantidad de huesos de cordero”, explica el autor principal del estudio. El análisis de los biomarcadores hormonales permitiría saber “si realmente la actividad hormonal era mayor en dicha parte. Y así fue”, añade.
El método analítico utilizado para ello no es especialmente novedoso, pero “la idea ha sido innovadora. Es la primera vez que se estudian biomarcadores hormonales para predeterminar cómo era el manejo de los rebaños de hace 6.000-7.000 años”, comenta el Dr. Vallejo. Los análisis de los ácidos biliares proporcionan una idea de la cantidad de cabezas de ganado del rebaño: “Cuanto más ácido biliar haya habido, más cabezas de ganado. Esto lo utilizamos para normalizar la concentración de progesterona en el estiércol. Si el rebaño es grande, el nivel de progesterona también será alto; sin embargo, si el rebaño es pequeño y el nivel de progesterona es alto, esto quiere decir que en esa parte de la cueva se situaban las ovejas en periodo de gestación y lactancia”. Por lo tanto, “hemos cruzado las hipótesis de los estudios arqueológicos y las nuestras, y coinciden. Hemos confirmado sus hipótesis”, afirma.
Actualmente, se está realizando un estudio similar en una zona de Sicilia. El grupo quiere avanzar buscando biomarcadores más precisos que permitan, por una parte, reconocer fácilmente el tipo de animales que estabulaban en los abrigos prehistóricos, ya que “a menudo los animales estaban entremezclados y en algunos casos no es fácil diferenciar entre sí los biomarcadores”, y, por otro parte, determinar más fácilmente su estado hormonal.
Referencia:
Asier Vallejo, Jaime Gea, Ane Gorostizu-Orkaiztegi, Josep Maria Vergès, Patricia Martín, M. Carmen Sampedro, Alicia Sánchez-Ortega, M. Aranzazu Goicolea, Ramón J. Barrio (2022) Hormones and bile acids as biomarkers for the characterization of animal management in prehistoric sheepfold caves: El Mirador case (Sierra de Atapuerca, Burgos, Spain) Journal of Archaeological Science doi: 10.1016/j.jas.2022.105547
Para saber más:
La química analítica como base para el estudio de las prácticas pastoriles prehistóricas
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Biomarcadores para determinar los hábitos del pastoreo neolítico se ha escrito en Cuaderno de Cultura Científica.
Ártico y Antártico se calientan a la vez
Fernando Prieto
Las temperaturas récord en el Ártico y en el Antártico, unidas al desprendimiento de la plataforma Conger de 1.200 kilómetros cuadrados el 15 de marzo en la Antártida oriental, son una seria llamada a priorizar las medidas para proteger el clima. Este hecho nunca había sucedido. Es una advertencia que debería poner en alerta a los políticos y decisores para, de una vez, reducir las emisiones de gases de efecto invernadero y tomar medidas de adaptación de una vez por todas.

La ola de calor de la segunda semana de marzo tanto en el Ártico como en el Antártico llevó a temperaturas de hasta 40 °C por encima de lo habitual para esta época del año. Hasta ahora este fenómeno se había registrado solo en el Ártico, pero no había llegado a la Antártida y jamás en los dos polos a la vez. Así lo señala una de las autoridades mundiales en el campo, Carlos Duarte, de la Tarek Ahmed Juffali Research Chair in Red Sea Ecology.
En Groenlandia, las anomalías alcanzaron los 10 °C por encima de la media, y en la región Ártica llegaron hasta los 30 °C por encima de los valores habituales. La disminución del albedo hace que aumente la radiación absorbida y, como consecuencias, las temperaturas.
En el Ártico, esta subida de temperaturas continuada, unida al aumento de olas de calor registrado, está relacionada con el deshielo del permafrost que aumentará las emisiones de metano y puede desencadenar uno de los temidos puntos de no retorno.
En la Antártida, en la base de Concordia, situada a 75 grados sur de latitud, se registraron 40 grados de temperatura por encima de la media. Si por esas fechas lo habitual son unos -55 °C, el pasado 18 de marzo los termómetros marcaron -12 °C. Si este aumento de temperaturas sucede de manera continuada produciría una fusión masiva del hielo que aumentaría la cantidad de agua líquida en el océano y, en consecuencia, un aumento del nivel del mar.
Así como en el Ártico no existe ninguna duda sobre el proceso, en la Antártida sí ha habido polémica entre la comunidad científica sobre la variación de las masas de hielo, si bien las últimas investigaciones publicadas en Nature entre 1992 y 2017 apuntan a que a largo plazo existe una disminución del hielo.
La Antártida perdió 2.720 ± 1.390 mil millones de toneladas de hielo entre 1992 y 2017, lo que corresponde a un aumento del nivel medio del mar de 7,6 ± 3,9 milímetros. El desprendimiento citado de la plataforma de hielo coincide con el hecho de que la extensión de hielo marino en la Antártida mostró su nivel más bajo desde que hay registros para el mes de febrero de 2022. Se encontraría por debajo de los 2 millones de kilómetros cuadrados, según cita la Oficina Meteorológica de Australia.
Efectos cascada en otras partes del planetaLa consecuencia de que se desestabilice el clima en las zonas polares puede ser un efecto dominó de cambios a escala planetaria. Esto puede generar un cambio climático abrupto, ya que estas regiones tienen un papel crítico en la regulación al sistema climático global, así como respecto al nivel del mar.
Los eventos meteorológicos extremos son pruebas del calentamiento global y como este puede originar cambios irreversibles. Si se mantiene en el tiempo el aumento de las temperaturas detectadas en los polos, cambiará la circulación de las masas de aire y tendrá repercusiones en latitudes medias.
En concreto, en la Península y en el Mediterráneo, además del aumento de temperaturas generalizado, puede haber un aumento de los fenómenos meteorológicos extremos como olas de calor, inundaciones, mayor irregularidad de precipitaciones, sequías o inundaciones.
La ciencia climática es todavía incapaz de predecir los puntos de no retorno, pero estas señales sí pueden indicar que podemos estar cerca de alguno de ellos, que como su propio nombre sugiere, pueden ser graves para la humanidad.

Por otra parte, las primeras estimaciones de las consecuencias de la guerra en Ucrania indican que las emisiones pueden subir un 14 % en el año 2022. Asimismo, ha determinado una falta de interés en todo el proceso del cambio climático, lo que ha generado una ruptura de acuerdos internacionales y de medidas conjuntas climáticas por parte de todos los países.
El primer informe importante del Panel Intergubernamental de Expertos sobre el Cambio Climático (IPCC) es de 1990 y desde entonces y hasta abril de 2022 se han sucedido hasta seis grandes de ellos recogiendo las mejores investigaciones mundiales con los mejores científicos sobre el clima. En 1997 se firmó el protocolo de Kioto con la finalidad de reducir las emisiones. En 2015 el Acuerdo de París y se aprobaron los 17 Objetivos de Desarrollo Sostenible. En noviembre de 2021 se celebró la 26 Cumbre del Clima de Glasgow con el mismo objetivo y en los últimos meses se ha presentado el último informe del IPCC con resultados cada vez más alarmantes.
Mientras, en 1990 la concentración de CO₂ en la atmosfera era de 350 ppm (partes por millón), lo que se considera un valor seguro. En la actualidad ya son más de 419, lo cual ya es un valor preocupante y no hace más que incrementar los efectos del cambio climático que se hacen notar en todos los rincones del mundo.
Las emisiones de CO₂ en 1990 a la atmosfera eran de 22,7 gigatoneladas (Gt) según Carbon Project y en 2020 ya se han alcanzado más de 36.4 Gt de CO₂, solo un 0.8 % menor que los valores pre pandemia que fueron de 36,7 Gt CO₂ en 2019. Con la guerra ya se está quemando mucho más carbón, más gas y países como el Reino Unido ya han anunciado que volverán a las perforaciones para extraer más petróleo del Mar del Norte.

Es sabido que las emisiones de combustibles fósiles son responsables de estos récords de temperaturas y del cambio climático. Sin embargo, las emisiones han seguido aumentando desde que existen datos, excepto en periodos muy puntales como la crisis de la antigua Unión Soviética, la crisis de Lehman Brothers o la reciente pandemia de la covid-19. Por todo ello, es evidente que es necesario reducir todas estas emisiones y volver a mirar arriba para replantearse los temas realmente importantes.
En resumen, hasta la actualidad, es la historia de un gran fracaso. Es hora de reducir las emisiones de una forma radical y sobre todo de adaptarnos con políticas valientes y basadas en la ciencia, para aumentar la resiliencia sobre todo con señales tan alarmantes como anomalías térmicas en ambos polos simultáneamente, señal clara de disrupciones del sistema climático global. Parar la guerra y mirar arriba para resolver los problemas del sistema climático son, sin duda, la única salida y la opción más inteligente.
Sobre el autor: Fernando Prieto es doctor en Ecología y director del Observatorio de la Sostenibilidad.
Una versión de este artículo se publicó en SINC.
El artículo Ártico y Antártico se calientan a la vez se ha escrito en Cuaderno de Cultura Científica.
El arte de la sencilla baldosa de Truchet
En la anterior entrada del Cuaderno de Cultura Científica Los embaldosados de Truchet y el puzle del diamante estuvimos hablando del diseño de patrones de embaldosado realizados con una sencilla baldosa, la conocida con el nombre de “baldosa de Truchet”. Esta es una baldosa cuadrada dividida por la diagonal en dos zonas triangulares de dos colores distintos, por ejemplo, gris y negro, como la que aparece en la imagen.

En el siglo XVIII los religiosos franceses, interesados por las matemáticas, Sébastien Truchet –en su artículo Memoria sobre las combinaciones (1704)– y Dominique Doüat –en su libro Método para hacer una infinidad de diseños distintos con cuadrados de dos colores separados por una línea diagonal (1722)– tomaron las cuatro orientaciones posibles de esta baldosa cuadrada bicolor, que vemos en la siguiente imagen, y realizaron un análisis combinatorio de los posibles patrones de teselados que se podían construir con ellas, del que hemos hablado en la anterior entrada.

Y como comentábamos entonces, el estudio de los patrones de embaldosado o teselado, y en particular también los realizados con la baldosa de Truchet, es un tema con interés tanto en el ámbito de la ciencia y la tecnología, como del arte y el diseño. De hecho, tanto Truchet, como Doüat, no solo realizaron el estudio combinatorio de estos patrones de teselados, sino que se preocuparon de mostrar hermosos diseños realizados con esta baldosa, como los que aparecen en la siguiente imagen.

Es sorprendente como con un elemento tan sencillo se pueden realizar tan hermosos y complejos diseños de patrones de embaldosado. El propio Sébastien Truchet explicaba en su artículo Memoria sobre las combinaciones (1704) que para su estudio combinatorio se había inspirado en las baldosas de cerámica utilizadas para la decoración de un castillo que había visitado en uno de sus viajes, como hemos recogido en la entrada Los embaldosados de Truchet y el puzle del diamante. En la siguiente imagen se muestran, aunque no los azulejos que vio el religioso matemático en su viaje, sí unos azulejos decorativos antiguos. Pertenecen a la Catedral Santa María de la Huerta de Tarazona, edificio religioso que empezó a construirse a mediados del siglo XII, que como en la mayoría de edificaciones de este tipo tuvo sus etapas de destrucción y reconstrucción. Los azulejos pertenecen a las reconstrucciones de los siglos XV y XVI, de estilo mudéjar.

Así mismo, en la anterior entrada comentamos la presencia de estos cuadrados bicolor en el arte textil de los quilts. Pero también podemos ver como algunas artistas contemporáneas han utilizado, y siguen utilizando, estas ideas en sus obras de arte.
Las baldosas de Truchet en el arte contemporáneoPor ejemplo, la artista noruega Josefine Lyche ha diseñado dos instalaciones con los patrones de teselado de las baldosas de Truchet que están relacionadas con el teorema del diamante en su versión 2 x 2 (véase Los embaldosados de Truchet y el puzle del diamante), que son The 2×2 Case (Diamond Theorem). After Steven H. Cullinane (2011) y The 2×2 Case (Diamond Theorem) II. After Steven H. Cullinane (2011). Estas obras consisten en la realización de los 24 diseños de embaldosados cuadrados de tamaño 2×2 que contienen las cuatro orientaciones distintas (A, B, C y D) de la baldosa cuadrada bicolor. La primera de ellas –que vemos en la siguiente imagen- realizada sobre una pared blanca con espejos que reflejan la luz dirigida hacia ellos en el lugar de exposición, una sala a oscuras, mientras que la segunda versión consiste en piezas realizadas en pintura acrílica sobre lienzo, en lugar de espejos.

La artista abstracta estadounidense Heather Jones, cuyo trabajo está inspirado en los diseños geométricos de los quilts tradicionales elaborados por las mujeres de ciertas regiones de Estados Unidos, ha creado algunas obras con esta estructura cuadrada dividida en dos triángulos coloreados. Por ejemplo, en la reciente exposición Storytellers / Contadoras de historias (2022) en el centro de arte contemporáneo de Dayton (Ohio), The Contemporary Dayton, dedicada a las mujeres desarrollaron el arte textil de los quilts, se ven algunas de estas obras, como las que vemos en la siguiente imagen: One way or another / De una manera u otra (2021), realizada en algodón cosido, destacando el color negro, y A time for change / Un tiempo para el cambio (2021), también en algodón cosido, destacando el color rojo.

O también, en la reciente exposición To Hold Tender This Land / Mantener joven esta tierra (2022) en la Galería David Richard de Nueva York se ha podido disfrutar de obras como la siguiente, titulada There was always light / Siempre hubo luz (2022).

Otra artista que utiliza este tipo de teselaciones es la francesa Ode Bertrand (1930) cuyo trabajo artístico está relacionado con la abstracción geométrica y el arte concreto, y que según sus palabras pretende “poner orden en el caos”. En una serie de obras, como la pintura Sin título (2015) que podemos ver en la siguiente imagen, añade a las cuatro teselas cuadradas bicolor blanco/negro, las dos teselas monocromáticas relacionadas, la tesela blanca y la negra.

Una artista que sigo a través de Instagram y cuyas obras, realizadas en lápiz sobre papel, son de una belleza geométrica inspiradora es la alemana Christiane Kaufmann (1983). Muchas de sus sencillas y hermosas creaciones nos recuerdan a la baldosa de Truchet, aunque muchos de sus cuadrados a lápiz son monocolor. En particular, la serie de obras titulada azul/rojo, de la que destaco esta pieza azul/rojo [25/10/2021],
Pintura azul/rojo [25/10/2021], de la artista alemana Christiane Kaufmann, realizada con lápices de colores sobre papel
que nos recuerda al diseño con baldosas de Truchet siguiente.
Preparando esta entrada del Cuaderno de Cultura Científica se me ocurrió una idea para realizar una obra plástica basada en la baldosa de Truchet y el número pi, cuyo boceto explico en las siguientes líneas. Para empezar, renombramos las cuatro orientaciones de la baldosa cuadrada tricolor –antes nombradas A, B, C y D- como 1, 2, 3, 0, como se muestra en la imagen.
La idea es realizar un patrón de embaldosado cuadrado de tamaño 12 x 12 que formará la estructura visual de la obra. Para determinar la colocación de las cuatro baldosas de Truchet orientadas utilizaré el número pi, es decir, el diseño no depende de mis preferencias personales. Con este fin, consideramos la expresión decimal de esta constante matemática (sobre esta puede leerse la entrada ¿Es normal el número pi?), pero no en la base decimal que utilizamos normalmente, sino en base cuatro (en la que utilizamos las cuatro cifras básicas 1, 2, 3, 0), ya que solo tenemos cuatro orientaciones posibles. La expresión del número pi en base cuatro es la siguiente (en una futura entrada del Cuaderno de Cultura Científica explicaremos cómo determinar la expresión del número pi, o cualquier otro número, en una base de numeración cualquiera, por ejemplo, cuatro):
3,02100333122
220202011220
300203103010
301212022023
200031300130
310102210002
103200202022
121330301310
000200232332
221203230103
212302021101
102200201321…
Solo hemos incluido los 144 primeros dígitos del número pi, en base cuatro, ya que nuestro patrón es un cuadrado de tamaño 12 x 12 y utilizaremos 12 x 12 = 144 baldosas cuadradas. Estas estarán determinadas por el correspondiente dígito de pi, en base cuatro, recorriendo el cuadrado fila a fila, de arriba a la izquierda, hacia la derecha en cada fila, hasta abajo a la derecha. Así la primera fila de nuestro diseño de embaldosado utiliza las baldosas que se corresponden con los primeros doce dígitos 3 0 2 1 0 0 3 3 3 1 2 2, como puede observarse en el diseño final que hemos obtenido y que se muestra en la siguiente imagen.

En esta entrada solamente hemos considerado el caso de los diseños con la sencilla baldosa de Truchet, aunque podríamos considerar las baldosas de Truchet en un sentido más amplio, pero eso será en otra ocasión. Mientras os animo a realizar vuestros propios diseños con cuadrados bicolor, ya sea con telas, lápices de colores, pinturas o con el ordenador.
Bibliografía:
1.- Cyril Stanley Smith (con la traducción del texto de Truchet por Pauline Boucher), The Tiling Patterns of Sebastian Truchet and the Topology of Structural Hierarchy, Leonardo, vol. 20, n. 4, pp. 373-385, 1987.
2.- Dominique Doüat, Méthode pour faire une infinité de desseins différents avec des carreaux mi-partis de deux couleurs par une ligne diagonale : ou observations du Père Dominique Doüat, Religieux Carme de la Province de Toulouse, sur un mémoire inséré dans l’Histoire de l’Académie Royale des Sciences de Paris l’année 1704, présenté par le Révérend Père Sébastien Truchet religieux du même ordre, Académicien honoraire [Método para hacer una infinidad de diseños distintos con cuadrados de dos colores separados por una línea diagonal], París, 1922.
* Facsímil (extractos) e introducción de Jacques André
* Obra completa en Gallica – Bibliothèque nationale de France
3.- Sebastien Truchet, Memoir sur les Combinaisons, Histoire de l’Académie Royale des Sciences de Paris, 363-372 (1704).
* Obra completa en Gallica – Bibliothèque nationale de France
4.- Angel Requena, Simetrías I en la Catedral de Tarazona, del blog MateTurismo, 2018.
5.- Página web de Josefine Lyche
6.- Página web de Heather Jones
7.- Página web de Christiane Kaufmann
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El arte de la sencilla baldosa de Truchet se ha escrito en Cuaderno de Cultura Científica.
Einstein y su educación formal
En contra de las leyendas populares, Einstein fue en realidad un buen estudiante. Lo que sí es cierto es que el sistema de educación convencional, que él calificaba como dictatorial, le frustraba y que su rebeldía contra él era una manifestación de su propia creatividad. Muchas de las personas que intentaron enseñar a Einstein durante su educación formal se encontraron frente a un joven muy inteligente, pero quizás demasiado aficionado a discutir.
Antes siquiera de que Einstein empezase el colegio, su madre, con objeto de darle un empujoncito para que comenzase con buen pie, contrató a una profesora particular. Einstein se aburría mortalmente con las lecciones y, todavía en esa época de la vida en la que las rabietas se entienden como normales, le tiró una silla a la maestra. No volvería y la madre terminó contratando a otra.
En el Volksschule (colegio público de primaria), para alegría de su madre, le fue bastante bien y, aunque la leyenda quiere que suspendiese matemáticas, la realidad es que fue un estudiante muy bueno.
Las cosas cambiaron un poco cuando empezó a asistir al Luitpold Gymnasium (colegio de secundaria que prepara para la universidad) en Múnich. Según Einstein, los profesores tenían “una naturaleza dictatorial”. Uno de ellos llegó a decir que la sonrisa arrogante de Einstein ya era irrespetuosa. Pero, a pesar del hecho de que Einstein, al igual que muchas personas de inclinaciones intelectuales, odiaba el deporte (área fundamental en la educación alemana), pasó por el colegio bastante bien.
Mucho del estímulo intelectual lo conseguía Einstein fuera de clase. Su tío Jakob procuraba que su sobrino se distrajese enseñándole álgebra. Un amigo de la familia, Max Talmey (en aquella época, Max Talmud), un pobre estudiante de medicina en la Universidad de Múnich, judío polaco acogido por la comunidad judía local, cenaba muchas noches con la familia Einstein, y le hablaba al joven Albert de medicina, matemáticas, ciencia y filosofía. No sólo eso, sino que también le prestaba libros: entre ellos el “sagrado librito de geometría” (los Elementos de Euclides) y la Crítica de la razón pura de Kant. [Talmey, ya con su apellido adaptado al ambiente anglosajón, terminaría siendo oftalmólogo en la ciudad de Nueva York y un gran divulgador de la obra científica de Einstein.]
La educación de Einstein tuvo un giro inesperado en 1894. El negocio de su padre quebró, por lo que la familia partió hacia Pavía (Italia) donde había un encontrado un empleo. Einstein se quedó en Múnich con la idea de terminar la educación secundaria. El joven Albert, sin guía y expuesto a la rigidez militar de sus profesores, no lo soportó mucho tiempo, por lo que dejó el colegio y sorprendió a sus padres presentándose en la puerta de su casa en Italia.
La educación universitaria de EinsteinSu madre, posiblemente preocupada porque su vástago no triunfase en la vida como le correspondía por su valía, movió todos los hilos que pudo para conseguir que a Einstein se le permitiese presentarse al examen de entrada del Eidgenössische Technische Hochschule (ETH), la Escuela Politécnica Federal de Zúrich (Suiza). Estos hilos no eran fáciles de mover. Fue finalmente un amigo de la familia, Gustav Maier, el que convenció al director, Albin Herzog, de que merecía la pena dejar que aquel “niño prodigio” lo intentase. Einstein se presentó al examen y, a pesar de tener dos años menos de la edad habitual de entrada (18) y carecer de un certificado de escuela secundaria, aprobó las secciones de matemáticas y ciencia, pero suspendió las demás.
La familia decidió entonces que Einstein se matricularía en la escuela cantonal de Argovia (Suiza) [Aargau en alemán]. Tras un año de estudios en el que se hospedó en casa de su profesor Jost Winteler, consiguió aprobar la Maturitätsprüfung, la prueba de madurez establecida como final de la educación secundaria y que le daba acceso al ETH [en la imagen el certificado; usa el sistema de calificación suizo de la época, en el que la máxima nota posible es un 6].
Einstein se unió al Departamento VI, la “Escuela de profesores especializados en las asignaturas de matemáticas y ciencias” del ETH, cuando todavía le faltaban seis meses para tener la edad mínima oficial de acceso. Einstein era uno de los cinco estudiantes de física en la universidad. La Politécnica había sido fundada en 1855 y en la época en la que se inscribió Einstein se la consideraba de inferior categoría a otras escuelas, especialmente a las alemanas, aunque fuera por el solo hecho de que no podía otorgar doctorados.
Los primeros años fueron muy buenos para el joven Einstein. Los resultados de los exámenes lo colocaban siempre en los primeros puestos de su clase pero, conforme se acercaba el final de sus estudios, su incapacidad para soportar la autoridad volvió a aparecer. Especialmente difícil fue su relación con Heinrich Weber que, según Einstein contase a su biógrafo Carl Seelig, llegó a decir: “Es usted un muchacho inteligente, Einstein, muy inteligente. Pero tiene usted un gran defecto: no deja usted que se le diga nada”.
Einstein había comenzado ya una relación amorosa con Mileva Marić cuando en 1900 la pareja dedicó las vacaciones de primavera a preparar sus disertaciones finales de graduación. Sus calificaciones fueron de mediocres a malas. Sobre un máximo de 6, Einstein obtuvo un 4,5 y Mileva un 4,0. Los exámenes finales no fueron mejores. El sistema de evaluación final tenía en cuenta las calificaciones en exámenes y los trabajos presentados. Einstein aprobó, el cuarto de cinco alumnos, con un 4,91. Mileva suspendió con un 4,0.
El testarudo y joven físico se sintió desilusionado con el mundo académico, pero sí continuó trabajando en su tesis doctoral. La ETH no ofrecía doctorados, pero se podía obtener uno simplemente mandando una tesis a la Universidad de Zúrich. En septiembre de 1901 Einstein envió una tesis sobre un tema de la teoría cinética de gases. Esta tesis no prosperó. Se desconoce si Einstein la retiró o si no fue aceptada (los historiadores no han podido encontrar la respuesta de la universidad).
Mientras Einstein luchaba por encontrar un empleo, y subsistía dando clases particulares, siguió trabajando en su segunda tesis. El tema esta vez era sobre cómo usar el movimiento browniano para medir el tamaño de los átomos. Con la estabilidad que le daba el empleo que había encontrado en la Oficina Federal de Patentes en Berna, pudo avanzar en ella. Envió finalmente la tesis a la Universidad de Zúrich a comienzos de 1905. Paralelamente, Einstein mandó una versión de la misma a la principal revista alemana, Annalen der Physik, que fue publicada prácticamente a la vez que era aceptada por la Universidad de Zúrich, en abril de 1905. Einstein tenía finalmente su doctorado.
Einstein le contó la siguiente anécdota a Seelig: “Un día recibí un sobre grande en la oficina [de patentes], que contenía una elegante hoja de papel con algunas palabras en una tipografía pintoresca (creo incluso que era latín) que me pareció impersonal y carente de interés, por lo que terminó en la papelera”. Solo más tarde alguien le diría que aquella hoja de papel era su título de doctor y que, además, en el sobre había una carta invitándole a la ceremonia de graduación.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este artículo se publicó en Experientia Docet el 4 de julio de 2010.
El artículo Einstein y su educación formal se ha escrito en Cuaderno de Cultura Científica.
¿Por qué las caras de la Luna son tan diferentes?
Creo que sin excepción todos hemos mirado alguna vez a nuestra Luna y nos ha llamado la atención las irregularidades que incluso a simple vista son evidentes. Quizás la más vistosa de todas es la presencia de dos colores bien diferenciados, el blanco y el gris, que salpican la superficie creando formas caprichosas, acompañadas de numerosos cráteres de impacto.
Pero desgraciadamente, desde la Tierra solo podemos ver una parte de la superficie, la que conocemos como «cara visible», y menos de un veinte por ciento de la que llamamos «cara oculta”, cuya geografía y geología es muy diferente de la primera.
No fue hasta el año 1959 cuando pudimos ver por primera vez la cara oculta de la Luna gracias a las imágenes tomadas por la sonda soviética Luna 3. A lo largo de los años sesenta, especialmente a partir de la segunda mitad, la pudimos estudiar con un mayor nivel de detalle gracias al creciente número de misiones lunares y una mejor tecnología.
Las diferencias entre las caras de la Luna
Al examinar estas imágenes los científicos se dieron cuenta de que había grandes diferencias entre ambas caras. Propusieron distintas explicaciones a este hecho, a veces no exentas de controversia, pero que anticipaban que la historia de la Luna iba a ser mucho más interesante de lo que habíamos pensado a priori.
¿Y cuáles son estas diferencias? La más evidente es la proporción entre los mares lunares y las zonas más claras del terreno. Mientras que en la cara visible los mares representan aproximadamente un tercio de su superficie, en la cara oculta únicamente cubren alrededor de un uno por ciento. Además, la menor presencia de mares lunares hacía de la geografía de la cara oculta un lugar mucho más agreste y aparentemente con un mayor número de cráteres.
¿Pero qué son los mares? Los mares lunares, lejos de ser mares de agua como serían los de nuestro planeta, en realidad son grandes llanuras cubiertas por lava formadas como resultado de grandes colisiones de asteroides contra la superficie de la Luna y las erupciones volcánicas provocadas por estos.

Tenemos que imaginarnos que las colisiones más energéticas y violentas eran capaces no solo de crear cráteres de grandes dimensiones, sino que podían fracturar la corteza lunar, facilitando que partes fundidas del manto fluyesen hacia la superficie, y rellenando estos cráteres con el material que ascendía.
Pero, entonces, ¿cómo podemos explicar esta diferencia? ¿Acaso no habrían ocurrido grandes impactos en la cara oculta de la Luna o es que hay otro mecanismo en juego y que no hemos podido atisbar hasta ahora?
El misterio de la Cuenca AitkenLa pasada semana se publicaba un artículo en la revista Science Advances que intenta dar una respuesta definitiva a estas preguntas: En el polo sur de la Luna existe la llamada Cuenca Aitken, un gigantesco cráter de impacto que alcanza los casi 2500 kilómetros de diámetro por más de 6 kilómetros de profundidad, y que se formó hace unos 4300 millones de años. De hecho, es el cráter más grande de la Luna y uno de los más grandes del Sistema Solar, probablemente el segundo más grande de todos los que conocemos.
Los autores afirman que la virulencia de este impacto fue tan grande que la energía liberada en forma de calor habría sido suficiente para alterar los patrones de circulación del manto lunar, debido a que el brusco aumento de la temperatura se habría ido propagando desde el lugar del impacto a todo el interior de la Luna.
A pesar de que fue un impacto de dimensiones realmente grandes, provocado por un cuerpo en el entorno de los 100 kilómetros de diámetro, sabemos que no llegó a profundizar más allá de la corteza lunar y, por lo tanto, llegar hasta el manto.
¿Cómo sabemos este detalle? Pues bien, las distintas misiones espaciales que han podido analizar la composición de esa zona de la Luna han podido comprobar que realmente todas las rocas que se ven tienen un mayor parecido composicional a las de la corteza que a las del manto, por lo que, de haber sido un impacto que realmente hubiese llegado hasta el manto, veríamos rocas con una composición diferente tanto dentro del cráter como desperdigadas hacia afuera del cráter, expulsadas por la brutal energía del impacto.
Esto quiere decir que el impacto probablemente ocurrió con un ángulo muy oblicuo y no “de frente”. Si se hubiese producido con un ángulo mucho más vertical, probablemente si hubiese llegado hasta el manto, haciendo que numerosas rocas quedasen exhumadas y otras fueran lanzadas a gran distancia.
Contados estos detalles del impacto, puede parecer que no tienen nada que ver con nuestra historia, pero probablemente condicionaron lo que ocurrió posteriormente. Justo debajo de la corteza lunar se estaban acumulando un conjunto de elementos químicos que conocemos como KREEP, y que se llaman así porque agrupan al potasio (K), tierras raras (REE) y fósforo (P). Junto a estos, también viajarían otros capaces de generar calor por el efecto de la desintegración radioactiva, como, por ejemplo, el torio.
Como dijimos antes, al ocurrir el impacto, el calor producido por este alteraría la circulación normal en el manto lunar, de tal manera que estos elementos que justo se acumulaban debajo de la corteza “se montaron” en esa nueva corriente de circulación por el manto y habrían llegado hasta la cara visible de la Luna.
Este hecho casa muy bien con las observaciones de la geoquímica lunar, tanto que concentraciones anómalas de estos elementos se pueden encontrar en algunos lugares de nuestro satélite, como Oceanus Procellarum, uno de los mares lunares más grandes.

Y es que, gracias al calor extra aportado por estos elementos, se habría producido un mayor grado de fusión en los materiales del manto, lo que, a su vez, habría generado un mayor volumen de magma disponible para salir a la superficie y acabar formando los mares a través de los sistemas de fracturas generados por los impactos de asteroides.
Sin duda es una hipótesis muy interesante y que a grandes rasgos parece cuadrar muy bien con las observaciones, aunque todavía falta mucho por conocer de la geología lunar, y por ejemplo, comprender por qué el espesor de la corteza de nuestro satélite es mayor en la cara oculta que en la visible, y si esto también fue un factor importante a la hora de que una esté más cubierta por mares que la otra.
Referencia:
Jones, M. J., Evans, A. J., Johnson, B. C., Weller, M. B., Andrews-Hanna, J. C., Tikoo, S. M., & Keane, J. T. (2022). A south pole–aitken impact origin of the lunar compositional asymmetry. Science Advances, 8(14).doi: 10.1126/sciadv.abm8475
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo ¿Por qué las caras de la Luna son tan diferentes? se ha escrito en Cuaderno de Cultura Científica.
Solo respira el domingo

“Por anómalo que parezca este es el caso exactamente de la ballena, que vive sistemáticamente con intervalos de una hora entera y más (cuando está sumergida) sin inhalar un solo respiro, ni absorber de ningún modo una partícula de aire, pues recordemos que no tiene branquias.” (Moby Dick, capítulo LXXXV).
La historia de la obsesión del capitán Ahab con la gran ballena blanca que al final provocó su muerte, el naufragio del Pequod, así como la pérdida de la tripulación (salvo Ismael), es una epopeya trágica. Pero es también una crónica de la vida en los balleneros del siglo XIX y, aunque pueda sorprender, un tratado de historia natural. Quizás por reunir en una sola obra tal diversidad temática, la novela de Herman Melville es el texto de mayor densidad de vocabulario de que se tiene constancia. En ningún otro hay tantas palabras diferentes en comparación con el total de vocablos. Moby Dick contiene abundante y, en gran parte, correcta información biológica, como la que encabeza este texto.
Los cachalotes se sumergen, en promedio, a unos 400 m de profundidad, inmersiones que se prolongan alrededor de 40 minutos. Pero pueden llegar hasta los 3000 m y permanecer bajo el agua casi dos horas. Gracias a ello dan caza, incluso, a calamares gigantes. Son grandes depredadores. A pesar de haber sido diezmados de forma severa por la caza a que fueron sometidos durante el siglo XIX y gran parte del XX, consumen, en la actualidad, unas cien mil toneladas de pescado al año, el equivalente a lo que pescamos los seres humanos.
Se necesitan características muy especiales para conseguir esas inmersiones, algunas compartidas con el resto de mamíferos, aunque desarrolladas en mayor grado, como el reflejo de inmersión. Al sumergirnos, el corazón late más lentamente y consume así menos oxígeno. A la vez, la circulación periférica se limita o suprime, dirigiéndose la sangre, sobre todo, al encéfalo, pulmones y corazón; la subida de presión arterial que podría producirse la contrarresta la menor frecuencia de latido y, en los mamíferos marinos, una expansión de la aorta que funciona como cámara de compensación. Además, el bazo, que alberga en su interior muchos glóbulos rojos llenos de oxígeno, se contrae y los vierte al sistema circulatorio.
En comparación con otros mamíferos, los cetáceos exhiben rasgos específicamente adaptados al buceo a gran profundidad. Antes de sumergirse respiran varias veces y, a continuación, expulsan todo el aire de sus pulmones. Minimizan así la formación de burbujas de nitrógeno en la sangre al despresurizarse en el retorno a la superficie. A cambio, cuentan con varios “depósitos de oxígeno”. Ya hemos citado los glóbulos rojos extra que aporta el bazo. Además, tienen más sangre que los demás mamíferos; y esa sangre tiene un hematocrito -concentración de glóbulos rojos- muy alto. Su concentración de mioglobina es diez veces más alta que la nuestra; la mioglobina es una proteína similar a la hemoglobina, localizada en las células musculares. Lo mismo cabe decir de la citoglobina (en diferentes tejidos) y neuroglobina (en el tejido nervioso).
Los cachalotes pasan la mitad de su tiempo haciendo inmersiones profundas, la cuarta parte sumergiéndose a poca profundidad, y la otra cuarta parte algo por debajo o por encima de la superficie del agua. Moby Dick era un cachalote de tamaño enorme, por lo que seguramente superaba los periodos de una hora de inmersión que le atribuye Melville y, lo que es más significativo, resulta ser cierto, metafóricamente, lo que el propio autor escribió en el mismo capítulo LXXXV: “el cachalote solo respira cerca de la séptima parte, el domingo de su tiempo.”
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Solo respira el domingo se ha escrito en Cuaderno de Cultura Científica.
Día de Pi con BCAM Naukas 2022: María Ángeles García-Ferrero – Imágenes matemáticas
La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO proclamó el 14 de marzo Día Internacional de las Matemáticas.
Un año más, el Basque Center for applied Mathematics-BCAM y la Cátedra de Cultura Científica de la UPV/EHU se han suamdo a la celebración, organizando la tercera edición del evento BCAM-NAUKAS, que se desarrolló a lo largo del 14 de marzo en el Bizkaia Aretoa de la UPV/EHU.
María Ángeles García Ferrero, que es investigadora postdoctoral en el BCAM, se dedica, entre otras cosas, a los problemas inversos. En esta charla nos presenta algunos en forma de imágenes, desde ingeniosos pasatiempos japoneses a sistemas biológicos.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Día de Pi con BCAM Naukas 2022: María Ángeles García-Ferrero – Imágenes matemáticas se ha escrito en Cuaderno de Cultura Científica.
Párkinson en una lágrima
Un estudio piloto liderado por la Dra. Elena Vecino, catedrática de Biología Celular y directora del grupo de investigación GOBE de la UPV/EHU, ha detectado potenciales biomarcadores de diagnóstico del párkinson en tan solo una lágrima.

La enfermedad de Parkinson es la segunda enfermedad neurodegenerativa más común después de la enfermedad de Alzheimer. Uno de los principales retos en el tratamiento de las enfermedades neurodegenerativas es encontrar marcadores clínicos que permitan la clasificación temprana de los pacientes y ayuden a monitorizar la progresión de la enfermedad. Actualmente una de las pruebas de detección de marcadores de párkinson se realiza mediante punción lumbar y extracción de líquido cefalorraquídeo, pero un estudio dirigido por la UPV/EHU intenta detectarlo por otra vía menos invasiva. “Como el párkinson afecta a varios sistemas no motores y a los nervios periféricos, la secreción lagrimal podría estar alterada en estos pacientes, y la composición de las proteínas lagrimales podría mostrar un perfil característico en estos pacientes que podría servir como biomarcador de diagnóstico”, explica la Dra. Elena Vecino, catedrática de Biología Celular de la UPV/EHU.
El grupo de investigación GOBE ha analizado por primera vez las lágrimas de pacientes con párkinson con el fin de detectar biomarcadores tempranos de la enfermedad. Se trata de un estudio pionero en la detección en cantidades muy pequeñas (unos 5 microlitros), dirigido por la Dra. Elena Vecino y codirigido por la Dra. Arantxa Acera, investigadora Ikerbasque, en el que ha sido fundamental la participación del neurólogo del Hospital de Cruces Dr. Juan Carlos Gómez y su equipo además de especialistas en Oftalmología del Hospital de Cruces, y el servicio de proteómica del CIC Biogune (la proteómica es el estudio a gran escala de las proteínas).
Este estudio piloto se ha realizado mediante el análisis comparado de las lágrimas de 27 personas control y 27 pacientes con párkinson en distintos estadios de la enfermedad. Los resultados apuntan a una alteración en una serie de proteínas implicadas en la función de los lisosomas, orgánulos celulares responsables de la degradación de sustancias en el interior de la célula. “Hemos localizado estos marcadores (proteínas) sobreexpresados en las lágrimas de pacientes con párkinson”, señala Vecino.
Según explica la catedrática, “la córnea, la parte transparente del ojo, es la estructura más inervada del organismo; la lágrima que baña esta estructura retiene, entre otras sustancias, las proteínas necesarias para mantener el estado de lubricación de nuestros ojos. Entre los cientos de proteínas, casi miles de proteínas, que se pueden detectar en una lágrima, hemos visto que hay una tendencia en unas cuantas a sobreexpresarse, es decir, que aparecen en mayor cantidad en los pacientes de párkinson”.
Detectar el párkinson en una lágrimaEste estudio ha sido el germen de un Proyecto Elkartek, liderado por la UPV/EHU, en el que, además del Hospital de Cruces, se han incorporado los servicios de Neurología y Oftalmología del Hospital Donostia para ampliar el número de pacientes participantes. Además, también se ha incorporado la empresa Tecnalia, con el objetivo de desarrollar un test de detección temprana de la enfermedad con los biomarcadores que sean caracterizados en el estudio de proteómica. Vecino destaca que en el estudio es fundamental la participación de los pacientes; “en particular es de especial importancia la participación de familias afectadas por párkinson congénito. En el País Vasco hay varias familias afectadas por mutaciones que inducen esta enfermedad y el conocimiento de los marcadores tempranos son de especial importancia para el conocimiento de las causas y posterior estudio del tratamiento”.
En opinión de la doctora, “la novedad de este estudio estriba en el análisis individualizado, porque vamos hacia la personalización de la detección de las enfermedades”. Pero afirma que todavía queda mucho por hacer: “Ahora tenemos que mirar por qué sucede la citada sobreexpresión, por qué las neuronas de los pacientes bloquean el mecanismo de los lisosomas. Pero eso lo tenemos que demostrar con más pacientes”. La investigadora se muestra optimista: “Hemos sido los primeros en detectar en una lágrima todas las proteínas que hay y queremos llegar a poder detectar precozmente la patología”. Asimismo, la investigadora afirma que “si esta metodología funciona, el siguiente paso sería poderla aplicar a alzhéimer y a otras enfermedades neurodegenerativas”, concluye.
Referencia:
Arantxa Acera, Juan Carlos Gómez-Esteban, Ane Murueta-Goyena, Marta Galdos, Mikel Azkargorta, Felix Elortza, Noelia Ruzafa, Oliver Ibarrondo, Xandra Pereiro, and Elena Vecino Potential Tear Biomarkers for the Diagnosis of Parkinson’s Disease—A Pilot Study Proteomes 2022 10,4 DOI: 10.3390/proteomes10010004
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Párkinson en una lágrima se ha escrito en Cuaderno de Cultura Científica.