Nuestro comportamiento ante un desastre natural y la importancia de la psicología de emergencias
César San Juan

La terrible situación que está sufriendo la isla de La Palma tras una devastadora erupción volcánica ha hecho más visible el papel de la denominada psicología de emergencias. Sobre todo, considerando el carácter errático, continuado e imparable de la lava contra cuyo avance no hay forma de hacer nada.
La investigación sobre desastres ha cuestionado las visiones tradicionales del comportamiento colectivo que se asocia a respuestas de pánico irracional, comportamientos antisociales, saqueos, etc.
Cabe pensar que, muy posiblemente, el éxito del cine de catástrofes sea, en alguna medida, responsable de la imagen social del comportamiento humano en situaciones críticas o catastróficas. Películas como El coloso en llamas, Poseidón, Terremoto y Vulcano, entre otras, han exagerado el lado más oscuro e irracional del comportamiento humano, solo dignificado en contadas excepciones por esos héroes que siempre aparecen corriendo en sentido contrario a una enloquecida muchedumbre.
Efectivamente, la evidencia empírica sostiene que la mayor parte de las personas afectadas por un desastre natural disponen de los suficientes recursos psicosociales para afrontarlo aunque, obviamente, habrá una casuística muy diversa en función del grado de exposición al desastre. Dicho en otras palabras, es muy distinto perder a un ser querido, perder la vivienda o, en una esfera más periférica, observar con inquietud, pero desde la lejanía, las explosiones de lava.
Los cuadros clínicos más frecuentes
En todo caso, es absolutamente imperativo que las administraciones garanticen las necesidades básicas materiales de los damnificados y la atención a las personas que, por diferentes motivos, van a precisar un acompañamiento más directo y, eventualmente, apoyo psicológico ya que, en caso contrario, se acabaran identificando cuadros de relevancia clínica, siendo los más frecuentes los siguientes:
- Síndrome de estrés postraumático. Reexperimentación del acontecimiento traumático. Evitación de los estímulos asociados al acontecimiento. Aumento de la activación motora. Puede aparecer ideación suicida.
- Síndrome de aflicción por catástrofe. Para las personas que han sufrido pérdidas considerables, las reacciones emocionales más probables son el dolor por la pérdida de seres queridos, de posesiones, de sustento, que se manifiesta en forma de tristeza, ira, ansiedad, nostalgia, sentimiento de desgracia, etc.
- Síndrome del superviviente. La irritabilidad, la ira y la agresión, que aumentan en los años siguientes al desastre, pueden cebarse con algunos supervivientes que no han podido gestionar lo que el resto de personas de su círculo se ha empeñado en considerar “buena suerte”. También los desórdenes físicos y la tasa de mortalidad aumentan entre los supervivientes.
- Efectos en los niños. En niños afectados por desastres se constatan comportamientos regresivos y un gran aumento de la dependencia.
Los recursos propios de los afectados
En definitiva, lo esencial para entender el impacto psicológico de una crisis de esta naturaleza es el desequilibrio que se produce entre las demandas planteadas al sujeto, enfrentado a una circunstancia excepcional, y sus propios recursos o capacidades para afrontarlo apropiadamente. Es muy característica la desazonante sensación de impotencia e ineficacia para resolver los problemas derivados del desastre y controlar las emociones desatadas en el propio sujeto.
Dicho esto, no obstante, tenemos que ser especialmente cuidadosos al interpretar las respuestas ante una situación catastrófica. Por ejemplo, sentimientos como temor, ansiedad, ira, frustración o culpabilidad inmediatamente después de la catástrofe, o durante su evolución, como el caso que nos ocupa, debemos interpretarlos como normales ante una situación anormal, y constituyen la parte dinamizadora de la reacción ante lo que está ocurriendo. Por tanto, se trata de una respuesta adaptativa. Una respuesta catatónica, pasiva o excesivamente dependiente tiene, en este sentido, un peor pronóstico.
También es muy habitual la búsqueda intensiva, pero irreflexiva, de soluciones. El sujeto focaliza su atención en el problema sobrevenido de manera abusiva, con las consiguientes pérdidas de atención respecto a otros asuntos vitales relacionados con el bienestar de los suyos o incluso su propia seguridad.
“¿Por qué me ha sucedido a mí esto?”
También dirige el sujeto su actividad cognitiva y fiscalizadora hacia sí mismo, haciéndose preguntas aparentemente esenciales pero objetivamente carentes de toda lógica como, por ejemplo, “¿por qué me ha sucedido a mí esto?” o “¿qué he hecho para ser merecedor de esta situación?”. Este tipo de reacciones son a las que nos referíamos con la necesidad de que reciban respuestas adecuadas en forma de acompañamiento y apoyo psicológico con el fin de evitar la vulneración del sujeto más a largo plazo.
Desde esta perspectiva, debemos señalar como flagrantes malas prácticas el insistente debate de estos días acerca de la idoneidad de construir viviendas en las faldas de volcanes activos o potencialmente activos.
Dejando al margen que las faldas de los volcanes de La Palma conforman, de hecho, prácticamente toda la superficie de la isla, sea como fuere, este momento es sin lugar a dudas el más inapropiado para debatir sobre el particular ya que solo puede contribuir a generar desolación e impotencia.
Ahora lo que toca es atender todas las necesidades materiales y psicosociales de la población afectada. Debe hacerse sin tregua porque el volcán no la está dando.
Sobre el autor: César San Juan es profesor de psicología criminal en el Departament de Psicología Social de la Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Nuestro comportamiento ante un desastre natural y la importancia de la psicología de emergencias se ha escrito en Cuaderno de Cultura Científica.
La distancia a las estrellas

El reto al que se enfrentan los astrónomos podría compararse, en muchos sentidos, al de un náufrago perdido en una isla desierta. Carcomido por la curiosidad, el pobre intenta averiguar cómo es el mundo que lo rodea, a qué distancia se encuentran los países y los continentes al otro lado del océano. Pero para ello solo cuenta con las botellas que van llegando a su orilla.
Como en el caso del náufrago, el objeto de estudio de los astrónomos está fuera de su alcance. La distancia de la mayoría de las estrellas a la Tierra es equiparable a la de un océano que solo se pudiese cruzar a nado. Pero incluso si algún día la tecnología (o la ciencia ficción) nos permitiesen llegar hasta ellas, superando las distancias de años luz, otros obstáculos nos impedirían alcanzarlas: la temperatura de su atmósfera o su enorme gravedad acabarían con la curiosidad del pobre náufrago.
Quizás por todos estos motivos, en 1835 el filósofo Auguste Compte escribió1:
“En cuanto a las estrellas, […] nunca podremos, de ningún modo, estudiar su composición química o su estructura mineralógica. Considero que cualquier idea sobre la verdadera temperatura media de alguna estrella nos será siempre negada”.
En efecto, todas estas cuestiones parecían irresolubles en la primera mitad del siglo XIX. Hasta entonces, el estudio de la astronomía se había basado en el movimiento y la posición relativa de las estrellas en el firmamento. El pobre náufrago se había pasado milenios anotando en sus cuadernos el punto exacto de la costa al que llegaban las distintas botellas y la variación de este punto respecto al tiempo. Así, dibujado sobre la arena, el cosmos era bidimensional. Una cáscara de naranja salpicada de pecas luminosas.
Este mapa del cielo nos permitió conocer la posición relativa de las estrellas respecto a la Tierra (nuestra pequeña isla azulada). Pero ni siquiera servía para esclarecer la distancia a la que se encuentran la mayoría de los astros. Y, por supuesto, no revelaba nada acerca de su “composición química o su estructura mineralógica”. Incluso un concepto tan básico y tan antiguo como el de las constelaciones, agrupa estrellas que nada tienen que ver entre sí, más allá de su cercanía aparente en el cielo nocturno. Responde al modelo mental de un náufrago, que va agrupando las botellas según se encuentran más próximas sobre la arena de su playa.
A pesar de las dificultades, algunos pensadores consiguieron calcular algunas de las distancias más próximas de este mapa. En el siglo III a.C. Aristarco de Samos logró estimar los tamaños relativos del Sol, la Luna y la Tierra, así como las distancias que los separan. Razonó que, durante la media luna, los tres cuerpos celestes deben situarse formando un ángulo recto con su vértice en la Luna. A continuación midió el ángulo entre el Sol y la Luna desde la Tierra y usó trigonometría para calcular el tamaño relativo de los lados del triángulo resultante. Su lógica era correcta, pero no contaba con los medios apropiados para medir en ángulo con suficiente precisión. Aristarco midió 87º cuando en realidad son 89º50’ (un ángulo mucho indistinguible de 90º a simple vista). Por eso concluyó, erróneamente, que el Sol estaba 19 veces más lejos del planeta que la Luna, y, puesto que el tamaño angular de ambos astros sobre el firmamento es similar, que debía de ser también 19 veces más grande. De hecho, el Sol es unas 400 veces más grande que la Luna.
Aristarco también calculó el tamaño relativo de la Tierra y la Luna. Para ello, se basó en la sombra del planeta sobre nuestro satélite durante un eclipse. Poco después, Eratóstenes pudo estimar el radio de la Tierra comparando la sombra proyectada por el sol a la misma hora en dos ciudades distintas. Ya en la Edad Moderna, el astrónomo Christiaan Huygens calculó la distancia de la Tierra al Sol basándose en las fases de Venus, usando un método similar al de Aristarco. Otros astrónomos lograron utilizar técnicas similares y otras, como la paralaje, para estimar la distancia a los demás planetas.
Sin embargo, todas estas técnicas eran relativamente limitadas en su alcance y no demasiado precisas. Por suerte, a mediados del siglo XIX, el panorama cambió radicalmente. Gracias a los avances de la óptica, fue posible estudiar por primera vez los espectros luminosos de las distintas estrellas y su brillo relativo. El náufrago decidió abrir las botellas de su playa y dentro encontró lo que casi todos encontramos al abrir el buzón: facturas de la luz.

Referencia:
1A. García Hernández. El camino hacia el interior de las estrellas. Revista IAA 34 (CSIC). 2011. Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científicaEl artículo La distancia a las estrellas se ha escrito en Cuaderno de Cultura Científica.
Construir un triángulo pitagórico doblando papel
Estos días estaba yo buscando información sobre los triángulos pitagóricos cuando he descubierto un curioso resultado geométrico, el conocido como primer teorema de Haga, un sencillo método para construir un triángulo pitagórico doblando una hoja de papel cuadrada. El objetivo de esta entrada del Cuaderno de Cultura Científica es explicar esta hermosa construcción.

Para empezar, recordemos que un triángulo pitagórico es un triángulo rectángulo, es decir, cuyos lados (a, b, c), siendo a y b los catetos y c la hipotenusa, no solo verifican la igualdad derivada del teorema de Pitágoras a2 + b2 = c2 (véase la entrada Pitágoras sin palabras), sino que son números enteros, como las ternas (3, 4, 5), (5, 12, 13) o (8, 15, 17).
Aunque debemos el estudio general del resultado geométrico conocido como teorema de Pitágoras y su demostración al matemático griego Pitágoras (aprox. 585-500 a.n.e.), lo cierto es que el resultado ya era conocido anteriormente en Babilonia, Egipto, India o China, quienes desarrollaron métodos para obtener ternas pitagóricas (números naturales (a, b, c) que satisfacen la ecuación a2 + b2 = c2) y las utilizaron para trazar ángulos rectos en construcción y agrimensura. Por ejemplo, el método chino consistía en coger dos números u y v (el primero mayor que el segundo) y obtener la terna pitagórica mediante las expresiones:
Para u = 3 y v = 1 se obtiene la terna pitagórica (3, 4, 5) que da lugar al triángulo egipcio o para u = 5 y v = 1 se obtiene la terna (5, 12, 13) cuyo triángulo rectángulo asociado se conoce como triángulo indio.

Pero vayamos con la construcción de un triángulo pitagórico doblando una hoja de papel cuadrada, el primer teorema de Haga, extraída del libro del octogenario biólogo japonés Kazuo Haga, Origamics, Mathematical Explorations through Paper Folding.
Para empezar, necesitamos una hoja de papel cuadrada. De forma natural, esto quiere decir que el plegado es reproducible, su resultado lo podemos obtener en cualquier otra hoja cuadrada, podemos doblarla de dos maneras distintas. Un plegado consiste en unir un lado del cuadrado con su opuesto lo cual da lugar a un pliegue por la mitad de la hoja, mientras que el otro consiste en unir un vértice del cuadrado con el vértice opuesto dando lugar a un plegado por la diagonal del cuadrado.
Para la construcción de Haga necesitamos marcar el punto medio de uno de los lados, lo cual se consigue fácilmente con el primer plegado comentado anteriormente, como se muestra también en la siguiente imagen (para quien quiera realizar la construcción en su casa), y después volver a desplegar la hoja volviendo a su posición cuadrada original.
El plegado que nos va a dar lugar al triángulo pitagórico consiste en coger el vértice de abajo a la derecha, cuando tenemos la hoja cuadrada desplegada, y situarlo sobre el punto medio del lado de arriba (como se muestra en la siguiente imagen), lo cual nos genera el plegado de la hoja cuadrada sobre una línea que va desde lado izquierdo al derecho.
El plegado realizado es el único que se necesita, pero vamos a comprobar que hemos generado tres triángulos rectángulos cuyos lados son proporcionales al triángulo egipcio 3:4:5. Para demostrar esto vamos a marcar una serie de puntos en la figura: los vértices del cuadrado A, B, C, D (empezando arriba a la izquierda y siguiendo el sentido contrario a las agujas del reloj), el punto medio E del lado AD, los puntos F, G en los que la línea de plegado toca a los lados laterales del cuadrado y el punto H marcado por la intersección del lado CB (que se convierte al plegarse en CI) con el lado BA al ser plegado sobre el anterior.
Lo primero que se podría observar en la imagen anterior es que los tres triángulos rectángulos generados sobre el papel cuadrado con el pliegue, AHE, DEF y IGH, son semejantes. Recordemos que dos triángulos son semejantes si tienen la misma forma, es decir, tienen los tres ángulos iguales, solo se diferencian por su tamaño.
Pero empecemos por el triángulo DEF y veamos que es proporcional al triángulo egipcio 3:4:5, es decir, tomando la hoja de papel cuadrada de un cierto tamaño obtendríamos el triángulo pitagórico 3:4:5. Consideremos que la longitud de los lados de la hoja de papel cuadrada es la unidad, 1. Si llamamos a (es nuestra incógnita) a la longitud del lado DF, entonces la longitud de FC es 1 – a, pero como FE = FC, por el plegado, tenemos que la hipotenusa del triángulo rectángulo DEF, el lado FE, tiene longitud 1 – a. La longitud del lado ED la conocemos, ya que E es el punto medio de AD, es 1/2. Si aplicamos ahora el teorema de Pitágoras al triángulo rectángulo DEF se tiene que
de donde se puede despejar y obtener el valor de a, que es a = 3/8. Por lo tanto, los lados del triángulo rectángulo tienen longitud 3/8, 1/2 y 5/8. Estas longitudes son proporcionales al triángulo 3:4:5, para lo cual basta multiplicar por 8, o dicho de otra forma, si el cuadrado original tiene lado igual a 8, las longitudes del triángulo rectángulo originado por esta doblez son 3, 4 y 5. ¡El triángulo pitagórico egipcio!.
Resultado 1 (teorema de Haga): el triángulo rectángulo DEF es proporcional a un triángulo pitagórico 3:4:5.
A continuación, razonemos sobre el triángulo AHE. Para empezar, el ángulo BCD, que es un ángulo recto, se ha convertido mediante el plegado en el ángulo IEF, luego también es recto. Por lo tanto, los ángulos DEF y AEH son complementarios, de donde se deduce que los triángulos DEF y AHE son semejantes, como se comentaba más arriba, es decir, uno es una ampliación –mediante un cierto factor- del otro. En consecuencia, el triángulo AHE es proporcional al triángulo DEF, luego también lo es un triángulo rectángulo con lados proporcionales a 3:4:5. Pero calculemos cual es esa proporción.
Por la proporcionalidad, tenemos que:
Como conocemos tres de las longitudes AE = 1/2 = DE y DF = 3/8, se obtiene la cuarta, AH = 2/3. Por lo tanto, BH = 1/3 y el punto H nos marca la trisección del lado BA (obteniendo así, de paso, una manera mediante plegado de dividir un segmento –en este caso BA– en tres partes iguales, ya que BH = 1/3 y si M es el punto medio de HA, entonces HM = MA = 1/3).
De nuevo, por la proporcionalidad de los lados de los triángulos AHE y DEF se obtiene que:
Conocemos tres de las longitudes, DF = 3/8, EF = 5/8 y AE = 1/2, luego se puede calcular la otra, HE = 5/6. Por lo tanto, las medidas del triángulo AHE, si el cuadrado original tiene lado 1, son 1/2, 2/3 y 5/6, proporcional al triángulo 3:4:5 multiplicando por 6. Más aún, el punto H nos da la sexta parte del segmento IE, ya que HI = 1 – 5/6 = 1/6.
Resultado 2 (teorema de Haga):
a) el triángulo rectángulo AHE es proporcional a un triángulo pitagórico 3:4:5;
b) el punto H es un punto de trisección del lado BA, BH = 1/3;
c) el punto H es un punto de “hexasección” del lado IE, HI = 1/6.
Finalmente, utilizando argumentos similares, es decir, la proporcionalidad de los triángulos semejantes y el teorema de Pitágoras, podemos obtener las medidas del tercer triángulo rectángulo IGH. En concreto, HI = 1/6, IG = 1/8 y GH = 5/24, que también es proporcional al triángulo 3:4:5, multiplicando por 24. Más aún, como GB = IG = 1/8, el punto G nos da la octava parte del segmento BA.
Resultado 3 (teorema de Haga):
a) el triángulo rectángulo IGH es proporcional a un triángulo pitagórico 3:4:5;
b) el punto G es un punto de “octosección” del lado BA, BG = 1/8.
Incluso, utilizando el teorema de Pitágoras podemos obtener la longitud del segmento GF, que es la hipotenusa del triángulo JFG (véase la imagen anterior), cuyo cálculo os dejo para vosotros.
En resumen, si consideramos una hoja de papel cuadrada de longitud 1, las medidas obtenidas tras el pliegue aparecen en la siguiente imagen.
Como hemos visto a lo largo de esta entrada, el primer teorema de Haga nos dice que mediante el plegado “del vértice al punto medio de uno de los lados contrarios” se obtienen tres triángulos rectángulos proporcionales al triángulo egipcio 3:4:5 cuyas medidas son a) 3/8, 1/2 y 5/8; b) 1/2, 2/3 y 5/6; c) 1/8, 1/6 y 5/24, de la longitud del cuadrado original. Por lo tanto, si tomamos una hoja de papel cuadrada de longitud 24 se obtienen tres triángulos pitagóricos de tamaño (9, 12, 15), (12, 16, 20) y (3, 4, 5), como aparece en la imagen.
Más aún, podemos observar que también es cierta la siguiente igualdad:
Resultado 4 (teorema de Haga): La suma de los perímetros de los triángulos DEF y IGH es igual al perímetro del triángulo AHE.
Este resultado, el primer teorema de Haga, a caballo entre el origami y la geometría euclídea, fue descubierto por Kazuo Haga en 1978, cuando trabajaba como biólogo especializado en morfología de artrópodos y utilizaba el origami como método para relajarse. Un año más tarde el físico japonés Koji Fushimi publicó en una revista japonesa el resultado de Haga etiquetándolo por vez primera como el “teorema de Haga”.
Bibliografía
1. Pedro Miguel González Urbaneja, Pitágoras, el filósofo del número, Nivola, 2001.
2. Kazuo Haga, Origamics, Mathematical Explorations through Paper Folding, World Scientific, 2008.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Construir un triángulo pitagórico doblando papel se ha escrito en Cuaderno de Cultura Científica.
El enamoramiento como droga de abuso

Es hielo abrasador, es fuego helado,
es herida, que duele y no se siente,
es un soñado bien, un mal presente,
es un breve descanso muy cansado.
Es un descuido, que nos da cuidado,
un cobarde, con nombre de valiente,
un andar solitario entre la gente,
un amar solamente ser amado.
Es una libertad encarcelada,
que dura hasta el postrero paroxismo,
enfermedad que crece si es curada.
Este es el niño Amor, este es tu abismo:
mirad cuál amistad tendrá con nada,
el que en todo es contrario de sí mismo.
Este texto es un soneto de Francisco de Quevedo. En lo que solemos llamar “cultura” un comentario del mismo podría ser algo tal que así. Habrá quien, leyendo esto, alabe la capacidad analítica del comentarista y su conocimiento de la teoría literaria. Sin embargo, la cultura científica aporta otra dimensión al poema que no le resta un ápice de su belleza formal y sí pone en valor la agudeza de su autor. Algo que hoy día lamentablemente solo es valorado por unos pocos. En lo que sigue vamos a intentar explicar en qué consiste esa otra dimensión.
Explicando el enamoramiento
Cupido, el niño arquero y enredante al que el poema se refiere como niño Amor, se supone que dispara flechas que hacen que la gente se enamore; pero hay poca evidencia científica de que esto sea así. Platón, en su línea, proponía una explicación muy bonita sobre la pérdida de la “otra mitad” que todavía atormenta a muchos adolescentes, y a otros que no lo son tanto, en forma de media naranja ideal; sin embargo, este argumento no pasa la revisión por pares. Otra posibilidad es recurrir a pociones al estilo de Tristán e Isolda, pero que nadie espere más resultados de este remedio que de los adivinos de la tele. Hasta aquí, las letras.
El hecho cierto es que el enamoramiento y sus síntomas, que Quevedo describe magistralmente, existen. Los antropólogos han llegado a la conclusión de que es una constante universal (o casi, siempre hay algo por comprobar): no existe cultura humana conocida en el planeta que no sepa de primera mano lo que es el enamoramiento.
Entonces, si es universal, debe existir una base biológica para él. En otras palabras, no puede ser simplemente una tradición cultural como el fútbol o los tatuajes. Habrá que echar un vistazo pues, sin ánimo de ser exhaustivos, a la acción de genes, neuronas y hormonas si queremos empezar a comprender el síndrome de enajenación mental transitoria al que se refiere Quevedo y que llamamos enamoramiento.
Casanovas y Marcillas
En este punto, y antes de seguir adelante, conviene dejar claro un aspecto importante. En lo que sigue se habla de apareamiento y de enamoramiento indistintamente, porque el enamoramiento no es más que la vestidura con la que disfrazamos el apareamiento. Como apuntábamos más arriba, el enamoramiento es una alteración mental (una enajenación) que dura un tiempo (transitoria) que idealiza al otro, rebaja el riesgo percibido y favorece, en última instancia, la procreación.
Todos conocemos especies en las que las parejas se forman para toda la vida de los individuos y otras en las que la promiscuidad es la regla. Los humanos oscilamos entre el “amor cortés” (platónico) de Dante por Beatriz (en la imagen) y todo lo contrario. Esta “elección”, ¿es algo espiritual, platónico, trascendente o es biológico, genético?
Naturalmente, si hay un fenómeno biológico que se encuentra entre la inmensa mayoría de los individuos de una especie lo que cabe pensar es que esté predeterminado de una forma o de otra en los genes. El problema con el enamoramiento es que es un fenómeno complejo, muy probablemente controlado por interacciones entre muchos productos genéticos distintos. Esto dificulta mucho su estudio como ocurre con el alzhéimer o las dolencias cardíacas. Si, además, por razones éticas muy comprensibles, no se pueden hacer experimentos con humanos, la cosa se complica.
Gracias a la teoría de la evolución, sabemos que estamos relacionados genéticamente con muchas especies, con la que compartimos mucho más que un antepasado común. Esto permite que los estudios genéticos en animales, si bien no pueden responder a cuestiones humanas complicadas, sí den respuesta a preguntas más simples.
Así, por ejemplo, existen dos especies relacionadas de ratones de campo que viven en Norteamérica: una es monógama y vive en la pradera (Microtus ochrogaster) y la otra es promiscua y vive en los montes (Microtus montanus). Un estudio descubrió un gen en los de la pradera que estaba sospechosamente ausente entre los montaraces. Los investigadores insertaron el gen en cuestión en los machos de las especie de montaña y esta simple manipulación convirtió a los que tenían que haber sido Giacomo Casanova en Diego Marcilla. Un indicio de que lo que pensamos que es elección propia de esa persona ideal(izada), esto es, la monogamia total o la poligamia como monogamia en serie, no sería más que predisposición genética.
Loco de amor
Pero si el enamoramiento es, como decimos, una enajenación mental transitoria, toda la influencia genética tendrá su correlato en el encéfalo. Veamos qué encontramos.
Un grupo de investigadores se dispuso a descubrir cuáles eran las manifestaciones neurológicas de los primeros estadios del amor romántico. Básicamente, lo que querían descubrir era si el enamoramiento es una emoción fundamental como el miedo o si está producida por bucles de retroalimentación del sistema de recompensa del encéfalo de la misma forma que funciona la adicción a la cocaína.
Su conclusión es que hay una serie de regiones encefálicas que parecen estar involucradas en los sentimientos románticos. Específicamente registraron la activación del mesencéfalo ventral derecho, alrededor del área tegmental ventral y el cuerpo dorsal y la cola del núcleo caudado. Todas estas regiones no están relacionadas con instintos y emociones primitivos como el miedo, sino que están ligadas al sistema de recompensa que hace que nos volvamos adictos a las drogas.
Cuando ponemos estos resultados en contexto se llega a la conclusión de que el enamoramiento es fundamentalmente un sistema de recompensa, que conduce a varias emociones, más que una emoción específica. Es muy característico que no se pueda ligar una expresión facial de forma inequívoca a estar enamorado. Además las primeras etapas del enamoramiento, cuando este es más intenso, difieren tanto de la atracción sexual como del desarrollo del afecto característicos de las fases posteriores de la relación, que activan áreas diferentes del encéfalo.
¿Y qué pasa si la cosa sale mal? ¿Y si no eres correspondido o te abandonan?
Cuando se mira una foto de alguien que te acaba de abandonar suceden muchas cosas en el encéfalo, incluyendo la activación de regiones habitualmente asociadas al dolor físico, a comportamientos compulsivos-obsesivos, al control de la ira y áreas que se activan cuando elucubramos sobre lo que otro está pensando. No solo eso, en vez de desactivarse las acciones del amor romántico, parece como si se activaran aún más: el enamoramiento se exacerba por el rechazo.
Moléculas enamoradas
Muchas veces se suele hablar de que el enamoramiento es química. Efectivamente, muchas de los circuitos involucrados en el amor romántico incluyen a una hormona que también es un neurotransmisor, la dopamina. Pero este no es el único compuesto involucrado en el enamoramiento.
Al igual que los pacientes con comportamientos obsesivos-compulsivos los enamorados presentan unos niveles anormalmente bajos de serotonina en sangre, lo que se correlaciona bastante bien con la obsesión con el objeto del enamoramiento.
También se han detectado cambios en los niveles de cortisol, hormona estimulante del folículo y testosterona. Algunos de estos cambios dependen del sexo del sujeto. Por ejemplo, la testosterona aumenta en las mujeres enamoradas y disminuye en los varones. Pero lo mejor viene cuando los enamorados que se han jurado amor eterno vuelven a medir sus niveles hormonales 12 meses después, aunque la relación se mantenga: las diferencias hormonales han desaparecido completamente. Esto es, desde el punto de vista endocrino, una pareja que sobrevive a la fase de enamoramiento (recordemos que es una enajenación mental transitoria) lo hace en base a fundamentos bioquímicos diferentes: después de doce meses la química desaparece, solo para ser sustituida por otra, en la que por ejemplo, interviene la oxitocina.
Quevedo etólogo
Vemos pues que el elegir a un solo objeto de nuestra obsesión amorosa tiene una base genética, neurológica y fundamentalmente química y que todo ello se manifiesta en un comportamiento similar al del adicto a una droga.
Prueba ahora a leer el soneto del inicio pensando que está dedicado a una droga de abuso o al objeto de una adicción en general. Apreciarás mucho mejor el genio de Quevedo y advertirás, quizás, que un comentario literario estándar puede quedarse muy corto.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este texto se publicó en Experientia docet el 1 de febrero de 2013.
El artículo El enamoramiento como droga de abuso se ha escrito en Cuaderno de Cultura Científica.
Eletanolamina en el espacio y el origen de la vida
José Mora Perujo y Delphine Pott

NASA/JPL-Caltech/S. Stolovy (Spitzer Science Center/Caltech)
Si hay una pregunta que estremece a la mayoría de las personas es el origen de la vida. Múltiples teorías se han enfrentado a esta pregunta dando respuestas plausibles y, en varios casos, se ha planteado la posibilidad de que nuestra vida no sea única en el vasto universo.
Etanolamina en la Vía Láctea
Mediante el uso de radiotelescopios podemos descubrir moléculas en zonas lejanas del universo. Cualquier onda puede interactuar con átomos y moléculas para provocar en ellos ciertos cambios, dependiendo de la energía de la onda en cuestión.
Estos cambios pueden observarse y jugar a quién es quién hasta dar con la molécula elegida. Un pequeño ejemplo: si alguien nos empuja, dependiendo de la fuerza con la que lo haga, reaccionaremos de una forma u otra. Pues una cosa parecida pasa con las moléculas, solo que el empujón es la onda y la reacción es lo que estos radiotelescopios captan.
El grupo de Víctor M. Rivilla han usado los radiotelescopios IRAM de Pico Veleta (Granada) y del Observatorio de Yebes (Guadalajara). Esto les ha servido para encontrar etanolamina en una nube de moléculas llamada G+0.693-0.027, cerca del centro de nuestra galaxia, la Vía Láctea.
¿Qué es la etanolamina?
Esta simpática molécula es realmente simple y ahí radica parte de su belleza. La etanolamina no es más que etanol (2 carbonos, 1 oxígeno y 6 hidrógenos) y una amina (1 nitrógeno y 2 hidrógenos) unidos. Esto hace una molécula de fórmula C₂H₇NO, cuya importancia es debida a la presencia de nitrógeno y oxígeno: es polar.
Que una molécula sea polar significa que, dentro de la misma, los electrones no se sienten atraídos de igual forma por unos núcleos de átomos que por otros. Respecto a lo que atañe a la vida es mucho más fácil: las sustancias polares se llevan bien con el agua, nuestro disolvente universal y la base de nuestra vida.
Importancia biológica de la etanolamina
Esta molécula no se presenta sola en los seres vivos, normalmente está unida a otros tipos de biomoléculas. Su pareja perfecta son los ácidos grasos, pero para unirse con ellos necesita de otra molécula: el glicerol-3-fosfato.
Digamos que esta molécula es como una especie de puente entre la etanolamina y los ácidos grasos. Esta unión (etanolamina, glicerol-3-fosfato y ácidos grasos) da lugar a un grupo de moléculas llamadas fosfolípidos muy particulares, tanto que estos compuestos son esenciales para la vida tal y como la conocemos.
Los ácidos grasos, como el aceite, son moléculas largas no polares (apolares). Por tanto, no se llevan bien con el agua (a fin de cuentas, el agua y el aceite no se mezclan).
Entonces, en el caso de los fosfolípidos tenemos una situación muy especial: los ácidos grasos no se mezclan con el agua, como hemos dicho, pero la etanolamina sí. Esto hace que nos podamos imaginar los fosfolípidos como moléculas que tienen una cabeza que interactúa con el agua y unas colitas que huyen de ella.

Modificado de Principios de Bioquímica, Lehninger, 5ª Edición. W. H. Freeman and Company
El fenómeno interesante es que las cabezas se alinean y las colas también (como en la imagen). Esto no es ni más ni menos que una membrana, el principio de una célula. Esta membrana es una especie de cercado que delimita la célula. Por tanto, sin etanolamina no habría fosfolípidos y, sin ellos, no habría células y, por tanto, vida.
¿Acaso no es de vital importancia la etanolamina?
El origen de la etanolamina
En muchos casos se especula con la posibilidad de que, antes de que existiese la vida, las moléculas necesarias para el origen de la misma podrían haber llegado a la Tierra transportadas en meteoritos. Estos meteoritos impactarían en nuestro planeta y dejarían esas moléculas libres para que se combinasen con otras e ir construyendo paso a paso la vida que conocemos.
En el caso de la etanolamina, los autores de este estudio creen que mil billones de litros de esta podrían haber llegado a la Tierra en meteoritos. Por tanto, la etanolamina en la Tierra fue extraterrestre hace millones de años y, gracias a este hecho, estaba disponible para formar nuevas moléculas.
Una vez más, como nos hacía pensar Carl Sagan, somos hijos de las estrellas y del universo. Una parte de nosotros proviene de fuera de la Tierra, de lugares que todavía desconocemos.
Entender el cómo se forman estas semillas de vida en el espacio es clave para entender el origen de la vida, como dice Rivilla. Este pensamiento nos siembra la duda de si estamos solos en el universo, si somos la única vida que existe. Esta idea ha sido explorada varias veces por el investigador Carlos Briones. Concretamente, en esta entrevista habla sobre la posibilidad de encontrar vida fuera en el espacio:
Quizás haya que empezar a pensar en la posibilidad que dice Briones: “A lo mejor el Cosmos está lleno de vida”. Puede que, en parte, sea debido a estas moléculas presentes por todo el universo.
Sobre los autores: José Mora Perujo es investigador predoctoral y Delphine Pott investigadora postdoctoral en el departamento de Biología Molecular y Bioquímica de la Universidad de Málaga
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Eletanolamina en el espacio y el origen de la vida se ha escrito en Cuaderno de Cultura Científica.
El cuarto ángel
Tocó el cuarto ángel… Entonces fue herida la tercera parte del sol, la tercera parte de la luna y la tercera parte de las estrellas; quedó en sombra la tercera parte de ellos; el día perdió una tercera parte de su claridad y lo mismo la noche.
Juan de Patmos (siglo I e.c.) Apocalipsis 8: 12.

Normalmente pensamos en el colapso o extinción de la humanidad asociándola a catástrofes de origen natural, como las que ocurren tras los toques del segundo (supervolcanes) o del tercer ángel (asteroides o cometas), o también por las de origen antropogénico, como las que anuncian el primer ángel (catástrofe ambiental) o el sexto (guerra nuclear). Sin embargo, también son concebibles colapsos por razones sociales. No conllevarían la extinción humana pero sí la imposibilidad de optar por futuros alternativos, que es otra forma de agotamiento del potencial de desarrollo y progreso del ser humano. No me refiero a progreso material, aunque, muy probablemente, la parálisis intelectual lo anularía. Ciertas distopías, de las que no nos podríamos recuperar, nos abocarían a esa forma de colapso.
La sociedad que describe George Orwell en su novela 1984 sería una de ellas. Bajo determinadas circunstancias, quizás facilitadas por la inacción de una mayoría de seres humanos, un poder totalitario podría llegar a ejercer un control absoluto del destino de la humanidad. A partir del momento en que eso ocurriese, dejaríamos de tener el más mínimo control o capacidad de incidir sobre nuestro futuro. La humanidad quedaría abocada a un porvenir sin margen alguno para optar por diferentes alternativas. Sería una distopía generada por la fuerza del poder totalitario.
Otra forma de distopía podría surgir debido a la acción de fuerzas sociales alimentadas por decisiones individuales o grupales bajo el efecto de ciertos incentivos, pero que conducirían a un nuevo equilibrio indeseado para el conjunto de la humanidad. La forma más fácilmente concebible de esta modalidad de humanidad distópica es la que podría resultar de un proceso conducente a una tragedia de los bienes comunes de ámbito mundial o casi mundial.
La tragedia de los bienes comunes -o comunales- se produce cuando un conjunto de individuos -pueden ser los vecinos de una comunidad, los nacionales de un país o gran parte de los habitantes del mundo- que actúan de forma racional e independiente, destruyen un recurso común (los bienes comunales), aunque tal destrucción no interese a ninguno de esos individuos. El bien común puede ser material (una fuente, los pastos, el suelo del portal o las pesquerías del mundo) o inmaterial (la democracia, un sistema educativo, o la paz entre las naciones). De un modo similar, ciertos procesos automáticos o semiautomáticos podrían conducir a sociedades cerradas y, eventualmente, a una humanidad sin alternativas. Se trataría de una distopía provocada por acciones individuales y grupales voluntarias, pero cuyo resultado no sería deseado por quienes, con sus decisiones, la habrían propiciado.
Estarían, por último, las distopías deseadas. Serían, por ejemplo, las provocadas por sistemas ideológicos -políticos o religiosos- que serían asumidos con carácter universal, aun cuando condujesen a una humanidad cerrada, que ha decidido autolimitar su potencial hasta perder el control sobre su propio destino. Ejemplos de esta variedad de humanidad distópica serían, por ejemplo, la que renuncia al desarrollo científico o tecnológico, la que no reconoce bienes o males morales con resultados dañinos para ciertos grupos, o la que profesa un credo religioso único y obligatorio para todos. También lo sería la que describió Ray Bradbury en Fahrenheit 451, una sociedad que ha decidido prescindir de los libros. En ella el día, como la noche, habrían perdido, al menos, la tercera parte de su claridad.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El cuarto ángel se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2021: Oskar Gonzalez – No venderás cuadros a los nazis
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
Un juicio por alta traición termina desvelando uno de los grandes engaños de la historia del arte. Oskar Gonzalez nos cuenta el papel pionero de la ciencia en la constatación de la falsedad de la que pasaba por ser la gran obra maestra de Vermeer.
El propio Oskar escribió sobre esta historia en su sección del Cuaderno, kimikArte: El pintor que engañó a los nazis, pero no a la química
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2021: Oskar Gonzalez – No venderás cuadros a los nazis se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2021: Oskar Gonzalez – No venderás cuadros a los nazis
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
Un juicio por alta traición termina desvelando uno de los grandes engaños de la historia del arte. Oskar Gonzalez nos cuenta el papel pionero de la ciencia en la constatación de la falsedad de la que pasaba por ser la gran obra maestra de Vermeer.
El propio Oskar escribió sobre esta historia en su sección del Cuaderno, kimikArte: El pintor que engañó a los nazis, pero no a la química
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2021: Oskar Gonzalez – No venderás cuadros a los nazis se ha escrito en Cuaderno de Cultura Científica.
Un termómetro óptico para entornos industriales extremos
El grupo de investigación Applied Photonics Group de la UPV/EHU ha desarrollado un termómetro óptico para el sector industrial basado en una fibra óptica capaz de medir la temperatura en un amplio rango térmico con una alta sensibilidad sin interacción con el entorno.
La temperatura siempre ha sido una variable muy importante en muchos sectores industriales. Ciertas aplicaciones industriales requieren además una alta sensibilidad ya que existen procesos críticos en los que la medición precisa de la temperatura en tiempo real es esencial para la calidad del producto o para evitar accidentes o averías. Además, habitualmente, los entornos en los que se llevan a cabo estas mediciones provocan que los dispositivos estén sometidos a altos niveles de estrés que pueden reducir su vida útil. Así, por ejemplo, las altas temperaturas en el interior de las turbinas de los motores de aviación; la producción de productos petroquímicos, muchos de ellos inflamables o directamente explosivos, que hay mantener dentro de estrictos rangos de temperatura; o la industria alimentaria donde algunos productos deben conservarse a temperaturas bajo cero.
Existe pues una demanda de termómetros altamente sensibles y robustos capaces de operar en amplios rangos térmicos. Hoy en día, los termómetros electrónicos son los dispositivos más extendidos para la detección de la temperatura en la industria. Entre ellos, los termopares son una tecnología fiable y barata. Pero pueden no ser los mejores candidatos cuando hay que utilizarlos en entornos con gases inflamables, por ejemplo, porque pueden interactuar de forma indeseada con esos gases. En las últimas décadas han aparecido varios sensores basados en fibra óptica como alternativa para superar dicha limitación gracias a su pasividad y su sensibilidad intrínseca a la temperatura.
Por ello, “en este trabajo hemos desarrollado un termómetro basado en una fibra óptica muy especial capaz de soportar condiciones de trabajo extremadamente exigentes. Se trata de la fibra óptica multinúcleo que obtenemos gracias a un acuerdo de colaboración con la Universidad Central de Florida. La fibra óptica común, por ejemplo, es la fibra que nos llega a casa. Se trata de una carretera convencional con un solo carril por sentido de marcha. La fibra óptica multinúcleo sería equivalente a una autopista en la que hay múltiples carriles en cada sentido por los que puede ir la luz. De ahí que las propiedades tanto de transferencia de datos como de cantidad de luz que puede transmitirse se multiplican”, explica Josu Amorebieta investigador del grupo de investigación Applied Photonics Group de la UPV/EHU.
“Para desarrollar el termómetro hemos analizado teóricamente y en detalle cómo afecta la temperatura a las fibras multinúcleo para predecir de esta forma la geometría más sensible a la temperatura. El diseño del termómetro le permite funcionar en un amplio rango térmico (desde los -25 hasta los 900 grados Celsius) y su construcción es lo suficientemente compacta y robusta como para soportar entornos adversos”, añade Josu Amorebieta.
Según el personal investigador del grupo Applied Photonics Group de la UPV/EHU, “los resultados sugieren que el nuevo termómetro óptico es tan preciso como cualquier termómetro electrónico con la ventaja de ser inerte, compacto y fácil de fabricar”. Este prototipo es un importante paso en el camino hacia los termómetros ópticos comercialmente viables.
Referencia:
Josu Amorebieta, Angel Ortega-Gomez, Rubén Fernández, Enrique Antonio-Lopez, Axel Schülzgen, Joseba Zubia, Amezcua-Correa, Gaizka Durana & Joel Villatoro (2021) Sensitivity-optimized strongly coupled multicore fiber-based thermometer Optics and Laser Technology DOI: 10.1016/j.optlastec.2021.107532
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Un termómetro óptico para entornos industriales extremos se ha escrito en Cuaderno de Cultura Científica.
En las entrañas de nuestro planeta
En 1864 Julio Verne publicó su novela “Viaje al centro de la Tierra”, en la que imaginaba nuestro planeta como una especie de queso gruyère en donde era posible encontrar pasadizos que nos conducían, directamente, al interior hueco de nuestro planeta. Sin embargo, y gracias a siglo y medio de avances en las técnicas de estudio geológicas, hoy sabemos que esta fantástica idea no era muy acertada.
Aunque solemos representar a la Tierra como una esfera casi perfecta, en realidad, debido a la rotación que realiza sobre sí misma, se asemeja más a un elipsoide de revolución que se encuentra parcialmente achatado por los polos, por lo que tiene un diámetro máximo de 12.756 km y un diámetro mínimo de 12.714 km, con un radio promedio de unos 6370 km. Y en cuanto a su estructura interna, que es el tema que nos ocupa hoy, podríamos definir nuestro planeta como una cebolla, ya que está formado por diversas capas concéntricas superpuestas una encima de la otra. Pero a la hora de nombrar y describir cada una de esas capas, nos encontramos con dos divisiones diferentes de acuerdo a qué propiedades físicas de los materiales queramos hacer alusión.

La primera división interna que hacemos de nuestro planeta responde a la composición química de los materiales que lo conforman, que tiene que ver directamente con la densidad de los elementos químicos. Cuando nuestro planeta estaba comenzando a formarse, los elementos más densos, es decir, los más pesados, se quedaron en el interior de la Tierra, mientras que los menos densos y, por tanto, más ligeros, migraron hacia la parte más externa. Por este motivo, tenemos composiciones químicas diferentes según aumentamos en profundidad, lo que nos permite definir tres grandes capas en nuestro planeta:
La corteza, que es la capa más externa o superficial de la Tierra y está formada principalmente por silicatos de aluminio y magnesio. Podemos dividirla en corteza oceánica, que se encuentra por debajo de la columna de agua de los océanos y tiene un espesor de entre 7 y 12 km, y corteza continental, que posee un espesor promedio de unos 30 km, aunque llega hasta profundidades de 70 km por debajo de las grandes cordilleras, como el Himalaya. Al límite inferior de la corteza, cuya profundidad oscila entre los 7 y los 70 km, se le denomina discontinuidad de Mohorovicic, o “la Moho”, como la conocemos de manera cariñosa en geología.
Justo por debajo de la corteza y hasta los 2900 km de profundidad nos encontramos con el manto, que está compuesto mayoritariamente por silicatos de hierro y magnesio. También aquí podemos hacer una diferenciación en dos partes, el manto superior y el manto inferior, cuyo límite se encuentra aproximadamente a 660 km de profundidad y se conoce como discontinuidad de Repetti.
Finalmente tenemos el núcleo, formado por hierro y níquel y que está separado del manto por la discontinuidad de Gutenberg. El núcleo también se divide en dos subcapas, el núcleo externo y el núcleo interno, cuyo límite aparece a unos 5150 km de profundidad en la discontinuidad de Lehmann.
La otra división que hacemos de la estructura interna de nuestro planeta se corresponde con las propiedades mecánicas de los materiales que lo componen. En este caso, los principales parámetros físicos a tener en cuenta son la presión y la temperatura. Resulta que, según aumentamos en profundidad hacia el interior de la Tierra, tanto la presión como la temperatura son cada vez más altas, por lo que la acción combinada de ambos parámetros físicos provoca un cambio en el comportamiento mecánico de los materiales que nos vamos encontrando. De esta manera, se puede subdividir nuestro planeta en cuatro capas:
La litosfera, que es la capa sólida y rígida exterior y abarca toda la corteza y parte del manto superior. También se divide en litosfera oceánica y litosfera continental, por lo que su espesor oscila entre los 70 km y los 150 km.
A continuación tenemos la astenosfera, que es un semisólido plástico y viscoso que comprende el resto del manto superior.
Por debajo aparece la mesosfera, algo más sólida que la astenosfera pero cuyos materiales mantienen un comportamiento plástico. Se corresponde con el manto inferior.
Y, por último, encontramos la endosfera, en la que podemos diferenciar el núcleo externo que es líquido y el núcleo interno que es sólido.
De esta manera, utilizaremos una nomenclatura u otra para las capas internas de la Tierra dependiendo de a qué propiedades de los materiales nos queramos referir. Si hacemos alusión a la composición química, usaremos los términos corteza, manto y núcleo para dividir nuestro planeta. Sin embargo, si queremos referirnos al comportamiento mecánico, emplearemos los conceptos de litosfera, astenosfera, mesosfera y endosfera. Incluso, podemos mezclar ambas divisiones y usar términos compuestos tales como manto astenosférico si queremos reseñar tanto la composición como las propiedades mecánicas de los materiales. Pero recordad que estos términos ni son sinónimos ni son intercambiables, por lo que no es lo mismo hablar de la corteza que hablar de la litosfera.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo En las entrañas de nuestro planeta se ha escrito en Cuaderno de Cultura Científica.
Tomás Rodríguez Bachiller: matemático, ingeniero y traductor de textos científicos
En su habitual sonrisa, aparentemente ingenua, casi infantil, destellaba, en efecto, suavemente, esa lumbre de benévola ironía que hemos visto lucir en otras nobles y selectas personalidades, y que revela, junto a ese fondo de milenario saber humano que no se hace ilusiones, la más amplia y exquisita tolerancia.
Fragmento de la necrológica de Tomás Rodríguez Bachiller por Antonio Rodríguez Huéscar, El País, 30/10/1980

Tomás Rodríguez Bachiller nació en Hong Kong el 10 de noviembre de 1899. Su padre, Tomás Rodríguez, era vicecónsul de España en la entonces colonia británica. Su madre era Julia Bachiller. Era el tercero de dos hermanas (Julia y Pilar, nacidas del primer matrimonio de su padre) y tres hermanos (él, Ángel y Jesús). Su madre falleció al dar a luz a Jesús.
Estudió en el Instituto Cardenal Cisneros de Madrid, graduándose en 1916. Se matriculó después en la Universidad Central de Madrid: deseaba estudiar matemáticas. Pero su padre pensaba que estos estudios no le proporcionarían una carrera exitosa. Así, en 1918, Rodríguez Bachiller comenzó sus estudios en la Escuela de Ingenieros de Caminos, Canales y Puertos de Madrid, sin abandonar por ello sus estudios de matemáticas. Algunos de sus profesores fueron Luis Octavio de Toledo (1857-1934), Julio Rey Pastor (1888-1962) y José Ruiz Castizo (1857-1929) que le enseñaron Análisis Matemático, y Cecilio Jiménez Rueda (1858-1950), Miguel Vegas (1865-1943) y José Gabriel Álvarez Ude (1876-1958) fueron sus profesores docentes de Geometría. También estudió Mecánica Celeste con José María Plans (1878-1934).
En enero de 1921, Tullio Levi-Civita (1873-1941) visitó Madrid para dictar un curso sobre Mecánica clásica y relativista. Rodríguez Bachiller, que tenía conocimientos de alemán, francés, inglés e italiano, tomó notas durante las lecciones del matemático italiano y las tradujo al castellano, aunque nunca llegaron a publicarse.
En 1923, el físico Albert Einstein (1879-1955) visitó España para impartir una serie de conferencias públicas sobre relatividad. Rodríguez Bachiller fue uno de los invitados a asistir; debía tomar notas y preparar unos resúmenes de las conferencias. En aquel momento había terminado sus estudios de matemáticas, aunque continuaba con los de ingeniería. Los resúmenes preparados por el matemático español se publicaron en el periódico El Debate, con la satisfacción del físico, que le confesó que«en ningún otro país del mundo se había hecho tan bien».
Gracias a una beca de la Facultad de Ciencias de Madrid, Rodríguez Bachiller pasó el curso académico 1923-1924 en Francia. Allí asistió a los cursos de Émile Borel (1871-1956) sobre elasticidad, de Jules Drach (1871-1949) sobre transformaciones de contacto, de Charles Émile Picard (1856-1941) sobre curvas y superficies algebraicas, de Élie Cartan (1869-1951) sobre mecánica de fluidos, de Jacques Hadamard (1865-1963) sobre ecuaciones diferenciales, de Claude Guichard (1861-1924) sobre geometría diferencial y transformaciones de Laplace, de Henri Lebesgue (1875-1941) sobre topología y de Ernest Vessiot (1865-1952) sobre ecuaciones diferenciales parciales y teoría de grupos.
Al regresar a Madrid en 1924, Rodríguez Bachiller dictó el primer curso de topología impartido en España.
En octubre de 1925 fue nombrado profesor ayudante en la Facultad de Ciencias de Madrid. Además, fue un activo colaborador de la Revista de la Sociedad Matemática Española. Su conocimiento de idiomas le permitió revisar varios trabajos de matemáticos europeos, en particular los artículos sobre topología de Maurice Fréchet (1878-1973), las tesis doctorales de Luigi Fantappié (1901-1956) sobre geometría algebraica y de Louis Antoine (1888-1971) sobre topología, o la monografía L’Analysis situs et la Géométrie algébrique de Solomon Lefschetz (1884-1972). También se ocupaba de la correspondencia con matemáticos extranjeros que publicaron en los primeros números de la Revista de la Sociedad Matemática Española, además de traducir algunos de sus artículos a castellano.
En octubre de 1932, Rodríguez Bachiller se convirtió en profesor interino de la Facultad de Ciencias de Madrid al quedar vacante la Cátedra de Ecuaciones Diferenciales. En 1935, tras pasar las pruebas correspondientes, fue nombrado profesor de Teoría de Funciones, aunque al carecer de un doctorado, le informaron de que debía presentar una tesis antes de poder ocupar la Cátedra. Presentó su tesis Axiomática de la dimensión y la defendió el 27 de agosto de 1935, aunque nunca fue publicada.
Al final de la Guerra Civil, debido a su simpatía por el bando republicano, fue tratado con recelo por el régimen franquista y descalificado para ocupar cargos de dirección y confianza. Aunque pudo volver a ocupar su Cátedra en diciembre de 1939.
En 1941 escribió Comentarios sobre álgebra y topología y, al año siguiente, Sulle superficie del quarto ordine contenenti una conica. Fueron sus últimos trabajos de investigación, aunque mantuvo su interés por la topología e impartió docencia sobre esta disciplina en muchas ocasiones.
En 1947 realizó una visita de cinco meses a Estados Unidos gracias a una beca de Junta de Relaciones Culturales del Ministerio de Relaciones Exteriores. En la Universidad de Illinois en Urbana trabajó con Oscar Zariski (1899-1986), y en Princeton con Solomon Lefschetz (1884-1972), Emil Artin (1898-1962) y Claude Chevalley (1909-1984).
En 1954 comenzó una serie de estancias en la Universidad de Puerto Rico, un lugar especial para el matemático ya que allí había nacido su hermano Jesús y estaba enterrada su madre.
En 1969 se retiró, falleciendo con 80 años, el 9 de julio de 1980.
Referencias
-
Luis Español González y María Ángeles Martínez García, Hacia la matemática abstracta: Tomás Rodríguez Bachiller (1899–1980), Gaceta de la Real Sociedad Matemática Española 13 (4) (2010) 769–795
-
J J O’Connor and E F Robertson, Tomás Rodríguez Bachiller, MacTutor History of Mathematics archive, University of St Andrews
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Tomás Rodríguez Bachiller: matemático, ingeniero y traductor de textos científicos se ha escrito en Cuaderno de Cultura Científica.
Alfred Werner, químico hasta la extenuación

Alfred Werner nació en 1866 en uno de esos lugares marcados por la guerra en la vieja Europa, una de esas ciudades en la frontera entre imperios que cambiaba de manos según soplase el viento. Mulhouse tenía tendencia a ser francesa, la mayoría de sus habitantes se sentían franceses, a pesar de que sus apellidos eran una mezcolanza de prusianos y galos. Siendo Alfred niño, la guerra franco-prusiana de 1870 hizo que la ciudad cambiase de nuevo de manos, siendo anexada al recién formado Reich Alemán diseñado por Otto von Bismarck para mayor gloria del káiser Wilhelm.
Muchos ciudadanos con lazos franceses abandonaron la ciudad, no así los padres de Alfred, que prefirieron quedarse y resistir, hablando francés en casa aunque estuviese expresamente prohibido. Ya adulto, Alfred recordaría cómo disparaba su fusil de juguete contra los soldados alemanes y su mesa de despacho en Zúrich estaba presidida por un trozo de bomba que recogió cerca de su casa siendo niño.
Alfred no fue precisamente un alumno ejemplar y, como precaución, solía llevar trozos de cartón dentro de sus pantalones con la idea de aliviar el castigo físico que suponía saltarse clases. Los biógrafos de Werner hablan de rebeldía frente a la extrema rigidez del sistema de enseñanza alemán, la misma que años después mostraría Einstein. Sin embargo, Alfred era muy experimental a la par que teórico: sus escapadas las empleaba en hacer experimentos químicos detrás de un granero cercano y está documentada al menos una explosión en su habitación.
Entre 1885 y 1886 Alfred tuvo que hacer el servicio militar en Karlsruhe, donde aprovechó para asistir a las conferencias que Engler daba en el Politécnico local. En 1886 toma la decisión de alejarse de conflictos y se matricula en el Politécnico de Zúrich. En 1889 se diploma en química técnica y, a pesar de suspender varios exámenes de matemáticas en su primer intento, consigue su doctorado en 1892, tras una estancia de casi dos años en París, con una tesis sobre la disposición espacial de moléculas que contienen nitrógeno, con Arthur Hanztsch como director y Marcellin Berthelot como codirector. Al igual que Einstein, si bien realizó su trabajo en el Politécnico el doctorado se lo otorgó la Universidad de Zúrich.
Los años 1892 y 1893 fueron de subsistencia para Alfred, trabajando como privat dozent, profesor sin sueldo (lo que sus alumnos le pagasen), en la Universidad de Zúrich. En 1893 se convirtió e profesor asociado de la Universidad con un modesto salario, sucediendo a Victor Merz como profesor de química orgánica. En 1895 adquiriría la nacionalidad suiza y, a pesar de tener ofertas de Viena, Basilea o Wurzburg, decide quedarse en la Universidad de Zúrich aceptando la plaza de catedrático con sólo 29 años. Pero, ¿qué había hecho Alfred en este tiempo para escalar así de rápido?
Alfred hizo su primera investigación química independiente con 18 años y su interés siempre había estado en la frontera entre la química orgánica y la inorgánica, alrededor del problema de la valencia y la estructura de los compuestos químicos. Un par de años después de su doctorado, obsesionado como estaba con el problema, cuenta la leyenda que una noche se despertó sobresaltado a las dos de la madrugada, saltó de la cama y se puso a escribir. A las cinco había terminado “Contribución a la constitución de los compuestos inorgánicos”, el artículo que sentaba las bases de la teoría actualmente aceptada sobre los compuestos de coordinación, también llamados complejos.
Alfred proponía flexibilizar las ideas de Kekulé, de una valencia rígida en una dirección, a una esfera de fuerza con el centro en el átomo. Sugería la existencia de un número de coordinación, que sería el número de ligandos que un determinado átomo metálico buscaría adquirir. Estas ideas eran controvertidas pero lo suficientemente interesantes como para asegurarle un puesto en la universidad.
Con el futuro asegurado, se dejó barba y bigote para intentar conseguir un poco de respeto por parte de los alumnos y colegas, se casó con una chica suiza y se dispuso a fundar una familia y a probar su teoría. La familia estuvo completa 8 años después. Probar la teoría le costaría 20 años de trabajo incansable.
La rutina era siempre la misma: sugería una estructura para un compuesto y predecía sus propiedades a partir de ella. Después una laboriosísima serie de síntesis muy meticulosas hasta conseguir el compuesto. Finalmente caracterizar el compuesto, asegurarse de que era el que se quería obtener y comprobar que sus propiedades correspondían a las predichas. Por ejemplo, proponía que los compuestos octaédricos tenían átomos en posiciones fijas alrededor de un centro, lo que significaba que tenían quiralidad y, por tanto, podían rotar la luz polarizada. Si se encontraban los compuestos mediante síntesis, su actividad óptica vendría a confirmar las ideas de Alfred.

A diferencia de los compuestos que usó Pasteur, las moléculas ópticamente activas de Alfred no formaban cristales que se pudiesen separar con pinzas. Empleó 18 años en perfeccionar el método para conseguir separarlas con la ayuda inestimable de su alumno de doctorado Victor King.
Pero siempre hay críticos, y eso no es necesariamente malo. Se pensaba que la quiralidad era algo propio de los átomos de carbono y, como en los compuestos de Alfred había carbono, sugerían que la actividad óptica era consecuencia de la presencia de estos. En 1914, un año después de recibir el Nobel por sus logros, con la ayuda de otra estudiante de doctorado, Sophie Matissen, Alfred consiguió preparar un compuesto ópticamente activo en el que solo había nitrógeno, hidrógeno y oxígeno, despojando al carbono de sus derechos exclusivos en lo que a quiralidad se refiere.
Werner, maestro
Todos los avances químicos de Alfred Werner están disponibles en múltiples recursos en la red (por ejemplo). Sin embargo, en pocos lugares encontraréis su otra gran contribución a la ciencia. Su labor como enseñante y director de personas, en lo que fue un avanzado a su tiempo.
Alfred era un orador magnífico y profesor vocacional. El aula en el que daba clases Alfred solía contener de forma rutinaria del orden del doble de personas de las que se suponía que era su capacidad: se sentaban en los pasillos, se aglomeraban alrededor del banco de demostraciones. En verano había desmayos y los rectores de la institución mostraban su preocupación por los riesgos de incendio o explosión. Un chascarrillo de la época era “¿cuándo ocupa un estudiante de química el volumen mínimo? En una clase de Nunwiegeht’s”. Ni que decir tiene que Nunwiegeht’s era uno de los motes de Alfred, por su costumbre de saludar con un ¿cómo te va?.
Alfred dirigió más de 200 tesis doctorales y, siendo la Universidad de Zúrich pionera en admitir mujeres para el doctorado, él fue pionero en admitirlas en ciencia, aplicando una meritocracia estricta. Buena parte de sus más 200 tesis dirigidas fueron escritas por mujeres. No es de extrañar que personas de toda Europa y Estados Unidos fuesen a Zúrich a estudiar con él.
El laboratorio de Alfred en Zúrich era extraoficialmente conocido como “las catacumbas”, celdas semisubterráneas donde siempre era necesaria la iluminación artificial. Según una revista humorística de la universidad, una muestra del aire de las catacumbas contenía de forma típica “un 50% de ácidos evaporados, 30% de olores nauseabundos de preparados, 10% de humo de cigarrillo, 5% de alcohol y 5% de gas de iluminación mal quemado, lo suficiente para enviar al más resistente de los individuos al gran más allá”. La universidad, consciente de la necesidad de un nuevo edificio para albergar los laboratorios, lo acabó concediendo, con lo que Alfred trabajó incansablemente en su diseño y construcción mientras seguía dirigiendo elementos fundamentales de su investigación. Alfred empezó a dormir muchos días en su despacho de la universidad y a buscar en el alcohol una manera rápida de relajarse.
El precio que Alfred pagó fue muy alto. El estrés, el exceso de trabajo, su consumo excesivo de tabaco y alcohol le llevaron al colapso nervioso. No mucho después de recibir su nuevo edificio fue obligado a dimitir.
Alfred Werner murió en un hospital psiquiátrico de Zúrich poco después de cumplir los 53 años.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Alfred Werner, químico hasta la extenuación se ha escrito en Cuaderno de Cultura Científica.
¿Por qué la carne de los atunes es roja y la de los lenguados, blanca?

Shutterstock / Natasha Breen
El color de los atunes tiene importancia económica: existen casos de fraude en los que se enrojece la carne de ejemplares de otras especies para hacerlas pasar por atún rojo (Thunnus thynnus) o para que las piezas parezcan frescas y no deterioradas por una conservación deficiente. Pero ¿por qué la carne de estos animales es roja?
El color de la carne de los túnidos (género Thunnus) varía entre especies, pero tiende a ser más oscuro que el del resto de peces. Por un lado, es una carne con un alto contenido en mioglobina, un pigmento que se encuentra en las células musculares de muchos vertebrados y que hace las veces de depósito celular de oxígeno para cuando se necesita.
Por otro lado, es una musculatura con alta densidad de vasos sanguíneos, en especial la del atún rojo. Como norma general, cuando un animal tiene músculos muy irrigados es que es muy activo. Así son los atunes, fuertes, capaces de nadar a velocidades asombrosas y hacerlo de forma sostenida. Recorren por ello grandes distancias. Además, la sangre de los túnidos –la del atún rojo en especial– tiene un contenido muy alto en hemoglobina.
La razón de todos estos rasgos –alto contenido muscular de mioglobina, musculatura muy irrigada, alto contenido de hemoglobina en la sangre– es que la gran actividad que desarrollan exige un suministro permanente e intenso de nutrientes y, sobre todo, de oxígeno. Lo cierto es que la musculatura de los atunes alcanza prestaciones metabólicas difícilmente superables.
Pero hay más. Hay una zona en el tronco de los túnidos que es más oscura, tiene más vasos sanguíneos y una consistencia casi esponjosa. De hecho, los atunes pierden mucha sangre por esa zona cuando sufren un corte. Esa zona oscura, sanguinolenta incluso, es lo que se conoce como rete mirabile.
La red maravillosa —su nombre en español– es un dispositivo que permite que la sangre (arterial) fría procedente de las branquias se caliente antes de llegar a los músculos. Recibe el calor de la sangre (venosa) procedente de la musculatura, donde se ha calentado por efecto del metabolismo. Ese intercambio de calor se produce entre vasos sanguíneos dispuestos en íntima proximidad unos con otros, pero en cuyo interior la sangre circula en sentidos opuestos. Esa forma de circular –contracorriente– permite una transferencia óptima de calor entre los dos subsistemas circulatorios. Es un ejemplo fisiológico de lo que se denomina un “intercambiador contracorriente”. En el mundo animal no son raros intercambiadores así, de calor, de gases o de iones.
Nosotros utilizamos intercambiadores contracorriente –no biológicos, por supuesto– para termostatizar instalaciones, por su gran eficiencia. Aunque hay ingenieros que creen que son una creación de la mente humana, en realidad fueron diseñados por la naturaleza hace millones de años, gracias a la selección natural.
Así pues, el calor generado por la potente actividad muscular de los atunes no se pierde por las branquias cuando la sangre llega a ellas. Se ha transferido a la sangre arterial. Se podría decir que ha quedado preso en una jaula fisiológica. Y gracias a ello, el interior de los atunes –parte de su musculatura, los ojos y el encéfalo– se encuentra, en aguas frías, hasta diez grados más caliente que el agua en que nadan. Desarrollan así niveles metabólicos muy altos, acordes con los de la actividad física que despliegan.

Shutterstock / Mark Watts
Llegados a este punto se habrán acordado de los lenguados o peces similares cuya carne es blanca. En efecto, esos peces no dan un palo al agua, son lo que en inglés se denomina depredadores sit and wait, porque se “sientan” a esperar.
Durante la mayor parte del tiempo permanecen sobre el sustrato, quietos, mimetizados con el fondo o semicubiertos con partículas de arena o fango. Pasan así inadvertidos por sus posibles presas. Los ojos de los peces planos se encuentran en uno de los lados de la cabeza mirando hacia arriba. Cuando ven que pasa alguna posible presa por encima, realizan un movimiento veloz, como un latigazo, se lanzan hacia ella. Si tienen suerte, la capturan.
Lo interesante es que los músculos que ejecutan ese movimiento no utilizan oxígeno, son anaerobios, músculos que obtienen su energía (el ATP) únicamente de la glucolisis, sin completarse, por lo tanto, la ruta estándar del metabolismo aerobio –a través del ciclo de Krebs y la cadena respiratoria en el interior de las mitocondrias– característico de otros tejidos.

Shutterstock / seeshooteatrepeat
La glucolisis es una vía muy rápida aunque ineficiente. Proporciona energía a gran velocidad, que es de lo que se trata en este caso. Surte de ATP a músculos rápidos y por eso la utiliza el lenguado para atrapar a sus presas. Así pues, como no es necesario un aporte permanente de oxígeno, no hace falta que llegue mucha sangre a esa musculatura. A ello se debe que los peces planos y especies con un modo de vida similar tengan la carne tan blanca.
La carne de los atunes es roja; la de los peces planos, blanca, apenas sangra al cortarla. Esas diferencias obedecen al modo de vida de las especies. No son caprichosas, como no lo son gran parte de los fenómenos de la naturaleza, aunque creamos lo contrario.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Por qué la carne de los atunes es roja y la de los lenguados, blanca? se ha escrito en Cuaderno de Cultura Científica.
Introducción a Bitcoin
Mikel Lezaun Iturralde
Bitcoin es la primera moneda nativa digital. Como moneda digital, Bitcoin no tiene ninguna componente física, simplificando mucho, se puede afirmar que los bitcoin son registros informáticos y claves para realizar transacciones. Bitcoin opera en una extensa red de ordenadores abierta a quien lo desee, descentralizada (todos los nodos son iguales, no hay un nodo central que gestiona la red) y en la que los nodos tienen una copia de la gran base de datos de todas las transacciones. La red Bitcoin funciona con la tecnología blockchain, que garantiza por sí misma la seguridad de su gran base de datos. Bitcoin emite su propia moneda sin ningún respaldo de una entidad financiera o banco central. La emisión de moneda la hace Bitcoin en tiempo, número y destino siguiendo unas reglas fijas, independientemente del valor de cambio de bitcoin y de la coyuntura económica. En este artículo se describe los principales procesos del sistema blockchain, o cadena de bloques, y Bitcoin.

-
Introducción
En el sistema bancario tradicional, para hacer una transferencia de una cuenta de un banco a otro banco, se cursa la orden, el banco comprueba si la cuenta del ordenante tiene fondos, resta del saldo de su cuenta el dinero de la transferencia y comunica al otro banco que debe sumar esa cantidad al saldo de la cuenta del destinatario. Esta gestión no mueve billetes de un lado a otro, simplemente es un cambio en los saldos de las cuentas. En realidad, todo esto lo hace un programa informático. Los bancos son los intermediarios y garantes de las transacciones, son quienes mantienen de forma segura toda la información en sus bases de datos y por ello cobran sus comisiones.
Ya en 1996, el Premio Nobel de economía Milton Friedman apuntó la necesidad de que se creara un protocolo específico para transferir valor por Internet, para trasferir dinero electrónico de un usuario A a uno B, sin que A tenga por qué saber la identidad de B o B quien es A.
En 2008, Satoshi Nakamoto, del que hasta la fecha no se sabe nada, ni quien, quienes o qué es, publicó un artículo en la lista de correo Cryptography de Internet, en el que definía un protocolo de comunicaciones para transmitir valor, basado en una red en la que todos los nodos se comportan como iguales, sin jerarquías. El año siguiente, él mismo publicó la primera versión del software Bitcoin, creó la red del mismo nombre y las primeras unidades de moneda, que también denominó bitcoin. En 2010, una vez puesto en marcha el sistema Bitcoin, Nakamoto se apartó y desapareció del mapa.
Características de la red Bitcoin
Las características más destacables de las monedas digitales, en particular de la red blockchain (cadena de bloques) de Bitcoin son las siguientes.
-
La red blockchain de Bitcoin es abierta, todo el que quiera puede participar, no se necesita autorización ni identificación.
-
La red es transfronteriza, se puede transferir de un punto a cualquier otro punto del mundo. En realidad, los bitcoin no residen en ningún sitio, no son algo físico.
-
La red es neutral, no hay que dar ninguna explicación a una transferencia. La red procesa cualquier transacción independientemente del ordenante, destinatario y cantidad.
-
La red es resistente a la censura, nadie puede evitar que se realice una transacción.
-
La red es pública, todo es verificable por todos, la red es totalmente transparente.
-
La red por sí misma gestiona las transacciones y garantiza la seguridad tanto de las transacciones como de la base de datos. No necesita de intermediarios ni de bancos.
-
Las transacciones son seudónimas, no se sabe directamente quien es el emisor ni quien el receptor.
-
Las transacciones son muy fáciles de realizar. El único coste es la tasa por transferencia que se abona a los denominados mineros, que además es voluntaria. Ahora bien, hace tiempo que se prioriza las transacciones con las comisiones más altas.
-
Preliminares
Digitalización
Al hablar de Bitcoin se dice que es una moneda digital. Digitalizar no es otra cosa que convertir un texto, un documento en números. Todos los símbolos tipográficos tienen un equivalente numérico. Cualquier número, entendido como el valor que representa, se puede escribir de distintas formas. En el sistema decimal se utilizan los diez caracteres 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9; en el hexadecimal los dieciséis caracteres 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f y en el binario solamente los caracteres 0 y 1. En particular, cualquier documento se puede convertir en una lista de 0 y 1. Lo mismo que en el sistema decimal, las operaciones matemáticas se pueden realizar en los otros sistemas. En un sistema electrónico el 0 se corresponde con un circuito abierto y el 1 con uno cerrado. Así, la información trasladada a números binarios se puede almacenar y tratar matemáticamente en dispositivos electrónicos.
A modo de ejemplo, la expresión binaria de la palabra covid-19 es
0110001101101111011101100110100101100100001011010011000100111001
y la de Covid-19
0100001101101111011101100110100101100100001011010011000100111001
Notemos que solo se diferencian en el tercer carácter, en el primer caso es 1 y en el segundo 0.
Funciones resumen
Dado un documento, en muchos casos interesa tener un resumen representativo que lo identifique de forma única y que sirva para verificar su correcta trasmisión y almacenamiento en redes y sistemas digitales. Para obtener estos resúmenes, en Bitcoin se utilizan las funciones resumen (hash en inglés) criptográficas. Las principales características de estas funciones son las siguientes.
-
Una función resumen no es aleatoria, en general es fácil de calcular y aplicada a un mismo documento siempre da el mismo resultado. Por contra, de un resumen criptográfico no es posible recuperar computacionalmente el documento del que proviene.
-
Las funciones resumen son muy sensibles, una levísima modificación de la entrada produce un resumen completamente diferente.
-
Sea cual sea el tamaño de la entrada, que en general suele ser grande, la longitud del resumen es la misma. Así, del resumen no se puede deducir si proviene de un documento extenso o de uno breve.
Las funciones resumen se calculan a partir de la expresión binaria del documento, esto es, de su expresión en 0 y 1. Para ello, se expande la lista original de 0 y 1 a una más amplia, se descompone esta nueva lista en bloques, en cada bloque se cambia varias veces de sitio los 0 y 1 y se realizan distintas operaciones matemáticas. Esto es relativamente fácil de hacer, siempre se siguen las mismas reglas. Así, validar el resumen de un texto es prácticamente instantáneo.
En Internet se encuentran muchas páginas web que calculan el resumen de un documento con distintas funciones resumen. En Bitcoin, de todas las transacciones y bloques se calcula el correspondiente resumen identificativo. Para ello utiliza la función resumen SHA-256, que proporciona resúmenes formados por 256 ceros o unos, que se traducen en 64 caracteres hexadecimales 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f. Por ejemplo, el resumen de la palabra covid-19 es
88529c3ac8ebd2dcb21a432c4ea0190c8370850b73ef95a527d150d4d424bc62
y el de la palabra Covid-19
993ab4dd1fb517c10afcd32c007ec64c3d76bac264104bf44c57f5667f609da7
Como se ve, una simple diferencia de un carácter 0 y 1 da un resumen completamente diferente.
El resumen de los tres párrafos de la introducción de este mismo documento es
aedd1bb22c321638f1155e3611bed6e677b73de5c428a9ed956d35f54d47a3e6
que también tiene 64 caracteres hexadecimales.
Árbol de Merkle
Supongamos que tenemos un bloque de documentos, cada uno con su resumen criptográfico y que, para reforzar la seguridad del contenido del bloque, se quiere obtener un resumen de todos los resúmenes. Para ello se construye un árbol de Merkle, que consiste en lo siguiente. Se ordenan los resúmenes de los documentos del bloque (no hay que olvidar que los resúmenes no dejan de ser números) y se van juntando de dos en dos en un mismo texto. De cada uno de los nuevos textos formados por un par de resúmenes, se obtiene su resumen. Con los resúmenes obtenidos se vuelve a repetir la operación, esto es, se forman los textos de pares de resúmenes y de cada uno se obtiene su resumen. Se sigue el proceso hasta llegar a un solo resumen, que se denomina raíz de Merkle. Así, cualquier modificación en una transacción almacenada, para que sea coherente, implica la modificación de su resumen, lo cual conlleva la modificación de la raíz de Merkle.
Firma digital
Una firma digital es un mecanismo criptográfico que garantiza que la firma de un documento es auténtica, esto es, que no ha sido suplantada; que el documento no ha sido alterado y, además, que quien lo firma no lo puede repudiar. Bitcoin, para la autentificación de las transacciones, para la firma digital, utiliza un sistema criptográfico de clave pública y clave privada. Las claves pública y privada de una firma digital son dos números muy grandes, dependientes entre sí y que se generan simultáneamente mediante un algoritmo matemático. Generar los dos números es relativamente fácil, pero el camino inverso, obtener de uno de ellos el otro, es computacionalmente imposible.
La clave privada se debe guardar de forma muy segura para que nadie tenga acceso a ella. Por contra, como indica su nombre, la clave pública es pública. La firma se realiza con la clave privada. El proceso de firma digital es como sigue. En primer lugar, la aplicación informática de la firma digital obtiene el resumen del documento. Luego, este resumen, mediante un algoritmo matemático basado en la clave privada del firmante, se encripta. Junto con el documento se graba su resumen, el resumen encriptado y la clave pública. Todo esto es público, de acceso libre. Para verificar la autenticidad de la firma se utiliza la clave pública del firmante. Primero se comprueba que el resumen es el del documento. A continuación, se aplica al resumen encriptado un algoritmo matemático basado en la clave pública y el resultado tiene que ser exactamente igual que el resumen del documento firmado. Si ocurre así, el documento firmado es auténtico. Si no, se rechaza, ya que haciendo lo que se indica, solo se recupera el texto del resumen del documento si se utiliza la clave pública de quien lo ha firmado. Esta comprobación la puede hacer quien quiera.
-
Monedero o wallet
Crear una cuenta bitcoin es muy fácil. Basta con registrarse en alguna de las múltiples páginas web dedicadas a ello e introducir una serie de datos personales. Una vez registrado, para operar se necesita instalar un monedero o wallet, que no es más que una simple aplicación informática que permite transferir y recibir moneda digital. Instalado el monedero, él mismo crea los pares de claves pública y privada para la firma digital de las transacciones. A partir de la clave pública, el monedero genera de forma determinista la dirección. Los monederos guardan la identificación de las transacciones dirigidas a sus claves públicas y direcciones y su contenido es de acceso público. Ahora bien, las correspondientes claves privadas se deben mantener bien guardadas, ya que, como se verá, con ellas se hacen las transferencias de las transacciones registradas en el monedero. Una misma persona puede tener varios monederos. También, conforme va recibiendo transacciones, se puede ir cambiando las claves privada y pública y por tanto la dirección de recepción. Así, no se sabe si distintas direcciones en realidad corresponden a un mismo usuario.
Un ejemplo de clave pública es
020766fd4ffbbfa2086a96b335ba6eff24b58e4819936f8dc9d4002dabc9b11405
que genera mediante cálculos matemáticos la dirección
1FVRX63gUDxkQ25C7ivMa27C9nT1DUafmD
-
Transacciones
Las transacciones son el vehículo para transferir bitcoin de un usuario A a uno B. Las transacciones son públicas, están identificadas por su resumen y se guardan agrupadas en bloques, que van conformado una cadena. Una transacción contiene una entrada (input) en la que consta la procedencia de los bitcoin a transferir y una salida (output) que indica a donde van esos bitcoin. Si A quiere hacer una transferencia a B, en la salida de la transacción A incluirá la dirección y clave pública que le habrá proporcionado B. La correspondiente clave privada B la mantendrá oculta y segura, ya que la tendrá que utilizar cuando quiera transferir los bitcoin que reciba en esta transacción. En la entrada de la transacción A incluirá la identificación de una transacción con suficientes bitcoin que tiene por salida una transacción que un usuario C envió a una dirección y clave pública de A. La transacción de la entrada tiene que estar sin gastar, A no la ha tenido que haber utilizado en anteriores transacciones. Esta transacción la tendrá registrada A en su monedero. La validez de la transacción, la seguridad de que A tiene los bitcoin que pretende transferir a B, la realiza A con la firma digital. Para ello A firma la transacción con la clave privada asociada a la clave pública de la salida de la transacción que realizó C dirigida a la dirección y clave pública de A. Con la clave pública se puede verificar que esta transacción solo la ha podido firmar A, lo cual asegura que A es el propietario de los bitcoin que transfiere a B. En realidad los usuarios no tienen en propiedad bitcoin, lo que tienen son claves privadas de salidas de transacciones no gastadas (en inglés UTXO de Unspent Transaction Output) para con ellas hacer transacciones. Si A pierde la clave privada, nadie puede utilizar los bitcoin de la transacción y desaparecen. Y si alguien se apodera de la clave privada, el dinero de la salida de la transacción es suyo, lo puede utilizar sin ninguna cortapisa.
La salida de una transacción solo se puede utilizar una vez y siempre se transfiere completa. Ahora bien, ¿cómo se hace una transferencia de 3,9 bitcoin, cuando se quiere utilizar una salida de transacción no gastada con 5,3 bitcoin, sin perder los 1,4 bitcoin restantes? El procedimiento ideado para solventar esta dificultad es que, en estas situaciones, efectivamente la entrada de la transacción es la salida con 5,3 bitcoin que se quiere transferir, pero se crean dos salidas, una de 3,9 bitcoin a la dirección que se quiere enviar y otra de 1,4 bitcoin a una dirección y clave pública propia. De esta forma, la salida no gastada de la auto transacción con 1,4 bitcoin vuelve al emisor y solo él la puede utilizar firmándola con su clave privada. De esta forma no pierde los 1,4 bitcoin.
Veamos como ejemplo una de transacción incluida en el bloque 672431 que se describirá más adelante. El resumen que identifica a esta transacción es
57ff5d1af48c6687f1500e5acfe9a2297d5091a62e5e8da72ae31967282bdd22
y la dirección del ordenante
1KbnB9GTmUDn9Kjebm9w7aC9s5WxjSMcR5
La entrada de la transacción, es la salida de la transacción con 3,61216838 bitcoin contenida en el bloque 672424, cuyo resumen es
d42f3804872d1b4fe466aa156bfe92e430564f445d6ac5cf172e7e1630b2560e
y dirección la del ordenante
1KbnB9GTmUDn9Kjebm9w7aC9s5WxjSMcR5
La transacción tiene dos salidas. Una con 3,54120686 bitcoin a la dirección
12hy9qkZTiBcN9kCMKvQ62YDj3D7d2Ay3H
y otra con 0,07059952 bitcoin a la dirección
3JmgHw6rjUHgkptYmKX5SmekScxjFzHve9
La tarifa que fija la transacción es 0,00036200 bitcoin
El gasto total de la transacción es 0 bitcoin, que es igual a la cantidad de la entrada.
Este sistema público de transacciones es anónimo. Aunque se puede seguir el recorrido de las transacciones, de los usuarios solo se conoce claves públicas y direcciones obtenidas de ellas.
Para facilitar las transacciones un bitcoin está fraccionado en satoshi. Un bitcoin son cien millones de satoshi.
-
Nodos de la red
La red Bitcoin es una red descentralizada, no hay un nodo central que gestiona la red, y abierta, quien quiera puede unirse libremente a la red con solo descargar e instalar en su ordenador el software adecuado. En la red Bitcoin existen varios tipos de nodo, cada uno con sus funciones específicas.
Los nodos completos son los nodos que almacenan una copia exacta y actualizada de la cadena de bloques. Son los que verifican la validez de las transacciones y bloques de transacciones y los propagan por la red a otros nodos. Los nodos completos son los encargados de verificar que se cumplen todas las reglas del protocolo Bitcoin y, por tanto, son los que verdaderamente otorgan robustez, seguridad y estabilidad a la red. Entre los nodos completos se destacan los nodos públicos. Estos nodos ejercen de forma continua e ininterrumpida como un punto de comunicación e interconexión con otros nodos de la red para transmitir datos e información. Cualquier nodo que desee conectarse con un nodo público lo puede hacer libremente cuando quiera.
Los nodos de minería o mineros son los nodos completos que agrupan las transacciones en bloques y los confirman realizando lo que se denomina minado y que se explica más adelante.
Por último, están los nodos ligeros. Son nodos que no mantienen una copia de la cadena de bloques y no participan en el proceso de verificación y validación de las transacciones. Los nodos ligeros pueden solicitar y recibir de los nodos completos públicos el estado de una transacción concreta. En particular pueden obtener información de sus propias transacciones, si están incluidas o no en un bloque. Los nodos ligeros trabajan únicamente como puntos finales de comunicación y son ejecutables en dispositivos móviles como teléfonos y tablet.
Hay que destacar que toda transacción también debe incluir el pago voluntario de una comisión para quienes realizan las verificaciones, agrupan las transacciones en bloques y confirman los bloques, esto es, para los mineros.
-
Bloques de la cadena
Una ver realizadas, las transacciones se trasmiten entre los nodos mediante el protocolo de comunicación de la red Bitcoin y los nodos completos verifican su validez. Una vez verificada su validez, las transacciones quedan a la espera de que los nodos mineros las agrupen en un bloque y lo confirmen. Cada minero construye su propio bloque seleccionando las transacciones que más le beneficien y no estén incluidas en bloques ya confirmados. Estos bloques son los bloques candidato y su tamaño tiene que ser inferior a un megabyte. Como se verá más adelante, para que un bloque sea confirmado, y en consecuencia también todas sus transacciones, se tiene que minar. Como minar un bloque está recompensado, hay muchos mineros construyendo su bloque candidato y todos ellos contendrán más o menos las mismas transacciones. Además, junto con las transacciones verificadas, en los bloques se introduce una primera transacción denominada coinbase, que no tiene entrada y la salida está dirigida a una clave pública y dirección del minero. Esta salida de transacción contiene los bitcoin que recibirá el minero por el minado y las comisiones de las transacciones. También, de los resúmenes de las transacciones de cada bloque se calcula su raíz de Merkle.
Todos los bloques confirmados tienen su propio resumen. Para encadenar un bloque con los anteriores, se introduce en los bloques candidato el resumen del último bloque confirmado. Así confirmado un bloque candidato con su correspondiente resumen, queda encadenado al anterior. Cualquier modificación en una transacción almacenada en un bloque requerirá cambiar el resumen de su bloque y, como este resumen está contenido en el bloque siguiente, también se deberá cambiar su resumen, y así sucesivamente. En definitiva, modificar una transacción almacenada en un bloque requiere modificar el resumen de su bloque y el de todos los bloques siguientes, lo cual resulta técnicamente irrealizable. Ésta es la gran garantía de seguridad de la base de datos Bitcoin.
Para su identificación e información, en el encabezado de cada bloque se incluye su resumen, la raíz de Merkle, una marca de tiempo, timestamp en inglés, y los datos del minado.
-
Minado de un bloque. Prueba de trabajo
En Bitcoin, una vez conformado un bloque de transacciones, para confirmarlo hay que minarlo realizando una prueba de trabajo (PoW del inglés Proof-of-Work). La prueba de trabajo consiste en obtener un resumen del bloque que sea menor que un número fijado, denominado target, que en hexadecimal es un número de 64 cifras que comienza por unos cuantos ceros. Recordemos que los resúmenes son números y se pueden comparar con el target. Esta prueba de trabajo es muy difícil de realizar, pero muy fácil de verificar.
En Bitcoin, cada bloque se conforma y mina más o menos cada diez minutos y el primer minero que supera la prueba de trabajo recibe una recompensa en bitcoin de nueva creación. Se consigue mantener un ritmo de más o menos diez minutos en la creación de los bloques, controlando la dificultad del minado. La dificultad del minado es una medida de la cantidad de recursos necesarios para minar Bitcoin, que sube o baja dependiendo de la cantidad de potencia computacional disponible en la red. La dificultad se actualiza automáticamente cada 2016 bloques, más o menos cada dos semanas. Se calcula mediante una fórmula matemática a partir de lo que se ha tardado en minar los 2016 bloques precedentes.
Una vez obtenida la nueva dificultad, a partir de ella, inmediatamente se actualiza y fija un nuevo target para los 2016 bloque venideros. Éste será menor, y por tanto será más difícil minar el bloque, cuanto menor haya sido la dificultad del minado de los 2016 bloques precedentes. Así, conforme más fácil sea el minado debido a la mejora computacional, se aumenta la dificultad del minado imponiendo un target más pequeño. De esta forma, aunque varíe la capacidad computacional de la red, se consigue mantener el tiempo de unos 10 minutos entre cada bloque.
El procedimiento para superar la prueba de trabajo consiste en añadir al bloque un número arbitrario, que sólo se puede usar una vez, con el fin de que el resumen resultante cumpla la condición de ser menor que el target. Este número se denomina nonce o número de un solo uso y normalmente consta de 8 cifras hexadecimales. La única forma de obtener el número de un solo uso requerido es probando por fuerza bruta. Este proceso requiere un intensivo trabajo computacional con hardware especializado (ASIC) y consume gran cantidad de energía eléctrica. A esto se debe la creación de pools de mineros en países como China, en los que la energía es barata y el minado resulta rentable.
Una cuestión a solucionar es cómo resolver el problema del doble gasto, que una misma moneda no se pueda gastar dos veces. Esta dificultad es propia de las monedas descentralizadas, ya que al no haber un centro que controle la llegada de las transacciones, ante dos iguales, no siempre es posible decidir cual se ha producido la primera y darle a ésa la validez. En Bitcoin, con frecuencia se da el caso en que, a partir de un mismo bloque, dos mineros minen casi simultáneamente su bloque y lo distribuyen a la red por caminos distintos. Como son los propios mineros quienes conforman los bloques, los dos bloques serán parecidos, contendrán casi las mismas transacciones, pero no serán idénticos, tendrán distinto resumen. En estos casos, unos mineros trabajarán con de uno de los bloques para conformar y minar un nuevo bloque, y otros lo harán con el otro bloque. Detectada esta situación, aunque los dos bloques sean válidos, los mineros confirmarán el bloque que tenga mayor prueba de trabajo, el que tenga mayor resumen. El bloque descartado se denomina bloque huérfano. El bloque huérfano se invalida; el minero que realizó la prueba de trabajo se queda sin recompensa y las transacciones que no estén incluidas en el bloque confirmado quedan a la espera de ser incluidas en un nuevo bloque. De esta forma se evita que una transacción se utilice dos veces, que haya doble gasto, y el resultado es una única versión de la cadena de bloques. Una vez que un minero encuentra el número de un solo uso, lo anuncia inmediatamente a los otros mineros, éstos verifican la prueba de trabajo y las transacciones y deshacen su bloque candidato. La comprobación de que el minado es correcto por parte de los mineros es fácil e inmediata y el bloque junto con todas las transacciones que contiene queda confirmado e incluido en la cadena de bloques.
Como ejemplo volvemos al resumen de los tres párrafos de la introducción de este artículo. Hemos mostrado que es
aedd1bb22c321638f1155e3611bed6e677b73de5c428a9ed956d35f54d47a3e6
Fijamos como target el número
00000000000000000fffffffffffffffffffffffffffffffffffffffffffffff
Este número es el mayor escrito con 64 cifras hexadecimales que tiene 47 cifras significativas (las 17 primeras son 0). La prueba de trabajo, el minado, consiste en añadir al texto del resumen un número de un solo uso para forzar que el resumen sea menor que este número, es decir, que tenga 46 cifras significativas (las 18 primeras 0) o 47 significativas (las 17 primeras 0) seguidas de alguna que no sea la f. Esto solo se puede hacer probando, probando y probando. Como se ha indicado, esto requiere de hardware específico que consume mucha energía. Como hay muchos mineros intentando superar la prueba trabajo y como esto hay que hacerlo prácticamente de forma continua para todos los bloques, el consumo global de energía en el minado es altísimo.
-
Recompensa por minar
Una de las claves de la superveniencia de Bitcoin se debe a que, por cada bloque minado, quien lo consigue en primer lugar recibe una recompensa en nuevos bitcoin. En concreto, todos los bitcoin que se van acuñando son para los mineros que consiguen en primer lugar el minado. También, estos son quienes reciben las comisiones de las transacciones. Está programado que cada 210.000 bloques, unos 4 años a diez minutos por bloque, la emisión de bitcoin se reduzca a la mitad. En consecuencia, la remuneración del minado por bloque también se reduce a la mitad. En los cuatro primeros años, de 2009 a 2012, se pusieron en circulación 10.500.000 bitcoin y por el minado de cada bloque se pagaron 50 bitcoin (210.000×50=10.500.000). A partir de mayo de 2020 y hasta 2024, el pago por minado se ha reducido a 6,250 bitcoin, por lo que en esos cuatro años se acuñarán en total 1.312.500 bitcoin. La producción total de bitcoin está limitada a 21 millones y a este ritmo finalizará en el año 2140. A partir de esa fecha, los mineros solo recibirán por el minado las comisiones de las transacciones. Otra cuestión muy distinta es por cuantos euros o dólares se cambie un bitcoin.
Veamos como ejemplo el bloque número 672431 de fecha 2021-02-27 13:28.
-
Bloque: 672431
-
Resumen:
00000000000000000003120e9aa5b6f1247a730c4b0dfc6716db4b855c978da5
-
Raíz de Merkle:
6b44315f7b2621d8a21554e1dc96178bd935d042e23cb77e75bf4b1f4fd78ff1
-
Número de transacciones: 2096
-
Volumen de la transacción: 1446,34840523 bitcoin
-
Recompensa por minado: 6,250 bitcoin
-
Remuneración por comisiones: 0,41695539 bitcoin
-
Target:
0000000000000000000cf4e30000000000000000000000000000000000000000
-
Nonce: 04e9a917
Es inmediato comprobar que, como números hexadecimales, el resumen es menor que el target.
-
Comentario final
Bitcoin es una moneda totalmente digital, no se sustenta en nada físico, ni en bancos centrales, ni en organizaciones financieras. El propio Bitcoin es quien crea y emite su moneda. Bitcoin opera en una red de ordenadores abierta, descentralizada y distribuida. Esto es, quien quiera se puede integrar en la red Bitcoin, todos los nodos son iguales, no hay jerarquías, y tienen una copia de la gran base de datos de todas las transacciones. Las transacciones se realizan directamente entre origen y destino y son públicas. Su fiabilidad y seguridad reposa en la firma digital. Para almacenar de forma segura los datos, las transacciones se agrupan en bloques que se van encadenando uno detrás de otro, de forma que un bloque contiene el resumen del anterior. Una modificación de una transacción de un bloque requiere modificar su resumen, al estar este resumen incluido en el siguiente bloque, se tendrá que modificar su resumen y así uno a uno el resumen de todos los bloques siguientes, lo cual no es realizable computacionalmente. Además, como la base de datos está replicada en los nodos, habría que cambiar la de todos los nodos. Los bloques los confirman los mineros mediante una prueba de trabajo. El primer minero que supera la prueba de trabajo transmite el bloque al resto de mineros, éstos verifican la validez de las transacciones y de la prueba de trabajo, el bloque queda confirmado e incluido en la base de datos y el minero recibe una recompensa en bitcoin de nueva creación.
La emisión de moneda bitcoin está totalmente regulada, tanto en sus tiempos como en su número y destino, por unas reglas fijas. La emisión es totalmente independiente del valor de los bitcoin, de que haya una mayor o menor demanda de bitcoin y de la coyuntura económica del momento. Ninguno de los bitcoin que se emiten van al mercado, todos se adjudican a los mineros que superan la prueba de trabajo. La retribución en bitcoin por minado también está fijada por el propio sistema. Cada cuatro años la emisión de bitcoin se reduce a la mitad. Como en total se emitirán 21 millones de bitcoin, se alcanzarán los 21 millones en el año 2140. En 2020 ya han sido acuñados alrededor de 18.593.000 bitcoin. Se estima que alrededor de tres o cuatro millones de bitcoin han desaparecido por pérdida de las claves privadas, errores en las direcciones, etc.
Realizar la prueba de trabajo requiere hardware especializado de elevado consumo energético. Como le retribución por minado resulta al cambio alta, hay muchos mineros y pools de mineros que se dedican al minado. Como el minado de los bloques es prácticamente continuo, ya que en cuanto se mina un bloque se comienza a conformar el siguiente, el consumo global de energía por minado es muy elevado, lo cual suscita mucha controversia.
Para terminar, unas observaciones sobre Bitcoin.
Las monedas al uso tienen que cumplir tres funciones: permitir almacenar valor, realizar intercambios y transacciones, y servir como unidad de cuenta. Esto último significa servir de referencia de valor como, por ejemplo, basta con leer el precio en euros de un teléfono móvil para hacerse una idea de su valor. Según estos criterios, no se puede decir que las criptomonedas sean monedas de verdad, ya que no cumplen estas tres propiedades. La que más se cumple es la de almacenamiento de valor. Pero como medio de intercambio no se acepta en demasiados sitios, y debido a su constante cambio de valor, tampoco sirve como referencia. Las criptomonedas no serán monedas de verdad hasta que no se cumplan estas tres propiedades, en particular hasta que no se generalice cambiar bitcoin por, por ejemplo, un coche, un billete de avión o la realización de un trabajo.
Existen en el mercado casas de cambio que permiten cambiar bitcoin por dólares o euros y viceversa. Así, quienquiera puede adquirir bitcoin e ingresar en la red Bitcoin. En sus dos primeros años, 2009 y 2010, el valor del bitcoin era prácticamente cero y el 2-01-2011 valía 5 dólares. En enero de 2015 se cambiaba por alrededor de 300 dólares y desde entonces, con grandes altibajos, no ha dejado de acumular valor. ¿Hasta cuanto podrá alcanzar su valor? ¿Se está ante una burbuja?
Bibliografía
Para un estudio más detallado
Mikel Lezaun. Blockchain. Bitcoin, La Gaceta de la RSME, Vol. 24 (2021), Núm. 3, Págs. 533-558.
Sobre el autor: Mikel Lezaun Iturralde es catedrático de matemáticas aplicadas en el Departamento de Matemáticas de la UPV/EHU
El artículo Introducción a Bitcoin se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2021: Daniel Torregrosa – La química al servicio del mal
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
Daniel Torregrosa, famoso popularmente entre otras cosas por su libro del Mito al laboratorio (Ed. Cálamo), se hizo muy conocido en la blogosfera por sus textos sobre venenos. Estaba tardando que diese una charla sobre su historia.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2021: Daniel Torregrosa – La química al servicio del mal se ha escrito en Cuaderno de Cultura Científica.
Observación experimental del fraccionamiento del espín en un material orgánico

Nos resulta de sentido común el que unidades sencillas se unan para formar estructuras más complicadas. Así, los átomos se unen para formar moléculas, que a su vez se combinan formando células y estas forman tejidos, dando lugar por último a seres vivos. En el mundo cuántico, este proceso puede ocurrir en dirección contraria, de forma que la interacción entre cosas “complejas” da lugar a cosas más “sencillas”. Así, en ciertas circunstancias, como el efecto Hall cuántico fraccionario, la interacción entre electrones, partículas indivisibles con carga eléctrica e, puede dar lugar a la emergencia de partículas con carga e/3. Este fenómeno se conoce como fraccionamiento.
Todas las partículas elementales poseen propiedades intrínsecas como masa o carga, que nos resultan intuitivas, y otras que nos lo son menos, como el espín, pero que podemos visualizar como una brújula. A diferencia de las brújulas normales, que pueden apuntar en cualquier dirección, el espín de los sistemas cuánticos está cuantizado, valga la redundancia, y únicamente puede tomar un conjunto discreto de valores. Por ejemplo, decimos que el espín del electrón es 1/2 y puede tomar únicamente dos valores, +1/2 y -1/2. Partículas con espín 1 pueden tomar tres valores, +1, 0 y -1.
En los años 80 el físico inglés Duncan Haldane construyó un modelo matemático para partículas de espín 1 en el que se producía el fraccionamiento de los espines. Así, una cadena unidimensional de partículas indivisibles de espín 1, interactuando con sus vecinas, daba lugar a la aparición de partículas de espín 1/2 en los bordes de la cadena. Igual que el truco de magia en el que el mago que corta en dos mitades a una persona y las separa, el modelo de Haldane permite fraccionar espines 1 y separarlos. Se trata de uno de los modelos centrales del magnetismo cuántico, un trabajo que le valió el premio Nobel en 2016.
La verificación experimental de esta predicción era complicada por varios motivos, empezando por el hecho de que no existen materiales unidimensionales. Había evidencia indirecta del fenómeno de fraccionamiento del espín en materiales orgánicos que contienen cadenas de átomos magnéticos, pero faltaba una observación directa. Ahora esa observación se ha llevado a cabo por un equipo internacional de investigadores, entre los que se encuentra el investigador Ikerbasque David Jacob, del Departamento de Polímeros y Materiales Avanzados: Física, Química y Tecnología de la Facultad de Química de la UPV/EHU, que ha colaborado en este trabajo con el INL, la Universidad de Alicante, el EMPA en Zurich y la Universidad de Dresde.
Para conseguirlo los investigadores han combinado técnicas de química orgánica con ciencia de superficies en ultraalto vacío para sintetizar moléculas de grafeno con espín 1 que forman cadenas unidimensionales. Usando un microscopio de efecto túnel los investigadores han podido estudiar los estados cuánticos de la cadena depositada en una superficie de oro, con resolución atómica, compararlos con los predichos por la teoría, y establecer que en efecto el sistema se comporta como el modelo de Haldane. En particular, en cadenas con un número suficientemente alto de moléculas magnéticas, los investigadores encontraron en los extremos de la cadena resonancias Kondo, un fenómeno que ocurre cuando partículas de espín ½ interactúan con los electrones de un conductor como el oro.
Los investigadores afirman que este trabajo “muestra el potencial para usar nanografenos para formar redes bidimensionales de nanoimanes que permitan comprobar predicciones análogas a las de Haldane, como por ejemplo la existencia de estados cuánticos que permitirían realizar la computación cuántica”.
Referencia:
Shantanu Mishra, Gonçalo Catarina, Fupeng Wu, Ricardo Ortiz, David Jacob, Kristjan Eimre, Ji Ma, Carlo A. Pignedoli, Xinliang Feng, Pascal Ruffieux, Joaquín Fernández-Rossier, Roman Fasel (2021) Observation of fractional edge excitations in nanographene spin chains Nature doi: 10.1038/s41586-021-03842-3
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Observación experimental del fraccionamiento del espín en un material orgánico se ha escrito en Cuaderno de Cultura Científica.
Nuestro cerebro no piensa (y el de usted, tampoco)
José Manuel Muñoz y Javier Bernácer

“Los seres humanos solo utilizamos el 10 % de nuestro cerebro”. “El cerebro de los adultos no cambia”. “El cerebro reptiliano es el que gobierna la conducta de los niños”. “Una persona es más inteligente cuantas más neuronas tenga”. ¿Quién de nosotros no ha escuchado estas afirmaciones alguna vez? Y, sin embargo, son falsas.
Se trata de malas interpretaciones acerca del cerebro (“neuromitos”) que calan a menudo en la población a través de ciertas formas de divulgación científica. También llegan incluso al ámbito de la educación. Así lo demuestra un estudio publicado en 2014, en el que se comprobó que los profesores de diversos países, tanto occidentales como orientales, tendían a creer en esta clase de afirmaciones.
La difusión de estas ideas erróneas no es banal, sino que puede llevar a estrategias educativas sin sustento científico y dañinas. Por ejemplo, el enriquecimiento excesivo del entorno de los niños y la obsesión por enseñarles cuantas más cosas mejor antes de los seis años.
Confundir la parte con el todo
Otro error que se presenta con frecuencia en la comunicación de la neurociencia consiste en perpetuar la llamada “falacia mereológica”: adjudicar a la parte (el cerebro) atributos psicológicos que, en realidad, pertenecen al todo (el ser humano en su conjunto).
Mediante una rápida búsqueda en internet podemos toparnos con expresiones como “el cerebro piensa”, “el cerebro recuerda”, “tu cerebro ve”, o hasta “tu cerebro odia”.
Este tipo de expresiones no solo se emplean por parte de los divulgadores científicos, sino también en ámbitos como la enseñanza e, incluso, la ciencia profesional. Sirva como muestra de esto último uno de los objetivos perseguidos por la iniciativa australiana para la investigación del cerebro (Australian Brain Initiative), que sus promotores plantean como “entender y optimizar cómo el cerebro aprende en la infancia”.
Esta falacia mereológica constituye la base conceptual de lo que el filósofo Carlos Moya califica como un nuevo (y paradójico) “dualismo materialista”. Una vez superada la concepción dualista alma-cuerpo (al modo cartesiano), se tiende ahora a pensar en un cerebro independiente o aislado del cuerpo. Este último parece, en cierto modo, prescindible. Esto no se ajusta a la realidad: el cerebro es solo una parte del sistema nervioso, que a su vez es solo una parte del cuerpo. Dicho cuerpo, además, se enmarca en un contexto social (no es un “cerebro en una cubeta”) que afecta decisivamente al desarrollo y la historia vital del individuo.
Ni los pies caminan, ni el cerebro piensa
El lector estará de acuerdo en que sus pies no caminan, sino que es usted quien camina empleando sus pies. De igual forma, no es su cerebro el que piensa, recuerda, odia o ama, sino que es usted quien hace todo esto utilizando su cerebro.
Podría pensarse que la comparación entre cerebro y pies no resulta adecuada, pues el cerebro, a diferencia de aquellos, goza de una gran capacidad de control sobre las demás partes del organismo. Sin embargo, no debe olvidarse que el cerebro depende, a su vez, de otros órganos para su subsistencia y funcionamiento, en especial (aunque no solo) del corazón.
De ningún modo el cerebro es independiente y gobernador del resto del cuerpo, como demuestra la dinámica de su desarrollo: no es hasta la vigesimotercera semana de vida prenatal cuando aparecen las primeras sinapsis en el embrión humano, y no es hasta pasados los veinte años cuando el cerebro termina de desarrollarse por completo. De hecho, el cerebro sigue cambiando hasta el día de nuestra muerte. Sencillamente, sin cuerpo no puede haber cerebro, tanto funcional como cronológicamente.
Hasta cierto punto, resulta comprensible que científicos o divulgadores formados en neurociencia tiendan a transmitir, consciente o inconscientemente, la falacia mereológica. Después de todo, su conocimiento especializado puede conducir a sobredimensionar la importancia de una parte de la realidad.
Por eso, y al igual que se ha normalizado el hecho de que una “ciencia de la parte”, como es la neurociencia, impregne decisivamente la comprensión de las ciencias sociales y las humanidades que estudian al ser humano en su conjunto, debería normalizarse también el camino complementario: que estas “ciencias del todo” contribuyan a un entendimiento más completo (y realista) del sistema nervioso.
Para lograrlo, la neurociencia debería ser más receptiva al estudio y el diálogo genuino con otras disciplinas (psicología, educación, comunicación, derecho, filosofía). La colaboración interdisciplinar podría, así, contribuir a frenar la proliferación de neuromitos y visiones reduccionistas de lo humano que entorpecen incluso el avance de la propia neurociencia. El rigor metodológico no debería asociarse a una falta de rigor argumentativo. Comunicar el cerebro, después de todo, no implica limitarse al cerebro.
Sobre los autores: José Manuel Muñoz es investigador en el Centro Internacional de Neurociencia y Ética (CINET) de la Fundación Tatiana Pérez de Guzmán el Bueno, y en el Grupo Mente-Cerebro, Instituto Cultura y Sociedad (ICS) de la Universidad de Navarra y Javier Bernácer es investigador en el Grupo Mente-Cerebro del ICS.
Este artículo fue publicado originalmente en The Conversation. Artículol original.
El artículo Nuestro cerebro no piensa (y el de usted, tampoco) se ha escrito en Cuaderno de Cultura Científica.
La disección de Dudeney, de rompecabezas matemático a creación artística
La historia que está detrás de esta entrada del Cuaderno de Cultura Científica empieza cuando hace unos meses descubro la existencia de varias obras de la artista constructivista británica Natalie Dower (1931, Londres) relacionadas con la conocida disección de Dudeney, una disección geométrica de un triángulo equilátero cuyas piezas se pueden reordenar formando un cuadrado, o viceversa.

De hecho, esta entrada podría tener de subtítulo “Sobre la importancia de la divulgación de las matemáticas”, ya que en una entrevista realizada por el artista Patrick Morrisey a la artista Natalie Dower, para Saturation point, esta ponía de relieve cómo había llegado a la disección de Dudeney a través de un texto del gran divulgador de las matemáticas Martin Gardner (1914-2010):
La exploración es el uso que yo hago de cualquier sistema con el que estoy trabajando. El más importante ha sido la disección de Dudeney, que encontré en “Mathematical Puzzles and Diversions” de Martin Gardner. Se trata de la disección de un cuadrado en cuatro piezas diferentes que, incluso articuladas, pueden ensamblarse formando un triángulo equilátero. Recuerdo dónde estaba y la emoción del momento exacto en que me di cuenta del enorme abanico de posibilidades que ofrecía. Durante la década siguiente, todos los dibujos, relieves, esculturas y pinturas, variando en escala de centímetros a metros, se generaron a partir de esta […].

Pero vayamos con la disección de Dudeney. En general, una disección geométrica consiste en cortar una figura geométrica dada, como un triángulo, un cuadrado u otra figura más compleja, en una serie de piezas que reordenadas dan lugar a otra figura geométrica.
Como ejemplo de disección geométrica podemos mostrar la solución a uno de los problemas que el matemático recreativo británico Henry E. Dudeney (1857-1930) comenta en su libro Amusements in mathematics (1917). El problema consiste en saber cómo dividir un cuadrado en cuatro partes para generar una cruz griega, es decir, una cruz con los cuatro brazos iguales. Las soluciones mostradas en el libro, que podían realizarse con dos cortes, eran:
Estas disecciones geométricas, como muchas otras, son utilizadas a menudo como rompecabezas geométricos. El rompecabezas consistiría en las cuatro piezas –las cuatro iguales en el primer caso o todas distintas en el segundo– para construir con ellas tanto el cuadrado como la cruz griega. De hecho, este es uno de los cuatro rompecabezas que utilizamos en la Real Sociedad Matemática Española para darle publicidad a la página DivulgaMAT y que se muestran a continuación.
Pero hay muchos rompecabezas geométricos relacionados, de diferentes formas, con las disecciones, como los clásicos Tangram (véanse las entradas Tangram, El arte contemporáneo que mira al Tangram y Un teorema sobre el Tangram) y Stomachion (véanse las entradas El puzle Stomachion y el palimpsesto de Arquímedes (1) y El puzle Stomachion y el palimpsesto de Arquímedes (2)).

Las disecciones geométricas tienen una historia muy larga y rica, ya que nos las podemos encontrar hace dos milenios en la matemática griega o hace mil años en la matemática árabe. Dentro de la matemática recreativa tiene una historia más reciente. En la revisión del libro Récréations mathématiques et physiques (1694) del matemático francés Jacques Ozanam que realiza Jean Montucla (1778), ya aparecen problemas con disecciones geométricas. También se incluyen disecciones geométricas en el libro Rational Amusement for Winter Evenings (1821), del matemático John Jackson.

El problema de las disecciones geométricas cautivó a la comunidad matemática en el siglo XIX. Entre otras cuestiones estudiadas, varios matemáticos demostraron, de forma independiente, que para cualesquiera dos polígonos simples (es decir, cuyos lados no contiguos no se intersecan) con la misma área, se puede cortar cualquiera de ellos en una cantidad finita de piezas que reordenadas nos permiten obtener el otro. Fueron el matemático británico John Lowry (1769-1850) en 1814, el matemático británico William Wallace (1768-1843) en 1831 (según Greg Frederickson, aunque según Ian Stewart fue en 1807), el matemático húngaro Farkas Bolyai (1775-1856), padre de uno de los protagonistas del nacimiento de las geometrías no euclídeas, Janos Bolyai (1802-1860), en 1832, y el matemático alemán Paul Gerwien (1799-1858) en 1833. La idea de la prueba es cortar cada polígono simple en triángulos y luego estos en piezas de forma que con las mismas se pueda generar un cuadrado, después superponiendo las dos disecciones sobre el cuadrado se obtienen las nuevas piezas que nos dan la disección geométrica entre los dos polígonos simples.
El resultado anterior nos asegura la existencia de una disección entre dos polígonos simples con la misma área, sin embargo, el método genera una disección compleja (podríamos decir fea) con muchísimas piezas. Por otra parte, desde la matemática recreativa se preocuparon de disecciones más atractivas y con pocas piezas. Entre los autores que estudiaron las disecciones geométricas encontramos al matemático francés Edouard Lucas (1842-1891), autor del texto Recreaciones matemáticas (1894), al corredor de bolsa y matemático amateur británico Henry Perigal (1801-1898), conocido por su demostración del teorema de Pitágoras mediante disecciones que aparece en su texto Geometric Dissections and Transpositions (1891), el matemático y abogado británico Henry M. Taylor (1842-1927) o el matemático e ingeniero británico William H. Macaulay (1853-1936).

Aunque debemos destacar a dos de los más grandes creadores de juegos lógicos y rompecabezas matemáticos, el matemático británico Henry E. Dudeney y el matemático recreativo y ajedrecista estadounidense Sam Loyd (1841-1911). Estos dos matemáticos, que colaboraron por correspondencia durante algún tiempo hasta que el inglés acusó al norteamericano de robarle sus rompecabezas y publicarlos con su nombre, se preocuparon de encontrar disecciones geométricas con el menor número de piezas posibles. Pueden encontrarse sus rompecabezas y problemas matemáticos relacionados con las disecciones en sus libros, entre ellos, Cyclopedia of 5000 Puzzles, Tricks and Conundrums with Answers (1914), de Sam Loyd, The Canterbury Puzzles (1907) y Amusements in Mathematics (1917), de Henry E. Dudeney.
La conocida como disección de Dudeney, de un triángulo equilátero en un cuadrado, aparece como “el acertijo del mercero” en el libro de Henry E. Dudeney The Canterbury Puzzles.
El acertijo del mercero: […] Enseñó [el mercero] un trozo de tela con forma de triángulo equilátero perfecto, como se ve en la ilustración y dijo: “¿Es alguno de vosotros diestro en el corte de género? Estimo que no. Cada hombre a su oficio, y el estudioso puede aprender del lacayo, y el sabio del necio. Mostradme, pues, si podéis, de qué manera puede cortarse este trozo de género en cuatro piezas, para que puedan reunirse y formar un cuadrado perfecto”.
La solución al acertijo del mercero que incluye Dudeney en su libro The Canterbury Puzzles es la que aparece en la siguiente imagen.
Dado el triángulo ABC la construcción que propone Dudeney, mostrada en la anterior imagen, es la siguiente:
a. marcar los puntos medios D y E de los lados AB y BC, respectivamente;
b. extender el segmento AE hasta un punto F tal que EF = EB;
c. marcar el punto medio G del segmento AF y trazar el arco de circunferencia de centro G y radio GF = AG;
d. extender el segmento CB hasta que corte el arco de circunferencia en el punto H;
e. trazar un arco de circunferencia con centro E y radio EH hasta que corte el lado AC en el punto J;
f. determinar el punto K tal que JK = AD (= DB = BE = EC);
g. trazar el segmento JE;
h. trazar desde D y K los segmentos perpendiculares al segmento JE, dando lugar a los puntos L y M (los segmentos serían DL y KM).
El problema del mercero fue propuesto por primera vez por Dudeney en 1902 en el periódico británico Weekly Dispatch. Dos semanas después de publicarse el acertijo el matemático realizó una pequeña discusión sobre el problema y finalmente, otras dos semanas después, Dudeney publicó la solución y la explicación.
Pero la disección de Dudeney del triángulo equilátero en el cuadrado tiene una propiedad muy especial –es lo que se conoce como una disección con bisagras, pero incluso estas direcciones han tomado el nombre de disecciones de Dudeney–, ya que todas las piezas pueden conectarse a través de una serie de puntos “bisagra” que permiten transformar una figura en la otra (en este caso el triángulo en el cuadrado, o viceversa) girando las piezas alrededor de las bisagras. En el caso de la disección de Dudeney se pueden colocar tres bisagras en los puntos D, E y K de la imagen anterior, aunque esos puntos no son únicos, también podrían ponerse las bisagras en los puntos J, K y E.

Utilizando la anterior propiedad se puede construir un juguete cinético como el siguiente.

Más aún, se podría diseñar una mesa que en algunas ocasiones se puede utilizar con forma cuadrada y en otras con forma triangular, como aparece en el siguiente diseño de Mackenzie Kovaka (véase su página web Mackenzie Kovaka).
La disección de Dudeney del triángulo equilátero en el cuadrado, al igual que otras disecciones con bisagras, puede obtenerse con el “método de la tira en T” introducido por el ingeniero y matemático aficionado británico-australiano Harry Lindgren (1912-1992) en su libro Geometric Dissections (1964). Expliquemos en qué consiste este método geométrico (véase Recreational Problems in Geometric Dissections and How to Solve Them de Lindgren o Dissections: Plane & Fancy de Frederikson).
El método para obtener la disección del triángulo equilátero y el cuadrado empieza construyendo dos tiras, una de cuadrados y otra de triángulos (ambas figuras con la misma área) y luego marcando los puntos de ancla de las dos tiras, es decir, aquellos puntos tales que si se hace una rotación de 180 grados alrededor de ellos se obtiene de nuevo la tira inicial (es decir, los puntos ancla son los centros de las simetrías rotacionales, de 180 grados, de las tiras).
El siguiente paso es cruzar las dos tiras de manera que los puntos ancla de una tira estén sobre los bordes o los puntos ancla de la otra tira, como se puede observar en la siguiente imagen para el caso que estamos analizando.
Y se obtiene así la disección con bisagras (que están en los puntos ancla) del triángulo equilátero en el cuadrado, o viceversa.
El método de la tira en T nos permite obtener más ejemplos, como se muestra, por ejemplo, en los libros Recreational Problems in Geometric Dissections and How to Solve Them de H. Lindgren o Dissections: Plane & Fancy de Frederikson. En la siguiente imagen, del segundo de los libros, tenemos una disección geométrica de un triángulo en una cruz griega, que no es de Dudeney, es decir, no pueden unirse las piezas con bisagras.
En relación a las disecciones geométricas con bisagras también se planteó el problema de la existencia, es decir, el problema de si dadas dos figuras geométricas cualesquiera con la misma área y cuyos bordes son polígonos simples, siempre era posible encontrar una disección con bisagras entre ellas. La respuesta llegó en 2008 de la mano de los matemáticos Timothy G. Abbott, Zachary Abel, David Charlton, Erik D. Demaine, Martin L. Demaine y Scott D. Kominers, que publicaron (en 2012) su resultado en el artículo Hinged Dissections Exist.
Pero finalicemos esta entrada del Cuaderno de Cultura Científica volviendo a la artista constructivista británica Natalie Dower y a algunos ejemplos más que ponen de manifiesto su profundo interés en este resultado matemático y en su uso como herramienta de creación artística.
Empecemos con una versión en madera de la anterior escultura Tetraedro (1985), en cuya base se puede apreciar la disección de Dudeney que da lugar a las dos esculturas.

A continuación, mostramos dos pasteles al óleo de Dower cuyo motivo central es el cuadrado, respectivamente el triángulo, con la disección de Dudeney, mientras que alrededor hay una composición con las piezas de la misma, que son sus herramientas en toda esta serie de obras constructivistas.


La siguiente obra, Círculo de Dudeney (1989), está creada a partir de las piezas de la disección de Dudeney. En la parte central de la misma pueden verse dos copias, complementarias, del triángulo diseccionado.


Terminamos con otra obra donde se intuye, por su título Dudeney codificado (1987), que su diseño está inspirado también en la disección de Dudeney.

Bibliografía
1. Greg N. Frederickson, Dissections: Plane & Fancy, Cambridge University Press, 1997.
2. Ian Stewart, From Here To Infinity, Oxford University Press, 1996.
3. Greg N. Frederickson, Ernest Irving Freese’s Geometric transformations: the man, the manuscript, the magnificent dissections!, World Scientific, 2018.
4. Harry Lindgren, Recreational Problems in Geometric Dissections and How to Solve Them, Dover, 1972 (versión revisada por Greg Frederickson del libro Geometric Dissections de 1964).
5. Timothy G. Abbott, Zachary Abel, David Charlton, Erik D. Demaine, Martin L. Demaine, and Scott D. Kominers, Hinged Dissections Exist, Discrete & Computational Geometry volume 47, pp. 150–186, 2012.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo La disección de Dudeney, de rompecabezas matemático a creación artística se ha escrito en Cuaderno de Cultura Científica.
Tres modelos atómicos de los que no has oído hablar
En 2013 se cumplió el centenario del modelo atómico de Bohr. Es el que todavía hoy, a pesar de ser incompatible con principios básicos de la física cuántica, como el de incertidumbre, se sigue explicando para introducir a los estudiantes en el mundo cuántico. Curiosamente, en los libros de texto tan sólo se mencionan dos modelos atómicos anteriores al de Bohr: el de Thomson y el de Rutherford. Parece como si los átmos modernos apareciesen con Dalton en 1804 y lo siguiente fuese el modelo de Thomson.
Leyendo la descripción habitual, a saber,
modelo de Dalton => descubrimiento del electrón => modelo de Thomson => experimentos de Geiger y Marsden => modelo de Rutherford => física cuántica v 1.0 => modelo de Bohr
a uno le queda la sensación de que el desarrollo del modelo de Bohr es algo lineal y que todo se deduce de lo anterior de manera lógica, sólo con esperar el experimento crucial o la idea genial adecuada. Y esto no es así. Para ilustrarlo vamos a conocer solo tres de los modelos atómicos clásicos sugeridos antes del modelo de Bohr.
Cada uno tiene su lógica y su fundamento; todos o bien pasaron desapercibidos o tuvieron vidas breves, habida cuenta de la rapidez con la que descubrían nuevas leyes y se realizaban más experimentos.

Las mónadas físicas de Lomonósov
Empecemos por el principio. Se suele recoger en los libros de texto que la teoría atómica moderna empieza con John Dalton. Y a efectos prácticos, efectivamente es así, porque fueron sus ideas las que se propagaron por la comunidad científica y fructificaron casi 80 años después de haber sido formuladas, eso sí. Pero la primera teoría atómica moderna no se formuló ni en Inglaterra ni en Francia, sino en Rusia 60 años antes de que lo hiciese Dalton.
Su autor fue Fue Mijail Vasílievich Lomonósov quien escribió una serie de artículos entre 1743 y 1744, el primero de los cuales deja claro su visión atomista de la materia ya en el título: “Sobre las partículas físicas intangibles que constituyen las sustancias naturales”. A este artículo le seguiría otro sobre lo que hoy entendemos como enlace químico “Sobre la adhesión de los corpúsculos”. En el tercero de la serie, ante la necesidad de referirse a las partículas o corpúsculos de materia de una manera diferenciada, aparece el nombre elegido: “Sobre la adhesión y la posición de las mónadas físicas”. Lomonósov obviamente había leído a Leibniz, y le tomó prestada la palabra mónada con el apellido física para diferenciarla.
Las mónadas de Lomonósov tenían forma, peso y volumen y las empleó para explicar la naturaleza del calor y la elasticidad de los gases en función del movimiento de partículas, anticipando la teoría cinética de los gases de Krönig de 1856 en ciento once años, y descartando la existencia del flogisto 30 años antes que Lavoisier. Nadie le hizo caso en Occidente (salvo Euler).
El oscilador electrónico de Lorentz
En muchos textos se suele citar a J.J. Thomson como descubridor del electrón. Y es cierto, sus experimentos de 1897 con Townsend y Wilson no dejan lugar a dudas, el fue el descubridor experimental. Sin embargo, la teoría electrónica venía dando sus frutos ya desde 1892. En esa fecha Hendrik Lorentz comenzaba una serie de artículos en los que utilizando un átomo ideal pudo explicar una propiedad de la materia tras otra: la conducción de la electricidad o del calor, el comportamiento dieléctrico, la reflexión y la refracción de la luz, etc. Para ello en su modelo atómico sólo necesitó cuatro ecuaciones que gobernaban cómo responden los campos eléctricos y magnéticos a la carga eléctrica y su movimiento, y una adicional que especificaba la fuerza que esos campos ejercen sobre la carga. Este conjunto de ecuaciones se conocen por el nombre de su autor, Maxwell.
Y, ¿en qué consistía el modelo atómico de Lorentz? Pues en algo muy simple: el átomo sería una masa dada, llamémosla núcleo, aunque no tenemos que postular que tenga carga alguna, unida a otra menor (el electrón) por un muelle (suena raro, pero es solo para que te hagas una imagen). El muelle se pondría en movimiento cuando un campo eléctrico interactuase con la carga del electrón. El campo atrae o repele al electrón lo que resulta en que el muelle se estira o comprime.
Lorentz, como es lógico, no suponía que hubiese ningún muelle físico conectando electrón y núcleo; sin embargo sí postuló que la fuerza que unía a los dos podría ser descrita por la ley de Hooke, que es la misma que describe a los muelles (y a los dinamómetros). Una aproximación que es válida hasta en algunas consideraciones de la mecánica cuántica.
Por cierto, la conferencia que Lorentz dio cuando recibió el Nobel de física en 1902 iba sobre, efectivamente, la teoría del electrón, aunque el premio se lo hubiesen dado con Zeeman por la explicación de los efectos del magnetismo sobre la radiación.
El modelo planetario de Nagaoka
Tras el descubrimiento experimental del electrón era lógico pensar que la existencia de átomos neutros implicaba la existencia de una parte positiva en ellos. En 1904 Thomson propuso el modelo del pudin de pasas, esto es, que el átomo era una esfera de electricidad positiva uniforme con los electrones incrustados como las pasas en el pudin.
Hantaro Nagaoka consideró el modelo de Thomson inviable en cuanto terminó de leer el artículo en el que se lo describía: las cargas opuestas eran impenetrables desde su punto de vista. Él propuso un modelo alternativo ese mismo año en el que el centro cargado positivamente es muy masivo y está rodeado por electrones que lo orbitan a una distancia y unidos a él por fuerzas electrostáticas. En su mente estaban Saturno y sus anillos.
Los experimentos de Geiger y Marsden de 1909 con el pan de oro dieron una primera confirmación experimental al modelo de Nagaoka. En el artículo de 1911 en el que Rutherford presentaría su famoso modelo en el que se propone la existencia del núcleo atómico cita a Nagaoka. Pero en 1908 el propio Nagaoka había renunciado a su modelo al darse cuenta de que los anillos se repelerían entre sí, haciendo el modelo inestable.
Basten estos tres ejemplos para ilustrar lo que decíamos al principio, que el desarrollo de la ciencia no es tan lineal como los libros de texto nos hacen creer. Hay algunos modelos interesantes más, algunos de ellos cuánticos, que preceden al de Bohr. Sobre algunos de ellos hablé aquí: Bohr no fue el primero.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Esta una versión revisada de este texto publicado en Naukas.
El artículo Tres modelos atómicos de los que no has oído hablar se ha escrito en Cuaderno de Cultura Científica.
La aparente paradoja del polimorfismo de color
Juan Gefaell
Uno de los fenómenos biológicos más extendidos en la naturaleza es el del polimorfismo de color, esto es, la coexistencia de individuos de más de un color en las poblaciones naturales de las distintas especies. Consideremos los siguientes lagartos, todos ellos de la especie Podarcis erhardii:

Tal y como se observa en la Figura 1, los distintos individuos de esta especie pueden mostrar tres colores bien diferenciados en la zona de la garganta.
A pesar de su extensión a lo largo y ancho del reino animal (y vegetal), las causas evolutivas del polimorfismo de color todavía no se conocen con exactitud.
Es más, desde cierto punto de vista, su existencia misma es paradójica, puesto que los principales mecanismos que los biólogos emplean para dar cuenta de la evolución de las especies predicen que las poblaciones, más que polimórficas, deberían tender en realidad hacia el monomorfismo, esto es, a la prevalencia de individuos de un único color. Así, los modelos clásicos de selección natural y deriva genética establecen que la variabilidad genética (en última instancia responsable de la variación fenotípica) mengua a medida que estos dos mecanismos operan sobre las poblaciones de organismos.
Por este motivo, el polimorfismo de color es un tema de investigación que atrae especialmente a los biólogos evolutivos.
La selección negativa dependiente de las frecuencias (NFDS)
Uno de los mecanismos evolutivos que se han formulado para explicar el paradójico origen del polimorfismo de color es la selección negativa dependiente de las frecuencias (NFDS por sus siglas en inglés). A pesar de su enrevesado nombre, la idea clave de la NFDS es sencilla: cuanto más frecuente es un fenotipo en una población, menor es su eficacia biológica o capacidad para reproducirse. O lo que es lo mismo: cuanto más raro es un fenotipo, mayor es su eficacia. Esto queda claro con el siguiente gráfico:

La hipótesis de la NFDS ya ha mostrado su capacidad para explicar el polimorfismo de color en algunas especies. Quizás el ejemplo más clásico en este sentido sea el de los caracoles del género Cepaea, estudiados por Bryan Clarke en los años 60 del siglo pasado. En sus investigaciones, Clarke mostró que la NFDS era en gran parte responsable del polimorfismo de color presente en dichas especies.

Resulta que los depredadores de Cepaea, principalmente aves, tienden a formarse imágenes de los colores más habituales en estas especies, de manera tal que, a la hora de depredar, buscan preferentemente a aquellos individuos que coinciden con dichos colores. De este modo, aquellos ejemplares que se alejan significativamente de los colores más frecuentes tienden a dejar más descendencia, pues son ignorados por los depredadores, convirtiéndose así con el paso de las generaciones en el fenotipo más frecuente de la población.
Una vez esto sucede, se invierte la ecuación: las aves depredadoras pasan a formarse imágenes de este nuevo color más frecuente, por lo que lo cazan en mayor medida que a aquellos colores se presentan en menor frecuencia (que en el pasado eran los predominantes). Esto, a la larga, favorece que las poblaciones mantengan el polimorfismo de color.
El género Littorina
Otro grupo de caracoles (en este caso marinos) en el cual el polimorfismo de color está también extendido es el género Littorina. Así, las diversas especies de este género a menudo muestran poblaciones diversas en lo que a su color de concha se refiere, tal y como se puede apreciar, por ejemplo, en la siguiente imagen de L. saxatilis.

Las especies del género Littorina han sido ampliamente estudiadas por los biólogos evolutivos, y especialmente por nuestro grupo de investigación, debido a diversos rasgos que las convierten en organismos modelo ideales (Rolán-Alvarez et al. 2015a). Para nuestros propósitos, cabe destacar uno de estos rasgos: la abundancia de cópulas en la naturaleza, lo cual permite estudiar fácilmente los procesos evolutivos relacionados con el sexo y la reproducción.
La NFDS y los patrones reproductivos
En ciertos estudios, se ha relacionado el patrón de reproducción de una especie con el mantenimiento del polimorfismo de color a través de NFDS. Para entender por qué, es necesario en primer lugar explicar brevemente dos conceptos: el apareamiento asociativo negativo y la elección de pareja.
Empecemos por este último: la elección de pareja a menudo se define como la propensión conductual a aparearse con aquellos individuos que tienen unos rasgos determinados. Es decir, se trata de un mecanismo de comportamiento por el cual los individuos de algún modo prefieren aparearse con ejemplares que poseen unas determinadas características físicas. Por ejemplo, en el caso de los pavos reales, se dice que las hembras tienen una propensión conductual a aparearse con aquellos machos que presentan una cola vistosa y de gran tamaño.
Por otro lado, los biólogos definen el apareamiento asociativo negativo como la correlación negativa que se da entre los fenotipos homólogos de los individuos involucrados en un apareamiento. O, en otras palabras, el fenómeno por el cual los individuos que se aparean son distintos entre sí en algún rasgo fenotípico determinado. Por ejemplo, puede ser que los individuos involucrados en una cópula tengan un color de piel distinto, o un tamaño diferente de pico, etc.
El apareamiento negativo asociativo y la elección de pareja están íntimamente relacionados. Así, por ejemplo, en muchas ocasiones el primero (apareamiento asociativo negativo) está causado por el segundo (elección de pareja).
Además de eso, el apareamiento asociativo negativo ha sido relacionado con la NFDS tanto a nivel teórico como empírico. La idea clave es que, al aparearse con aquellos individuos que son distintos a uno mismo, los caracoles pueden premiar a aquellos ejemplares que están en menor frecuencia en la población, haciendo que esta frecuencia suba a lo largo de las generaciones y que los distintos colores no desaparezcan de la población.
En la práctica, los anteriores vínculos indican que, si se encuentra apareamiento asociativo negativo en las cópulas de una especie polimórfica, entonces se podría pensar que el polimorfismo de dicha especie está causado por NFDS. Así, el apareamiento asociativo negativo puede ser empleado como indicador tanto de la elección de pareja como de la NFDS.

En efecto, esto es lo que nuestro grupo ha encontrado en estudios previos con la especie L. fabalis. En L. fabalis, el polimorfismo de color parece estar mantenido por NFDS a través de un mecanismo conductual de elección de pareja. Nuestro grupo determinó esta relación, entre otras cosas, detectando la existencia de apareamiento asociativo negativo.
En cualquier caso, el alcance filogenético de esta asociación no se conoce; es decir, no se sabe si otras especies del género Littorina, que habitan en un entorno similar, también pueden estar manteniendo sus respectivos polimorfismos de color a través de NFDS.
Por este motivo, nuestro grupo ha realizado un nuevo estudio, de reciente publicación en la revista Marine Biology (Gefaell et al. 2021), en el cual tratamos de responder exactamente a ese interrogante estudiando si en las cópulas de varias especies del género Littorina puede existir algún tipo de NFDS mediado por apareamiento asociativo negativo.
Averiguar si el polimorfismo de color de otras especies del género Littorina se mantiene a través de NFDS puede contribuir a averiguar el alcance explicativo de este mecanismo evolutivo tanto en el género Littorina como en otros gasterópodos marinos, avanzando así nuestro conocimiento de la evolución y la conservación de estas especies en sus entornos naturales.
Metodología seguida en nuestro estudio
Para llevar a cabo nuestro estudio, tomamos datos de cópulas en el campo de las especies L. obtusata y L. saxatilis, además de nuevas poblaciones de L. fabalis. Dichos datos provenían de poblaciones del interior de las distintas Rías Baixas, así como de dos localidades bien estudiadas del Mar Blanco (Rusia). El motivo de la elección de las anteriores especies es que todas ellas comparten un patrón similar de polimorfismo, en el cual los colores más frecuentes son el marrón oscuro, el naranja y el amarillo, distinguiéndose únicamente en el color oliva (L. fabalis y L. obtusata) y el blanco (presente solo en L. saxatilis).

El protocolo de recogida de cópulas en el campo para estudiar el apareamiento asociativo no causó problemas, pues está bien establecido. De hecho, nuestro grupo ha diseñado un método que permite evitar sesgos en la recogida y análisis de datos relativos a las cópulas, lo cual nos permite concluir que la información obtenida es fiable.
Lo mismo sucede con la estimación del apareamiento asociativo negativo: nuestro equipo ha diseñado un programa de ordenador que permite estimar este parámetro de una manera rápida y robusta. Dicho programa mide el apareamiento asociativo a través del índice conocido como IPSI. En pocas palabras, el IPSI cuantifica entre -1 y 1 en qué medida los apareamientos observados se desvían de un patrón de apareamiento aleatorio. Así, un apareamiento asociativo negativo perfecto obtendría un valor de -1 y un apareamiento asociativo positivo perfecto equivaldría a 1. Por último, un apareamiento completamente aleatorio rondaría el 0.
Resultados principales
Pues bien, una vez analizado el IPSI, ¿qué resultados obtuvimos?
Si agrupamos los distintos colores de las tres especies en dos grandes categorías, correspondientes a los colores “claros” y los “oscuros” (algo que está justificado en base a análisis previos de espectrometría de reflectancia), lo que observamos es un patrón claro: todas estas especies muestran una clara tendencia hacia el apareamiento asociativo negativo. Así, los valores de IPSI están comprendidos entre -0.59 y -0.33, tal y como se puede ver en la siguiente tabla.

En este sentido, pensamos que está suficientemente justificado asumir la existencia de apareamiento asociativo negativo en las tres especies estudiadas. Ahora bien, cuando se analizan más en detalle los resultados, desglosándolos por colores y localidades, se advierte una excepción a esta pauta que puede darnos pistas acerca de las presiones selectivas a las que puede estar sometido el color.
En una población de L. fabalis de Cangas, el apareamiento asociativo es de naturaleza positiva (si bien no significativa), al contrario de lo que sucede con el resto de especies y poblaciones.

Tal y como discutimos en nuestro artículo, este resultado discordante sugiere que el verdadero objeto de la selección en esta especie (aquello que favorece la reproducción) no es el color de la concha en sí, sino algún otro rasgo correlacionado con este a nivel genético.
Conclusiones
En definitiva, a partir de nuestro artículo se pueden extraer dos conclusiones: (1) el apareamiento asociativo negativo es un hecho en las tres especies de Littorina analizadas. Esto sugiere que la NFDS y la elección de pareja pueden jugar un papel clave en el mantenimiento del polimorfismo de color de la concha y que la elección de pareja puede ser un rasgo conductual ancestral en el género Littorina.
Y (2), que el color de la concha puede estar relacionado genéticamente con algún otro carácter fenotípico que sea el verdadero objeto de la selección y la elección de pareja.
Como sucede habitualmente en la ciencia, estas dos conclusiones abren futuras vías de investigación, que nuestro grupo tratará de abordar en los próximos meses. Una de estas vías tiene que ver con el diseño y ejecución de un experimento que permita corroborar la existencia de elección de pareja en estas especies. De ese modo, se podrá evaluar más directamente la importancia de la NFDS en el mantenimiento del polimorfismo de color de Littorina. Por otro lado, una segunda vía está relacionada con el estudio de las bases moleculares del color de la concha, para tratar de determinar si en efecto este rasgo está asociado a otros caracteres potencialmente adaptativos.
¡Os mantendremos informados de futuros progresos en ambas líneas de investigación!
Agradecimientos
El presente estudio ha sido financiado gracias al proyecto de investigación CGL2016-75482-P del Ministerio de Economía, Industria y Competitividad (IP, Emilio Rolán-Alvarez), así como gracias a dos ayudas predoctorales de la Universidad de Vigo (PREUVIGO/00VI 131H 641.02) y de la Xunta de Galicia (ED481A-2021/274).
Referencias
Gefaell J, Galindo J, Malvido C, Nuñez V, Estévez D, Blanco S, González-Conde M, Martínez-Domínguez S, Pérez-Fernández G, Rus B, Mosconi I, Rolán-Alvarez E (2021) Negative assortative mating and maintenance of shell colour polymorphism in Littorina (Neritrema) species. Marine Biology, 168:151. doi: 10.21203/rs.3.rs-242300/v1
Rolán-Alvarez E, Austin CJ, Boulding EG (2015a) The contribution of the genus Littorina to the field of evolutionary ecology. En: Hughes RN, Hughes DJ, Smith IP, Dale AC (eds). Oceanogr Mar Biol, vol. 53. CRC Press, Boca Ratón, 157-214
Sobre el autor: Juan Gefaell se graduó en psicología en la Universidad Pontificia de Salamanca y en biología en la Universidad de Vigo; tras cursar un máster en lógica, historia y filosofía de la ciencia en la UNED, en la actualidad realiza su doctorado en biología evolutiva en el departamento de Bioquímica, Genética e Inmunología de la Facultad de Biología de la Universidad de Vigo.
El artículo La aparente paradoja del polimorfismo de color se ha escrito en Cuaderno de Cultura Científica.