Navegación y corrientes oceánicas
Principales corrientes superficiales del Atlántico Norte. En rojo se representan las corrientes cálidas y en azul las frías. Imagen modificada de Bartholomew, J.C. (1973). Advanced Atlas of Modern Geography. Oliver and Boyd, Edinburgh, United Kingdom, 164 pp.
Todos sabemos que la distancia más corta entre dos puntos es la línea recta. Pero esta máxima no siempre se cumple si hablamos de oceanografía y para sustentar esta idea voy a poner un par de ejemplos.
Cuando Cristóbal Colón realizó sus viajes de descubrimiento y exploración de lo que denominaron “el Nuevo Mundo” a finales del siglo XV y comienzos del XVI, no desplegó velas según zarpó de los puertos andaluces y puso rumbo fijo al oeste. En su lugar, bajó hasta las islas Canarias y, desde allí, trazó un pequeño arco hacia el suroeste que le llevó directamente a las islas del Mar Caribe. Pero esta singladura no fue casualidad. Colón era un experto marino y sabía que en esa zona soplaban vientos alisios del noreste casi de manera constante, que facilitaban la navegación de las carabelas hacia lo más inhóspito del océano Atlántico. Así que, simplemente, se dejó llevar por una corriente que bordeaba las islas Canarias, pero que por aquel entonces no entendían muy bien cómo funcionaba.
Para el segundo ejemplo debemos viajar hasta finales del siglo XVIII. En aquella época, los balleneros norteamericanos conocían la existencia de una corriente marina cálida que partía desde el Mar Caribe rumbo a Europa cuya influencia trataban de evitar los cetáceos a los que daban caza, que se concentraban preferentemente en sus bordes. Estos balleneros la denominaron Corriente del Golfo e informaron de su existencia y comportamiento a los capitanes de los navíos mercantes norteamericanos. Tras años de experiencia atravesando esta corriente, los capitanes norteamericanos descubrieron que podían acortar en una media de dos semanas la duración de sus viajes entre las costas norteamericanas y las británicas si navegaban dentro de la Corriente del Golfo, en comparación con la duración que exigía el viaje desde Gran Bretaña a Norteamérica. Los británicos, dudosos de este descubrimiento, solicitaron al mismísimo Benjamín Franklin, que en aquel entonces era el Responsable General de Correos de Nueva Inglaterra, una investigación más a fondo. Armado con un termómetro, Franklin cartografió al detalle la zona de influencia de la Corriente del Golfo, de aguas más cálidas que las circundantes, haciendo una recomendación a los británicos: si la navegación se realizaba hacia el este, el recorrido tenía una menor duración si se seguía la Corriente del Golfo; sin embargo, si el rumbo era oeste, había que evitar a toda costa su influencia, porque lo único que conseguirían los buques era ralentizar su marcha. Aunque al principio los británicos no le tomaron demasiado en serio, a la larga acabaron siguiendo sus consejos.
Hoy en día comprendemos algo mejor la dinámica de las corrientes marinas del Atlántico Norte gracias a los avances en los estudios oceanográficos. Y aunque todo es un poco más complejo de lo que llegaron a imaginar Colón y Franklin en sus épocas, gracias a sus observaciones llegamos a las conclusiones actuales.
Existe una interacción directa entre el comportamiento de la atmósfera y de los océanos que, además, condiciona el clima de nuestro planeta debido a un intercambio mutuo de calor y CO2. En el Océano Atlántico se localizan diversas masas de agua que funcionan como una cinta transportadora que distribuye la energía calorífica desde zonas de latitudes bajas hacia áreas de latitudes altas. A este sistema de corrientes marinas se le conoce como Circulación de Vuelco Meridional del Atlántico o AMOC por sus siglas en inglés (Atlantic Meridional Overturning Circulation). Y aquí es donde entran en juego las corrientes observadas por nuestros dos protagonistas.
La Corriente del Golfo es una corriente superficial de agua cálida y poco densa que nace al Sur de Florida y circula hacia la parte central del Océano Atlántico. Ahí se divide en dos ramas, la Corriente o Deriva del Atlántico Norte, que continúa su camino hacia el norte de Europa, y la Corriente de las Azores o Corriente de Canarias, que es una masa de agua más fría y densa que viaja hacia el sur y realiza un giro en el sentido de las agujas del reloj para retornar hasta el Mar Caribe, donde todo vuelve a empezar.
De esta manera queda en evidencia la importancia de conocer la dinámica oceánica no sólo para entender el comportamiento del clima en nuestro planeta, sino también para comprender las rutas marítimas que trazaron nuestros antepasados y que aún hoy en día siguen realizándose. Porque, como decía al principio, no siempre la línea recta es el camino más corto, ni más rápido, entre dos puntos. Cuando viajamos en barco, es mejor seguir la corriente.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Navegación y corrientes oceánicas se ha escrito en Cuaderno de Cultura Científica.
Esto no es un paseo
Todo lo visible oculta algo invisible.
En Los paseos de Euclides (1955), el pintor surrealista René Magritte (1898-1967) representa un caballete con un cuadro situado frente a una ventana a través de la cual se observa un paisaje urbano. La escena pintada corresponde exactamente al fragmento de paisaje sobre el que se sitúa el cuadro. ¿O quizás no?
Los paseos de Euclides. Fuente: WikiArt.
No es la única propuesta paradójica de «lienzo sobre lienzo» (o de «paisaje frente a una ventana rota») del pintor. Desde la primera mirada al cuadro se provoca la incertidumbre: ¿qué parte es real y qué parte está pintada? ¿El lienzo oculta parte de esa realidad, la altera, o la reproduce con exactitud? ¿Acaso el pintor camufla tras el lienzo situado dentro del cuadro una situación que ha decidido transformar?
¿Y por qué Magritte hace referencia a Euclides (ca. 325 a. C.-ca. 265 a. C.) en el título de su cuadro? Aunque el geómetra no aparece en el lienzo, el cuadro contiene algunas ilusiones ópticas provocadas por formas geométricas y por ciertos efectos de la perspectiva.
En esta pintura el autor superpone exactamente el cuadro situado en la habitación sobre el paisaje real que se puede divisar a través de la ventana. Debido a este solapamiento, la imagen del cuadro se prolonga en el paisaje que se encuentra a su alrededor.
A la izquierda del lienzo, una línea blanca marca un tenue corte que separa la imagen del cuadro de su extensión a la imagen real. Además, en la parte superior derecha, una ligera diferencia de brillo actúa también como elemento separador.
A pesar de que el caballete puede pensarse como una manera de diferenciar el cuadro del paisaje exterior, también puede verse como un elemento integrador: se apoya en el suelo de la habitación (una estancia oscura, poco iluminada), se pone en contacto con él, y después se eleva verticalmente, se conecta en continuidad con el lienzo que soporta y a través de él se prolonga en el paisaje exterior (que contrasta con el interior por su gran claridad). ¿Qué está dentro de la habitación y qué está fuera?
Una segunda ilusión óptica hace percibir un cono que en realidad no está dibujado. La larga avenida situada entre las casas se asemeja al tejado cónico de la torre situada a su izquierda. Aunque no se confunden; ¿la vía parece quizás un tejado inacabado de una torre que en realidad no existe?
La perspectiva de la obra también produce un cierto desconcierto. El cuadro con su caballete tiene una ligera inclinación, como lo muestra el ángulo entre el alféizar de la ventana y la tabla inferior del caballete: el paisaje visto por la ventana se contempla de frente y el del cuadro se observa de manera oblicua. aunque los dos ángulos de visión no tienen nada que ver entre sí y corresponden a imágenes diferentes, sincronizan con precisión.
La perspectiva de Los paseos de Euclides (LH: línea del horizonte, PF: punto de fuga, LF: línea de fuga). Fuente: Wiki Las láminas.
Finalizamos sin olvidar a Magritte; porque esto no es una «pi», es una aproximación de pi. De hecho, es la mejor aproximación de pi que se puede encontrar en el calendario. ¿Por qué? Porque 22/7 = 3,14285714… es una buena aproximación del número pi, el día que más «se acerca» a su valor durante todo el año (al dividir el número del día entre el número del mes). Por este motivo, el 22 de julio se celebra el Casual Pi Day (Día de aproximación de Pi), una de esas inocentes excentricidades que divierten a gran parte de la comunidad matemática.
Esto no es una «pi», versionando a Ceci n’est pas une pipe (1929) de René Magritte. Fuente: EOS.
Referencias
- Magritte : les promenades d’Euclide, Quator, 8 octubre 2006
- Marta Macho Stadler, Los paseos de Euclides, ZTFNews, 21 noviembre 2013
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Esto no es un paseo se ha escrito en Cuaderno de Cultura Científica.
El olor a bebé como droga de abuso
¿Por qué tenemos hijos? Es una pregunta muy simple y a la que se podrán dar muchas respuestas, pero sólo una es la correcta: tenemos hijos porque, como mamíferos que somos, estamos genéticamente determinados para ello. No hay más. Después le podemos buscar la justificación que queramos, pero el hecho cierto es ese. De hecho, un análisis puramente racional puede llegar a la conclusión deque es económicamente más eficiente, fisiológicamente menos estresante y emocionalmente igual de gratificante cultivar amistades adecuadas y, quizás, tener una mascota. Así, por ejemplo, personas, que por motivos religiosos (cristianos, budistas, etc.) en muchos casos, viven en comunidad y sin hijos están perfectamente realizadas, tienen apoyo en su vejez y son felices, que es de lo que se trata en definitiva.
Los beneficios que puede aportar un hijo en la especie humana son sólo perceptibles a muy largo plazo. Entonces, ¿qué clase de compensación a corto pueden aportar, sobre todo a la madre que invierte su cuerpo, sus horas de sueño y el desarrollo futuro de su vida? Usando un símil un poco grosero pero comprensible, si un fumador es incapaz de renunciar a un cigarrillo (que le aporta un “beneficio” a corto) en aras de su salud futura (beneficio a largo), ¿cómo es posible renunciar a muchas cosas a corto y medio plazo a favor de un incierto beneficio futuro (mantenimiento en la vejez/perpetuación de los genes) invirtiendo en un hijo? La respuesta probablemente sea que la evolución ha encontrado mecanismos de compensación a corto de los que las madres no son siquiera conscientes.
Efectivamente, decidimos tener hijos y cuidarlos con desprendimiento y sacrificio, cuando en realidad estamos respondiendo a un automatismo. Y parte de ese automatismo pasa por cómo cambia el encéfalo de las madres (y también el de los padres, pero este es un mecanismo diferente). Sí, has leído bien, la mujer que hoy se queda embarazada tiene un encéfalo que funciona de forma diferente a como lo hará nueve meses después, aunque ella pueda creer que sigue siendo el mismo (lo que es equivalente a decir “que ella cree que es la misma”). Sobre esto se ha escrito mucho pero un estudio publicado en Frontiers of Psychology por un equipo internacional encabezado por Johan Lundström, del Instituto Karolisnska (Suecia), nos da un ejemplo magnífico de lo que estamos intentando contar.
Todo el que haya cogido un bebé en brazos ha notado que este desprende un olor distintivo y agradable. Pues bien, Lundström et ál. lo que han hecho ha sido comprobar empleando resonancia magnética funcional (fMRI) que los encéfalos de las madres recientes responden significativamente más a este olor que los de las mujeres que no son madres. Además esta respuesta encefálica se produce en los centros relacionados con la recompensa y la motivación: ¡el olor del bebé está compensando neuroquímicamente los desvelos y sacrificios de la madre!
Los investigadores estudiaron a dos grupos de mujeres. El primero estaba constituido por aquellas que habían sido madres entre tres y seis semanas antes del comienzo del experimento. El otro por mujeres de similares características que nunca habían sido madres. Para evitar el efecto de la presencia de bebés, los investigadores emplearon la ropa de algodón que había estado en contacto directamente con los cuerpos de bebés de una guardería de Dresde (Alemania) y, por tanto, sin absolutamente ninguna relación con las participantes en el estudio. Haciendo pasar aire limpio por esta ropa se hacía llegar a la nariz de las voluntarias el olor y su respuesta se midió con fRMI. Independientemente de lo anterior, las mujeres respondieron a un cuestionario sobre el olor percibido: familiaridad, agrado e intensidad.
Si bien las evaluaciones cualitativas dadas por el cuestionario resultaron similares en ambos grupos, los resultados del fMRI no lo fueron tanto. Ambos grupos de mujeres activaban las mismas regiones encefálicas al percibir el olor: el putamen, y los núcleos caudados dorsal y medial. Pero en los encéfalos de las madres recientes la actividad neuronal era sensiblemente mayor. Esta modificación en la respuesta del encéfalo podría ser la expresión de una adaptación que asegura que una madre cuide de su hijo.
En otras palabras, ya que el recién nacido no puede comunicarse verbalmente más allá del llanto indiscriminado, ni por medios visuales (gestos) aparte de los básicos, el principal vínculo que se produce entre madre y bebé es puramente químico. De tal manera que se atendería al bebé por el placer que conlleva estar junto a un bebé que huela a bebé sano y limpio (que, de paso, no llora). El mismo mecanismo que lleva a un adicto a consumir la droga que ha cambiado su encéfalo.
Referencia:
Lundström J.N., Mathe A., Schaal B., Frasnelli J., Nitzsche K., Gerber J. & Hummel T. (2013). Maternal status regulates cortical responses to the body odor of newborns., Frontiers in psychology, PMID: 24046759
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este texto se publicó en Experientia docet el 25 de septiembre de 2013.
El artículo El olor a bebé como droga de abuso se ha escrito en Cuaderno de Cultura Científica.
Ingredientes para la receta: La sal común
Sal. Sustancia ordinariamente blanca, cristalina, de sabor propio bien señalado, muy soluble en agua, crepitando en el fuego y que se emplea para sazonar los alimentos y conservar las carnes muertas. Es el cloruro sódico; abunda en las aguas de mar y se halla también en masas sólidas en el seno de la tierra, o disuelta en lagunas y manantiales.
Diccionario de la lengua española. RAE. 22ª edición
El cloruro sódico pertenece a la única familia de piedras que utilizan los seres humanos para su alimentación.
Mark Kurlansky, en Sal – Historia de la única piedra comestible, 2003.
Aunque esta pesca y el arte de salar el pescado no parecen ser un objeto muy importante en la historia del mundo, es, sin embargo, la base de la grandeza de Ámsterdam … lo que hizo de un país una vez despreciado y estéril un poder rico y respetable.
Voltaire.
El almuerzo de ese día se compuso únicamente de huevos de paloma y de litódomos. Harbert había encontrado sal en los huecos de las rocas formada por evaporación, y aquella sustancia mineral vino muy a propósito.
Julio Verne, La isla misteriosa.
La sal es un complemento alimenticio indispensable para algunos animales incluida la especie humana. Todavía en la actualidad, el ganado ovino y el bovino, y los humanos, tienen sal en sus establos. Además, la sal es esencial en la conservación de alimentos. La sal da al sentido del gusto uno de los sabores básicos: el salado. La dosis recomendable es de 2-3 gramos al día y llegar hasta los 6 gramos al día después de ejercicio intenso con pérdida de sodio en el sudor.
Es muy probable como hipótesis que el uso de la sal para aderezar alimentos, y en concreto vegetales, fuese directamente en las recogidas en el campo. El Dr. Juderías en su Cocina para pobres nos enseña algo parecido. Son las Habas en porreta:
“Se desnudan [las habas], se sazonan con sal y se toman crudas, como tapa, cuando son frescas y verdes.”
Añado el mismo consejo para las pimientos gruesos y hermosos cortados en cuadraditos y con una pizca de sal por encima. Sin más.
La importancia económica y simbólica de la sal es conocida y estudiada por arqueólogos e historiadores. Es probable que tuviera un papel importante en las sociedades prehistóricas y en las primeras civilizaciones. La actividad económica relacionada con la sal comenzó en el Neolítico, quizá con el inicio de la agricultura y ganadería. Hay autores que aseguran que los cazadores recolectores no buscaban sal y fue el cambio de la dieta, sobre todo a los cereales, lo que implicó la necesidad de salar los alimentos. Por ello, el valor de la sal en las redes de intercambios es evidente en estudios prehistóricos y etnográficos.
Uno de los imperios en los que se desarrolló la agricultura estaba en el Creciente Fértil, en Oriente Medio: era Mesopotamia. Hace 3500 años se han fechado las tres tablillas mesopotámicas depositadas en Yale y que estudió y tradujo Jean Bottéro, de la Escuela Práctica de Estudios Superiores de París. En total, son 35 recetas, algunas solo fragmentos, y en muchas de ellas se menciona la sal como condimento de uso habitual. Y casi siempre la dosifica a “ojo”, según la traducción de Bottéro.
Como ejemplo de la gastronomía mesopotámica nos sirve el Caldo rojo que traduce Bottéro:
“No hace falta carne. Echas el agua; le añades grasa; carne salada -intestinos o panza-, sal a ojo, [tora desmigada]; cebolla y “samidu”; comino, cilantro, puerro y ajos machacados.”
Como ven, son recetas que dejan mucho a la iniciativa personal del cocinero.
La sal se encuentra como gema en minas de cierta profundidad y, también, en nichos naturales como el mar, los lagos salados, manantiales de agua salada, tierras y arenas saladas, plantas y sustancias orgánicas, tal como revisa Blas Castellón, de la Universidad Nacional Autónoma de México. De todos estos lugares es necesario extraer y purificar la sal. Lo habitual es utilizar la evaporación con la ayuda del sol y el viento o el calentamiento artificial. Éstos son los métodos más utilizados para separar la sal de aguas, tierras y plantas.
Estos procesos no siguen siempre los pasos de un avance tecnológico o científico. Es esencialmente un conocimiento empírico, resultado de la experiencia y salineros, cuya aplicación y efectividad está unida a costumbres y creencias ancestrales.
Las operaciones imitan los procesos naturales, especialmente concentración, saturación, evaporación y cocción. Cerca de las playas, donde el agua subía y bajaba según las mareas, el agua de mar puede concentrarse durante meses y, con el intenso calor, produce costras salinas que pueden ser recolectadas. Lo mismo ocurre en las orillas de los lagos salados donde las sales se concentran en la tierra y en el agua, produciendo eflorescencias por efecto de la evaporación. Estos fenómenos naturales fueron reproducidos de manera artificial utilizando aguas y tierras saladas, usando la evaporación solar o el calentamiento artificial, según las posibilidades del entorno.
En la costa, el sol ofrece esta posibilidad. Pero en zonas de tierra adentro, la evaporación es posible si las estaciones del año son marcadas, siendo posible combinarla con el calentamiento artificial de salmuera, si hay combustible abundante y si se requiere la sal en cualquier época del año, pues la evaporación solar no es posible durante la época de lluvias.
No hay muchos datos históricos o arqueológicos sobre la producción de sal a partir de plantas, aunque sabemos que lo utilizaron en zonas tropicales, donde ciertas especies de plantas eran quemadas y las cenizas eran después filtradas, o lavadas, para obtener una salmuera que posteriormente era cocida para cristalizar la sal.
El primer productor mundial de sal en 2019 es China, con 59 millones de toneladas. Le siguen Estados Unidos, con 42 millones, y la India, con 29 millones. En Europa, el primer productor es Alemania, 14.3 millones de toneladas. España produce 3.9 millones. Aproximadamente el 60% de la producción mundial se dedica a la industria, por ejemplo, para obtener cloro. Solo el 25% es para el consumo humano.
Como explica Marta Bueno, de la Universidad de Salamanca, los yacimientos prehistóricos donde se obtuvo sal muestran abundantes restos de cerámica llamados briquetages. Aparecen cerca de manantiales salados en los que se llenaban recipientes con agua salada y se colocaban en hornos de barro o pedestales sobre el fuego. Cuando se evaporaba el agua y quedaba una torta de sal, se rompían las vasijas y se extraían la sal. Los restos de cerámica más las cenizas y las paredes de los hornos formaban vertederos enormes o briquetages. Son, según los arqueólogos el signo evidente de producción de sal.
El hallazgo de grandes cantidades de briquetages en Poiana Slatinei cerca de un manantial saldo, en Rumania, permitía deducir que se había obtenido sal evaporando agua con calor. La cerámica se fechó hace 8000 años y, por los datos que conocemos, es uno el yacimiento de sal más antiguo que se ha estudiado.
Se descubrió en 1984 y comenzó su estudio. El yacimiento tiene 60 por 25 metros de superficie y una profundidad de 3 metros. Hay estratos de ceniza, carbón y suelo quemado de color rojo. El agua que fluye del manantial tiene 160 gramos de sal por litro de agua. La extracción de sal, como indica la cerámica, ya se hacía en el Neolítico y, además, se explotó hace unos 1000 años, en la Edad Media.
Hay evidencias de que hace casi 7000 años se explotó una mina de sal en el valle de Araxes, en el Cáucaso de Azerbaiyán, en un lugar llamado Duzdagi. Según Catherine Marro y sus colegas, del CNRS de Nanterre, en el Cáucaso las primeras trazas de extracción de sal por minería aparecen cuando se desarrolla la minería del cobre.
En las minas de sal de Duzdagi, todavía en activo, se descubrió su antigüedad cuando un derrumbe en una galería reveló los restos de cuatro mineros con sus herramientas. La presencia de herramientas de piedra llevó al grupo de Catherine Marro, a partir de 2008, a una investigación sistemática de las minas. Las herramientas y la cerámica encontradas más antiguas se fecharon hace 6500 años. La explotación de la sal, según la hipótesis de los autores, ya se hacía hace 7000 años. Hasta el auge de Roma se considera que la obtención de sal aumentó considerablemente.
En conclusión, hasta la fecha de publicación de los estudios de Marro, en 2010, las minas de sal de Duzdagi son las más antiguas conocidas.
Otro yacimiento que, en sus restos, muestra briquetage y huesos de peces y mamíferos cuya carne se salaba para conservarla, se ha descubierto en Zhonba, en la cuenca del río Yang.Tsé, en China. Ahora, está sumergido en las aguas de la Presa de las Tres Gargantas. El resumen de los datos conocidos lo ha publicado Rowan Flad, de la Universidad de Harvard.
La fecha más antigua de su explotación, al final de la Edad del Bronce, sería unos 4500 años, y la más reciente algo más de 2000 años. Los hallazgos son los habituales que hemos visto en otros yacimientos: abundantes restos de cerámica y herramientas de piedra, junto a los huesos de los animales cuya carne se conservaba.
Salinas en Maras (Urubamba, Cuzco, Perú).Vamos a América y a conocer la civilización maya y su relación con la sal. El registro más antiguo que se conoce esta fechado hace 2500 años. Es un mural pintado en Calakmul, en la Península de Yucatán. Muestra a una vendedora que ofrece un pastel envuelto en hojas a un cliente. Este tiene en la mano una gran cuchara cerca de un cesto con sal suelta y granulada.
La arqueóloga Heather McKillop, de la Universidad Estatal de Luisiana, relata como encontró restos de fuegos donde se evaporaba agua salada en una laguna salada en Belice en un yacimiento fechado en los anos 600-900 de nuestra era. Desde 2014 hasta la actualidad, McKillop y su grupo han localizado 70 recintos parecidos en este yacimiento de la laguna de Belice. Como en otros lugares del planeta, hervían salmuera para obtener bloques de sal.
En el yacimiento han encontrado una distribución de hornos, cocinas y lugares de residencias muy complejos. Han catalogado más de 4000 postes de madera para sostener las casas en la laguna, y, además, una canoa, un remo, y herramientas de piedra para trocear y salar pescado y carne. Como es habitual, abunda el briquetage, con hasta 449 restos de vasijas.
Para Nuria Morère, de la Universidad Rey Juan Carlos de Madrid, la Península Ibérica es el territorio de la sal. Tiene dos mares, el Mediterráneo, conocido como de la sal, y el Atlántico, con grandes estuarios donde se puede depositar la sal con el calor del verano. Abundan los minerales con sal que se extrae de minas o al aire libre, y la sal también se transporta en agua dulce en las salinas de interior.
Para la gastronomía en la que interviene la sal, el bacalao es un plato principal. Es la demostración del uso útil y adecuado de la sal como conservante. Para degustarlo, merece probarse el Tiznao, del Recetario del Quijote de Lorenzo Díaz, y plato habitual en Ciudad Real y Toledo.
“Se churrasca el bacalao en fuego de leña, con cebolla, ajos y pimientos rojos secos. Se desmenuza el bacalao y se pone unos minutos en agua templada. Se pone todo en la cazuela, con aceite crudo, algo de pimentón y se rehoga. Un poco de gua, un hervor y a la mesa”.
Es la explotación minera de sal más antigua que se conoce: la Vall Salina de Cardona, en Cataluña. Es, además, la única montaña de sal de Europa occidental y se obtiene sal desde hace más de 6000 años. Es la Muntanya de Sal y tiene una altura de 120 metros. Se explota a cielo abierto y, después de retirar la primera capa de tierra y plantas, la sal queda en superficie y se puede extraer. Como en otros yacimientos, la minería prehistórica se hacía con herramientas de piedra. La extracción de la sal ocupa 130 hectáreas sobre un diapiro con sustancias profundas que afloran en superficie.
En Álava, al oeste de Vitoria, está el Valle Salado de Añana, con cuatro manantiales que dan, en conjunto, unos tres litros por segundo de agua salada. Lleva, de media, 250 gramos de sal por litro. En el Atlántico, como comparación, hay 36 gramos de sal por litro.
La sal de Añana viene de un diapiro, formado por la ascensión hasta la superficie de materiales profundos. El agua de la lluvia disuelve los materiales salados que componen el diapiro y, después, afloran por los manantiales.
La explotación de la sal de Añana se inició hace unos 7000 años. Con la llegada de los romanos, hace 2000 años, comenzó la separación de sal por evaporación del agua salada en eras, al sol y al viento. La sal, que se amontona en los bordes de las eras, se recoge cada dos días. Llegaron a funcionar, en 1950, 5648 eras en una superficie de unos 110000 metros cuadrados, con 664 habitantes en el pueblo. Para 1990, solo había 300 eras y 150 habitantes.
La obtención de sal en Añana está documentada desde el año 822 y la primera mención documental precisa de las eras, según Alberto Plata, de la UPV/EHU, tiene fecha de 978. Es la donación de pozos y eras del Conde García Fernández al Monasterio de Covarrubias.
Fue Juan de Altamiras, fraile franciscano, el autor de un libro de recetas titulado Nuevo arte de cocina, que apareció en 1745. Además, fue el primero en publicar recetas con bacalao salado que, para entonces, es seguro que era un plato habitual en la escasa mesa del pueblo. Por ejemplo, en su recetario está el Bacalao con tomate y naranja.
“Pondrás las raciones en la vasija, echarás ajos crudos, con sal, pimienta, azafrán, y aceyte, perejil, tomate, partecitas de naranja, y con un poco de agua las pondrás a cocer. Es muy gustoso, y todas las cosas tienen su saynetillo: porque el mucho recado también descompone la comida”.
Referencias:
Bottéro, J. 2005. La cocina más antigua del mundo. La gastronomía en la antigua Mesopotamia. Tusquets Eds. Barcelona. 245 pp.
Brothwell, D. & P. Brothwell. 1998. Food in Antiquity. A survey of diet of early peoples. Johns Hopkins University Press. Baltimore and London. 283 pp.
Bueno Saz, M. 2021. Las últimas salineras. Mujeres con Ciencia 7 septiembre.
Castellón Huerta, B.R. 2007. Un grano de sal: aportaciones etnoarqueológicas al estudio histórico de una industria ancestral. Anuario de Historia 1: 67-83.
Díaz, L. 1993. Recetario del Quijote. Recetario gastronómico de Castilla-La Mancha. Servicio de Publicaciones de la Junta de Comunidades de Castilla-La Mancha. Toledo. 111 pp.
Fernández-Armesto, F. 2004. Historia de la comida. Alimentación, cocina y civilización. Tusquets Eds. Barcelona. 372 pp.
Fíguls, A. et al. 2013. La primera explotación minera de la sal gema: La Vall Salina de Cardona (Cataluña, España). Chungara Revista de Antropología Chilena 45: 177-195.
Flad, R.K. 2005. Evaluating fish and meat salting at prehistoric Zhongba, China. Journal of Field Archaeology 30: 231-253.
Hamon, C. 2016. Salt mining tools and techniques from Duzdagi (Nakhchivan, Azerbaijan) in the 5th to 3rd millennium BC. Journal of Field Archaeology 41: 510-528.
Hayward, V. 2017. Nuevo Arte de la Cocina Española de Juan Altamiras. Barcelona. 493 pp.
Juderías, A. 1994. Cocina para pobres. 11ª edición. Ed. SETECO. Madrid. 325 pp.
Kurlansky, M. 2003. Sal. Historia de la única piedra comestible. Ed. Península. Barcelona. 508 pp.
Marro, C. et al. 2010. Archaeological investigations on the salt mine of Duzgadi (Nakhchivan, Azerbaijan). TÜBA-AR 13: 229-244.
McKillop, H. 2021. Salt as a commodity or money in the Classic Maya economy. Journal of Anthropological Archaeology 62: 101277.
McKillop, H. & K. Aoyama. 2018. Salt and marine products in the Classic Maya economy from use-wear study of stone tools. Proceedings of the National Academy of Sciences USA 115: 10948-10952.
McKillop, H. & E.C. Sills. 2021. Briquetage and brine: Living and working at the Classic Maya salt works of Ek Way Nal, Belize. Ancient Mesoamerica DOI: 10.1017/S0956536121000341.
Merino, J.M. 1991. La pesca desde la prehistoria hasta nuestros días (La pesca en el País Vasco). Servicio Central de Publicaciones del Gobierno Vasco. Vitoria-Gasteiz. 494 pp.
Morère, N. 2002. À propos du sal hispanique. En “Archéologie du sel: Techniques et sociétés”, p. 183-188. Ed. por O. Weller. Liège.
Plata Montero, A. 2003. La aplicación de la arqueología de la arquitectura a un complejo productivo. El valle salado de Salinas de Añana (Álava). Arqueología de la Arquitectura 2: 241-248.
Plata Montero, A. 2008-2009. Un nuevo reto estratigráfico. El valle salado de Salinas de Añana (Álava). Krei 89-110.
Terán Manrique, J. 2011. La producción de sal en la prehistoria de la Península Ibérica. Estado de la cuestión. Arqueología y Territorio 8: 71-84.
Weller, O. 2015. First salt making on Europe: an overview from Neolithic times. Documenta Praehistorica DOI: 10.4312/dp.42.12.
Weller, O. & G. Dumit. 2005. The earliest salt production in the world: an early Neolithic exploitation in Poiana Slatinei-Lunca, Romania. Project Gallery 79: 306.
Wikipedia. 2021. Valle Salado (Añana). 11 agosto.
Wikipedia, 2021. Briquetage. 8 octubre.
Wikipedia. 2021. Sal común. 28 octubre.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Ingredientes para la receta: La sal común se ha escrito en Cuaderno de Cultura Científica.
Los perros, maestros en semiótica indicial
Eva Aladro Vico
Shutterstock / Christin Lola
Cuando estudiamos la comunicación animal solemos analizar los lenguajes que animales como los delfines, las abejas o los perros utilizan para comunicarse entre ellos. La mayor dificultad en estos análisis está en que, como especie diferente que somos, nos resulta difícil acceder a los umbrales de comunicación que cada especie animal tiene, y por ello no reconocemos bien sus lenguajes y sus signos.
En la comunicación de los perros, animales que han experimentado un proceso de coevolución con los humanos, se han creado muchos ensamblajes y formas de comunicación específicas que hacen del binomio hombre-perro un equipo comunicativo especial. Esto nos permiten entender y apreciar mejor la riqueza y complejidad de su lenguaje.
Los perros, tal y como recientemente explican Brian Haare y Vanessa Woods en su libro The Genius of Dogs (Genios. Los perros son más inteligentes de lo que pensamos, en su traducción al español), son animales particularmente hábiles, no simplemente en inteligencia en general, sino en su adaptación comunicativa y cooperativa con los seres humanos. En el ensamblaje, la convivencia entre
especies transformó al lobo depredador en el perro pastor de ovejas, y al humano enemigo en un cuidador y compañero.
Los humanos y los perros constituyen un equipo con una genialidad comunicativa propia. Los perros son animales que entienden especialmente bien nuestras señales. Hemos constituido un equipo con ellos, en el que una especie se extiende y convierte en herramienta de la otra, respectivamente. Nuestros sentidos y capacidades se han puesto en contacto y cooperación.
Signos índices
Todos hemos podido ver cómo un pastor da señales a su perro, o cómo los perros saben indicar a sus amos si quieren o necesitan una cosa. Para esta comunicación, los perros y los humanos usan un tipo especial de signos, lo que en Semiótica se denominan sígnos índices: flechas, huellas, indicios, residuos, rastros, todos aquellos elementos que habiendo estado en contacto con un objeto, lo representan por asociación.
Los signos índices son muy importantes en la comunicación. A diferencia de los signos iconos –que son signos que asemejan a lo que representan, como ocurre con las imágenes fotográficas o los retratos figurativos–, los índices son signos que a menudo actúan casi en secreto, y que frecuentemente implican físicamente a su usuario.
Por ejemplo, cuando un perro quiere señalarnos que desea algo, lo mira fijamente durante horas ante nosotros. Todo su cuerpo se convierte en una “flecha” indicial que nos conduce hacia el objeto que quiere señalar. Este tipo de señal, como saben los dueños de perros, es muy eficaz.
Perro señalando.Shutterstock / Ksenia Raykova
La mente indiciaria
Los signos índices tienen su mundo particular dentro de la mente humana y de la cultura. Se habla de que existe una “mente indiciaria” muy profunda, la que extrae información de las meras asociaciones casuales, de las apariciones o desapariciones de cosas, la que sigue, como los detectives husmeadores, los rastros de los sucesos, estudiando las huellas, eliminando factores o recogiendo síntomas hasta dar con la clave de las cosas.
La semiótica estudia los signos índices porque están asociados a la mente intuitiva, y también a sentidos muy eficaces de nuestro sistema perceptivo, como el olfato, el gusto o el tacto. La ciencia o la medicina también se valen en profundidad de los signos indiciales.
Los perros son maestros en semiótica indicial. Son expertos en el seguimiento de rastros y huellas. Usan el olfato, sede de muchos procesos indiciales –los olores, las emanaciones de los objetos, son signos que indican la presencia, estado, y cercanía o lejanía de cosas y sujetos– y el oído, para obtener información de gran sutileza.
Geolocalizadores y neuróticos
Ellos mismos señalizan mediante residuos –marcando con la orina, con objetos, con su cuerpo– mensajes en territorios. Siguen con enorme pericia indicaciones, señales y direcciones humanas. El contacto es para ellos fundamental: por eso no pierden de vista nuestra zona de atención –jamás colocan un objeto que desean que el humano vea a espaldas de éste– y tienden a buscar constantemente el roce y el apoyo físico.
Esto los hace muy gratos a los humanos, pues nuestra semiótica de especie, más icónica y simbólica, a veces nos aleja de lo indicial, que sin embargo es una profunda raíz para encontrar y conservar significación en nuestra vida. Los perros amplían nuestro sistema semiótico, de una manera riquísima.
Esta capacidad sígnica hace que los perros sean fabulosos geolocalizadores de personas u objetos perdidos, y admirables defensores de lugares o grupos, porque detectan los cambios sintomáticos en situaciones y contextos, y asocian rápidamente los factores o residuos no comunes.
Esta misma capacidad los hace, a veces, particularmente neuróticos o aprehensivos respecto a señales, indicios o residuos: asustarse desmesuradamente de alarmas por asociaciones casuales, obsesionarse con elementos o sujetos, o lamerse irracionalmente una herida hasta infectarla, o insistir de manera exagerada en la demarcación de territorios.
Shutterstock / AlgaeLos humanos y los índices
A la hora de vincular significado a las cosas, la comunicación indicial es clave: por eso la usamos también los humanos cuando queremos manifestar hondas emociones: nos abrazamos, regalamos objetos, materializamos nuestras sensaciones y emociones mediante índices como regalos, talismanes, decoración o rituales, añadiendo riqueza indicial a las relaciones que mantenemos.
La capacidad de los perros de entrar en contacto con el alma humana, sorteando las ilusiones o distorsiones mentales, es única. La simbiosis entre estas dos especies, la canina y la humana, es un gran avance evolutivo. Crea un universo de sentido compartido que enraíza la conciencia de ambos en una vida más amplia.
Los humanos hemos encajado y aceptado la comunicación indicial de los perros convirtiéndonos en extensiones suyas, cuando los cuidamos, alimentamos y les alcanzamos todo aquello que ellos como especie no podrían tener. Sin embargo, en la interacción humanos-perros, ellos nos consiguen algo todavía mejor. La capacidad de indicar el amor, la calidez, la cercanía, que tiene un perro, no puede alcanzarla el humano, porque está asociada a su competencia semiótica indicial: ellos saben decir mejor el amor mediante su cuerpo, su mirada, su presencia. Donde nuestros umbrales de percepción no alcanzan, ellos pueden comunicarnos algo nuevo.
La comunicación es precisamente esa sencilla capacidad de tender puentes, de encontrar maneras para comprender lo diferente y disímil y crear con él un lenguaje, una poesía común. La contribución de los perros al sentido de esa poesía de vida humana pesa cada día, como nos pesa el cuerpo del perro que tenemos a nuestro lado en nuestras vidas.
Sobre la autora: Eva Aladro Vico es profesora titular de Teoría de la Información en la Universidad Complutense de Madrid
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Los perros, maestros en semiótica indicial se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2021: Almudena M. Castro e Iñaki Úcar – El metrónomo de Beethoven
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
¿Cómo debería sonar realmente la música de Beethoven? Puede que no se esté interpretando bien porque el compositor se hizo un lío con un instrumento que acababa de salir al mercado y que fue de los primeros en reconocer su utilidad, el metrónomo. Almudena M. Castro e Iñaki Úcar lo investigaron y aquí cuentan sus hallazgos.
Almudena lo contó en la sección Fronteras del Cuaderno: Beethoven y el metrónomo: los titubeos de un genio
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2021: Almudena M. Castro e Iñaki Úcar – El metrónomo de Beethoven se ha escrito en Cuaderno de Cultura Científica.
Nuestro comportamiento ante un desastre natural y la importancia de la psicología de emergencias
César San Juan
Una mujer observa la erupción del nuevo volcán de La Palma desde un tejado el 20 de septiembre de 2021. Fuente: Wikimedia Commons / Eduardo Robaina, CC BY-SA
La terrible situación que está sufriendo la isla de La Palma tras una devastadora erupción volcánica ha hecho más visible el papel de la denominada psicología de emergencias. Sobre todo, considerando el carácter errático, continuado e imparable de la lava contra cuyo avance no hay forma de hacer nada.
La investigación sobre desastres ha cuestionado las visiones tradicionales del comportamiento colectivo que se asocia a respuestas de pánico irracional, comportamientos antisociales, saqueos, etc.
Cabe pensar que, muy posiblemente, el éxito del cine de catástrofes sea, en alguna medida, responsable de la imagen social del comportamiento humano en situaciones críticas o catastróficas. Películas como El coloso en llamas, Poseidón, Terremoto y Vulcano, entre otras, han exagerado el lado más oscuro e irracional del comportamiento humano, solo dignificado en contadas excepciones por esos héroes que siempre aparecen corriendo en sentido contrario a una enloquecida muchedumbre.
Efectivamente, la evidencia empírica sostiene que la mayor parte de las personas afectadas por un desastre natural disponen de los suficientes recursos psicosociales para afrontarlo aunque, obviamente, habrá una casuística muy diversa en función del grado de exposición al desastre. Dicho en otras palabras, es muy distinto perder a un ser querido, perder la vivienda o, en una esfera más periférica, observar con inquietud, pero desde la lejanía, las explosiones de lava.
Los cuadros clínicos más frecuentes
En todo caso, es absolutamente imperativo que las administraciones garanticen las necesidades básicas materiales de los damnificados y la atención a las personas que, por diferentes motivos, van a precisar un acompañamiento más directo y, eventualmente, apoyo psicológico ya que, en caso contrario, se acabaran identificando cuadros de relevancia clínica, siendo los más frecuentes los siguientes:
- Síndrome de estrés postraumático. Reexperimentación del acontecimiento traumático. Evitación de los estímulos asociados al acontecimiento. Aumento de la activación motora. Puede aparecer ideación suicida.
- Síndrome de aflicción por catástrofe. Para las personas que han sufrido pérdidas considerables, las reacciones emocionales más probables son el dolor por la pérdida de seres queridos, de posesiones, de sustento, que se manifiesta en forma de tristeza, ira, ansiedad, nostalgia, sentimiento de desgracia, etc.
- Síndrome del superviviente. La irritabilidad, la ira y la agresión, que aumentan en los años siguientes al desastre, pueden cebarse con algunos supervivientes que no han podido gestionar lo que el resto de personas de su círculo se ha empeñado en considerar “buena suerte”. También los desórdenes físicos y la tasa de mortalidad aumentan entre los supervivientes.
- Efectos en los niños. En niños afectados por desastres se constatan comportamientos regresivos y un gran aumento de la dependencia.
Los recursos propios de los afectados
En definitiva, lo esencial para entender el impacto psicológico de una crisis de esta naturaleza es el desequilibrio que se produce entre las demandas planteadas al sujeto, enfrentado a una circunstancia excepcional, y sus propios recursos o capacidades para afrontarlo apropiadamente. Es muy característica la desazonante sensación de impotencia e ineficacia para resolver los problemas derivados del desastre y controlar las emociones desatadas en el propio sujeto.
Dicho esto, no obstante, tenemos que ser especialmente cuidadosos al interpretar las respuestas ante una situación catastrófica. Por ejemplo, sentimientos como temor, ansiedad, ira, frustración o culpabilidad inmediatamente después de la catástrofe, o durante su evolución, como el caso que nos ocupa, debemos interpretarlos como normales ante una situación anormal, y constituyen la parte dinamizadora de la reacción ante lo que está ocurriendo. Por tanto, se trata de una respuesta adaptativa. Una respuesta catatónica, pasiva o excesivamente dependiente tiene, en este sentido, un peor pronóstico.
También es muy habitual la búsqueda intensiva, pero irreflexiva, de soluciones. El sujeto focaliza su atención en el problema sobrevenido de manera abusiva, con las consiguientes pérdidas de atención respecto a otros asuntos vitales relacionados con el bienestar de los suyos o incluso su propia seguridad.
“¿Por qué me ha sucedido a mí esto?”
También dirige el sujeto su actividad cognitiva y fiscalizadora hacia sí mismo, haciéndose preguntas aparentemente esenciales pero objetivamente carentes de toda lógica como, por ejemplo, “¿por qué me ha sucedido a mí esto?” o “¿qué he hecho para ser merecedor de esta situación?”. Este tipo de reacciones son a las que nos referíamos con la necesidad de que reciban respuestas adecuadas en forma de acompañamiento y apoyo psicológico con el fin de evitar la vulneración del sujeto más a largo plazo.
Desde esta perspectiva, debemos señalar como flagrantes malas prácticas el insistente debate de estos días acerca de la idoneidad de construir viviendas en las faldas de volcanes activos o potencialmente activos.
Dejando al margen que las faldas de los volcanes de La Palma conforman, de hecho, prácticamente toda la superficie de la isla, sea como fuere, este momento es sin lugar a dudas el más inapropiado para debatir sobre el particular ya que solo puede contribuir a generar desolación e impotencia.
Ahora lo que toca es atender todas las necesidades materiales y psicosociales de la población afectada. Debe hacerse sin tregua porque el volcán no la está dando.
Sobre el autor: César San Juan es profesor de psicología criminal en el Departament de Psicología Social de la Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Nuestro comportamiento ante un desastre natural y la importancia de la psicología de emergencias se ha escrito en Cuaderno de Cultura Científica.
La distancia a las estrellas
El reto al que se enfrentan los astrónomos podría compararse, en muchos sentidos, al de un náufrago perdido en una isla desierta. Carcomido por la curiosidad, el pobre intenta averiguar cómo es el mundo que lo rodea, a qué distancia se encuentran los países y los continentes al otro lado del océano. Pero para ello solo cuenta con las botellas que van llegando a su orilla.
Como en el caso del náufrago, el objeto de estudio de los astrónomos está fuera de su alcance. La distancia de la mayoría de las estrellas a la Tierra es equiparable a la de un océano que solo se pudiese cruzar a nado. Pero incluso si algún día la tecnología (o la ciencia ficción) nos permitiesen llegar hasta ellas, superando las distancias de años luz, otros obstáculos nos impedirían alcanzarlas: la temperatura de su atmósfera o su enorme gravedad acabarían con la curiosidad del pobre náufrago.
Quizás por todos estos motivos, en 1835 el filósofo Auguste Compte escribió1:
“En cuanto a las estrellas, […] nunca podremos, de ningún modo, estudiar su composición química o su estructura mineralógica. Considero que cualquier idea sobre la verdadera temperatura media de alguna estrella nos será siempre negada”.
En efecto, todas estas cuestiones parecían irresolubles en la primera mitad del siglo XIX. Hasta entonces, el estudio de la astronomía se había basado en el movimiento y la posición relativa de las estrellas en el firmamento. El pobre náufrago se había pasado milenios anotando en sus cuadernos el punto exacto de la costa al que llegaban las distintas botellas y la variación de este punto respecto al tiempo. Así, dibujado sobre la arena, el cosmos era bidimensional. Una cáscara de naranja salpicada de pecas luminosas.
Este mapa del cielo nos permitió conocer la posición relativa de las estrellas respecto a la Tierra (nuestra pequeña isla azulada). Pero ni siquiera servía para esclarecer la distancia a la que se encuentran la mayoría de los astros. Y, por supuesto, no revelaba nada acerca de su “composición química o su estructura mineralógica”. Incluso un concepto tan básico y tan antiguo como el de las constelaciones, agrupa estrellas que nada tienen que ver entre sí, más allá de su cercanía aparente en el cielo nocturno. Responde al modelo mental de un náufrago, que va agrupando las botellas según se encuentran más próximas sobre la arena de su playa.
A pesar de las dificultades, algunos pensadores consiguieron calcular algunas de las distancias más próximas de este mapa. En el siglo III a.C. Aristarco de Samos logró estimar los tamaños relativos del Sol, la Luna y la Tierra, así como las distancias que los separan. Razonó que, durante la media luna, los tres cuerpos celestes deben situarse formando un ángulo recto con su vértice en la Luna. A continuación midió el ángulo entre el Sol y la Luna desde la Tierra y usó trigonometría para calcular el tamaño relativo de los lados del triángulo resultante. Su lógica era correcta, pero no contaba con los medios apropiados para medir en ángulo con suficiente precisión. Aristarco midió 87º cuando en realidad son 89º50’ (un ángulo mucho indistinguible de 90º a simple vista). Por eso concluyó, erróneamente, que el Sol estaba 19 veces más lejos del planeta que la Luna, y, puesto que el tamaño angular de ambos astros sobre el firmamento es similar, que debía de ser también 19 veces más grande. De hecho, el Sol es unas 400 veces más grande que la Luna.
Aristarco también calculó el tamaño relativo de la Tierra y la Luna. Para ello, se basó en la sombra del planeta sobre nuestro satélite durante un eclipse. Poco después, Eratóstenes pudo estimar el radio de la Tierra comparando la sombra proyectada por el sol a la misma hora en dos ciudades distintas. Ya en la Edad Moderna, el astrónomo Christiaan Huygens calculó la distancia de la Tierra al Sol basándose en las fases de Venus, usando un método similar al de Aristarco. Otros astrónomos lograron utilizar técnicas similares y otras, como la paralaje, para estimar la distancia a los demás planetas.
Sin embargo, todas estas técnicas eran relativamente limitadas en su alcance y no demasiado precisas. Por suerte, a mediados del siglo XIX, el panorama cambió radicalmente. Gracias a los avances de la óptica, fue posible estudiar por primera vez los espectros luminosos de las distintas estrellas y su brillo relativo. El náufrago decidió abrir las botellas de su playa y dentro encontró lo que casi todos encontramos al abrir el buzón: facturas de la luz.
Facturas de la luz. Espectro de emisión en la región visible del vapor de hierro. Imagen: Wikimedia CommonsReferencia:
1A. García Hernández. El camino hacia el interior de las estrellas. Revista IAA 34 (CSIC). 2011. Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científicaEl artículo La distancia a las estrellas se ha escrito en Cuaderno de Cultura Científica.
Construir un triángulo pitagórico doblando papel
Estos días estaba yo buscando información sobre los triángulos pitagóricos cuando he descubierto un curioso resultado geométrico, el conocido como primer teorema de Haga, un sencillo método para construir un triángulo pitagórico doblando una hoja de papel cuadrada. El objetivo de esta entrada del Cuaderno de Cultura Científica es explicar esta hermosa construcción.
Cinco tetraedros cruzados que forman un dodecaedro, realizados con la técnica de la papiroflexia modular. Imagen de José Ignacio Royo
Para empezar, recordemos que un triángulo pitagórico es un triángulo rectángulo, es decir, cuyos lados (a, b, c), siendo a y b los catetos y c la hipotenusa, no solo verifican la igualdad derivada del teorema de Pitágoras a2 + b2 = c2 (véase la entrada Pitágoras sin palabras), sino que son números enteros, como las ternas (3, 4, 5), (5, 12, 13) o (8, 15, 17).
Aunque debemos el estudio general del resultado geométrico conocido como teorema de Pitágoras y su demostración al matemático griego Pitágoras (aprox. 585-500 a.n.e.), lo cierto es que el resultado ya era conocido anteriormente en Babilonia, Egipto, India o China, quienes desarrollaron métodos para obtener ternas pitagóricas (números naturales (a, b, c) que satisfacen la ecuación a2 + b2 = c2) y las utilizaron para trazar ángulos rectos en construcción y agrimensura. Por ejemplo, el método chino consistía en coger dos números u y v (el primero mayor que el segundo) y obtener la terna pitagórica mediante las expresiones:
Para u = 3 y v = 1 se obtiene la terna pitagórica (3, 4, 5) que da lugar al triángulo egipcio o para u = 5 y v = 1 se obtiene la terna (5, 12, 13) cuyo triángulo rectángulo asociado se conoce como triángulo indio.
Pythagoräisches dreieck in quadrat II (1980), “Triángulo pitagórico en el cuadrado II”, del artista concreto suizo Max Will. Imagen de WikiArt
Pero vayamos con la construcción de un triángulo pitagórico doblando una hoja de papel cuadrada, el primer teorema de Haga, extraída del libro del octogenario biólogo japonés Kazuo Haga, Origamics, Mathematical Explorations through Paper Folding.
Para empezar, necesitamos una hoja de papel cuadrada. De forma natural, esto quiere decir que el plegado es reproducible, su resultado lo podemos obtener en cualquier otra hoja cuadrada, podemos doblarla de dos maneras distintas. Un plegado consiste en unir un lado del cuadrado con su opuesto lo cual da lugar a un pliegue por la mitad de la hoja, mientras que el otro consiste en unir un vértice del cuadrado con el vértice opuesto dando lugar a un plegado por la diagonal del cuadrado.
Para la construcción de Haga necesitamos marcar el punto medio de uno de los lados, lo cual se consigue fácilmente con el primer plegado comentado anteriormente, como se muestra también en la siguiente imagen (para quien quiera realizar la construcción en su casa), y después volver a desplegar la hoja volviendo a su posición cuadrada original.
El plegado que nos va a dar lugar al triángulo pitagórico consiste en coger el vértice de abajo a la derecha, cuando tenemos la hoja cuadrada desplegada, y situarlo sobre el punto medio del lado de arriba (como se muestra en la siguiente imagen), lo cual nos genera el plegado de la hoja cuadrada sobre una línea que va desde lado izquierdo al derecho.
El plegado realizado es el único que se necesita, pero vamos a comprobar que hemos generado tres triángulos rectángulos cuyos lados son proporcionales al triángulo egipcio 3:4:5. Para demostrar esto vamos a marcar una serie de puntos en la figura: los vértices del cuadrado A, B, C, D (empezando arriba a la izquierda y siguiendo el sentido contrario a las agujas del reloj), el punto medio E del lado AD, los puntos F, G en los que la línea de plegado toca a los lados laterales del cuadrado y el punto H marcado por la intersección del lado CB (que se convierte al plegarse en CI) con el lado BA al ser plegado sobre el anterior.
Lo primero que se podría observar en la imagen anterior es que los tres triángulos rectángulos generados sobre el papel cuadrado con el pliegue, AHE, DEF y IGH, son semejantes. Recordemos que dos triángulos son semejantes si tienen la misma forma, es decir, tienen los tres ángulos iguales, solo se diferencian por su tamaño.
Pero empecemos por el triángulo DEF y veamos que es proporcional al triángulo egipcio 3:4:5, es decir, tomando la hoja de papel cuadrada de un cierto tamaño obtendríamos el triángulo pitagórico 3:4:5. Consideremos que la longitud de los lados de la hoja de papel cuadrada es la unidad, 1. Si llamamos a (es nuestra incógnita) a la longitud del lado DF, entonces la longitud de FC es 1 – a, pero como FE = FC, por el plegado, tenemos que la hipotenusa del triángulo rectángulo DEF, el lado FE, tiene longitud 1 – a. La longitud del lado ED la conocemos, ya que E es el punto medio de AD, es 1/2. Si aplicamos ahora el teorema de Pitágoras al triángulo rectángulo DEF se tiene que
de donde se puede despejar y obtener el valor de a, que es a = 3/8. Por lo tanto, los lados del triángulo rectángulo tienen longitud 3/8, 1/2 y 5/8. Estas longitudes son proporcionales al triángulo 3:4:5, para lo cual basta multiplicar por 8, o dicho de otra forma, si el cuadrado original tiene lado igual a 8, las longitudes del triángulo rectángulo originado por esta doblez son 3, 4 y 5. ¡El triángulo pitagórico egipcio!.
Resultado 1 (teorema de Haga): el triángulo rectángulo DEF es proporcional a un triángulo pitagórico 3:4:5.
A continuación, razonemos sobre el triángulo AHE. Para empezar, el ángulo BCD, que es un ángulo recto, se ha convertido mediante el plegado en el ángulo IEF, luego también es recto. Por lo tanto, los ángulos DEF y AEH son complementarios, de donde se deduce que los triángulos DEF y AHE son semejantes, como se comentaba más arriba, es decir, uno es una ampliación –mediante un cierto factor- del otro. En consecuencia, el triángulo AHE es proporcional al triángulo DEF, luego también lo es un triángulo rectángulo con lados proporcionales a 3:4:5. Pero calculemos cual es esa proporción.
Por la proporcionalidad, tenemos que:
Como conocemos tres de las longitudes AE = 1/2 = DE y DF = 3/8, se obtiene la cuarta, AH = 2/3. Por lo tanto, BH = 1/3 y el punto H nos marca la trisección del lado BA (obteniendo así, de paso, una manera mediante plegado de dividir un segmento –en este caso BA– en tres partes iguales, ya que BH = 1/3 y si M es el punto medio de HA, entonces HM = MA = 1/3).
De nuevo, por la proporcionalidad de los lados de los triángulos AHE y DEF se obtiene que:
Conocemos tres de las longitudes, DF = 3/8, EF = 5/8 y AE = 1/2, luego se puede calcular la otra, HE = 5/6. Por lo tanto, las medidas del triángulo AHE, si el cuadrado original tiene lado 1, son 1/2, 2/3 y 5/6, proporcional al triángulo 3:4:5 multiplicando por 6. Más aún, el punto H nos da la sexta parte del segmento IE, ya que HI = 1 – 5/6 = 1/6.
Resultado 2 (teorema de Haga):
a) el triángulo rectángulo AHE es proporcional a un triángulo pitagórico 3:4:5;
b) el punto H es un punto de trisección del lado BA, BH = 1/3;
c) el punto H es un punto de “hexasección” del lado IE, HI = 1/6.
Finalmente, utilizando argumentos similares, es decir, la proporcionalidad de los triángulos semejantes y el teorema de Pitágoras, podemos obtener las medidas del tercer triángulo rectángulo IGH. En concreto, HI = 1/6, IG = 1/8 y GH = 5/24, que también es proporcional al triángulo 3:4:5, multiplicando por 24. Más aún, como GB = IG = 1/8, el punto G nos da la octava parte del segmento BA.
Resultado 3 (teorema de Haga):
a) el triángulo rectángulo IGH es proporcional a un triángulo pitagórico 3:4:5;
b) el punto G es un punto de “octosección” del lado BA, BG = 1/8.
Incluso, utilizando el teorema de Pitágoras podemos obtener la longitud del segmento GF, que es la hipotenusa del triángulo JFG (véase la imagen anterior), cuyo cálculo os dejo para vosotros.
En resumen, si consideramos una hoja de papel cuadrada de longitud 1, las medidas obtenidas tras el pliegue aparecen en la siguiente imagen.
Como hemos visto a lo largo de esta entrada, el primer teorema de Haga nos dice que mediante el plegado “del vértice al punto medio de uno de los lados contrarios” se obtienen tres triángulos rectángulos proporcionales al triángulo egipcio 3:4:5 cuyas medidas son a) 3/8, 1/2 y 5/8; b) 1/2, 2/3 y 5/6; c) 1/8, 1/6 y 5/24, de la longitud del cuadrado original. Por lo tanto, si tomamos una hoja de papel cuadrada de longitud 24 se obtienen tres triángulos pitagóricos de tamaño (9, 12, 15), (12, 16, 20) y (3, 4, 5), como aparece en la imagen.
Más aún, podemos observar que también es cierta la siguiente igualdad:
Resultado 4 (teorema de Haga): La suma de los perímetros de los triángulos DEF y IGH es igual al perímetro del triángulo AHE.
Este resultado, el primer teorema de Haga, a caballo entre el origami y la geometría euclídea, fue descubierto por Kazuo Haga en 1978, cuando trabajaba como biólogo especializado en morfología de artrópodos y utilizaba el origami como método para relajarse. Un año más tarde el físico japonés Koji Fushimi publicó en una revista japonesa el resultado de Haga etiquetándolo por vez primera como el “teorema de Haga”.
Bibliografía
1. Pedro Miguel González Urbaneja, Pitágoras, el filósofo del número, Nivola, 2001.
2. Kazuo Haga, Origamics, Mathematical Explorations through Paper Folding, World Scientific, 2008.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Construir un triángulo pitagórico doblando papel se ha escrito en Cuaderno de Cultura Científica.
El enamoramiento como droga de abuso
Es hielo abrasador, es fuego helado,
es herida, que duele y no se siente,
es un soñado bien, un mal presente,
es un breve descanso muy cansado.
Es un descuido, que nos da cuidado,
un cobarde, con nombre de valiente,
un andar solitario entre la gente,
un amar solamente ser amado.
Es una libertad encarcelada,
que dura hasta el postrero paroxismo,
enfermedad que crece si es curada.
Este es el niño Amor, este es tu abismo:
mirad cuál amistad tendrá con nada,
el que en todo es contrario de sí mismo.
Este texto es un soneto de Francisco de Quevedo. En lo que solemos llamar “cultura” un comentario del mismo podría ser algo tal que así. Habrá quien, leyendo esto, alabe la capacidad analítica del comentarista y su conocimiento de la teoría literaria. Sin embargo, la cultura científica aporta otra dimensión al poema que no le resta un ápice de su belleza formal y sí pone en valor la agudeza de su autor. Algo que hoy día lamentablemente solo es valorado por unos pocos. En lo que sigue vamos a intentar explicar en qué consiste esa otra dimensión.
Explicando el enamoramiento
Cupido, el niño arquero y enredante al que el poema se refiere como niño Amor, se supone que dispara flechas que hacen que la gente se enamore; pero hay poca evidencia científica de que esto sea así. Platón, en su línea, proponía una explicación muy bonita sobre la pérdida de la “otra mitad” que todavía atormenta a muchos adolescentes, y a otros que no lo son tanto, en forma de media naranja ideal; sin embargo, este argumento no pasa la revisión por pares. Otra posibilidad es recurrir a pociones al estilo de Tristán e Isolda, pero que nadie espere más resultados de este remedio que de los adivinos de la tele. Hasta aquí, las letras.
El hecho cierto es que el enamoramiento y sus síntomas, que Quevedo describe magistralmente, existen. Los antropólogos han llegado a la conclusión de que es una constante universal (o casi, siempre hay algo por comprobar): no existe cultura humana conocida en el planeta que no sepa de primera mano lo que es el enamoramiento.
Entonces, si es universal, debe existir una base biológica para él. En otras palabras, no puede ser simplemente una tradición cultural como el fútbol o los tatuajes. Habrá que echar un vistazo pues, sin ánimo de ser exhaustivos, a la acción de genes, neuronas y hormonas si queremos empezar a comprender el síndrome de enajenación mental transitoria al que se refiere Quevedo y que llamamos enamoramiento.
Casanovas y Marcillas
En este punto, y antes de seguir adelante, conviene dejar claro un aspecto importante. En lo que sigue se habla de apareamiento y de enamoramiento indistintamente, porque el enamoramiento no es más que la vestidura con la que disfrazamos el apareamiento. Como apuntábamos más arriba, el enamoramiento es una alteración mental (una enajenación) que dura un tiempo (transitoria) que idealiza al otro, rebaja el riesgo percibido y favorece, en última instancia, la procreación.
Todos conocemos especies en las que las parejas se forman para toda la vida de los individuos y otras en las que la promiscuidad es la regla. Los humanos oscilamos entre el “amor cortés” (platónico) de Dante por Beatriz (en la imagen) y todo lo contrario. Esta “elección”, ¿es algo espiritual, platónico, trascendente o es biológico, genético?
Naturalmente, si hay un fenómeno biológico que se encuentra entre la inmensa mayoría de los individuos de una especie lo que cabe pensar es que esté predeterminado de una forma o de otra en los genes. El problema con el enamoramiento es que es un fenómeno complejo, muy probablemente controlado por interacciones entre muchos productos genéticos distintos. Esto dificulta mucho su estudio como ocurre con el alzhéimer o las dolencias cardíacas. Si, además, por razones éticas muy comprensibles, no se pueden hacer experimentos con humanos, la cosa se complica.
Gracias a la teoría de la evolución, sabemos que estamos relacionados genéticamente con muchas especies, con la que compartimos mucho más que un antepasado común. Esto permite que los estudios genéticos en animales, si bien no pueden responder a cuestiones humanas complicadas, sí den respuesta a preguntas más simples.
Así, por ejemplo, existen dos especies relacionadas de ratones de campo que viven en Norteamérica: una es monógama y vive en la pradera (Microtus ochrogaster) y la otra es promiscua y vive en los montes (Microtus montanus). Un estudio descubrió un gen en los de la pradera que estaba sospechosamente ausente entre los montaraces. Los investigadores insertaron el gen en cuestión en los machos de las especie de montaña y esta simple manipulación convirtió a los que tenían que haber sido Giacomo Casanova en Diego Marcilla. Un indicio de que lo que pensamos que es elección propia de esa persona ideal(izada), esto es, la monogamia total o la poligamia como monogamia en serie, no sería más que predisposición genética.
Loco de amor
Pero si el enamoramiento es, como decimos, una enajenación mental transitoria, toda la influencia genética tendrá su correlato en el encéfalo. Veamos qué encontramos.
Un grupo de investigadores se dispuso a descubrir cuáles eran las manifestaciones neurológicas de los primeros estadios del amor romántico. Básicamente, lo que querían descubrir era si el enamoramiento es una emoción fundamental como el miedo o si está producida por bucles de retroalimentación del sistema de recompensa del encéfalo de la misma forma que funciona la adicción a la cocaína.
Su conclusión es que hay una serie de regiones encefálicas que parecen estar involucradas en los sentimientos románticos. Específicamente registraron la activación del mesencéfalo ventral derecho, alrededor del área tegmental ventral y el cuerpo dorsal y la cola del núcleo caudado. Todas estas regiones no están relacionadas con instintos y emociones primitivos como el miedo, sino que están ligadas al sistema de recompensa que hace que nos volvamos adictos a las drogas.
Cuando ponemos estos resultados en contexto se llega a la conclusión de que el enamoramiento es fundamentalmente un sistema de recompensa, que conduce a varias emociones, más que una emoción específica. Es muy característico que no se pueda ligar una expresión facial de forma inequívoca a estar enamorado. Además las primeras etapas del enamoramiento, cuando este es más intenso, difieren tanto de la atracción sexual como del desarrollo del afecto característicos de las fases posteriores de la relación, que activan áreas diferentes del encéfalo.
¿Y qué pasa si la cosa sale mal? ¿Y si no eres correspondido o te abandonan?
Cuando se mira una foto de alguien que te acaba de abandonar suceden muchas cosas en el encéfalo, incluyendo la activación de regiones habitualmente asociadas al dolor físico, a comportamientos compulsivos-obsesivos, al control de la ira y áreas que se activan cuando elucubramos sobre lo que otro está pensando. No solo eso, en vez de desactivarse las acciones del amor romántico, parece como si se activaran aún más: el enamoramiento se exacerba por el rechazo.
Moléculas enamoradas
Muchas veces se suele hablar de que el enamoramiento es química. Efectivamente, muchas de los circuitos involucrados en el amor romántico incluyen a una hormona que también es un neurotransmisor, la dopamina. Pero este no es el único compuesto involucrado en el enamoramiento.
Al igual que los pacientes con comportamientos obsesivos-compulsivos los enamorados presentan unos niveles anormalmente bajos de serotonina en sangre, lo que se correlaciona bastante bien con la obsesión con el objeto del enamoramiento.
También se han detectado cambios en los niveles de cortisol, hormona estimulante del folículo y testosterona. Algunos de estos cambios dependen del sexo del sujeto. Por ejemplo, la testosterona aumenta en las mujeres enamoradas y disminuye en los varones. Pero lo mejor viene cuando los enamorados que se han jurado amor eterno vuelven a medir sus niveles hormonales 12 meses después, aunque la relación se mantenga: las diferencias hormonales han desaparecido completamente. Esto es, desde el punto de vista endocrino, una pareja que sobrevive a la fase de enamoramiento (recordemos que es una enajenación mental transitoria) lo hace en base a fundamentos bioquímicos diferentes: después de doce meses la química desaparece, solo para ser sustituida por otra, en la que por ejemplo, interviene la oxitocina.
Quevedo etólogo
Vemos pues que el elegir a un solo objeto de nuestra obsesión amorosa tiene una base genética, neurológica y fundamentalmente química y que todo ello se manifiesta en un comportamiento similar al del adicto a una droga.
Prueba ahora a leer el soneto del inicio pensando que está dedicado a una droga de abuso o al objeto de una adicción en general. Apreciarás mucho mejor el genio de Quevedo y advertirás, quizás, que un comentario literario estándar puede quedarse muy corto.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este texto se publicó en Experientia docet el 1 de febrero de 2013.
El artículo El enamoramiento como droga de abuso se ha escrito en Cuaderno de Cultura Científica.
Eletanolamina en el espacio y el origen de la vida
José Mora Perujo y Delphine Pott
El centro de la Vía Láctea capturado por el telescopio Spitzer Space de la NASA.NASA/JPL-Caltech/S. Stolovy (Spitzer Science Center/Caltech)
Si hay una pregunta que estremece a la mayoría de las personas es el origen de la vida. Múltiples teorías se han enfrentado a esta pregunta dando respuestas plausibles y, en varios casos, se ha planteado la posibilidad de que nuestra vida no sea única en el vasto universo.
Etanolamina en la Vía Láctea
Mediante el uso de radiotelescopios podemos descubrir moléculas en zonas lejanas del universo. Cualquier onda puede interactuar con átomos y moléculas para provocar en ellos ciertos cambios, dependiendo de la energía de la onda en cuestión.
Estos cambios pueden observarse y jugar a quién es quién hasta dar con la molécula elegida. Un pequeño ejemplo: si alguien nos empuja, dependiendo de la fuerza con la que lo haga, reaccionaremos de una forma u otra. Pues una cosa parecida pasa con las moléculas, solo que el empujón es la onda y la reacción es lo que estos radiotelescopios captan.
El grupo de Víctor M. Rivilla han usado los radiotelescopios IRAM de Pico Veleta (Granada) y del Observatorio de Yebes (Guadalajara). Esto les ha servido para encontrar etanolamina en una nube de moléculas llamada G+0.693-0.027, cerca del centro de nuestra galaxia, la Vía Láctea.
¿Qué es la etanolamina?
Esta simpática molécula es realmente simple y ahí radica parte de su belleza. La etanolamina no es más que etanol (2 carbonos, 1 oxígeno y 6 hidrógenos) y una amina (1 nitrógeno y 2 hidrógenos) unidos. Esto hace una molécula de fórmula C₂H₇NO, cuya importancia es debida a la presencia de nitrógeno y oxígeno: es polar.
Que una molécula sea polar significa que, dentro de la misma, los electrones no se sienten atraídos de igual forma por unos núcleos de átomos que por otros. Respecto a lo que atañe a la vida es mucho más fácil: las sustancias polares se llevan bien con el agua, nuestro disolvente universal y la base de nuestra vida.
Importancia biológica de la etanolamina
Esta molécula no se presenta sola en los seres vivos, normalmente está unida a otros tipos de biomoléculas. Su pareja perfecta son los ácidos grasos, pero para unirse con ellos necesita de otra molécula: el glicerol-3-fosfato.
Digamos que esta molécula es como una especie de puente entre la etanolamina y los ácidos grasos. Esta unión (etanolamina, glicerol-3-fosfato y ácidos grasos) da lugar a un grupo de moléculas llamadas fosfolípidos muy particulares, tanto que estos compuestos son esenciales para la vida tal y como la conocemos.
Los ácidos grasos, como el aceite, son moléculas largas no polares (apolares). Por tanto, no se llevan bien con el agua (a fin de cuentas, el agua y el aceite no se mezclan).
Entonces, en el caso de los fosfolípidos tenemos una situación muy especial: los ácidos grasos no se mezclan con el agua, como hemos dicho, pero la etanolamina sí. Esto hace que nos podamos imaginar los fosfolípidos como moléculas que tienen una cabeza que interactúa con el agua y unas colitas que huyen de ella.
Estructura de los fosfolípidos y su agrupación en membranas lipídicas.Modificado de Principios de Bioquímica, Lehninger, 5ª Edición. W. H. Freeman and Company
El fenómeno interesante es que las cabezas se alinean y las colas también (como en la imagen). Esto no es ni más ni menos que una membrana, el principio de una célula. Esta membrana es una especie de cercado que delimita la célula. Por tanto, sin etanolamina no habría fosfolípidos y, sin ellos, no habría células y, por tanto, vida.
¿Acaso no es de vital importancia la etanolamina?
El origen de la etanolamina
En muchos casos se especula con la posibilidad de que, antes de que existiese la vida, las moléculas necesarias para el origen de la misma podrían haber llegado a la Tierra transportadas en meteoritos. Estos meteoritos impactarían en nuestro planeta y dejarían esas moléculas libres para que se combinasen con otras e ir construyendo paso a paso la vida que conocemos.
En el caso de la etanolamina, los autores de este estudio creen que mil billones de litros de esta podrían haber llegado a la Tierra en meteoritos. Por tanto, la etanolamina en la Tierra fue extraterrestre hace millones de años y, gracias a este hecho, estaba disponible para formar nuevas moléculas.
Una vez más, como nos hacía pensar Carl Sagan, somos hijos de las estrellas y del universo. Una parte de nosotros proviene de fuera de la Tierra, de lugares que todavía desconocemos.
Entender el cómo se forman estas semillas de vida en el espacio es clave para entender el origen de la vida, como dice Rivilla. Este pensamiento nos siembra la duda de si estamos solos en el universo, si somos la única vida que existe. Esta idea ha sido explorada varias veces por el investigador Carlos Briones. Concretamente, en esta entrevista habla sobre la posibilidad de encontrar vida fuera en el espacio:
Quizás haya que empezar a pensar en la posibilidad que dice Briones: “A lo mejor el Cosmos está lleno de vida”. Puede que, en parte, sea debido a estas moléculas presentes por todo el universo.
Sobre los autores: José Mora Perujo es investigador predoctoral y Delphine Pott investigadora postdoctoral en el departamento de Biología Molecular y Bioquímica de la Universidad de Málaga
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Eletanolamina en el espacio y el origen de la vida se ha escrito en Cuaderno de Cultura Científica.
El cuarto ángel
Tocó el cuarto ángel… Entonces fue herida la tercera parte del sol, la tercera parte de la luna y la tercera parte de las estrellas; quedó en sombra la tercera parte de ellos; el día perdió una tercera parte de su claridad y lo mismo la noche.
Juan de Patmos (siglo I e.c.) Apocalipsis 8: 12.
La gente abandona las ciudades (detalle) (2010) de Zbigniew Libera. Fuente: Muzeum Sztuki Nowoczesnej w WarszawieNormalmente pensamos en el colapso o extinción de la humanidad asociándola a catástrofes de origen natural, como las que ocurren tras los toques del segundo (supervolcanes) o del tercer ángel (asteroides o cometas), o también por las de origen antropogénico, como las que anuncian el primer ángel (catástrofe ambiental) o el sexto (guerra nuclear). Sin embargo, también son concebibles colapsos por razones sociales. No conllevarían la extinción humana pero sí la imposibilidad de optar por futuros alternativos, que es otra forma de agotamiento del potencial de desarrollo y progreso del ser humano. No me refiero a progreso material, aunque, muy probablemente, la parálisis intelectual lo anularía. Ciertas distopías, de las que no nos podríamos recuperar, nos abocarían a esa forma de colapso.
La sociedad que describe George Orwell en su novela 1984 sería una de ellas. Bajo determinadas circunstancias, quizás facilitadas por la inacción de una mayoría de seres humanos, un poder totalitario podría llegar a ejercer un control absoluto del destino de la humanidad. A partir del momento en que eso ocurriese, dejaríamos de tener el más mínimo control o capacidad de incidir sobre nuestro futuro. La humanidad quedaría abocada a un porvenir sin margen alguno para optar por diferentes alternativas. Sería una distopía generada por la fuerza del poder totalitario.
Otra forma de distopía podría surgir debido a la acción de fuerzas sociales alimentadas por decisiones individuales o grupales bajo el efecto de ciertos incentivos, pero que conducirían a un nuevo equilibrio indeseado para el conjunto de la humanidad. La forma más fácilmente concebible de esta modalidad de humanidad distópica es la que podría resultar de un proceso conducente a una tragedia de los bienes comunes de ámbito mundial o casi mundial.
La tragedia de los bienes comunes -o comunales- se produce cuando un conjunto de individuos -pueden ser los vecinos de una comunidad, los nacionales de un país o gran parte de los habitantes del mundo- que actúan de forma racional e independiente, destruyen un recurso común (los bienes comunales), aunque tal destrucción no interese a ninguno de esos individuos. El bien común puede ser material (una fuente, los pastos, el suelo del portal o las pesquerías del mundo) o inmaterial (la democracia, un sistema educativo, o la paz entre las naciones). De un modo similar, ciertos procesos automáticos o semiautomáticos podrían conducir a sociedades cerradas y, eventualmente, a una humanidad sin alternativas. Se trataría de una distopía provocada por acciones individuales y grupales voluntarias, pero cuyo resultado no sería deseado por quienes, con sus decisiones, la habrían propiciado.
Estarían, por último, las distopías deseadas. Serían, por ejemplo, las provocadas por sistemas ideológicos -políticos o religiosos- que serían asumidos con carácter universal, aun cuando condujesen a una humanidad cerrada, que ha decidido autolimitar su potencial hasta perder el control sobre su propio destino. Ejemplos de esta variedad de humanidad distópica serían, por ejemplo, la que renuncia al desarrollo científico o tecnológico, la que no reconoce bienes o males morales con resultados dañinos para ciertos grupos, o la que profesa un credo religioso único y obligatorio para todos. También lo sería la que describió Ray Bradbury en Fahrenheit 451, una sociedad que ha decidido prescindir de los libros. En ella el día, como la noche, habrían perdido, al menos, la tercera parte de su claridad.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El cuarto ángel se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2021: Oskar Gonzalez – No venderás cuadros a los nazis
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
Un juicio por alta traición termina desvelando uno de los grandes engaños de la historia del arte. Oskar Gonzalez nos cuenta el papel pionero de la ciencia en la constatación de la falsedad de la que pasaba por ser la gran obra maestra de Vermeer.
El propio Oskar escribió sobre esta historia en su sección del Cuaderno, kimikArte: El pintor que engañó a los nazis, pero no a la química
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2021: Oskar Gonzalez – No venderás cuadros a los nazis se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2021: Oskar Gonzalez – No venderás cuadros a los nazis
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
Un juicio por alta traición termina desvelando uno de los grandes engaños de la historia del arte. Oskar Gonzalez nos cuenta el papel pionero de la ciencia en la constatación de la falsedad de la que pasaba por ser la gran obra maestra de Vermeer.
El propio Oskar escribió sobre esta historia en su sección del Cuaderno, kimikArte: El pintor que engañó a los nazis, pero no a la química
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2021: Oskar Gonzalez – No venderás cuadros a los nazis se ha escrito en Cuaderno de Cultura Científica.
Un termómetro óptico para entornos industriales extremos
El grupo de investigación Applied Photonics Group de la UPV/EHU ha desarrollado un termómetro óptico para el sector industrial basado en una fibra óptica capaz de medir la temperatura en un amplio rango térmico con una alta sensibilidad sin interacción con el entorno.
La temperatura siempre ha sido una variable muy importante en muchos sectores industriales. Ciertas aplicaciones industriales requieren además una alta sensibilidad ya que existen procesos críticos en los que la medición precisa de la temperatura en tiempo real es esencial para la calidad del producto o para evitar accidentes o averías. Además, habitualmente, los entornos en los que se llevan a cabo estas mediciones provocan que los dispositivos estén sometidos a altos niveles de estrés que pueden reducir su vida útil. Así, por ejemplo, las altas temperaturas en el interior de las turbinas de los motores de aviación; la producción de productos petroquímicos, muchos de ellos inflamables o directamente explosivos, que hay mantener dentro de estrictos rangos de temperatura; o la industria alimentaria donde algunos productos deben conservarse a temperaturas bajo cero.
Existe pues una demanda de termómetros altamente sensibles y robustos capaces de operar en amplios rangos térmicos. Hoy en día, los termómetros electrónicos son los dispositivos más extendidos para la detección de la temperatura en la industria. Entre ellos, los termopares son una tecnología fiable y barata. Pero pueden no ser los mejores candidatos cuando hay que utilizarlos en entornos con gases inflamables, por ejemplo, porque pueden interactuar de forma indeseada con esos gases. En las últimas décadas han aparecido varios sensores basados en fibra óptica como alternativa para superar dicha limitación gracias a su pasividad y su sensibilidad intrínseca a la temperatura.
Por ello, “en este trabajo hemos desarrollado un termómetro basado en una fibra óptica muy especial capaz de soportar condiciones de trabajo extremadamente exigentes. Se trata de la fibra óptica multinúcleo que obtenemos gracias a un acuerdo de colaboración con la Universidad Central de Florida. La fibra óptica común, por ejemplo, es la fibra que nos llega a casa. Se trata de una carretera convencional con un solo carril por sentido de marcha. La fibra óptica multinúcleo sería equivalente a una autopista en la que hay múltiples carriles en cada sentido por los que puede ir la luz. De ahí que las propiedades tanto de transferencia de datos como de cantidad de luz que puede transmitirse se multiplican”, explica Josu Amorebieta investigador del grupo de investigación Applied Photonics Group de la UPV/EHU.
“Para desarrollar el termómetro hemos analizado teóricamente y en detalle cómo afecta la temperatura a las fibras multinúcleo para predecir de esta forma la geometría más sensible a la temperatura. El diseño del termómetro le permite funcionar en un amplio rango térmico (desde los -25 hasta los 900 grados Celsius) y su construcción es lo suficientemente compacta y robusta como para soportar entornos adversos”, añade Josu Amorebieta.
Según el personal investigador del grupo Applied Photonics Group de la UPV/EHU, “los resultados sugieren que el nuevo termómetro óptico es tan preciso como cualquier termómetro electrónico con la ventaja de ser inerte, compacto y fácil de fabricar”. Este prototipo es un importante paso en el camino hacia los termómetros ópticos comercialmente viables.
Referencia:
Josu Amorebieta, Angel Ortega-Gomez, Rubén Fernández, Enrique Antonio-Lopez, Axel Schülzgen, Joseba Zubia, Amezcua-Correa, Gaizka Durana & Joel Villatoro (2021) Sensitivity-optimized strongly coupled multicore fiber-based thermometer Optics and Laser Technology DOI: 10.1016/j.optlastec.2021.107532
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Un termómetro óptico para entornos industriales extremos se ha escrito en Cuaderno de Cultura Científica.
En las entrañas de nuestro planeta
En 1864 Julio Verne publicó su novela “Viaje al centro de la Tierra”, en la que imaginaba nuestro planeta como una especie de queso gruyère en donde era posible encontrar pasadizos que nos conducían, directamente, al interior hueco de nuestro planeta. Sin embargo, y gracias a siglo y medio de avances en las técnicas de estudio geológicas, hoy sabemos que esta fantástica idea no era muy acertada.
Aunque solemos representar a la Tierra como una esfera casi perfecta, en realidad, debido a la rotación que realiza sobre sí misma, se asemeja más a un elipsoide de revolución que se encuentra parcialmente achatado por los polos, por lo que tiene un diámetro máximo de 12.756 km y un diámetro mínimo de 12.714 km, con un radio promedio de unos 6370 km. Y en cuanto a su estructura interna, que es el tema que nos ocupa hoy, podríamos definir nuestro planeta como una cebolla, ya que está formado por diversas capas concéntricas superpuestas una encima de la otra. Pero a la hora de nombrar y describir cada una de esas capas, nos encontramos con dos divisiones diferentes de acuerdo a qué propiedades físicas de los materiales queramos hacer alusión.
Divisiones internas de la Tierra de acuerdo a la composición química y a las propiedades físicas de los materiales. Autoría: Tarbuck, E.J., Lutgens, F.K. y Tasa, D.G. (2009). Earth Science, 12th Edition. Ed. Pearson Prentice Hall, Estados Unidos. Fair use.La primera división interna que hacemos de nuestro planeta responde a la composición química de los materiales que lo conforman, que tiene que ver directamente con la densidad de los elementos químicos. Cuando nuestro planeta estaba comenzando a formarse, los elementos más densos, es decir, los más pesados, se quedaron en el interior de la Tierra, mientras que los menos densos y, por tanto, más ligeros, migraron hacia la parte más externa. Por este motivo, tenemos composiciones químicas diferentes según aumentamos en profundidad, lo que nos permite definir tres grandes capas en nuestro planeta:
La corteza, que es la capa más externa o superficial de la Tierra y está formada principalmente por silicatos de aluminio y magnesio. Podemos dividirla en corteza oceánica, que se encuentra por debajo de la columna de agua de los océanos y tiene un espesor de entre 7 y 12 km, y corteza continental, que posee un espesor promedio de unos 30 km, aunque llega hasta profundidades de 70 km por debajo de las grandes cordilleras, como el Himalaya. Al límite inferior de la corteza, cuya profundidad oscila entre los 7 y los 70 km, se le denomina discontinuidad de Mohorovicic, o “la Moho”, como la conocemos de manera cariñosa en geología.
Justo por debajo de la corteza y hasta los 2900 km de profundidad nos encontramos con el manto, que está compuesto mayoritariamente por silicatos de hierro y magnesio. También aquí podemos hacer una diferenciación en dos partes, el manto superior y el manto inferior, cuyo límite se encuentra aproximadamente a 660 km de profundidad y se conoce como discontinuidad de Repetti.
Finalmente tenemos el núcleo, formado por hierro y níquel y que está separado del manto por la discontinuidad de Gutenberg. El núcleo también se divide en dos subcapas, el núcleo externo y el núcleo interno, cuyo límite aparece a unos 5150 km de profundidad en la discontinuidad de Lehmann.
La otra división que hacemos de la estructura interna de nuestro planeta se corresponde con las propiedades mecánicas de los materiales que lo componen. En este caso, los principales parámetros físicos a tener en cuenta son la presión y la temperatura. Resulta que, según aumentamos en profundidad hacia el interior de la Tierra, tanto la presión como la temperatura son cada vez más altas, por lo que la acción combinada de ambos parámetros físicos provoca un cambio en el comportamiento mecánico de los materiales que nos vamos encontrando. De esta manera, se puede subdividir nuestro planeta en cuatro capas:
La litosfera, que es la capa sólida y rígida exterior y abarca toda la corteza y parte del manto superior. También se divide en litosfera oceánica y litosfera continental, por lo que su espesor oscila entre los 70 km y los 150 km.
A continuación tenemos la astenosfera, que es un semisólido plástico y viscoso que comprende el resto del manto superior.
Por debajo aparece la mesosfera, algo más sólida que la astenosfera pero cuyos materiales mantienen un comportamiento plástico. Se corresponde con el manto inferior.
Y, por último, encontramos la endosfera, en la que podemos diferenciar el núcleo externo que es líquido y el núcleo interno que es sólido.
De esta manera, utilizaremos una nomenclatura u otra para las capas internas de la Tierra dependiendo de a qué propiedades de los materiales nos queramos referir. Si hacemos alusión a la composición química, usaremos los términos corteza, manto y núcleo para dividir nuestro planeta. Sin embargo, si queremos referirnos al comportamiento mecánico, emplearemos los conceptos de litosfera, astenosfera, mesosfera y endosfera. Incluso, podemos mezclar ambas divisiones y usar términos compuestos tales como manto astenosférico si queremos reseñar tanto la composición como las propiedades mecánicas de los materiales. Pero recordad que estos términos ni son sinónimos ni son intercambiables, por lo que no es lo mismo hablar de la corteza que hablar de la litosfera.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo En las entrañas de nuestro planeta se ha escrito en Cuaderno de Cultura Científica.
Tomás Rodríguez Bachiller: matemático, ingeniero y traductor de textos científicos
En su habitual sonrisa, aparentemente ingenua, casi infantil, destellaba, en efecto, suavemente, esa lumbre de benévola ironía que hemos visto lucir en otras nobles y selectas personalidades, y que revela, junto a ese fondo de milenario saber humano que no se hace ilusiones, la más amplia y exquisita tolerancia.
Fragmento de la necrológica de Tomás Rodríguez Bachiller por Antonio Rodríguez Huéscar, El País, 30/10/1980
Tomás Rodríguez Bachiller. Imagen extraída de la Gaceta de la RSME.
Tomás Rodríguez Bachiller nació en Hong Kong el 10 de noviembre de 1899. Su padre, Tomás Rodríguez, era vicecónsul de España en la entonces colonia británica. Su madre era Julia Bachiller. Era el tercero de dos hermanas (Julia y Pilar, nacidas del primer matrimonio de su padre) y tres hermanos (él, Ángel y Jesús). Su madre falleció al dar a luz a Jesús.
Estudió en el Instituto Cardenal Cisneros de Madrid, graduándose en 1916. Se matriculó después en la Universidad Central de Madrid: deseaba estudiar matemáticas. Pero su padre pensaba que estos estudios no le proporcionarían una carrera exitosa. Así, en 1918, Rodríguez Bachiller comenzó sus estudios en la Escuela de Ingenieros de Caminos, Canales y Puertos de Madrid, sin abandonar por ello sus estudios de matemáticas. Algunos de sus profesores fueron Luis Octavio de Toledo (1857-1934), Julio Rey Pastor (1888-1962) y José Ruiz Castizo (1857-1929) que le enseñaron Análisis Matemático, y Cecilio Jiménez Rueda (1858-1950), Miguel Vegas (1865-1943) y José Gabriel Álvarez Ude (1876-1958) fueron sus profesores docentes de Geometría. También estudió Mecánica Celeste con José María Plans (1878-1934).
En enero de 1921, Tullio Levi-Civita (1873-1941) visitó Madrid para dictar un curso sobre Mecánica clásica y relativista. Rodríguez Bachiller, que tenía conocimientos de alemán, francés, inglés e italiano, tomó notas durante las lecciones del matemático italiano y las tradujo al castellano, aunque nunca llegaron a publicarse.
En 1923, el físico Albert Einstein (1879-1955) visitó España para impartir una serie de conferencias públicas sobre relatividad. Rodríguez Bachiller fue uno de los invitados a asistir; debía tomar notas y preparar unos resúmenes de las conferencias. En aquel momento había terminado sus estudios de matemáticas, aunque continuaba con los de ingeniería. Los resúmenes preparados por el matemático español se publicaron en el periódico El Debate, con la satisfacción del físico, que le confesó que«en ningún otro país del mundo se había hecho tan bien».
Gracias a una beca de la Facultad de Ciencias de Madrid, Rodríguez Bachiller pasó el curso académico 1923-1924 en Francia. Allí asistió a los cursos de Émile Borel (1871-1956) sobre elasticidad, de Jules Drach (1871-1949) sobre transformaciones de contacto, de Charles Émile Picard (1856-1941) sobre curvas y superficies algebraicas, de Élie Cartan (1869-1951) sobre mecánica de fluidos, de Jacques Hadamard (1865-1963) sobre ecuaciones diferenciales, de Claude Guichard (1861-1924) sobre geometría diferencial y transformaciones de Laplace, de Henri Lebesgue (1875-1941) sobre topología y de Ernest Vessiot (1865-1952) sobre ecuaciones diferenciales parciales y teoría de grupos.
Al regresar a Madrid en 1924, Rodríguez Bachiller dictó el primer curso de topología impartido en España.
En octubre de 1925 fue nombrado profesor ayudante en la Facultad de Ciencias de Madrid. Además, fue un activo colaborador de la Revista de la Sociedad Matemática Española. Su conocimiento de idiomas le permitió revisar varios trabajos de matemáticos europeos, en particular los artículos sobre topología de Maurice Fréchet (1878-1973), las tesis doctorales de Luigi Fantappié (1901-1956) sobre geometría algebraica y de Louis Antoine (1888-1971) sobre topología, o la monografía L’Analysis situs et la Géométrie algébrique de Solomon Lefschetz (1884-1972). También se ocupaba de la correspondencia con matemáticos extranjeros que publicaron en los primeros números de la Revista de la Sociedad Matemática Española, además de traducir algunos de sus artículos a castellano.
En octubre de 1932, Rodríguez Bachiller se convirtió en profesor interino de la Facultad de Ciencias de Madrid al quedar vacante la Cátedra de Ecuaciones Diferenciales. En 1935, tras pasar las pruebas correspondientes, fue nombrado profesor de Teoría de Funciones, aunque al carecer de un doctorado, le informaron de que debía presentar una tesis antes de poder ocupar la Cátedra. Presentó su tesis Axiomática de la dimensión y la defendió el 27 de agosto de 1935, aunque nunca fue publicada.
Al final de la Guerra Civil, debido a su simpatía por el bando republicano, fue tratado con recelo por el régimen franquista y descalificado para ocupar cargos de dirección y confianza. Aunque pudo volver a ocupar su Cátedra en diciembre de 1939.
En 1941 escribió Comentarios sobre álgebra y topología y, al año siguiente, Sulle superficie del quarto ordine contenenti una conica. Fueron sus últimos trabajos de investigación, aunque mantuvo su interés por la topología e impartió docencia sobre esta disciplina en muchas ocasiones.
En 1947 realizó una visita de cinco meses a Estados Unidos gracias a una beca de Junta de Relaciones Culturales del Ministerio de Relaciones Exteriores. En la Universidad de Illinois en Urbana trabajó con Oscar Zariski (1899-1986), y en Princeton con Solomon Lefschetz (1884-1972), Emil Artin (1898-1962) y Claude Chevalley (1909-1984).
En 1954 comenzó una serie de estancias en la Universidad de Puerto Rico, un lugar especial para el matemático ya que allí había nacido su hermano Jesús y estaba enterrada su madre.
En 1969 se retiró, falleciendo con 80 años, el 9 de julio de 1980.
Referencias
-
Luis Español González y María Ángeles Martínez García, Hacia la matemática abstracta: Tomás Rodríguez Bachiller (1899–1980), Gaceta de la Real Sociedad Matemática Española 13 (4) (2010) 769–795
-
J J O’Connor and E F Robertson, Tomás Rodríguez Bachiller, MacTutor History of Mathematics archive, University of St Andrews
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Tomás Rodríguez Bachiller: matemático, ingeniero y traductor de textos científicos se ha escrito en Cuaderno de Cultura Científica.
Alfred Werner, químico hasta la extenuación
Alfred Werner nació en 1866 en uno de esos lugares marcados por la guerra en la vieja Europa, una de esas ciudades en la frontera entre imperios que cambiaba de manos según soplase el viento. Mulhouse tenía tendencia a ser francesa, la mayoría de sus habitantes se sentían franceses, a pesar de que sus apellidos eran una mezcolanza de prusianos y galos. Siendo Alfred niño, la guerra franco-prusiana de 1870 hizo que la ciudad cambiase de nuevo de manos, siendo anexada al recién formado Reich Alemán diseñado por Otto von Bismarck para mayor gloria del káiser Wilhelm.
Muchos ciudadanos con lazos franceses abandonaron la ciudad, no así los padres de Alfred, que prefirieron quedarse y resistir, hablando francés en casa aunque estuviese expresamente prohibido. Ya adulto, Alfred recordaría cómo disparaba su fusil de juguete contra los soldados alemanes y su mesa de despacho en Zúrich estaba presidida por un trozo de bomba que recogió cerca de su casa siendo niño.
Alfred no fue precisamente un alumno ejemplar y, como precaución, solía llevar trozos de cartón dentro de sus pantalones con la idea de aliviar el castigo físico que suponía saltarse clases. Los biógrafos de Werner hablan de rebeldía frente a la extrema rigidez del sistema de enseñanza alemán, la misma que años después mostraría Einstein. Sin embargo, Alfred era muy experimental a la par que teórico: sus escapadas las empleaba en hacer experimentos químicos detrás de un granero cercano y está documentada al menos una explosión en su habitación.
Entre 1885 y 1886 Alfred tuvo que hacer el servicio militar en Karlsruhe, donde aprovechó para asistir a las conferencias que Engler daba en el Politécnico local. En 1886 toma la decisión de alejarse de conflictos y se matricula en el Politécnico de Zúrich. En 1889 se diploma en química técnica y, a pesar de suspender varios exámenes de matemáticas en su primer intento, consigue su doctorado en 1892, tras una estancia de casi dos años en París, con una tesis sobre la disposición espacial de moléculas que contienen nitrógeno, con Arthur Hanztsch como director y Marcellin Berthelot como codirector. Al igual que Einstein, si bien realizó su trabajo en el Politécnico el doctorado se lo otorgó la Universidad de Zúrich.
Los años 1892 y 1893 fueron de subsistencia para Alfred, trabajando como privat dozent, profesor sin sueldo (lo que sus alumnos le pagasen), en la Universidad de Zúrich. En 1893 se convirtió e profesor asociado de la Universidad con un modesto salario, sucediendo a Victor Merz como profesor de química orgánica. En 1895 adquiriría la nacionalidad suiza y, a pesar de tener ofertas de Viena, Basilea o Wurzburg, decide quedarse en la Universidad de Zúrich aceptando la plaza de catedrático con sólo 29 años. Pero, ¿qué había hecho Alfred en este tiempo para escalar así de rápido?
Alfred hizo su primera investigación química independiente con 18 años y su interés siempre había estado en la frontera entre la química orgánica y la inorgánica, alrededor del problema de la valencia y la estructura de los compuestos químicos. Un par de años después de su doctorado, obsesionado como estaba con el problema, cuenta la leyenda que una noche se despertó sobresaltado a las dos de la madrugada, saltó de la cama y se puso a escribir. A las cinco había terminado “Contribución a la constitución de los compuestos inorgánicos”, el artículo que sentaba las bases de la teoría actualmente aceptada sobre los compuestos de coordinación, también llamados complejos.
Alfred proponía flexibilizar las ideas de Kekulé, de una valencia rígida en una dirección, a una esfera de fuerza con el centro en el átomo. Sugería la existencia de un número de coordinación, que sería el número de ligandos que un determinado átomo metálico buscaría adquirir. Estas ideas eran controvertidas pero lo suficientemente interesantes como para asegurarle un puesto en la universidad.
Con el futuro asegurado, se dejó barba y bigote para intentar conseguir un poco de respeto por parte de los alumnos y colegas, se casó con una chica suiza y se dispuso a fundar una familia y a probar su teoría. La familia estuvo completa 8 años después. Probar la teoría le costaría 20 años de trabajo incansable.
La rutina era siempre la misma: sugería una estructura para un compuesto y predecía sus propiedades a partir de ella. Después una laboriosísima serie de síntesis muy meticulosas hasta conseguir el compuesto. Finalmente caracterizar el compuesto, asegurarse de que era el que se quería obtener y comprobar que sus propiedades correspondían a las predichas. Por ejemplo, proponía que los compuestos octaédricos tenían átomos en posiciones fijas alrededor de un centro, lo que significaba que tenían quiralidad y, por tanto, podían rotar la luz polarizada. Si se encontraban los compuestos mediante síntesis, su actividad óptica vendría a confirmar las ideas de Alfred.
En química, se llama geometría molecular octaédrica a la forma de los compuestos en los que seis ligandos (átomos, moléculas o iones) se disponen alrededor de un átomo o ion central, definiendo los vértices de un octaedro.A diferencia de los compuestos que usó Pasteur, las moléculas ópticamente activas de Alfred no formaban cristales que se pudiesen separar con pinzas. Empleó 18 años en perfeccionar el método para conseguir separarlas con la ayuda inestimable de su alumno de doctorado Victor King.
Pero siempre hay críticos, y eso no es necesariamente malo. Se pensaba que la quiralidad era algo propio de los átomos de carbono y, como en los compuestos de Alfred había carbono, sugerían que la actividad óptica era consecuencia de la presencia de estos. En 1914, un año después de recibir el Nobel por sus logros, con la ayuda de otra estudiante de doctorado, Sophie Matissen, Alfred consiguió preparar un compuesto ópticamente activo en el que solo había nitrógeno, hidrógeno y oxígeno, despojando al carbono de sus derechos exclusivos en lo que a quiralidad se refiere.
Werner, maestro
Todos los avances químicos de Alfred Werner están disponibles en múltiples recursos en la red (por ejemplo). Sin embargo, en pocos lugares encontraréis su otra gran contribución a la ciencia. Su labor como enseñante y director de personas, en lo que fue un avanzado a su tiempo.
Alfred era un orador magnífico y profesor vocacional. El aula en el que daba clases Alfred solía contener de forma rutinaria del orden del doble de personas de las que se suponía que era su capacidad: se sentaban en los pasillos, se aglomeraban alrededor del banco de demostraciones. En verano había desmayos y los rectores de la institución mostraban su preocupación por los riesgos de incendio o explosión. Un chascarrillo de la época era “¿cuándo ocupa un estudiante de química el volumen mínimo? En una clase de Nunwiegeht’s”. Ni que decir tiene que Nunwiegeht’s era uno de los motes de Alfred, por su costumbre de saludar con un ¿cómo te va?.
Alfred dirigió más de 200 tesis doctorales y, siendo la Universidad de Zúrich pionera en admitir mujeres para el doctorado, él fue pionero en admitirlas en ciencia, aplicando una meritocracia estricta. Buena parte de sus más 200 tesis dirigidas fueron escritas por mujeres. No es de extrañar que personas de toda Europa y Estados Unidos fuesen a Zúrich a estudiar con él.
El laboratorio de Alfred en Zúrich era extraoficialmente conocido como “las catacumbas”, celdas semisubterráneas donde siempre era necesaria la iluminación artificial. Según una revista humorística de la universidad, una muestra del aire de las catacumbas contenía de forma típica “un 50% de ácidos evaporados, 30% de olores nauseabundos de preparados, 10% de humo de cigarrillo, 5% de alcohol y 5% de gas de iluminación mal quemado, lo suficiente para enviar al más resistente de los individuos al gran más allá”. La universidad, consciente de la necesidad de un nuevo edificio para albergar los laboratorios, lo acabó concediendo, con lo que Alfred trabajó incansablemente en su diseño y construcción mientras seguía dirigiendo elementos fundamentales de su investigación. Alfred empezó a dormir muchos días en su despacho de la universidad y a buscar en el alcohol una manera rápida de relajarse.
El precio que Alfred pagó fue muy alto. El estrés, el exceso de trabajo, su consumo excesivo de tabaco y alcohol le llevaron al colapso nervioso. No mucho después de recibir su nuevo edificio fue obligado a dimitir.
Alfred Werner murió en un hospital psiquiátrico de Zúrich poco después de cumplir los 53 años.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Alfred Werner, químico hasta la extenuación se ha escrito en Cuaderno de Cultura Científica.
¿Por qué la carne de los atunes es roja y la de los lenguados, blanca?
Shutterstock / Natasha Breen
El color de los atunes tiene importancia económica: existen casos de fraude en los que se enrojece la carne de ejemplares de otras especies para hacerlas pasar por atún rojo (Thunnus thynnus) o para que las piezas parezcan frescas y no deterioradas por una conservación deficiente. Pero ¿por qué la carne de estos animales es roja?
El color de la carne de los túnidos (género Thunnus) varía entre especies, pero tiende a ser más oscuro que el del resto de peces. Por un lado, es una carne con un alto contenido en mioglobina, un pigmento que se encuentra en las células musculares de muchos vertebrados y que hace las veces de depósito celular de oxígeno para cuando se necesita.
Por otro lado, es una musculatura con alta densidad de vasos sanguíneos, en especial la del atún rojo. Como norma general, cuando un animal tiene músculos muy irrigados es que es muy activo. Así son los atunes, fuertes, capaces de nadar a velocidades asombrosas y hacerlo de forma sostenida. Recorren por ello grandes distancias. Además, la sangre de los túnidos –la del atún rojo en especial– tiene un contenido muy alto en hemoglobina.
La razón de todos estos rasgos –alto contenido muscular de mioglobina, musculatura muy irrigada, alto contenido de hemoglobina en la sangre– es que la gran actividad que desarrollan exige un suministro permanente e intenso de nutrientes y, sobre todo, de oxígeno. Lo cierto es que la musculatura de los atunes alcanza prestaciones metabólicas difícilmente superables.
Pero hay más. Hay una zona en el tronco de los túnidos que es más oscura, tiene más vasos sanguíneos y una consistencia casi esponjosa. De hecho, los atunes pierden mucha sangre por esa zona cuando sufren un corte. Esa zona oscura, sanguinolenta incluso, es lo que se conoce como rete mirabile.
La red maravillosa —su nombre en español– es un dispositivo que permite que la sangre (arterial) fría procedente de las branquias se caliente antes de llegar a los músculos. Recibe el calor de la sangre (venosa) procedente de la musculatura, donde se ha calentado por efecto del metabolismo. Ese intercambio de calor se produce entre vasos sanguíneos dispuestos en íntima proximidad unos con otros, pero en cuyo interior la sangre circula en sentidos opuestos. Esa forma de circular –contracorriente– permite una transferencia óptima de calor entre los dos subsistemas circulatorios. Es un ejemplo fisiológico de lo que se denomina un “intercambiador contracorriente”. En el mundo animal no son raros intercambiadores así, de calor, de gases o de iones.
Nosotros utilizamos intercambiadores contracorriente –no biológicos, por supuesto– para termostatizar instalaciones, por su gran eficiencia. Aunque hay ingenieros que creen que son una creación de la mente humana, en realidad fueron diseñados por la naturaleza hace millones de años, gracias a la selección natural.
Así pues, el calor generado por la potente actividad muscular de los atunes no se pierde por las branquias cuando la sangre llega a ellas. Se ha transferido a la sangre arterial. Se podría decir que ha quedado preso en una jaula fisiológica. Y gracias a ello, el interior de los atunes –parte de su musculatura, los ojos y el encéfalo– se encuentra, en aguas frías, hasta diez grados más caliente que el agua en que nadan. Desarrollan así niveles metabólicos muy altos, acordes con los de la actividad física que despliegan.
Atún fresco.Shutterstock / Mark Watts
Llegados a este punto se habrán acordado de los lenguados o peces similares cuya carne es blanca. En efecto, esos peces no dan un palo al agua, son lo que en inglés se denomina depredadores sit and wait, porque se “sientan” a esperar.
Durante la mayor parte del tiempo permanecen sobre el sustrato, quietos, mimetizados con el fondo o semicubiertos con partículas de arena o fango. Pasan así inadvertidos por sus posibles presas. Los ojos de los peces planos se encuentran en uno de los lados de la cabeza mirando hacia arriba. Cuando ven que pasa alguna posible presa por encima, realizan un movimiento veloz, como un latigazo, se lanzan hacia ella. Si tienen suerte, la capturan.
Lo interesante es que los músculos que ejecutan ese movimiento no utilizan oxígeno, son anaerobios, músculos que obtienen su energía (el ATP) únicamente de la glucolisis, sin completarse, por lo tanto, la ruta estándar del metabolismo aerobio –a través del ciclo de Krebs y la cadena respiratoria en el interior de las mitocondrias– característico de otros tejidos.
Lenguado fresco.Shutterstock / seeshooteatrepeat
La glucolisis es una vía muy rápida aunque ineficiente. Proporciona energía a gran velocidad, que es de lo que se trata en este caso. Surte de ATP a músculos rápidos y por eso la utiliza el lenguado para atrapar a sus presas. Así pues, como no es necesario un aporte permanente de oxígeno, no hace falta que llegue mucha sangre a esa musculatura. A ello se debe que los peces planos y especies con un modo de vida similar tengan la carne tan blanca.
La carne de los atunes es roja; la de los peces planos, blanca, apenas sangra al cortarla. Esas diferencias obedecen al modo de vida de las especies. No son caprichosas, como no lo son gran parte de los fenómenos de la naturaleza, aunque creamos lo contrario.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Por qué la carne de los atunes es roja y la de los lenguados, blanca? se ha escrito en Cuaderno de Cultura Científica.
Introducción a Bitcoin
Mikel Lezaun Iturralde
Bitcoin es la primera moneda nativa digital. Como moneda digital, Bitcoin no tiene ninguna componente física, simplificando mucho, se puede afirmar que los bitcoin son registros informáticos y claves para realizar transacciones. Bitcoin opera en una extensa red de ordenadores abierta a quien lo desee, descentralizada (todos los nodos son iguales, no hay un nodo central que gestiona la red) y en la que los nodos tienen una copia de la gran base de datos de todas las transacciones. La red Bitcoin funciona con la tecnología blockchain, que garantiza por sí misma la seguridad de su gran base de datos. Bitcoin emite su propia moneda sin ningún respaldo de una entidad financiera o banco central. La emisión de moneda la hace Bitcoin en tiempo, número y destino siguiendo unas reglas fijas, independientemente del valor de cambio de bitcoin y de la coyuntura económica. En este artículo se describe los principales procesos del sistema blockchain, o cadena de bloques, y Bitcoin.
Foto: Executium / Unsplash-
Introducción
En el sistema bancario tradicional, para hacer una transferencia de una cuenta de un banco a otro banco, se cursa la orden, el banco comprueba si la cuenta del ordenante tiene fondos, resta del saldo de su cuenta el dinero de la transferencia y comunica al otro banco que debe sumar esa cantidad al saldo de la cuenta del destinatario. Esta gestión no mueve billetes de un lado a otro, simplemente es un cambio en los saldos de las cuentas. En realidad, todo esto lo hace un programa informático. Los bancos son los intermediarios y garantes de las transacciones, son quienes mantienen de forma segura toda la información en sus bases de datos y por ello cobran sus comisiones.
Ya en 1996, el Premio Nobel de economía Milton Friedman apuntó la necesidad de que se creara un protocolo específico para transferir valor por Internet, para trasferir dinero electrónico de un usuario A a uno B, sin que A tenga por qué saber la identidad de B o B quien es A.
En 2008, Satoshi Nakamoto, del que hasta la fecha no se sabe nada, ni quien, quienes o qué es, publicó un artículo en la lista de correo Cryptography de Internet, en el que definía un protocolo de comunicaciones para transmitir valor, basado en una red en la que todos los nodos se comportan como iguales, sin jerarquías. El año siguiente, él mismo publicó la primera versión del software Bitcoin, creó la red del mismo nombre y las primeras unidades de moneda, que también denominó bitcoin. En 2010, una vez puesto en marcha el sistema Bitcoin, Nakamoto se apartó y desapareció del mapa.
Características de la red Bitcoin
Las características más destacables de las monedas digitales, en particular de la red blockchain (cadena de bloques) de Bitcoin son las siguientes.
-
La red blockchain de Bitcoin es abierta, todo el que quiera puede participar, no se necesita autorización ni identificación.
-
La red es transfronteriza, se puede transferir de un punto a cualquier otro punto del mundo. En realidad, los bitcoin no residen en ningún sitio, no son algo físico.
-
La red es neutral, no hay que dar ninguna explicación a una transferencia. La red procesa cualquier transacción independientemente del ordenante, destinatario y cantidad.
-
La red es resistente a la censura, nadie puede evitar que se realice una transacción.
-
La red es pública, todo es verificable por todos, la red es totalmente transparente.
-
La red por sí misma gestiona las transacciones y garantiza la seguridad tanto de las transacciones como de la base de datos. No necesita de intermediarios ni de bancos.
-
Las transacciones son seudónimas, no se sabe directamente quien es el emisor ni quien el receptor.
-
Las transacciones son muy fáciles de realizar. El único coste es la tasa por transferencia que se abona a los denominados mineros, que además es voluntaria. Ahora bien, hace tiempo que se prioriza las transacciones con las comisiones más altas.
-
Preliminares
Digitalización
Al hablar de Bitcoin se dice que es una moneda digital. Digitalizar no es otra cosa que convertir un texto, un documento en números. Todos los símbolos tipográficos tienen un equivalente numérico. Cualquier número, entendido como el valor que representa, se puede escribir de distintas formas. En el sistema decimal se utilizan los diez caracteres 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9; en el hexadecimal los dieciséis caracteres 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f y en el binario solamente los caracteres 0 y 1. En particular, cualquier documento se puede convertir en una lista de 0 y 1. Lo mismo que en el sistema decimal, las operaciones matemáticas se pueden realizar en los otros sistemas. En un sistema electrónico el 0 se corresponde con un circuito abierto y el 1 con uno cerrado. Así, la información trasladada a números binarios se puede almacenar y tratar matemáticamente en dispositivos electrónicos.
A modo de ejemplo, la expresión binaria de la palabra covid-19 es
0110001101101111011101100110100101100100001011010011000100111001
y la de Covid-19
0100001101101111011101100110100101100100001011010011000100111001
Notemos que solo se diferencian en el tercer carácter, en el primer caso es 1 y en el segundo 0.
Funciones resumen
Dado un documento, en muchos casos interesa tener un resumen representativo que lo identifique de forma única y que sirva para verificar su correcta trasmisión y almacenamiento en redes y sistemas digitales. Para obtener estos resúmenes, en Bitcoin se utilizan las funciones resumen (hash en inglés) criptográficas. Las principales características de estas funciones son las siguientes.
-
Una función resumen no es aleatoria, en general es fácil de calcular y aplicada a un mismo documento siempre da el mismo resultado. Por contra, de un resumen criptográfico no es posible recuperar computacionalmente el documento del que proviene.
-
Las funciones resumen son muy sensibles, una levísima modificación de la entrada produce un resumen completamente diferente.
-
Sea cual sea el tamaño de la entrada, que en general suele ser grande, la longitud del resumen es la misma. Así, del resumen no se puede deducir si proviene de un documento extenso o de uno breve.
Las funciones resumen se calculan a partir de la expresión binaria del documento, esto es, de su expresión en 0 y 1. Para ello, se expande la lista original de 0 y 1 a una más amplia, se descompone esta nueva lista en bloques, en cada bloque se cambia varias veces de sitio los 0 y 1 y se realizan distintas operaciones matemáticas. Esto es relativamente fácil de hacer, siempre se siguen las mismas reglas. Así, validar el resumen de un texto es prácticamente instantáneo.
En Internet se encuentran muchas páginas web que calculan el resumen de un documento con distintas funciones resumen. En Bitcoin, de todas las transacciones y bloques se calcula el correspondiente resumen identificativo. Para ello utiliza la función resumen SHA-256, que proporciona resúmenes formados por 256 ceros o unos, que se traducen en 64 caracteres hexadecimales 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f. Por ejemplo, el resumen de la palabra covid-19 es
88529c3ac8ebd2dcb21a432c4ea0190c8370850b73ef95a527d150d4d424bc62
y el de la palabra Covid-19
993ab4dd1fb517c10afcd32c007ec64c3d76bac264104bf44c57f5667f609da7
Como se ve, una simple diferencia de un carácter 0 y 1 da un resumen completamente diferente.
El resumen de los tres párrafos de la introducción de este mismo documento es
aedd1bb22c321638f1155e3611bed6e677b73de5c428a9ed956d35f54d47a3e6
que también tiene 64 caracteres hexadecimales.
Árbol de Merkle
Supongamos que tenemos un bloque de documentos, cada uno con su resumen criptográfico y que, para reforzar la seguridad del contenido del bloque, se quiere obtener un resumen de todos los resúmenes. Para ello se construye un árbol de Merkle, que consiste en lo siguiente. Se ordenan los resúmenes de los documentos del bloque (no hay que olvidar que los resúmenes no dejan de ser números) y se van juntando de dos en dos en un mismo texto. De cada uno de los nuevos textos formados por un par de resúmenes, se obtiene su resumen. Con los resúmenes obtenidos se vuelve a repetir la operación, esto es, se forman los textos de pares de resúmenes y de cada uno se obtiene su resumen. Se sigue el proceso hasta llegar a un solo resumen, que se denomina raíz de Merkle. Así, cualquier modificación en una transacción almacenada, para que sea coherente, implica la modificación de su resumen, lo cual conlleva la modificación de la raíz de Merkle.
Firma digital
Una firma digital es un mecanismo criptográfico que garantiza que la firma de un documento es auténtica, esto es, que no ha sido suplantada; que el documento no ha sido alterado y, además, que quien lo firma no lo puede repudiar. Bitcoin, para la autentificación de las transacciones, para la firma digital, utiliza un sistema criptográfico de clave pública y clave privada. Las claves pública y privada de una firma digital son dos números muy grandes, dependientes entre sí y que se generan simultáneamente mediante un algoritmo matemático. Generar los dos números es relativamente fácil, pero el camino inverso, obtener de uno de ellos el otro, es computacionalmente imposible.
La clave privada se debe guardar de forma muy segura para que nadie tenga acceso a ella. Por contra, como indica su nombre, la clave pública es pública. La firma se realiza con la clave privada. El proceso de firma digital es como sigue. En primer lugar, la aplicación informática de la firma digital obtiene el resumen del documento. Luego, este resumen, mediante un algoritmo matemático basado en la clave privada del firmante, se encripta. Junto con el documento se graba su resumen, el resumen encriptado y la clave pública. Todo esto es público, de acceso libre. Para verificar la autenticidad de la firma se utiliza la clave pública del firmante. Primero se comprueba que el resumen es el del documento. A continuación, se aplica al resumen encriptado un algoritmo matemático basado en la clave pública y el resultado tiene que ser exactamente igual que el resumen del documento firmado. Si ocurre así, el documento firmado es auténtico. Si no, se rechaza, ya que haciendo lo que se indica, solo se recupera el texto del resumen del documento si se utiliza la clave pública de quien lo ha firmado. Esta comprobación la puede hacer quien quiera.
-
Monedero o wallet
Crear una cuenta bitcoin es muy fácil. Basta con registrarse en alguna de las múltiples páginas web dedicadas a ello e introducir una serie de datos personales. Una vez registrado, para operar se necesita instalar un monedero o wallet, que no es más que una simple aplicación informática que permite transferir y recibir moneda digital. Instalado el monedero, él mismo crea los pares de claves pública y privada para la firma digital de las transacciones. A partir de la clave pública, el monedero genera de forma determinista la dirección. Los monederos guardan la identificación de las transacciones dirigidas a sus claves públicas y direcciones y su contenido es de acceso público. Ahora bien, las correspondientes claves privadas se deben mantener bien guardadas, ya que, como se verá, con ellas se hacen las transferencias de las transacciones registradas en el monedero. Una misma persona puede tener varios monederos. También, conforme va recibiendo transacciones, se puede ir cambiando las claves privada y pública y por tanto la dirección de recepción. Así, no se sabe si distintas direcciones en realidad corresponden a un mismo usuario.
Un ejemplo de clave pública es
020766fd4ffbbfa2086a96b335ba6eff24b58e4819936f8dc9d4002dabc9b11405
que genera mediante cálculos matemáticos la dirección
1FVRX63gUDxkQ25C7ivMa27C9nT1DUafmD
-
Transacciones
Las transacciones son el vehículo para transferir bitcoin de un usuario A a uno B. Las transacciones son públicas, están identificadas por su resumen y se guardan agrupadas en bloques, que van conformado una cadena. Una transacción contiene una entrada (input) en la que consta la procedencia de los bitcoin a transferir y una salida (output) que indica a donde van esos bitcoin. Si A quiere hacer una transferencia a B, en la salida de la transacción A incluirá la dirección y clave pública que le habrá proporcionado B. La correspondiente clave privada B la mantendrá oculta y segura, ya que la tendrá que utilizar cuando quiera transferir los bitcoin que reciba en esta transacción. En la entrada de la transacción A incluirá la identificación de una transacción con suficientes bitcoin que tiene por salida una transacción que un usuario C envió a una dirección y clave pública de A. La transacción de la entrada tiene que estar sin gastar, A no la ha tenido que haber utilizado en anteriores transacciones. Esta transacción la tendrá registrada A en su monedero. La validez de la transacción, la seguridad de que A tiene los bitcoin que pretende transferir a B, la realiza A con la firma digital. Para ello A firma la transacción con la clave privada asociada a la clave pública de la salida de la transacción que realizó C dirigida a la dirección y clave pública de A. Con la clave pública se puede verificar que esta transacción solo la ha podido firmar A, lo cual asegura que A es el propietario de los bitcoin que transfiere a B. En realidad los usuarios no tienen en propiedad bitcoin, lo que tienen son claves privadas de salidas de transacciones no gastadas (en inglés UTXO de Unspent Transaction Output) para con ellas hacer transacciones. Si A pierde la clave privada, nadie puede utilizar los bitcoin de la transacción y desaparecen. Y si alguien se apodera de la clave privada, el dinero de la salida de la transacción es suyo, lo puede utilizar sin ninguna cortapisa.
La salida de una transacción solo se puede utilizar una vez y siempre se transfiere completa. Ahora bien, ¿cómo se hace una transferencia de 3,9 bitcoin, cuando se quiere utilizar una salida de transacción no gastada con 5,3 bitcoin, sin perder los 1,4 bitcoin restantes? El procedimiento ideado para solventar esta dificultad es que, en estas situaciones, efectivamente la entrada de la transacción es la salida con 5,3 bitcoin que se quiere transferir, pero se crean dos salidas, una de 3,9 bitcoin a la dirección que se quiere enviar y otra de 1,4 bitcoin a una dirección y clave pública propia. De esta forma, la salida no gastada de la auto transacción con 1,4 bitcoin vuelve al emisor y solo él la puede utilizar firmándola con su clave privada. De esta forma no pierde los 1,4 bitcoin.
Veamos como ejemplo una de transacción incluida en el bloque 672431 que se describirá más adelante. El resumen que identifica a esta transacción es
57ff5d1af48c6687f1500e5acfe9a2297d5091a62e5e8da72ae31967282bdd22
y la dirección del ordenante
1KbnB9GTmUDn9Kjebm9w7aC9s5WxjSMcR5
La entrada de la transacción, es la salida de la transacción con 3,61216838 bitcoin contenida en el bloque 672424, cuyo resumen es
d42f3804872d1b4fe466aa156bfe92e430564f445d6ac5cf172e7e1630b2560e
y dirección la del ordenante
1KbnB9GTmUDn9Kjebm9w7aC9s5WxjSMcR5
La transacción tiene dos salidas. Una con 3,54120686 bitcoin a la dirección
12hy9qkZTiBcN9kCMKvQ62YDj3D7d2Ay3H
y otra con 0,07059952 bitcoin a la dirección
3JmgHw6rjUHgkptYmKX5SmekScxjFzHve9
La tarifa que fija la transacción es 0,00036200 bitcoin
El gasto total de la transacción es 0 bitcoin, que es igual a la cantidad de la entrada.
Este sistema público de transacciones es anónimo. Aunque se puede seguir el recorrido de las transacciones, de los usuarios solo se conoce claves públicas y direcciones obtenidas de ellas.
Para facilitar las transacciones un bitcoin está fraccionado en satoshi. Un bitcoin son cien millones de satoshi.
-
Nodos de la red
La red Bitcoin es una red descentralizada, no hay un nodo central que gestiona la red, y abierta, quien quiera puede unirse libremente a la red con solo descargar e instalar en su ordenador el software adecuado. En la red Bitcoin existen varios tipos de nodo, cada uno con sus funciones específicas.
Los nodos completos son los nodos que almacenan una copia exacta y actualizada de la cadena de bloques. Son los que verifican la validez de las transacciones y bloques de transacciones y los propagan por la red a otros nodos. Los nodos completos son los encargados de verificar que se cumplen todas las reglas del protocolo Bitcoin y, por tanto, son los que verdaderamente otorgan robustez, seguridad y estabilidad a la red. Entre los nodos completos se destacan los nodos públicos. Estos nodos ejercen de forma continua e ininterrumpida como un punto de comunicación e interconexión con otros nodos de la red para transmitir datos e información. Cualquier nodo que desee conectarse con un nodo público lo puede hacer libremente cuando quiera.
Los nodos de minería o mineros son los nodos completos que agrupan las transacciones en bloques y los confirman realizando lo que se denomina minado y que se explica más adelante.
Por último, están los nodos ligeros. Son nodos que no mantienen una copia de la cadena de bloques y no participan en el proceso de verificación y validación de las transacciones. Los nodos ligeros pueden solicitar y recibir de los nodos completos públicos el estado de una transacción concreta. En particular pueden obtener información de sus propias transacciones, si están incluidas o no en un bloque. Los nodos ligeros trabajan únicamente como puntos finales de comunicación y son ejecutables en dispositivos móviles como teléfonos y tablet.
Hay que destacar que toda transacción también debe incluir el pago voluntario de una comisión para quienes realizan las verificaciones, agrupan las transacciones en bloques y confirman los bloques, esto es, para los mineros.
-
Bloques de la cadena
Una ver realizadas, las transacciones se trasmiten entre los nodos mediante el protocolo de comunicación de la red Bitcoin y los nodos completos verifican su validez. Una vez verificada su validez, las transacciones quedan a la espera de que los nodos mineros las agrupen en un bloque y lo confirmen. Cada minero construye su propio bloque seleccionando las transacciones que más le beneficien y no estén incluidas en bloques ya confirmados. Estos bloques son los bloques candidato y su tamaño tiene que ser inferior a un megabyte. Como se verá más adelante, para que un bloque sea confirmado, y en consecuencia también todas sus transacciones, se tiene que minar. Como minar un bloque está recompensado, hay muchos mineros construyendo su bloque candidato y todos ellos contendrán más o menos las mismas transacciones. Además, junto con las transacciones verificadas, en los bloques se introduce una primera transacción denominada coinbase, que no tiene entrada y la salida está dirigida a una clave pública y dirección del minero. Esta salida de transacción contiene los bitcoin que recibirá el minero por el minado y las comisiones de las transacciones. También, de los resúmenes de las transacciones de cada bloque se calcula su raíz de Merkle.
Todos los bloques confirmados tienen su propio resumen. Para encadenar un bloque con los anteriores, se introduce en los bloques candidato el resumen del último bloque confirmado. Así confirmado un bloque candidato con su correspondiente resumen, queda encadenado al anterior. Cualquier modificación en una transacción almacenada en un bloque requerirá cambiar el resumen de su bloque y, como este resumen está contenido en el bloque siguiente, también se deberá cambiar su resumen, y así sucesivamente. En definitiva, modificar una transacción almacenada en un bloque requiere modificar el resumen de su bloque y el de todos los bloques siguientes, lo cual resulta técnicamente irrealizable. Ésta es la gran garantía de seguridad de la base de datos Bitcoin.
Para su identificación e información, en el encabezado de cada bloque se incluye su resumen, la raíz de Merkle, una marca de tiempo, timestamp en inglés, y los datos del minado.
-
Minado de un bloque. Prueba de trabajo
En Bitcoin, una vez conformado un bloque de transacciones, para confirmarlo hay que minarlo realizando una prueba de trabajo (PoW del inglés Proof-of-Work). La prueba de trabajo consiste en obtener un resumen del bloque que sea menor que un número fijado, denominado target, que en hexadecimal es un número de 64 cifras que comienza por unos cuantos ceros. Recordemos que los resúmenes son números y se pueden comparar con el target. Esta prueba de trabajo es muy difícil de realizar, pero muy fácil de verificar.
En Bitcoin, cada bloque se conforma y mina más o menos cada diez minutos y el primer minero que supera la prueba de trabajo recibe una recompensa en bitcoin de nueva creación. Se consigue mantener un ritmo de más o menos diez minutos en la creación de los bloques, controlando la dificultad del minado. La dificultad del minado es una medida de la cantidad de recursos necesarios para minar Bitcoin, que sube o baja dependiendo de la cantidad de potencia computacional disponible en la red. La dificultad se actualiza automáticamente cada 2016 bloques, más o menos cada dos semanas. Se calcula mediante una fórmula matemática a partir de lo que se ha tardado en minar los 2016 bloques precedentes.
Una vez obtenida la nueva dificultad, a partir de ella, inmediatamente se actualiza y fija un nuevo target para los 2016 bloque venideros. Éste será menor, y por tanto será más difícil minar el bloque, cuanto menor haya sido la dificultad del minado de los 2016 bloques precedentes. Así, conforme más fácil sea el minado debido a la mejora computacional, se aumenta la dificultad del minado imponiendo un target más pequeño. De esta forma, aunque varíe la capacidad computacional de la red, se consigue mantener el tiempo de unos 10 minutos entre cada bloque.
El procedimiento para superar la prueba de trabajo consiste en añadir al bloque un número arbitrario, que sólo se puede usar una vez, con el fin de que el resumen resultante cumpla la condición de ser menor que el target. Este número se denomina nonce o número de un solo uso y normalmente consta de 8 cifras hexadecimales. La única forma de obtener el número de un solo uso requerido es probando por fuerza bruta. Este proceso requiere un intensivo trabajo computacional con hardware especializado (ASIC) y consume gran cantidad de energía eléctrica. A esto se debe la creación de pools de mineros en países como China, en los que la energía es barata y el minado resulta rentable.
Una cuestión a solucionar es cómo resolver el problema del doble gasto, que una misma moneda no se pueda gastar dos veces. Esta dificultad es propia de las monedas descentralizadas, ya que al no haber un centro que controle la llegada de las transacciones, ante dos iguales, no siempre es posible decidir cual se ha producido la primera y darle a ésa la validez. En Bitcoin, con frecuencia se da el caso en que, a partir de un mismo bloque, dos mineros minen casi simultáneamente su bloque y lo distribuyen a la red por caminos distintos. Como son los propios mineros quienes conforman los bloques, los dos bloques serán parecidos, contendrán casi las mismas transacciones, pero no serán idénticos, tendrán distinto resumen. En estos casos, unos mineros trabajarán con de uno de los bloques para conformar y minar un nuevo bloque, y otros lo harán con el otro bloque. Detectada esta situación, aunque los dos bloques sean válidos, los mineros confirmarán el bloque que tenga mayor prueba de trabajo, el que tenga mayor resumen. El bloque descartado se denomina bloque huérfano. El bloque huérfano se invalida; el minero que realizó la prueba de trabajo se queda sin recompensa y las transacciones que no estén incluidas en el bloque confirmado quedan a la espera de ser incluidas en un nuevo bloque. De esta forma se evita que una transacción se utilice dos veces, que haya doble gasto, y el resultado es una única versión de la cadena de bloques. Una vez que un minero encuentra el número de un solo uso, lo anuncia inmediatamente a los otros mineros, éstos verifican la prueba de trabajo y las transacciones y deshacen su bloque candidato. La comprobación de que el minado es correcto por parte de los mineros es fácil e inmediata y el bloque junto con todas las transacciones que contiene queda confirmado e incluido en la cadena de bloques.
Como ejemplo volvemos al resumen de los tres párrafos de la introducción de este artículo. Hemos mostrado que es
aedd1bb22c321638f1155e3611bed6e677b73de5c428a9ed956d35f54d47a3e6
Fijamos como target el número
00000000000000000fffffffffffffffffffffffffffffffffffffffffffffff
Este número es el mayor escrito con 64 cifras hexadecimales que tiene 47 cifras significativas (las 17 primeras son 0). La prueba de trabajo, el minado, consiste en añadir al texto del resumen un número de un solo uso para forzar que el resumen sea menor que este número, es decir, que tenga 46 cifras significativas (las 18 primeras 0) o 47 significativas (las 17 primeras 0) seguidas de alguna que no sea la f. Esto solo se puede hacer probando, probando y probando. Como se ha indicado, esto requiere de hardware específico que consume mucha energía. Como hay muchos mineros intentando superar la prueba trabajo y como esto hay que hacerlo prácticamente de forma continua para todos los bloques, el consumo global de energía en el minado es altísimo.
-
Recompensa por minar
Una de las claves de la superveniencia de Bitcoin se debe a que, por cada bloque minado, quien lo consigue en primer lugar recibe una recompensa en nuevos bitcoin. En concreto, todos los bitcoin que se van acuñando son para los mineros que consiguen en primer lugar el minado. También, estos son quienes reciben las comisiones de las transacciones. Está programado que cada 210.000 bloques, unos 4 años a diez minutos por bloque, la emisión de bitcoin se reduzca a la mitad. En consecuencia, la remuneración del minado por bloque también se reduce a la mitad. En los cuatro primeros años, de 2009 a 2012, se pusieron en circulación 10.500.000 bitcoin y por el minado de cada bloque se pagaron 50 bitcoin (210.000×50=10.500.000). A partir de mayo de 2020 y hasta 2024, el pago por minado se ha reducido a 6,250 bitcoin, por lo que en esos cuatro años se acuñarán en total 1.312.500 bitcoin. La producción total de bitcoin está limitada a 21 millones y a este ritmo finalizará en el año 2140. A partir de esa fecha, los mineros solo recibirán por el minado las comisiones de las transacciones. Otra cuestión muy distinta es por cuantos euros o dólares se cambie un bitcoin.
Veamos como ejemplo el bloque número 672431 de fecha 2021-02-27 13:28.
-
Bloque: 672431
-
Resumen:
00000000000000000003120e9aa5b6f1247a730c4b0dfc6716db4b855c978da5
-
Raíz de Merkle:
6b44315f7b2621d8a21554e1dc96178bd935d042e23cb77e75bf4b1f4fd78ff1
-
Número de transacciones: 2096
-
Volumen de la transacción: 1446,34840523 bitcoin
-
Recompensa por minado: 6,250 bitcoin
-
Remuneración por comisiones: 0,41695539 bitcoin
-
Target:
0000000000000000000cf4e30000000000000000000000000000000000000000
-
Nonce: 04e9a917
Es inmediato comprobar que, como números hexadecimales, el resumen es menor que el target.
-
Comentario final
Bitcoin es una moneda totalmente digital, no se sustenta en nada físico, ni en bancos centrales, ni en organizaciones financieras. El propio Bitcoin es quien crea y emite su moneda. Bitcoin opera en una red de ordenadores abierta, descentralizada y distribuida. Esto es, quien quiera se puede integrar en la red Bitcoin, todos los nodos son iguales, no hay jerarquías, y tienen una copia de la gran base de datos de todas las transacciones. Las transacciones se realizan directamente entre origen y destino y son públicas. Su fiabilidad y seguridad reposa en la firma digital. Para almacenar de forma segura los datos, las transacciones se agrupan en bloques que se van encadenando uno detrás de otro, de forma que un bloque contiene el resumen del anterior. Una modificación de una transacción de un bloque requiere modificar su resumen, al estar este resumen incluido en el siguiente bloque, se tendrá que modificar su resumen y así uno a uno el resumen de todos los bloques siguientes, lo cual no es realizable computacionalmente. Además, como la base de datos está replicada en los nodos, habría que cambiar la de todos los nodos. Los bloques los confirman los mineros mediante una prueba de trabajo. El primer minero que supera la prueba de trabajo transmite el bloque al resto de mineros, éstos verifican la validez de las transacciones y de la prueba de trabajo, el bloque queda confirmado e incluido en la base de datos y el minero recibe una recompensa en bitcoin de nueva creación.
La emisión de moneda bitcoin está totalmente regulada, tanto en sus tiempos como en su número y destino, por unas reglas fijas. La emisión es totalmente independiente del valor de los bitcoin, de que haya una mayor o menor demanda de bitcoin y de la coyuntura económica del momento. Ninguno de los bitcoin que se emiten van al mercado, todos se adjudican a los mineros que superan la prueba de trabajo. La retribución en bitcoin por minado también está fijada por el propio sistema. Cada cuatro años la emisión de bitcoin se reduce a la mitad. Como en total se emitirán 21 millones de bitcoin, se alcanzarán los 21 millones en el año 2140. En 2020 ya han sido acuñados alrededor de 18.593.000 bitcoin. Se estima que alrededor de tres o cuatro millones de bitcoin han desaparecido por pérdida de las claves privadas, errores en las direcciones, etc.
Realizar la prueba de trabajo requiere hardware especializado de elevado consumo energético. Como le retribución por minado resulta al cambio alta, hay muchos mineros y pools de mineros que se dedican al minado. Como el minado de los bloques es prácticamente continuo, ya que en cuanto se mina un bloque se comienza a conformar el siguiente, el consumo global de energía por minado es muy elevado, lo cual suscita mucha controversia.
Para terminar, unas observaciones sobre Bitcoin.
Las monedas al uso tienen que cumplir tres funciones: permitir almacenar valor, realizar intercambios y transacciones, y servir como unidad de cuenta. Esto último significa servir de referencia de valor como, por ejemplo, basta con leer el precio en euros de un teléfono móvil para hacerse una idea de su valor. Según estos criterios, no se puede decir que las criptomonedas sean monedas de verdad, ya que no cumplen estas tres propiedades. La que más se cumple es la de almacenamiento de valor. Pero como medio de intercambio no se acepta en demasiados sitios, y debido a su constante cambio de valor, tampoco sirve como referencia. Las criptomonedas no serán monedas de verdad hasta que no se cumplan estas tres propiedades, en particular hasta que no se generalice cambiar bitcoin por, por ejemplo, un coche, un billete de avión o la realización de un trabajo.
Existen en el mercado casas de cambio que permiten cambiar bitcoin por dólares o euros y viceversa. Así, quienquiera puede adquirir bitcoin e ingresar en la red Bitcoin. En sus dos primeros años, 2009 y 2010, el valor del bitcoin era prácticamente cero y el 2-01-2011 valía 5 dólares. En enero de 2015 se cambiaba por alrededor de 300 dólares y desde entonces, con grandes altibajos, no ha dejado de acumular valor. ¿Hasta cuanto podrá alcanzar su valor? ¿Se está ante una burbuja?
Bibliografía
Para un estudio más detallado
Mikel Lezaun. Blockchain. Bitcoin, La Gaceta de la RSME, Vol. 24 (2021), Núm. 3, Págs. 533-558.
Sobre el autor: Mikel Lezaun Iturralde es catedrático de matemáticas aplicadas en el Departamento de Matemáticas de la UPV/EHU
El artículo Introducción a Bitcoin se ha escrito en Cuaderno de Cultura Científica.