La hoja de papel con cuatro caras, una propuesta de taller
Hace unos cuantos días, pensando en la situación de confinamiento en la que nos encontramos en estos momentos, me pareció que sería una buena idea preparar una actividad sencilla para enviar a la gente y que pudieran realizarla en su casa. Mi idea era que fuese una actividad para personas de cualquier edad, desde pequeños (acompañados si es necesario) hasta mayores. Entonces, me decidí por un taller que hago desde hace algunos años, aunque relacionado con otras cuestiones, y que me gusta mucho. Consiste en construir un objeto matemático sencillo y sorprendente, una hoja de papel con cuatro caras.
Este objeto matemático, cuyas instrucciones de construcción os voy a explicar en esta entrada del Cuaderno de Cultura Científica, pertenece a la familia de objetos llamados flexágonos y que fue descubierta por el matemático inglés Arthur Stone, de quien ya hemos hablado en relación con el problema de la cuadratura del cuadrado en 1939. Aunque estos objetos fueron dados a conocer y popularizados por el gran divulgador de las matemáticas Martin Gardner (1914-2010) en su columna Juegos matemáticos de la revista Scientific American. En concreto, el objeto matemático que vamos a construir en esta entrada es un tetraflexágono, es decir, un flexágono con cuatro lados (cuadrado o rectángulo), además, como va a poder mostrar cuatro caras, se denomina un tetratetraflexágono.
Portadas de los dos primeros libros de Martin Gardner en los que se recogen los artículos de su columna Juegos matemáticos en la revista Scientific American. En el primero aparece su artículo Hexaflexagons y en el segundo Tetraflexagons
Pero vayamos directamente a nuestro objeto matemático, esa hoja de papel de cuatro caras, el tetratetraflexágono, y a su construcción: materiales e instrucciones.
Material básico para el taller: una hoja de papel normal, por ejemplo, din A4, un lápiz y una regla.
Instrucciones para construir el tetratetraflexágono, la hoja de papel con cuatro caras:
Punto 1. Tomamos la hoja de papel, que colocamos con el lado largo en horizontal, y lo vamos a dividir –por delante y por detrás- en cuatro columnas y tres filas, utilizando líneas trazadas con un lápiz. Generando de esta forma 4 x 3 = 12 casillas rectangulares en cada lado.
Punto 2. En cada una de las casillas vamos a pintar, centrado, un número. En las 12 casillas de la parte frontal pintamos los números 4, 4, 3, 2 (en la primera fila, la de arriba), luego 2, 3, 4, 4 (en la segunda fila, en medio) y 4, 4, 3, 2 (en la tercera). Ahora en las casillas de la parte trasera pintamos los números 1, 1, 2 y 3 (arriba), 3, 2, 1, 1 (en medio), 1, 1, 2, 3 (abajo). Ojo, aquí quien lo desee puede echarle imaginación y pintar unos números chulos.
Números de las doce casillas de la parte frontal del folio originalNúmeros de las doce casillas de la parte trasera del folio original
Punto 3. Ahora tenemos que realizar un pequeño corte con unas tijeras, por lo tanto, hay que tener cuidado. Si la actividad la realizan niños y niñas pequeños necesitarán la ayuda, o supervisión, de una persona mayor. Antes de realizar el corte, doblad por las líneas rectas que habéis pintado a lápiz, os ayudará a realizar el corte y además es necesario para la parte final.
Pero vayamos con el corte. Si consideramos la hoja de papel con la parte frontal, la primera, la que tiene solo doses, treses y cuatros, entonces vamos a cortar el papel para separar las dos casillas del centro –con los números 3 y 4- del resto, pero por todos los lados, salvo uno, el derecho –donde se unen los dos cuatros (véase la siguiente imagen).
Es decir, cortaremos los lados de arriba de las casillas centrales, 3 y 4, el lado izquierdo de la casilla del 3 y los lados de debajo de esas dos casillas centrales. De esta forma, estas dos casillas, 3 y 4, que están unidad entre sí, solo están unidas al resto por el lado derecho, el lado entre los dos cuatros.
Punto 4. A continuación, vamos a realizar unos cuantos dobleces para generar nuestra nueva hoja de papel, que tendrá 2 x 3 = 6 casillas.
Primero, doblamos esa parte central, de dos casillas, hacia la derecha, de forma que va a quedar un 2 hacia arriba, donde estaba el 4, y el 1 que lo acompaña quedará por debajo de la hoja.
Después, doblamos la columna 4, 2, 4 hacia la derecha, una vez, y después toda la nueva columna (sobre la que ahora vemos los números 3, 1, 3) de nuevo hacia la derecha.
Nos quedará una hoja de papel con 2 x 3 = 6 casillas, con un 2 en todas las casillas, como muestra la siguiente imagen.
Punto 5. Si le dais la vuelta a la nueva hoja de 6 casillas, tendréis una hoja de papel con un 1 en todas las casillas (la imagen de abajo). Estamos entonces en el último paso. Hay que poner un poco de celo uniendo los dos unos de la fila del centro, el de la izquierda con el de la derecha.
Y ya tenéis la “nueva” hoja de papel con cuatro caras. Veámoslo. En la que tenemos delante solo hay unos (1), le damos la vuelta y solo hay doses (2), luego dos caras. Ahora, con los doses mirando hacia nosotros, doblaremos la hoja por la mitad vertical, llevando las dos mitades hacia atrás, y cuando lleguemos a juntar las dos partes veremos que se nos abre la hoja por el medio, la ayudamos a abrirse con nuestros dedos y veremos que la hoja que tenemos delante tiene todo treses (3).
Si volvemos a doblar la hoja por la mitad vertical, hacia atrás, descubriremos una nueva cara con todo cuatros (4). Es decir, tenemos una hoja de papel con cuatro caras, un tetratetraflexágono. Solo un consejo, antes de mostrárselo a las demás personas practicad el paso de una cara a otra.
La parte básica del taller es la que acabamos de describir arriba, pero a partir de ahí cada cual puede echarle imaginación y hacer el flexágono lo más artístico o curioso que considere oportuno. Por ejemplo, Cristina Barcala, una apasionada de la divulgación científica y lectora del Cuaderno de Cultura Científica, nos mandaba su propia versión, de tamaño mini (la siguiente imagen).
Aunque si os ha gustado esta actividad sobre la realización de un tetraflexágono, podemos abordar la realización de los otros dos tetraflexágonos que aparecen en el artículo Tetraflexagons, del libro de Martin Gardner The 2nd Scientific American Book of Mathematical Puzzles and Diversions (1961), uno de tres caras –tritetraflexágono- y otro de seis caras –hexatetraflexágono-.
Empecemos con el tritetraflexágono. Para realizarlo hay que construir con una hoja de papel una “tira de papel” de dos filas, como la que aparece en la siguiente imagen, trazar las seis casillas de cada cara y dibujar los números 1, 2 y 3 en las casillas, de la parte frontal y trasera, como aparece en la imagen.
Después doblamos hacia atrás las dos casillas de la izquierda, las que tienen los unos, quedando nuestra tira de papel como se ve en la imagen.
Y doblamos, ahora hacia delante, la casilla de la derecha, la que tiene el tres, quedando así todas las casillas con doses frente a nosotros.
Para finalizar, solo hay que colocar un pequeño trozo de celo entre las dos casillas de la derecha, como se muestra en la imagen.
De esta forma, hemos construido el tritetraflexágono, que tiene tres caras, podemos mostrar en cada una de esas caras, todos unos, doses o treses.
Por último, vamos a terminar con los esquemas para realizar el hexatetraflexágono. Para este flexágono, partimos de una hoja cuadrada, dividida en 16 casillas –cuatro filas y cuatro columnas- en cada cara, a la que le hemos cortado las cuatro casillas del centro. Luego solo le quedan las 12 casillas del exterior. Esta vez vamos a utilizar seis colores (aunque mantenemos los números para seguir las instrucciones de la construcción) para pintar cada casilla, de la parte frontal y trasera, como aparece en las siguientes imágenes.
Las dos casillas de la derecha (en la primera imagen) se separan con un pequeño corte horizontal. Entonces, vamos doblando por donde indican las flechas, empezando por la flecha de abajo y en el sentido de las agujas del reloj, de forma que lo que nos queda al terminar es la siguiente imagen.
De nuevo, doblamos por donde indican las flechas, hasta que quede como la siguiente imagen. Para terminar, solamente hay que añadir un trozo de celo para unir, por arriba, la casilla superior izquierda de delante, con la que tiene atrás.
Y ya tendríamos nuestro hexatetraflexágono.
Bibliografía
1.- Martin Gardner, The 2nd Scientific American Book of Mathematical Puzzles and Diversions, University of Chicago Press, 1987 (publicado originalmente en 1961).
2.- Robert Ghattas, Bricológica, Treinta objetos matemáticos para construir con las manos, RIALP, 2011.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo La hoja de papel con cuatro caras, una propuesta de taller se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La teoría de bandas explica la conducción eléctrica
La idea básica tras las bandas de Bloch en un sólido es que se crean al unirse los estados cuánticos de los átomos individuales. Bloch y otros ampliaron y refinaron la teoría de bandas de los sólidos durante la década de 1930, hasta el punto de que explica muy bien el comportamiento de conducción eléctrica de los distintos materiales.
Cuando los átomos se unen en un cristal, cada uno de los estados cuánticos individuales de los átomos se une con los estados correspondientes en otros átomos (idénticos) en el cristal para formar las diversas bandas de energía dentro del material. De hecho, si hay un total de N átomos idénticos en el material, entonces hay N estados cuánticos dentro de cada banda. Los electrones en los átomos llenan los estados disponibles dentro de cada banda. Así, si hay N estados en una sola banda, puede haber hasta 2N electrones en cada banda [1].
La física interesante ocurre en la parte superior de las bandas llenas. Cuando se aplica un campo eléctrico externo (voltaje) al material, un electrón puede responder al campo solo si puede moverse a un estado cuántico ligeramente más alto, ya que tendría un poco más de energía al ser afectado por el campo. Esto será posible solo si hay algunos estados libres cercanos a los que el electrón pueda saltar. Este es el caso de los materiales conductores, como el cobre y la plata, ya que sus electrones se llenan en los estados disponibles de modo que la banda más alta está llena solo parcialmente. Los electrones en esta banda, que se llama banda de conducción, son libres de ser conducidos (en realidad, propagados como ondas) por el material, ya que hay estados cuánticos vacíos cercanos en su banda de energía. Pero los electrones en las bandas inferiores llenas no pueden moverse, ya que no hay estados libres cerca.
Por otro lado, si las bandas se llenan de manera que se ocupa exactamente el límite superior de una banda, entonces los electrones no pueden responder a un campo eléctrico, ya que hay una brecha de energía [2] que les impide llegar a un estado cuántico en el que pueden moverse libremente [3]. Un material con estas características es lo que conocemos como aislante. [4]
Finalmente, si estamos ante un caso como el de los aislantes pero la brecha de energía con la banda de conducción no es demasiado grande, puede resultar que la energía térmica sea suficiente como para que algunos electrones salten a ella. Este es el caso de los semiconductores.
Fuente: Wikimedia CommonsNotas:
[1] De acuerdo con una regla en la mecánica cuántica solo dos electrones pueden ocupar un estado de energía cuántica de un solo átomo. El principio de exclusión de Pauli establece que no pueden existir dos partículas en un sistema, electrones en un átomo o quarks en un hadrón, que tengan un conjunto de números cuánticos idéntico. Aplica solo a las partículas llamadas fermiones, no a los hadrones. Los electrones son en todo iguales e indiscernibles salvo porque unos tiene una “cosa” llamada espín con un valor y otros con otro valor. Por eso solo puede haber dos electrones en un estado cuántico de energía: en ese estado todos los números cuánticos son iguales salvo el espín, si hubiese un tercer electrón se violaría el principio de exclusión. Aunque parece un principio inventado para que cuadren los datos, se justifica por el teorema de la estadística del espín de la teoría cuántica de campos relativista.
[2] Una «banda prohibida» por la naturaleza cuántica de las bandas.
[3] Normalmente. Si el voltaje es enorme algunos electrones podrán desplazarse, porque adquirirán energía suficiente como para saltar de la banda de valencia a la banda de conducción. Véase [3]
[4] Un ejemplo es el diamante, en el que el estado cuántico lleno más alto también llena una banda de energía. Esta banda se llama banda de valencia, ya que está ocupada por los electrones de valencia externos de los átomos. La brecha de energía a la siguiente banda, que está vacía, es de aproximadamente 6 eV, por lo que los electrones en el diamante normalmente no pueden alcanzar la banda de conducción y, por lo tanto, el diamante es un buen aislante. En los conductores la banda de conducción se solapa con la llamada banda de valencia, por lo que no hay brecha de energía.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La teoría de bandas explica la conducción eléctrica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los males de la ciencia tienen remedio
En las anotaciones precedentes nos hemos dedicado a repasar los que a nuestro juicio son los males de la ciencia actual. La serie empezó por una presentación de la empresa científica, el marco institucional y económico en el que se desarrolla, y el entramado de las publicaciones científicas como producto principal. Seguimos analizando los valores de la ciencia tal y como los formuló Merton a mediados del siglo pasado. Y a continuación abordamos el repaso de una serie de males que pueden considerarse propios, específicos de la empresa científica. Las últimas anotaciones han tratado de las resbaladizas relaciones entre investigación científica y ética en diferentes planos.
La relación de “males” o “patologías” no ha pretendido ser exhaustiva. Algunas de las malas prácticas presentadas aquí lo son porque vulneran las normas de Robert K Merton, incumplen el ethos de la ciencia en los términos en que él lo definió y que, implícitamente, asumimos gran parte de los científicos. Otras tienen más que ver con aspectos nucleares de la práctica científica o con el sistema de publicaciones o de financiación de la investigación. Son, por lo tanto, diferentes y seguramente los remedios que requieran también lo sean. Pero sospechamos que una gran parte de los problemas se atenuaría si universidades y centros de investigación modificasen el sistema de incentivos que utilizan para reconocer y premiar el trabajo de su personal científico. La cantidad debería perder importancia como criterio, para ir valorando cada vez más la calidad del trabajo y la trascendencia o relevancia de las investigaciones. No se trata de acudir a indicadores de las publicaciones tal y como se utilizan hoy o, al menos, no solo a esos indicadores (basados en métricas de impacto y similares), sino de recurrir a la valoración experta del nivel y alcance del trabajo realizado.
Tenemos por último, todos esos ámbitos en los que el desarrollo de la ciencia se enfrenta a dilemas de naturaleza ética. No se trata de dilemas específicos de la ciencia, o dilemas cuya resolución deba recaer exclusivamente sobre el mundo científico. Son, en su gran mayoría, dilemas sociales. La ciencia es, si acaso, el instrumento, pero es en el ámbito social y político donde se han de resolver. Si se han de exprimir al máximo las posibilidades que nos brinda la biotecnología, o si debemos permanecer pasivos ante la previsible robotización de la sociedad, son cuestiones que no corresponde dirimir a los científicos. Quienes hacen la investigación científica deberán aportar su criterio experto, y tanto la sociedad como los responsables deberían tomar buena nota y tener en cuenta el dictamen experto, pero en última instancia, las decisiones son de carácter social y político. Nos interesa remarcar esta diferencia, porque los males que hemos considerado intrínsecos a la ciencia lo son porque de no neutralizarlos, está en juego el propio funcionamiento del sistema científico, y en ese terreno, los miembros de ese sistema tenemos mucho que decir y que hacer. Precisamente por esa razón, no nos parece saludable que los científicos se desentiendan de las implicaciones sociales de su trabajo. Creemos que tenemos una especial responsabilidad al respecto, precisamente porque somos quienes mejor podemos calibrar el alcance de nuestro trabajo más allá de cómo quede recogido en las publicaciones científicas.
La ciencia sufre de esos y de otros males; son males serios y de graves consecuencias. Las que afectan, con carácter general, al desarrollo del conocimiento son evidentes. Pero esas no son las únicas. También hay consecuencias prácticas de gran trascendencia. En los Estados Unidos se estima que la investigación preclínica no reproducible tiene un coste anual de 28 mil millones de dólares y, por supuesto, retrasa el desarrollo de tratamientos que salvan vidas humanas y mejoran la calidad de vida. Es de suponer que en el resto de potencias científicas las cosas estarán, en su correspondiente proporción, más o menos igual.
Hay investigadores que son reticentes a abordar de forma abierta estas cuestiones, porque temen que pueden conducir a un debilitamiento de la empresa científica porque la sociedad deje de confiar en los científicos. Creo que se trata precisamente de lo contrario. La opacidad sería contraproducente. Una herida que se cierra sin haberla limpiado debidamente, se cierra en falso porque cultiva la infección en su interior y antes o después, aflorará. La vía más eficaz para sanar los males pasa por conocerlos y buscar las medidas para combatirlos. No hay que ser tan ingenuo como para pensar que muchos de los problemas aquí expuestos tienen una solución definitiva. Ningún problema complejo suele tener soluciones definitivas y, desde luego, nunca son soluciones simples. De lo que se trata es de conseguir un funcionamiento de la empresa científica razonablemente mejor que el actual, más sano, con mejores resultados, más eficiente, y que se base más en la realización de interesantes trabajos que en la producción de ingentes cantidades de artículos.
Pero a la vez que han de preocuparnos los males, también debemos congratularnos de que sea la misma comunidad científica la que está tratando de aportar soluciones. Porque han sido científicos profesionales quienes han investigado y dado a conocer las patologías que aquejan a la práctica científica. Han sido científicos profesionales y organizaciones científicas las que han propuesto medidas para afrontar los problemas y resolverlos. Y algunas revistas científicas están adoptando medidas para incentivar la transparencia y la reproducibilidad de los resultados. Esas son las buenas noticias.
Fuentes:
Agin, D (2007): Ciencia basura. Starbooks, Barcelona.
Briggle, A (2012): Scientific Responsability and Misconduct, in Encyclopedia of Applied Ethics, Vol 4, pp.: 41-48, 2nd edition, Academic Press, London
Ferris, Timothy (2010): The Science of Liberty, Harper Collins, Nueva York
Fischer, B A, Zigmond, M J (2012): Scientific Publishing, in Encyclopedia of Applied Ethics, Vol 4, pp.: 32-40, 2nd edition, Academic Press, London
Häyry, M (2012): Genetic Engineering of Human Beings, in Encyclopedia of Applied Ethics, Vol II, pp.: 437-444, 2nd edition, Academic Press, London
Holm, S, Stokes E (2012): Precautionary Principle, in Encyclopedia of Applied Ethics, Vol III, pp.: 569-575, 2nd edition, Academic Press, London
Johnson, J (2012): Ethical Experiments, in Encyclopedia of Applied Ethics, Vol 2, pp.: 149-156, 2nd edition, Academic Press, London
Johnson, S (2012): Nanotechnology, in Encyclopedia of Applied Ethics, Vol III, pp.: 183-185, 2nd edition, Academic Press, London
López Nicolás, J M (2016): Vamos a contar mentiras. Cálamo, Madrid.
Menéndez Viso, A (2005): Las ciencias y el origen de los valores. Siglo XXI.
Merton, R K (1942): “Science and Technology in a Democratic Order” Journal of Legal and Political Sociology 1: 115-126. [Traducción al español como “La estructura normativa de la ciencia” en el volumen II de “La Sociología de la Ciencia” Alianza Editorial 1977, traducción de The Sociology of Science – Theoretical and Empirical Investigations, 1973]
Neri, D (2012): Eugenics, in Encyclopedia of Applied Ethics, Vol 1, pp.: 189-199, 2nd edition, Academic Press, London
Oreskes, N y Conway, E N (2018): Mercaderes de la duda. Cómo un puñado de científicos oscurecieron la verdad sobre cuestiones que van desde el humo del tabaco al calentamiento global. Capitán Swing, Madrid.
Resnik, D B (2012): Developing World Bioethics, in Encyclopedia of Applied Ethics, Vol 1, pp.: 771-778, 2nd edition, Academic Press, London
Solbakk J H, Vidal, S M (2012): Research Ethics, Clinical, in Encyclopedia of Applied Ethics, Vol 3, pp.: 775-785, 2nd edition, Academic Press, London
Spier, R E (2012): Science and Engineering Ethics, Overview, in Encyclopedia of Applied Ethics, Vol 4, pp.: 14-31, 2nd edition, Academic Press, London
Di Trocchio, F (1993): “Las mentiras de la ciencia” Alianza Editorial.
Ziman, J (2000): Real Science: What It Is and What It Means. Cambridge University Press.
Zuk, M (2013): Paleofantasy: What Evolution Really Tells Us about Sex, Diet, and How We Live. Norton & Co, New York.
Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.
Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.
El artículo Los males de la ciencia tienen remedio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Van Eyck al descubierto
Antes de convertirse en el año de la pandemia 2020 iba a servir para homenajear a dos de los pintores más importantes de todos los tiempos: Jan van Eyck y Rafael Sanzio. Hagamos de este espacio un refugio y disfrutemos del arte de estos dos genios durante las próximas entregas. Por deferencia, comenzaremos por el que nació primero. De este modo nos sumamos al tributo que se le estaba rindiendo a van Eyck en Gante, donde se guarda una de sus más emblemática obras: La adoración del cordero Místico. La ciudad belga lucía sus mejores galas y bajo el lema “OMG! Van Eyck was here” había preparado una serie de eventos, incluyendo una exposición de pinturas del artista flamenco como nunca antes se había visto. Afortunadamente las nuevas tecnologías nos permiten disfrutar de estas obras sin tener que salir de casa.
Los “primitivos” flamencos
Jan van Eyck y su hermano mayor Hubert fueron, junto a Robert Campin, los primeros de un grupo que ha pasado a la historia del arte con el nombre de los primitivos flamencos. Tomemos ese adjetivo en el sentido de que fueron unos pioneros y no en referencia a un estilo poco desarrollado. ¿Os atreveríais a decir eso de alguien que hace las virguerías que os muestro en la Imagen 1? En la primera mitad del s. XV estos pintores fueron dejando atrás el estilo gótico internacional entonces imperante, en pos de una nueva forma de entender la pintura. Pese a que se trata de un momento crucial de la historia del arte, se ha visto un tanto eclipsado por el coetáneo Renacimiento italiano. A favor de los maestros flamencos hemos de decir que en ciertos aspectos técnicos igualaban o superaban a los italianos, aunque sus nombres no sean tan conocidos como el de Donatello o el de Leonardo, por poner dos ejemplos.
Imagen 1. Virgen del Canónigo Van der Paele (122×158 cm) y detalles. Fuente: http://closertovaneyck.kikirpa.be, © KIK-IRPA, Brussels.El florecimiento de este estilo en la región de los Países Bajos no fue por casualidad. A principios del s. XV urbes como Brujas o Gante habían prosperado gracias al comercio y a la artesanía. Por lo tanto, a la nobleza y al clero se le sumaba una incipiente burguesía con ganas de demostrar su estatus social. En ese entorno destacó Jan van Eyck, quien tras trabajar en diferentes ciudades se instaló en 1425 en la corte de Felipe el Bueno, duque de Borgoña, la gran potencia de la zona en aquel momento. Desde esa fecha hasta su muerte en 1441 realizó las obras que le han colocado en el Olimpo de la pintura. Si algo destaca en van Eyck, más allá de su brillante técnica, es su capacidad de innovación: fue todo un pionero. Su contribución más importante fue la pintura al óleo. Aunque no inventó esta técnica como se afirma en ciertas partes, la perfeccionó y ayudó a popularizarla. Hasta entonces la pintura al temple era la más habitual, pero la posibilidad de aglutinar los pigmentos con aceites abrió nuevas posibilidades, sobre todo gracias a las veladuras, capas de pintura semitransparentes que permiten dar matices y crear juegos de luces.
Pero van Eyck fue mucho más que el adalid de la pintura al óleo. También tuvo la capacidad de incorporar el paisaje a sus obras, otorgándoles sensación de profundidad en una suerte de perspectiva atmosférica previa a Leonardo (Figura 2A). Trataba los detalles con una meticulosidad absoluta, posiblemente debido a su pasado como pintor de miniaturas (Figura 2B), y sus óleos recogen hasta el más mínimo pliegue y ornamento de las sofisticadas lanas flamencas o las alfombras orientales. No había ilusión óptica que se escapase a sus afilados pinceles. Una buena muestra es el Díptico de la Anunciación del Museo Thyssen en el que el Arcángel y la Virgen parecen esculturas que se escapan de la hornacina (Figura 2C). Otra, el espejo de El matrimonio Arnolfini, con permiso de Velázquez, el más famoso de la historia del arte (Figura 2D).
Imagen 2. A) Virgen del Canciller Rolin (66×62 cm) y B) detalle C) Díptico de la Anunciación (aprox. 39 x 24 cm cada imagen) D) Espejo de El matrimonio Arnolfini. Fuente: http://closertovaneyck.kikirpa.be, © KIK-IRPA, Brussels.
A estas alturas espero haberles convencido (si no lo estaban ya) de la importancia que ha tenido van Eyck en la historia del arte. No cabe duda de que su obra merecía ser estudiada empleando los mejores instrumentos a nuestro alcance. Bienvenidos al proyecto VERONA.
El Proyecto VERONA: Van Eyck Research in OpeN Access
La producción artística de Jan van Eyck fue muy reducida, por lo menos teniendo en cuenta las pinturas que se conservan. Hasta tal punto que sólo existen nueve cuadros que lleven su firma. A lo largo del s. XX los historiadores del arte estudiaron con detalle estas obras y, con menor o mayor polémica, llegaron a atribuir una veintena de obras al genio flamenco. Aun sumando las miniaturas del Libro de Horas de Turín-Milán que se le atribuyen a él y a su hermano Hubert, es un legado escaso. Hemos de tener en cuenta que aquellos estudios estilísticos se hicieron en base a unos recursos técnicos limitados, por lo que se antojaba necesario realizar nuevos análisis adaptándose a los tiempos que corren. Así se podría entender mejor el proceso creativo de van Eyck y revisar su creación artística. De eso se encargaron los expertos del Instituto Real del Patrimonio Cultural de Bélgica (KIK-IRPA) quienes, mediante tecnología puntera y siguiendo un protocolo estandarizado, analizaron la obra de Jan van Eyck y la pusieron a disposición no sólo de los expertos, sino del público en general.
En 2014 cargaron una furgoneta con los instrumentos necesarios y viajaron por toda Europa para documentar las pinturas atribuidas a van Eyck que se hallan desperdigadas por diferentes museos (también hay alguna obra en Estados Unidos). En un trayecto de 12 000 kilómetros recogieron 16 298 imágenes para un total de 1 499 gigas de información. Casi nada. Aquí les tenéis estudiando el Díptico de la Anunciación del Museo Thyssen-Bornemisza, por si les queréis ver con las manos en la masa.
Imagen 3. La instrumentación con la que viajó el equipo del KIK-IRPA. Fuente: http://closertovaneyck.kikirpa.be, © KIK-IRPA, Brussels.
El primer paso del proceso consistía en tomar una fotografía de alta resolución, asegurándose de que se usaban siempre las mismas condiciones para todas las obras. Para ello emplearon una cámara Hasselblad H4D-200MS con un sensor de 50 megapíxeles que, obviamente, no sujetaban a pulso. Se colocaba en un soporte mecánico que se podía desplazar por raíles, lo que permitía realizar macrofotografías (15×20 cm o 7.5×10 cm) que luego se montaban digitalmente para ofrecer imágenes en las que podemos apreciar hasta el más pequeño de los detalles (Imagen 4). Además de tomar las fotografías con iluminación normal, las tomaron con luz rasante y bajo luz ultravioleta, algo que ofrece información complementaria como ya vimos en su momento.
Imagen 4. Realización de una macrofotografía sobre el Tríptico de Dresden y una ampliación de San Francisco Recibiendo las Agallas a escala milimétrica en la que podemos observar el craquelado de la pintura. Fuente: http://closertovaneyck.kikirpa.be, © KIK-IRPA, Brussels.
La cámara Hasselblad también estaba equipada para trabajar en el infrarrojo, de modo que se pudiese estudiar el dibujo subyacente de las pinturas. En cualquier caso, para lograr imágenes con una mayor capacidad de penetración se empleó un instrumento de reflectografía infrarroja que permitía trabajar entre los 900 y los 1700 nm. Recordemos que a esas longitudes de onda muchos de los pigmentos no absorben prácticamente energía, mientras que el carbono, tradicionalmente empleado en el dibujo preparatorio, sí lo hace. Gracias a esta técnica se puede conocer mejor el modus operandi de un pintor y ver los cambios realizados a lo largo del proceso de creación. Precisamente uno de los casos paradigmáticos del empleo de la luz infrarroja es El Matrimonio Arnolfini, en cuyo reflectograma se pueden observar los numerosos cambios realizados por van Eyck. Pero quedémonos aquí con un ejemplo que he encontrado trasteando en la web del proyecto VERONA: ¿No os parece que tanto el Niño como la Madre en La Virgen del Canciller Rolin iban a tener los brazos en otra posición?
Imagen 5. Reflectografía infrarroja del Niño de La Virgen del Canciller Rolin en la que se aprecia el cambio de composición respecto al resultado final. Fuente: http://closertovaneyck.kikirpa.be, © KIK-IRPA, Brussels.
Siguiendo con la idea de penetrar en la pintura, no se podía dejar de lado el uso de la radiografía. Como la materia absorbe los rayos X en función de los átomos que la componen y la densidad del material, podemos lograr información valiosísima sobre el uso de pigmentos y el estado de la obra. El equipo belga realizó las radiografías mediante instrumentos de rayos X portátiles empleando películas para radiografías (30 x 40 cm) que luego montaron digitalmente. Aquí hemos de decir que el protocolo no está tan estandarizado y que en muchos casos emplearon radiografías realizadas con anterioridad, algo perfectamente comprensible teniendo en cuenta que se trata de una técnica más compleja que las anteriores. Para que os hagáis una idea del tipo de información que se obtiene, os traigo como ejemplo el retrato de Margaret, la mujer del artista (otra de las cosas en las que van Eyck fue un innovador, ya que no era nada habitual este tipo de retratos). Si observáis la Imagen 6, veréis que el tocado ofrece un color claro en la radiografía. Es muy posible que el pintor emplease albayalde, un pigmento blanco que tiene plomo y que por lo tanto absorbe los rayos X.
Imagen 6. Radiografía de El Retrato de Margaret van Eyck (41×34 cm). Fuente: http://closertovaneyck.kikirpa.be, © KIK-IRPA, Brussels.
Acabemos este recorrido por los estudios técnicos subrayando que, en algunas de las obras, también se han aplicado análisis más específicos sobre pigmentos gracias al uso de la fluorescencia de rayos X. De momento no están disponibles en la página web del proyecto, pero crucemos los dedos para que pronto lo estén. Lo que sí que podemos hacer en dicha web es juguetear con las macrofotografías (Imagen 7), las imágenes en infrarrojo y las radiografías de más de veinte obras obtenidas con la misma escala en una iniciativa que ojalá sólo sea la primera de muchas.
Imagen 7. Apariencia de la página web del proyecto Verona al comparar cuatro macrofotografías de diferentes vírgenes pintadas por van Eyck. Fuente: http://closertovaneyck.kikirpa.be, © KIK-IRPA, Brussels.
La firma
No quería finalizar el artículo sin llamar la atención sobre un aspecto de las pinturas que suele pasar desapercibido: el marco. En las macrofotografías de algunas de las obras podemos observar los marcos originales que todavía se conservan. Ahí es donde en varias ocasiones el artista flamenco dejó su firma, junto al lema AΛΣ IXH XAN (Als Ich Kan). Esta frase vendría a significar “como (mejor) puedo”, toda una fórmula de humildad, aunque también se ha interpretado como un juego de palabras para decir “como van Eyck (sólo) pudo”, lo que tendría un significado bastante diferente. En cualquier caso, no cabe duda de que van Eyck pudo. Vaya si pudo.
Imagen 8. Marco original de La Virgen de la Fuente con la firma de Jan van Eyck y el lema “AΛΣ IXH XAN” parcialmente visible. Fuente: http://closertovaneyck.kikirpa.be, © KIK-IRPA, Brussels.Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.
El artículo Van Eyck al descubierto se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Por qué los biobots no son un problema ético (de momento)
Douglas Blackiston, CC BY-SA
El pasado 13 de enero se publicó un avance científico que tiene todas las papeletas para convertirse en un hito en la historia de la investigación biotecnológica. Un equipo de cuatro investigadores estadounidenses ha creado un sistema orgánico funcional novedoso, una forma de vida diferente a todas las que existían, algo que jamás se había conseguido antes.
El proceso para llegar a este resultado fue extremadamente arduo. Para empezar, hubo que utilizar un algoritmo evolutivo complejo alojado en un superordenador. Este mecanismo fue el que determinó qué tipo de material biológico – y con qué estructura – habría de emplearse para lograr el objetivo perseguido. A partir de los resultados proporcionados por esa herramienta, se decidió utilizar células procedentes de la piel y el corazón de embriones de ranas africanas, que se moldearon de la forma diseñada por la inteligencia artificial.
La entidad resultante fue una estructura biológica de un milímetro de anchura que se comportaba de manera coordinada en circunstancias hasta ahora esquivas a la acción humana. De hecho, pueden trabajar conjuntamente y sobrevivir incluso semanas sin necesidad de alimento.
Sus posibles aplicaciones incluyen gestionar la contaminación radioactiva, recolectar microplásticos en los océanos e incluso inocular un medicamento en un tumor. Además, estas entidades tienen la ventaja de ser biodegradables, por lo que, en principio, desaparecerían sin dejar rastro una vez cumplido su cometido.
¿Xenobots o biobots?
Nos encontramos ante un descubrimiento de primer orden, que abre las puertas de un mundo desconocido y lleno de promesas, pero tan novedoso que también encierra múltiples interrogantes. Para empezar, ni siquiera está claro cómo tendríamos que denominar a estas criaturas.
En las primeras informaciones facilitadas se ha propuesto el nombre de “Xenobots”, que combina su origen (la denominación científica de las ranas africanas es Xenopus laevis) con el tipo de entidad de la que se trata -– “bots” o robots –.
A mi juicio esta terminología resulta un tanto equívoca, porque la palabra “xeno” significa en griego “extranjero” o “extraño”. Me parece poco afortunado introducir este concepto, que normalmente asociamos a pensamientos negativos, en una nueva tecnología.
Tiene más sentido elegir la denominación de “biobots”, que une a la idea de robotsla de bios, un prefijo que muestra ostensiblemente su carácter de materia viva. Una característica, por cierto, esencial en este caso, ya que es la que dota a las nuevas criaturas tanto de gran plasticidad como de una capacidad a la que suelen ser ajenas las estructuras sintéticas: la de regenerarse a sí mismas en caso de sufrir daño.
A la izquierda, el plano anatómico de un organismo diseñado por ordenador. A la derecha, el organismo vivo, construido a partir de piel de rana (verde) y células del músculo cardíaco (rojo).Sam Kriegman (UVM), CC BY
Los miedos mitológicos no son razonables
Las cuestiones que se entrelazan con la ética requieren un análisis más profundo. Es fácil presuponer que habrá voces que clamen contra los biobots, ya sea porque nos exponen a escalofriantes peligros aún por determinar o porque su creación atenta por sí misma contra la naturaleza.
La fortaleza de estos argumentos proviene de que conectan muy bien con el imaginario colectivo. Al fin y al cabo, tanto la mitología antigua como la ciencia ficción contemporánea se han encargado de infundirnos un considerable temor a todo lo que parece poco natural. Lo han hecho a través de ejemplos de consecuencias que trae la ambición humana cuando se aúpa a un papel hacedor que no le corresponde.
Contamos con visiones muy pesimistas de lo que la biotecnología puede desencadenar sobre la especie humana. Los ejemplos van desde el mito de quimera, que hizo que los romanos exigiesen forma humana a los recién nacidos para considerarlos personas, hasta relatos como los de La isla del doctor Moreau y películas como GATTACA. Hay toda una herencia de miedo a lo artificial, a lo hecho por el ser humano, entre la que es difícil abrir camino a lo razonable.
La realidad se encuentra, al menos en lo que se refiere a los biobots, muy lejos de parecerse a esos escenarios dantescos.
A diferencia de lo que ocurre con otras tecnologías como la edición genética, las quimeras humano-animales y los organoides, en este caso estamos muy lejos de utilizar material humano, al menos de momento.
Aunque algún día llegáramos al punto de usar células embrionarias humanas para constituir estas estructuras vivas seguiríamos sin poder hablar de seres dotados de valor moral (dignidad). Esta frontera solo se avistará si empezamos a introducir estructuras neuronales en estos biobots.
Este escenario está muy lejos, si es que es viable algún día. Por tanto, solo aquellos que defienden la necesidad de valorar todas y cada una de las formas de vida – una línea de pensamiento minoritaria – podrían preocuparse por la aparición de estas nuevas entidades.
¿Sufren los biobots?
Ahora bien, ¿no debería preocuparnos un cambio tan radical en la estructura de la vida, aunque no afecte al material biológico humano? A mi juicio es obvio que no, aunque entiendo la raíz última de estas inquietudes.
Nuestra visión de la naturaleza tiende a idealizarla. Hablamos de la madre naturaleza y su sabiduría innata, algo panteístico. El sistema que nos rodea no posee atributos como la bondad y la inteligencia. Ciertamente, el mundo físico tiene un orden (variable) y unas normas, una forma de organización. No hay nada, sin embargo, que certifique que ese orden sea el óptimo para nosotros. De hecho, llevamos milenios pensando lo contrario, de ahí las alternaciones de la naturaleza que ha provocado el desarrollo de la medicina, la agricultura y el transporte
Introducir otras, como la creación de biobots,no debería resultar inquietante por sí misma. Otra cosa será inferir si la mera existencia como biobot causa sufrimiento a la criatura creada artificialmente. Este es el punto en el que nos hallamos en el caso de los organoides cerebrales, pero cuesta pensar que las dudas sean extrapolables a entidades que carecen de un centro de interpretación de señales nerviosas.
Si en el futuro nos encontramos ante una situación más compleja, será el momento de retomar esta discusión. Por ahora parece superflua.
Sin riesgos (de momento)
Esto no significa que debamos permitir cualquier uso de esta tecnología. La liberación de organismos de este tipo en un entorno no controlado podría entrañar graves riesgos para el ecosistema.
Tampoco parece posible autorizar, en un futuro próximo, experimentos que impliquen su introducción en el cuerpo de seres vivos, sean o no humanos, por razones de seguridad.
Para evitar estos excesos se encuentra ya en vigor toda una normativa que nos protege de usos poco razonables de tecnologías experimentales. Toda una pléyade de organismos, desde las agencias de seguridad hasta los comités de ética de la investigación, se encargan de vetar iniciativas de dudosa utilidad o elevado riesgo. Al menos, mientras no se hayan recorrido todos los pasos que ha de transitar cualquier tecnología nueva antes de su aplicación práctica.
El derecho también tendrá que estudiar qué estatuto proporciona a estos biobots, o si será necesario desarrollar alguna norma concreta que regule su uso, y seguro que su respuesta será más que satisfactoria.
Mientras tanto, quienes han de aplicar las normas tendrán que intentar hallar en su articulado unas guías generales con las que establecer pautas de acción concretas en este momento preciso. Dudo muchísimo que la aparición de formas de vida como estas suponga un desafío a este respecto.
Cabe pensar que este avance tecnológico merece una mirada esperanzada, aunque sea todavía muy pronto para calibrar su impacto en la práctica. No parece que un uso ordenado de esta tecnología plantee problemas éticos o jurídicos preocupantes. Habrá, en todo caso, que estar muy atentos a sus futuros desarrollos. Ellos nos confirmarán (o no) este primer diagnóstico.
Sobre el autor: Iñigo De Miguel Beriain es Ikerbasque Research Professor e investigador distinguido de la Facultad de Derecho, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Por qué los biobots no son un problema ético (de momento) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los retos de geolocalizar a la población española
Rosa Elvira Lillo Rodríguez, Iñaki Úcar y Rubén Cuevas Rumín
shocky / shutterstock
La utilización de datos de localización es de vital importancia en episodios de pandemia como estos. Ha demostrado su utilidad en países como Corea del Sur o Singapur. España tiene aspectos diferenciales, especialmente en la cultura, que nos confieren particularidades en la adopción de este tipo de estrategias.
Las aplicaciones: ¿funcionan en España?
El uso de apps es una solución válida. Permiten combinar datos de localización precisa (GPS) con datos de contacto físico en distancias cortas (bluetooth) para trazar de manera bastante precisa los patrones de movilidad así como los encuentros de los ciudadanos (en concreto de aquellos infectados).
La utilización de aplicaciones sirve para desarrollar campañas de confinamiento selectivo en lugar del confinamiento global de la población. Estas han demostrado ser más efectivas en el control de la pandemia (como ha quedado patente en Corea del Sur), a la vez que contribuyen a reducir significativamente su impacto en la economía.
Pero las aplicaciones tienen un problema muy importante en un contexto como el de la sociedad española: hay que conseguir que una gran fracción de la población se la instale y todos los desarrolladores de apps saben que ésta es una tarea muy complicada. Solventar este problema (que no es tecnológico) es crítico para que la solución de la utilización de estas herramientas tenga sentido.
Geolocalizar con datos móviles: falta precisión
En el ámbito de la movilidad, el proyecto que se pretende impulsar es semejante al proyecto piloto que lanzó el INE para complementar el censo.
Los operadores móviles disponen de un gran volumen de datos que, si no se tratan de forma agregada, permiten identificar básicamente a cada ciudadano. Pueden utilizarse para estudiar los patrones de movilidad de las personas y evaluar la eficiencia de las medidas de confinamiento.
Sin embargo, existe una limitación importante respecto a la precisión de la localización. En centros urbanos, una antena puede dar cobertura en un radio de centenares de metros, mientras que en zonas menos pobladas pueden dar cobertura hasta decenas de kilómetros. Esto implica que la precisión del dato de localización no es alta y es especialmente insuficiente en zonas rurales.
Para mejorar la precisión, se necesitan datos con granularidad GPS que ofrecen mucha mayor fiabilidad que los datos de operadoras móviles. Existen proveedores como Google, Facebook y Apple que tienen este tipo de datos a escala global, lo que permite no solo estudiar los patrones de movilidad a nivel de un país sino también a nivel internacional. Esto es extremadamente importante en escenarios de pandemias como el que nos estamos enfrentando.
¿Debemos renunciar a la privacidad?
En cualquiera de los dos escenarios (apps o localización), debemos ser conscientes de que si queremos que se exploten este tipo de datos en una estrategia conjunta de estado, los ciudadanos tenemos que estar dispuestos a que nuestros datos se comparta con alguna institución (por ejemplo, los gobiernos o autoridades sanitarias).
Acotar y amparar jurídicamente la utilización de la información personal es una discusión relevante en el ámbito de la ética. La Agencia Española de Protección de Datos ha indicado criterios adecuados en la utilización de datos masivos. Como ha advertido recientemente, su empleo sería solamente imputable a este momento concreto:
“Esta situación de emergencia no puede suponer una suspensión del derecho fundamental a la protección de datos personales. Pero, al mismo tiempo, la normativa de protección de datos no puede utilizarse para obstaculizar o limitar la efectividad de las medidas que adopten las autoridades competentes”.
Tanto las empresas de telecomunicaciones como las tecnológicas pueden desempeñar un papel fundamental en este escenario. Además de aportar sus datos para que se puedan analizar patrones de movilidad, pueden servir de canal de comunicación con los usuarios.
En comparación con la solución de las apps que necesitan que los ciudadanos se instalen las aplicaciones, estas compañías ya tienen un canal directo de comunicación con decenas de millones de usuarios en un país (el caso de las teleco) y miles de millones en el mundo (en el caso de las grandes tecnológicas).
La utilidad de las iniciativas digitales desarrolladas por el Gobierno es incuestionable, pero también es incuestionable que se tienen que arbitrar medidas para garantizar que se dispone de la información personal mínima indispensable, bajo supuestos bien definidos y relegados a la mejora de la situación de la pandemia. Esta última frase puede parecer utópica, pero debe ser el contexto básico en el que se muevan todos los avances que se llevarán a cabo en los próximos días.
Sobre los autores: Rosa Elvira Lillo Rodríguez es catedrática de estadística e investigación operativa además de directora del IBiDat (Instituto de Big Data Universidad Carlos III-Santander), Iñaki Úcar es investigador postdoctoral en el IBiDat y Rubén Cuevas Rumín, profesor titular y subdirector del IBiDat.
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Los retos de geolocalizar a la población española se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Me quiere, no me quiere
El amor ha sido el opio de las mujeres, como la religión el de las masas. Mientras nosotras amábamos, los hombres gobernaban
El matemático Steven H. Strogatz es especialista en el estudio de redes complejas y divulgador científico. En 1988 (ver [1]) publicó un artículo en el que proponía modelizar una determinada situación amorosa —entre, por ejemplo, Romeo y Julieta— usando ecuaciones diferenciales.
Foto: Carlotta Silvestrini / Pixabay
Tras este artículo, muchas otras personas han escrito sobre este tema, es decir, sobre la modelización matemática de algunas situaciones románticas, intentando prever la evolución en el tiempo de ese vínculo amoroso. Vamos a explicar uno de estos modelos.
Supongamos que R(t) denota el amor de Romeo por Julieta en el tiempo t. Si R(t) tiene valor positivo significa que él la adora, y si es negativo no la soporta demasiado. Del mismo modo, J(t) denota el cariño de Julieta hacia Romeo en el instante t.
Una manera de plantear las ecuaciones que gobiernan la evolución en el tiempo de la relación entre ambos —un posible modelo para esta relación amorosa—es la siguiente:
donde las constantes a y b determinan el carácter romántico de Romeo, y c y d la manera de querer de Julieta. Que dR(t)/d(t) sea positivo significa que R(t) aumenta al pasar el tiempo, y sucede lo contrario si es negativo.
¿Qué valores tienen las constantes a, b, c y d? Aunque su valor importa —como veremos más adelante— lo realmente relevante es el signo que poseen cada una de ellas. Que a sea positivo significa que Romeo se siente estimulado por sus propios sentimientos, y que sea negativo denota lo contrario. Si pensamos en b, el que sea positivo expresa que Romeo se siente animado por los sentimientos de Julieta, mientras que un valor negativo significaría que se desanima cuando Julieta siente interés por él. Se puede hacer una interpretación similar de c y d con respecto a la evolución del amor de Julieta por Romeo.
A Strogatz y su alumnado se les ocurrió clasificar los posibles “estilos románticos” del siguiente modo:
-
Si a y b son ambos positivos, hablamos de un castor ansioso: Romeo se siente estimulado tanto por sus propios sentimientos como por los de Julieta.
-
Si a es positivo y b es negativo nos encontramos ante un nerd narcisista: Romeo desea más de lo que siente, pero le asustan los sentimientos de Julieta.
-
Si a es negativo y b es positivo tropezamos con un amante cauteloso: Romeo se retrae ante sus propios sentimientos, pero el cariño que le profesa Julieta lo anima.
-
Si a y b son ambos negativos, nos encontramos con un ermitaño: Romeo huye de sus propios sentimientos y también de los de Julieta.
La manera en el que el amor de Julieta varía con el tiempo se puede clasificar de la misma manera: d se corresponde con a en la ecuación de Romeo, y c con b. Existen diferentes tipos de relaciones dependiendo de los valores de las constantes a, b, c y d. Algunos de ellos se muestran a continuación (pueden encontrarse los detalles en [3], [4] y [5]).
Pasión versus indiferencia
Romeo y Julieta se comportan como “polos opuestos” cuando c=–b y a=-d. las ecuaciones quedan entonces del modo
Estas relaciones pueden suceder de dos maneras:
-
Cuando coinciden un castor ansioso y una ermitaña (o viceversa), la evolución en el tiempo de la relación depende de los sentimientos que se priorizan, los propios (|a|>|b|) o los ajenos (|a|). Si Romeo prioriza sus propios sentimientos, la pareja terminará en desacuerdo: uno por siempre enamorado y la otra absolutamente indiferente. Y, en el caso opuesto, la pareja terminará en un ciclo interminable de amor y desamor que sucederán —cada uno de ellos— aproximadamente una cuarta parte del tiempo.
-
Cuando coindicen un nerd narcisista y una amante cautelosa (o viceversa), de nuevo todo depende de la prioridad dada a los sentimientos propios o ajenos. Si |a|>|b|, la pareja finalizará enamorada o en guerra perpetua. Y si |a| terminarán en un eterno ciclo de amor y desamor.
Así que eso de que “polos opuestos” se atraen, no parece que funcione demasiado bien…
Embriagados por los sentimientos ajenos
¿Y si Romeo y Julieta solo se dejan llevar por los sentimientos del otro? Es decir, ¿qué sucede si a=d=0? El sistema de ecuaciones quedaría en este caso del modo siguiente:
Y tres casos son posibles:
-
Si coinciden dos amantes cautelosos (b>0 y c>0), el resultado es el mismo que el de caso del nerd narcisista y la amante cautelosa con |a|>|b|.
-
Si tenemos dos nerds narcisistas (bccastor ansioso y la ermitaña con |a|>|b|.
-
Y si coinciden un nerd narcisista y una amante cautelosa (o viceversa, es decir, bc
Por cierto, el “modelo de Shakespeare” correspondería al caso en el que a=d=0 y b y c son positivos, es decir, al de dos amantes cautelosos.
Y el modelo de Strogatz —el que propone en [1]— supone que a=d=0, b es negativo y c es positivo, es decir, estudia la relación entre un nerd narcisista y una amante cautelosa. En este caso, Romeo es un amante caprichoso: cuanto más lo quiere Julieta, menos ganas tiene Romeo de cortejarla. Y cuando Julieta pierde el interés por él, Romeo empieza a encontrarla extraordinariamente atractiva. Julieta, por el contrario, se deja llevar por los sentimientos de Romeo: su deseo crece cuando él la adora, y se enfría cuando él la ignora. Como ya sabemos, esta triste historia evoluciona como un interminable ciclo de amor y odio…
¿Cómo evolucionan otros posibles casos? ¿Te atreves a dar un modelo alternativo al planteado arriba?
Referencias
[1] Steven H. Strogatz, Love Affairs and differential equations, Mathematics Magazine 61, 35, 1988
[2] Steven H. Strogatz, Loves Me, Loves Me Not (Do the Math), Opinionator, 2009
[3] Omstavan, Love Affairs: A mathematical model using Differential equations!, Steemit, 2018
[4] Fabian Dablander, Love affairs and linear differential equations, R-bloggers, 2019
[5] Isaac Elishakoff, Differential Equations of Love and Love of Differential Equations, Journal of Humanistic Mathematics 9 (2), 2019, 226-246
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Me quiere, no me quiere se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las bandas de Bloch
En 1928, solo dos años después de la formulación de la mecánica cuántica, Arnold Sommerfeld modificó el modelo clásico de electrones libres tratando los electrones de acuerdo con la mecánica cuántica. Pero, como antes, Sommerfeld también consideró que los electrones eran pequeñas partículas de materia cargadas. No solo eso, el nuevo modelo aún contenía la suposición poco realista de que los electrones no interactúan con los iones [1] de la red, excepto para colisionar con ellos.
Ese mismo año, Felix Bloch, asistente de Werner Heisenberg en Leipzig, comenzó a hacer suposiciones más razonables en un intento de formular una mecánica cuántica más completa que explicase la conductividad eléctrica.
Primero, Bloch quería asignar un momento y energía definidos a cada uno de los electrones, pero no una posición definida o un intervalo de tiempo, por lo que eligió la faceta de onda de la dualidad onda-corpúsculo [2]. Supuso que los electrones se comportan, no como partículas, sino como ondas de de Broglie infinitamente extensas.
Por lo tanto Bloch no consideraba los electrones dentro de los conductores como un «gas» de partículas, sino más bien como ondas periódicas que se extienden por toda la red cristalina periódica. Este hecho tuvo posteriormente la consecuencia de que permite explicar cómo es que la electricidad puede comenzar a “fluir” por un cable en el mismo instante en que el cable se conecta a una toma de corriente [3].
Bloch hizo una segunda suposición. Supuso que los iones metálicos positivos, que están dispuestos en una matriz periódica infinita (esto es, en un cristal perfecto), ejercen una fuerza eléctrica atractiva sobre los electrones negativos. Esta fuerza atractiva podemos visualizarla como sumideros en el camino de los electrones, técnicamente «pozos de potencial». Los pozos de iones vecinos se superponen de manera que juntos forman una disposición periódica de “baches” que da a las ondas de electrones un recorrido muy irregular por el cable.
Con estas dos suposiciones, Bloch resolvió la ecuación de Schrödinger para averiguar las energías que las de ondas de Broglie de este tipo [4] podrían poseer mientras se movían en este tipo de potencial periódico. Descubrió que las energías permitidas de los electrones en el material se unen en bandas de estados cuánticos, de una forma análoga a como hay ciertos estados estacionarios cuánticos dentro de cada átomo en el que pueden estar los electrones. Entre las bandas, como entre los estados cuánticos, hay un rango de energías en el que los electrones tienen prohibido estar.
Notas:
[1] Un ion tiene carga positiva. Asumir que un electrón cargado negativamente solo interactúa de forma mecánica con ellos es llevar el vacaesferismo hasta casi lo ridículo.
[2] Recordemos esa parte del principio de complementariedad que dice “Cada experimento, o el experimentador que diseña el experimento, selecciona una u otra descripción como la descripción adecuada para ese experimento.”
[3] Démonos cuenta de que, si los electrones se consideran bolitas de materia, la corriente debería emplear un tiempo en llegar a los valores que establece la ley de Ohm.
[4] Recordemos que la ecuación de Schrödinger es una ecuación diferencial y que su solución es, por tanto, una o varias funciones matemáticas llamadas funciones de onda.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Las bandas de Bloch se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Normas de prudencia en el quehacer científico
Dados los dilemas vistos en la anotación anterior y otros que no se han recogido aquí, no dejan de hacerse llamadas de atención, tanto desde la propia comunidad científica, como desde fuera de ella, advirtiendo de la necesidad de actuar con prudencia y en algún caso, de establecer moratorias al uso de ciertas tecnologías hasta no tener maás garantías acerca de su inocuidad.
Con carácter general, y en el marco de su tesis doctoral sobre el entramado de ciencia y valores, Menéndez Viso (2005) propone recuperar la noción aristotélica de prudencia (phronesis) para relacionar lo que sabemos y lo que debe hacerse. Propone que la prudencia inspire las decisiones que toman los científicos y quienes hayan de aplicar los productos de la ciencia.
En este terreno, ya desde los años setenta del siglo pasado se ha propuesto la aplicación del llamado Principio de Precaución a la hora de tomar decisiones relativas a la aplicación de las técnicas objeto de controversia.
El Principio de Precaución empezó a tener reconocimiento jurídico de orden internacional cuando la Asamblea General de Naciones Unidas adoptó la Carta Mundial de la Naturaleza. El Protocolo de Montreal lo incorporó en su formulación en 1987. Y a partir de ese momento tuvo acogida en diferentes tratados internacionales (Declaración de Río y Protocolo de Kioto). También se ha ido incorporando a diferentes legislaciones nacionales.
El Principio de Precaución se sustenta en dos ideas principales:
- La necesidad de que quien toma las decisiones anticipen el daño que puede causar una actuación antes de que ocurra. Esta idea lleva implícito el cambio de la carga de la prueba, porque es quien propone la actuación quien ha de demostrar que no causará daño o que es muy improbable que lo cause.
- La proporcionalidad entre el riesgo y los costes y viabilidad de la acción propuesta
El problema de este principio es que hay numerosas y muy diversas formulaciones del mismo, lo que es indicativo de la dificultad real para objetivar y acordar una definición. A pesar de ello, ha tenido reflejo en el Tratado de Funcionamiento de la Unión Europea y en la legislación de algunos de sus estados. El Consejo de Europa lo define así:
Cuando una evaluación pluridisciplinaria, contradictoria, independiente y transparente, realizada sobre la base de datos disponibles, no permite concluir con certeza sobre un cierto nivel de riesgo, entonces las medidas de gestión del riesgo deben ser tomadas sobre la base de una apreciación política que determine el nivel de protección buscado.
El problema es que es una definición ambigua. La expresión “cierto nivel de riesgo” -que puede tener consecuencias de muy largo alcance- no puede ser más indefinida. Dado que también señala que las medidas han de tomarse “sobre la base de una apreciación política”, en última instancia han de ser criterios de carácter político los que se utilicen a la hora de tomar las decisiones que corresponda.
Y de acuerdo con la fórmula recogida en la web del Parlamento Europeo, este principio habilita a quienes han de tomar decisiones para adoptar medidas de precaución tempranas cuando las pruebas científicas acerca de un peligro para el ambiente o para la salud humana son inciertas y el riesgo es alto.
Holm y Stokes (2012) reconocen la existencia de ese déficit de definición, lo que genera un amplio margen para su aplicación. En sus formulaciones más exigentes el Principio de Precaución es incoherente con la ciencia de la evaluación de riesgos, socava el valor del conocimiento experto y establece objetivos de riesgo 0 nada realistas. También se ha argumentado que es irracional, puesto que su aplicación llega a impedir que se realicen las investigaciones necesarias para establecer los riesgos de forma científica. Otros hemos criticado sus formulaciones más exigentes por la inversión de la carga de la prueba que conlleva, recuperando a estos efectos la filosofía de la llamada prueba diabólica.
Para quienes se oponen al Principio de Precaución, la ambigüedad en su formulación abre un boquete para la toma arbitraria de decisiones. Sus defensores, sin embargo, sostienen que esa ambigüedad es positiva, porque promueve la flexibilidad y la responsabilidad.
Una de las críticas más sólidas que se ha hecho al Principio de Precaución es que su aplicación puede generar costes de oportunidad que acaben causando un daño muy superior al que se pretendía evitar. De hecho, y dado que exige que la carga de la prueba recaiga sobre quien se propone desarrollar o implantar algo nuevo, y no sobre quien trata de impedirlo, sesga la toma de decisiones contra la implantación de nuevas tecnologías. Invenciones y desarrollos tecnológicos como los automóviles, por ejemplo, no habrían quizás superado la prueba de acuerdo con la definición del Consejo de Europa.
Algunos creen que, teniendo en cuenta la magnitud de los beneficios que han reportado las invenciones, la ciencia, la tecnología, en suma, la cultura, a la humanidad, la cautela también podría aplicarse en un sentido diferente. Sostienen que quizás no debería ir dirigida a limitar de forma severa el desarrollo de lo nuevo, sino que debería utilizarse de forma mucho más equilibrada. Al fin y al cabo, la posibilidad de resolver los problemas que la humanidad deba afrontar sólo dependerá de saber cómo hacerlo. Nuestras principales limitaciones son las que se derivan de la ignorancia. Por eso, creen que limitar las posibilidades de irle ganando terreno a la ignorancia puede tener efectos muy negativos.
No son dilemas fáciles. Basta recordar la tragedia de la talidomida, o los efectos del amianto, graves problemas de salud que podían haberse evitado si se hubiese sido más cauteloso en determinadas ocasiones. Pero ello no obsta para tener presente que la cautela debe tener también doble filo: además de para limitar o prohibir, también podría aplicarse para desarrollar y permitir. La evaluación de las novedades debe, por ello, ser lo más equilibrada posible, contemplando riesgos y beneficios, y tratando de evitar que la carga de la prueba recaiga siempre en quien propone alguna innovación.
Hay quien ha formalizado estas cuestiones y les ha dado un tratamiento teórico. De ahí ha surgido lo que denominan el principio de proacción. Esta idea, propuesta por el transhumanista Max More, consiste en una especie de reverso del principio de precaución y consiste en “asumir los riesgos de acuerdo con la ciencia disponible y no la percepción popular” y tener en cuenta no solo los impactos de una tecnología sino los beneficios que se pierden en el caso de no ponerla en marcha.
Para concluir, nos ha parecido de interés traer aquí la idea formulada de manera reciente por la matemática Hannah Fry, quien propone que quienes trabajan en matemáticas, ingeniería informática, ciencia y tecnología deberían hacer una especie de juramento hipocrático, en virtud del cual se comprometerían a pensar de forma rigurosa acerca de las posibles aplicaciones de su trabajo, y obligarse a sí mismos a desarrollar aquellas acerca de las cuales tengan suficientes garantías de que no serán perjudiciales para la sociedad. No es la primera iniciativa en ese sentido (aquí y aquí otras), pero es reciente y está formulada de acuerdo con un procedimiento ya utilizado en el campo de la medicina.
Nada de esto es fácil.
Fuentes:
Holm, S, Stokes E (2012): Precautionary Principle, in Encyclopedia of Applied Ethics, Vol III, pp.: 569-575, 2nd edition, Academic Press, London
Menéndez Viso, A (2005): Las ciencias y el origen de los valores. Siglo XXI.
Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.
Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.
El artículo Normas de prudencia en el quehacer científico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Sí con mis impuestos
Ignacio López Goñi, catedrático de microbiología de la Universidad de Navarra, ha preguntado en Twitter lo siguiente:
R5 #CitSCiChatES #CienciaCiudadana
Si hace unos meses te hubieran preguntado: Con el dinero de tus impuestos, ¿subvencionarías una investigación sobre virus en murciélagos? ¿Qué habrías respondido?
— microBIO (@microBIOblog) April 8, 2020
Los murciélagos se encuentran entre los animales que más fácilmente pueden estar en el origen de una zoonosis, una enfermedad infecciosa que pasa de forma natural de una especie a otra. Por eso, el conocimiento de su biología y, con más razón, de los virus que pueden transmitirse a los seres humanos, es muy útil, no ya para hacer frente a una pandemia que ha matado a miles de personas y paralizado gran parte del mundo, sino para prevenir futuras pandemias. Pero hay otras disciplinas cuyo conocimiento puede ser crucial para controlar la expansión del virus y evitar el daño que provoca. La virología es un ejemplo evidente. Pero hay más.
Conocemos los linajes en que se ha diversificado el SARS-CoV-2 desde su primer salto a un ser humano gracias a la genética molecular. Sus métodos permitirán, eventualmente, caracterizar las variedades que vayan apareciendo y ayudarán a identificar rasgos peligrosos.
La epidemiología se basa en modelos matemáticos mediante los que trazar el curso de la pandemia y su posible evolución futura. Los modelos se alimentan de datos relativos al número de personas que hay contagiadas en cada momento y de las que han superado la infección. Se sabe quiénes están contagiados gracias a técnicas como la PCR (“reacción en cadena de la polimerasa”), que son el resultado de decenas de años de avances en biología molecular. Y para saber quiénes han estado infectados por el virus se hacen análisis (serológicos) que permiten detectar la presencia de anticuerpos específicos del SARS-CoV-2 en el suero sanguíneo y son fruto de años de trabajo en inmunología y analítica.
La búsqueda de fármacos antivirales se sirve ahora de las técnicas de biología estructural desarrolladas en las últimas décadas. Ya han obtenido imágenes de algunas proteínas del virus con una resolución de unos pocos nanómetros; así han caracterizado, por ejemplo, la estructura de una glucoproteína que sirve al virus para acoplarse a la célula pulmonar y pasar a su interior. Esas imágenes pueden ser cruciales para encontrar una molécula que bloquee esa vía de entrada. Se han obtenido mediante criomicroscopía electrónica, una técnica para cuyo desarrollo ha sido necesario tener un conocimiento muy preciso de la interacción entre las estructuras que se quieren caracterizar y los electrones con que se bombardean. La informática también es esencial, pues sin ella no podría procesarse la información que proporciona el microscopio electrónico.
Al ámbito de la inmunología corresponde el posible desarrollo de anticuerpos específicos contra el virus. Y también el modo de minimizar respuestas inmunitarias exageradas, que pueden deteriorar el epitelio respiratorio y comprometer su funcionalidad.
La obtención de vacunas eficaces y seguras es otra de las líneas prioritarias de actuación contra el virus. Hacen falta cultivos celulares (biología celular) para hacer los primeros ensayos. Hay que infectar ratones diseñados genéticamente para que sus células pulmonares contengan las proteínas de las que se vale el virus para introducirse y proliferar en su interior. Y si los ensayos son satisfactorios hay que producir las vacunas, proceso que, para inmunizar a millones de personas, tiene que satisfacer condiciones tecnológicas de excepción.
Hasta aquí he glosado, sin ánimo de ser exhaustivo, algunas disciplinas clave en la lucha contra COVID-19. Pues bien, ninguna de ellas se habría podido desarrollar sin contar antes con un conocimiento profundo de materias a cuya investigación muchos no querrían que se destinasen sus impuestos.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sí con mis impuestos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El campo magnético terrestre más allá de las películas de catástrofes: el canto magnético de las rocas
Los fósiles, los minerales o las rocas son, entre otras cosas, en lo primero que pensamos al hablar de geología, pero lo cierto es que la física es un ámbito científico que difícilmente se puede desvincular de la geología. Y es que el fundamento físico resulta clave a la hora de explicar algunos procesos geológicos que suceden tanto en el océano como en la superficie terrestre.
Con el fin de poner sobre la mesa la estrecha relación entre la geología y la física, los días 27 y 28 de noviembre de 2019 se celebró la jornada divulgativa “Geología para poetas, miopes y despistados: La Geología también tiene su Física”. El evento tuvo lugar en la Sala Baroja del Bizkaia Aretoa de la UPV/EHU en Bilbao.
La segunda edición de esta iniciativa estuvo organizada por miembros del grupo de investigación de Procesos Hidro-Ambientales (HGI) de la Facultad de Ciencia y Tecnología de la Universidad del País Vasco, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Geoparque de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.
Últimamente parece que está de moda en las películas de catástrofes que existan alteraciones en el campo magnético de la Tierra. De hecho, el campo magnético de la Tierra cambia en tiempos geológicos, porque el planeta está «vivo», y esos cambios dejan su marca en las rocas. Juan José Villalain, profesor del departamento de física de la Universidad de Burgos nos cuenta que nos dicen.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo El campo magnético terrestre más allá de las películas de catástrofes: el canto magnético de las rocas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La oreja de oso, una joya del Pirineo que guarda el secreto de la resurrección
José Ignacio García Plazaola y Beatriz Fernández-Marín
‘Ramonda myconi’, la única planta resurrección de la península ibérica.José Ignacio García Plazaola, Author provided
Según la mitología griega, Orfeo, hijo de Apolo y Calíope, intentó rescatar a su amada Eurídice de la muerte. Aunque él logró escapar del inframundo, ella desapareció para siempre. Lamentablemente, Orfeo también murió: fue asesinado y despedazado por las Ménades.
Producto de la combinación de la mitología clásica con la tradición más reciente, se cuenta que de las gotas de sangre de Orfeo brotó una planta, que guardó el recuerdo de su esencia más pura en la capacidad de volver a la vida después de muerta.
Esta planta se conoce hoy en día como flor de Orfeo (Haberlea rhodopensis) y es una de las cinco especies europeas que se incluyen en la familia de las Gesneriáceas.
Todas ellas se localizan en el sur del continente (montañas de Grecia, Macedonia y Bulgaria) y, como describe la mitología, presentan la sorprendente capacidad de volver aparentemente a la vida después de muertas.
Son lo que se denomina “plantas resurrección”. En todo el mundo hay unas 300 plantas resurrección. La mayoría tienen una distribución tropical y subtropical, con la excepción de las Gesneriáceas europeas.
Una planta tropical perdida en el Pirineo
En el Pirineo, tanto en su vertiente norte como sur, tenemos la suerte de contar con una de estas escasísimas plantas resurrección: la emblemática oreja de oso (Ramonda myconi). Es la única especie con estas características de la península ibérica.
El género Ramonda recibe su nombre en honor al botánico y explorador francés Louis Ramond de Carbonnières que, entre otras hazañas, fue el primero en ascender oficialmente al Monte Perdido.
‘Ramonda myconi’.José Ignacio García Plazaola, Author provided
Además de su singularidad como planta resurrección, R. myconi y el resto de Gesneriáceas europeas tienen otra característica muy especial: son plantas de origen tropical, reliquias de un periodo pasado mucho más cálido que el actual. Por eso son denominadas técnicamente “paleotropicales”.
La observación de su morfología y aspecto nos revelará de inmediato ese carácter tropical y fácilmente las asociaremos a la muy conocida violeta africana (género Saintpaulia), planta ornamental de interior.
Siendo una especie de vocación tropical, resulta sorprendente que haya podido adaptarse con éxito al enfriamiento del clima en Europa, muy especialmente en el adverso entorno del Pirineo. Aunque encuentra su óptimo en barrancos calcáreos a mediana altitud, ha llegado a observarse incluso a casi 2 500 m en el entorno del Parque Nacional de Ordesa.
Dado que es una planta de hojas longevas y perennes, su exitoso desarrollo en la alta montaña implica que estas deben ser capaces de sobrevivir a temperaturas extremadamente bajas, algo especialmente llamativo en una especie paleotropical.
Hemos constatado recientemente que sus hojas soportan temperaturas por debajo de cero, e incluso la formación de hielo en su interior, sin sufrir lesiones irreversibles.
La combinación de su carácter de planta resurrección y su destacable tolerancia al frío extremo la convierte en una de las escasísimas plantas capaces de enfrentarse exitosamente tanto a las bajas temperaturas como a la desecación. ¿Cuál es pues su secreto?
Secarse, congelarse, y no morir en el intento
La respuesta probablemente no es única. Más bien al contrario, es un conjunto de características lo que permite a esta planta convertirse en una campeona de resistencia.
Aunque parezca contraintuitivo, las consecuencias biológicas de desecarse o congelarse son parecidas en esencia. Esto justifica en cierto modo que su preadaptación a la desecación ha sido la clave para su supervivencia en el Pirineo.
Básicamente, la planta evita las lesiones celulares reforzando sus membranas para evitar los daños estructurales y oxidativos. Pero la protección no solo debe actuar a nivel celular. Las hojas al deshidratarse deben plegarse siguiendo un patrón bien definido y ordenado de forma similar a como se produce el cierre de un paraguas.
Plegamiento de las hojas de la oreja de oso.Beatriz Fernández-Marín, Author provided
De este modo, durante el letargo y aparente muerte, los tejidos se mantienen latentes y sin sufrir daños irreparables. Puede incluso llegar a alcanzarse el denominado estado vítreo, en el que la movilidad de las moléculas es muy reducida. Así, los tejidos pueden mantenerse latentes sin apenas acumular daños durante mucho tiempo.
Cuando el agua vuelve a estar disponible, todo el proceso se revierte y las hojas recuperan en unos pocos días su aspecto más lozano. Este momento, el de la resurrección, es el más delicado. Un error en la precisa secuencia de activación del metabolismo puede resultar fatal para la planta.
El aspecto de la oreja de oso cambia durante las estaciones.José Ignacio García Plazaola, Author provided
Hoy en día, las plantas resurrección son objeto de estudio en algunos de los mejores laboratorios de fisiología vegetal del mundo. De su espectacular capacidad de volver a la vida podremos aprender muchas lecciones útiles para conseguir una agricultura más sostenible y segura y para desarrollar plantas casi indestructibles.
Curiosamente, algo así intuyó Salvador Dalí. En 1982 estuvo a punto de morir al intentar deshidratarse. Creía que de este modo podría alcanzar la inmortalidad, pues había observado que los microorganismos secos podían volver a la vida con una gotita de agua.
Quién sabe. Quizás las gotas de sangre de Orfeo nos sirvan para desentrañar los secretos de la vida eterna.
Sobre los autores: José Ignacio García Plazaola es profesor de fisiología Vegetal en la Universidad del País Vasco / Euskal Herriko Unibertsitatea y Beatriz Fernández-Marín es profesora de biología vegetal en la Universidad de La Laguna
Este artículo fue publicado originalmente en The Conversation. Artículo original
El artículo La oreja de oso, una joya del Pirineo que guarda el secreto de la resurrección se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Aplausos
Luciano Pavarotti actuó muchas veces en Berlín pero el 24 de febrero de 1988 debió de ser una noche excepcional. Al menos, para unos pocos afortunados berlineses. El tenor italiano había ido a la ciudad para representar El elixir de amor de Donizetti en la Ópera Alemana de Berlín. No queda ningún recuerdo sonoro de la ocasión, ni siquiera una triste grabación clandestina. Pero a juzgar por la reacción del público, Pavarotti debió de tocar techo ese día. Según recogen las crónicas y el registro Guinness de los récords, después de su actuación el cantante tuvo que salir hasta 165 veces a saludar al escenario. Los aplausos se prolongaron durante una hora entera y siete minutos.
No se sabe cuándo empezamos a golpear nuestras manos para mostrar aprobación como colectivo, pero es una conducta extendida en casi todas las culturas humanas. El factor común es el ruido, eso sí, más que la palmada. A menudo es posible producirlo con las manos, pero también con algún objeto o con otras partes del cuerpo. Los romanos, por ejemplo, solían agitar la tela de su toga o chasquear los dedos. En países de habla alemana es común entre los estudiantes universitarios golpear las mesas con los nudillos después de cada lección. En otros contextos es común dar golpes con los pies, como cuando los músicos de una orquesta homenajean a su director.
El aplauso, como la risa, parece ser algo contagioso. En el teatro francés los claques eran aplaudidores profesionales, contratados para batir sus manos (incondicionalmente) al final de los espectáculos. No eran muy distintos al público dirigido que hoy anima los platós de televisión. El contagio de los aplausos, no obstante, tiene también un reverso oscuro. No hay nada más temible durante un concierto orquestal, por ejemplo, que una palmada a destiempo durante un silencio que no constituye una pausa. Invariablemente, otras se sumarán a ella rompiendo con su impaciencia el hilo de la música.
Por lo demás, el bramido de las palmadas suele ser algo caótico. Aunque existe cierto ritmo individual, globalmente están descoordinadas, de manera que el sonido total es un ruido homogéneo. Esto no sucede así siempre ni en todas partes, sin embargo. En algunos países de Europa del Este, es popular un tipo particular de aplauso sincronizado, conocido como vastaps o “aplauso de hierro” en húngaro. Se trata de un fenómeno fascinante porque no existe ningún director que coordine las palmas, ninguna señal aparente que dé comienzo al batir simultáneo. El orden surge espontáneamente de todo el colectivo y se disuelve de la misma manera sin que nada (ningún jefe, ningún individuo en concreto) parezca causarlo.
En 1999 un equipo de físicos decidieron asistir a las salas de conciertos de Rumanía y Hungría para estudiar este fenómeno123. Según explica Steven Strogatz en su maravilloso libro Sync4, “las grabaciones mostraron que las audiencias aplaudían desordenadamente al principio, luego cambiaban espontáneamente a aplausos estruendosos y rítmico, con un tempo más lento, y luego recaían en la cacofonía, alternando hasta seis o siete veces entre el caos y la sincronía”. Su comportamiento era similar al de ciertos osciladores armónicos conectados entre sí, como metrónomos apoyados sobre una misma tabla. Cuando la frecuencia de oscilación es parecida, sus movimientos acaban acoplándose, sin importar el punto de partida, siempre que exista algún tipo de comunicación entre ellos.
De forma parecida, los individuos que baten palmas en un auditorio tiene su propia frecuencia natural de aplaudidor y, además, se comunican entre sí porque pueden oír los aplausos de los demás. “Supongamos que la gente está dando palmas de manera desorganizada pero que todos ellos están intentando sincronizarse” explica Strogatz. Aunque, inicialmente, no puedan oír ninguna señal que seguir, “más tarde —y esto es más bien un misterio— un pulso sobresale solo un poquito, quizás porque unos pocos aplaudidores tienen suerte. Ese pulso empezará a oírse por encima del estruendo desorganizado del resto de la audiencia. Y como todos están intentando aplaudir al unísono, tratarán de acoplarse a ese ritmo”5. Un leve pulso surgido quizás, por pura casualidad, acaba arrastrando consigo a un auditorio entero.
Me pregunto si aquella noche del 24 de febrero de 1988, durante una hora entera (seguramente agotadora) de aplausos, los berlineses acabarían moviéndose a la vez, o si con compartir las agujetas al día siguiente se darían por satisfechos. Curiosamente, aunque Pavarotti ostenta el récord de más llamadas a escena, el aplauso más largo de la historia lo provocó en 2014 el poeta estadounidense Dustin Luke Nelson, durante una performance. Luke invitó a su público a aplaudir durante dos horazas y 32 segundos con el objetivo de aprender a apreciar el acto del aplauso en sí y conseguir formar un grupo más cohesionado.
Últimamente, yo pienso mucho en los aplausos. Sobre todo entre las 19:58 y las las 20:10 de cada día. Pienso que a estas alturas de abril, alguien debería avisar a Guinness y dar el récord de 2014 por superado y me imagino a mi prima, enfermera en uno de tantos hospitales saturados de Madrid, saliendo a saludar 165 veces para recibir el afecto que toda esta comunidad le envía. Ojalá toda experiencia nos sirva para formar un grupo más cohesionado. Quién sabe si con un poco de práctica, acabamos aplaudiendo a la vez.
Referencias:
1Z. Néda., E. Ravasz, Y. Brechet, et al. The sound of many hands clapping. Nature 403, 849–850 (2000)
2Z. Néda, E. Ravasz, T. Vicsek, Y. Brechet, A. L. Barabási. Physics of the rhythmic applause. Phys. Rev. E 61, 6987 (2000)
3Thomson, M., Murphy, K. & Lukeman, R. Groups clapping in unison undergo size-dependent error-induced frequency increase. Sci Rep 8, 808 (2018).
4Steven Strogaz, 2003. Sync, How Order Emerges from Chaos in the Universe, Nature, and Daily Life.
5Josie Glausiusz, 2000. The Mathematics of… Applause
.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo Aplausos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Números errores de impresión
Cuando hace un año escribí la entrada ¿Pueden los números enamorarse de su propia imagen? decidí dejar para más adelante el hablar de los números conocidos como “errores de impresión”. Ahora, mientras reflexionaba frente a mi ordenador sobre cuál podría ser mi siguiente entrada para el Cuaderno de Cultura Científica, me he acordado de esta familia tan singular de números y me ha parecido que era un buen momento, en mitad de esta larga cuarentena por el coronavirus, para hablar de ellos.
Doble página del libro Amusements in Mathematics (1917) del matemático recreativo inglés Henry Dudeney
El origen de este tipo de números está en un rompecabezas del gran matemático recreativo inglés Henry E. Dudeney (1857-1930), perteneciente al libro Amusements in Mathematics (1917), que dice lo siguiente.
Problema 115, El error de impresión: Para cierto artículo un impresor tenía que escribir 5423, es decir, la multiplicación de la potencia cuarta de 5 (625) por el cubo de 2 (8), cuyo resultado es 5000. Sin embargo, el impresor cometió un error y escribió la expresión 5423, en lugar de la deseada 54 23, lo cual no era correcto. ¿Podrías buscar un número de cuatro dígitos para el cual el error del impresor no hubiese tenido importancia, es decir, las dos expresiones tendrían el mismo valor?
La solución, que es única, a este problema de ingenio es el número 2592, puesto que
Sin embargo, en el libro de Henry Dudeney no encontramos ninguna explicación, tan solo la respuesta al rompecabezas. Este problema fue propuesto de nuevo unos años más tarde, en 1933, por el matemático norteamericano Raphael M. Robinson (1911-1995), como problema E69, en la revista American Mathematical Monthly. La solución, con su correspondiente demostración (es un análisis de los posibles valores de a, b, c y d, en la expresión abcd= abcd, eliminando todos menos la solución conocida), fue publicada un año después en la misma revista por el matemático Charles W. Trigg (1898-1989).
El aficionado a la matemática recreativa, Donald L. Vanderpool (1930-2010), de Towanda (Pensilvania), no solo se interesó por este problema, sino por encontrar otros ejemplos que también fuesen “errores de impresión”. Del mismo estilo al planteado por Henry Dudeney, aunque el segundo número no era una potencia sino un número natural, encontró los siguientes ejemplos que mostramos a continuación.
Ejemplos de números errores de impresión encontrados por el aficionado a la matemática recreativa estadounidense Donald Vanderpool
Si se les añaden ceros a los números 425 y 325, se obtiene toda una familia infinita de ejemplos, aunque podemos considerar que son esencialmente el mismo.
Donald Vanderpool también obtuvo ejemplos de “errores de impresión” de otro tipo, en concreto, relacionados con las llamadas fracciones mixtas. Primero recordemos qué son estas. Una fracción mixta es una fracción impropia, es decir, el numerador es mayor que el denominador (ambos positivos), luego su valor es mayor que 1, que se representa como un número entero y una fracción propia. Por ejemplo, 3/2 es una fracción impropia, que se representa como 3/2 = 1 1/2, queriendo indicar que es la suma de 1 y 1/2 (esto es, 3/2 = 1 + 1/2, pero en la representación de la fracción mixta se omite el +). Este tipo de representaciones, las fracciones mixtas, se suele utilizar con las medidas (peso, volumen, tiempo, etc), por ejemplo, en las recetas de cocina. Así podemos leer expresiones del tipo “1 1/2 cucharaditas de comino” o “1 3/4 kilogramos de carne picada de ternera” en cualquier libro de recetas de cocina que tengamos en casa, por mencionar alguno, el clásico 1080 recetas de cocina, de Simone Ortega.
Los ejemplos de fracciones mixtas errores de impresión que obtuvo Vanderpool fueron los siguientes.
Ejemplos de fracciones mixtas errores de impresión encontrados por el aficionado a la matemática recreativa estadounidense Donald Vanderpool
Estas fracciones son errores de impresión por lo siguiente.
Pero volviendo a los números errores de impresión de tipo Dudeney, es decir, aquellos que son producto de diferentes potencias, es decir, de la forma n = ab cd ef… = abcdef…, aunque tales que, como en los ejemplos de Vanderpool, pueden terminar en un número natural, estos se recogen en la Enciclopedia on-line de sucesiones de números enteros-OEIS como la sucesión A096298. Ahí podemos ver otros números errores de impresión de este tipo.
Si además estas expresiones también pueden empezar por el producto por un número, los llamados números errores de imprenta de segundo tipo (A116890 en la OEIS), tenemos más ejemplos. Algunos de ellos los mostramos aquí.
O si admitimos tanto potencias como multiplicaciones (espacios en blanco en la expresión matemática) tenemos más errores de imprenta (A156322 en la OEIS), como los siguientes.
Observemos que el último ejemplo mostrado es pandigital, es decir, tiene las diez cifras básicas, del 0 al 9.
El químico y matemático recreativo estadounidense Joseph S. Madachy (1927-2014) cuando habla de los errores de impresión en su libro Mathematics on vacation, incluye el que caso en que pueda no haber potencias, solo espacios entre números que se entienden como multiplicaciones. El ejemplo que incluye Madachy para explicar esta posibilidad es el siguiente.
Pero volviendo al problema original, al rompecabezas de Henry E. Dudeney, podemos plantearnos si existirá un ejemplo de error de impresión que sea similar al de Dudeney en el siguiente sentido, que sea producto de potencias con un único dígito en la base y en el exponente, es decir, de la forma abcdef…yz = abcdef…yz. El matemático británico-estadounidense Neil J. A. Sloane, creador de la Enciclopedia on-line de sucesiones de números enteros, demostró que existe sólo otro número como el de Dudeney, al menos para números menores que 10100, teniendo en cuenta que matemáticamente 00 = 1:
Y como en otras ocasiones vamos a concluir esta entrada del Cuaderno de Cultura Científica con una obra plástica relacionada con los números, en concreto, con el número error de impresión de Dudeney, el número 2592, aunque su autor no se haya inspirado en esta propiedad.
Pintura No. 2592 (2016), del artista estadounidense Al Lofsness
Bibliografía
1.- Henry Dudeney, Amusements in Mathematics, Thomas Nelson and sons,1917 (el original puede verse en la librería Internet Archive).
2.- Donald L. Vanderpool, Printer’s errors, Recreational Mathematics Magazine 10, p. 38, 1962.
3.- Joseph S. Madachy, Mathematics on vacation, Charles Scribner’s Sons, 1966.
4.- Wolfram MathWorld: Printers Errors
5.- Wolfram MathWorld: Mixed Fraction
6.- The On-line Encyclopedia of Integer Sequences
7.- Erich Friedman web page: Math Magic, Problem of the month (June 2001)
8.- Neil J. A. Sloane, Eight Hateful Sequences, Barrycades and Septoku: Papers in Honor of Martin Gardner and Tom Rodgers, American Mathematical Society, 2020.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Números errores de impresión se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El modelo clásico de electrones libres de Drude-Lorentz
Decíamos que nuestros modelos de sólidos cuánticos, si son válidos, deberían poder explicar la ley de Ohm y los distintos tipos de comportamiento conductor que acabamos de describir. Pero para ponerlos en contexto adecuadamente nos será útil un concepto clásico (no cuántico) nuevo, el de gas de electrones.
Poco después del descubrimiento experimental [1] del electrón por parte de Thomson, Paul Drude en 1900 y Hendrik A. Lorentz en 1909 desarrollaron el primer modelo electrónico de la conductividad en un material [2]. En este modelo se supone que el material sólido consiste en átomos metálicos dispuestos en una estructura cristalina que es capaz de vibrar, pero son los electrones el elemento crucial para comprender la conductividad. Los metales conductores como el cobre y la plata tienen un electrón de valencia que se puede separar fácilmente. Drude y Lorentz lo que hacen es suponer que son estos electrones de valencia los que proporcionan la corriente de conducción cuando se aplica un voltaje.
Su modelo se llama habitualmente modelo clásico de electrones libres, clásico porque involucra solo física clásica (no la teoría cuántica) y de electrones libres porque los electrones se consideran pequeñas bolas de materia cargada que son completamente libres para moverse por el material [3]. Solo existe una «fuerza limitante» que actúa sobre los electrones en la superficie de material conductor, evitando que escapen al exterior [4].
En muchos aspectos, los electrones en el modelo Drude – Lorentz de electrones libres forman un tipo de gas ideal, un «gas de electrones» dentro del material conductor. A pesar de la presencia de los átomos de la red, se supone que los electrones se mueven aleatoriamente, como las moléculas en la teoría cinética de los gases, hasta que se aplica un campo eléctrico.
Fuente: Wikimedia CommonsDado que los electrones están cargados cuando se aplica el campo externo comienzan a moverse en la dirección de la fuerza eléctrica que se ejerce sobre ellos, pero a medida que se mueven experimentan colisiones inelásticas con la estructura cristalina que está vibrando, además de colisiones con las impurezas que pueda haber en el material y con las imperfecciones de la propia estructura cristalina. El resultado es que todas estas colisiones frenan el avance de los electrones y reducen su energía cinética. Esta desaceleración podemos considerarla como un tipo de fricción, y la cantidad de «fricción» podemos llamarla resistencia. La energía cinética perdida aparece como calor. Cuantas más colisiones inelásticas experimentan los electrones cuando atraviesan el conductor, más resistencia encuentran: macroscópicamente esto se expresa como la ley de Ohm.
Por supuesto, si el material está formado por átomos que no tienen electrones de valencia (que se puedan compartir), como vidrio, madera o plástico, no puede haber conducción de electrones y, por lo tanto, no hay corriente cuando se aplica un voltaje. El material es entonces un aislante.
El modelo de electrones libres de Drude-Lorentz explica bastante bien la ley de Ohm, pero no puede explicar algunas de las propiedades térmicas de los metales, además del calor específico, como la dependencia de la resistencia con la temperatura. Además, si los átomos y los electrones obedecen las leyes de la mecánica cuántica, era obvio que se requiere una comprensión mecano-cuántica de la conductividad.
Notas:
[1] Teóricamente se venía hablando de la existencia de los electrones desde hacía décadas. De hecho nos podemos remontar a las especulaciones de Richard Laming sobre la estructura de la materia en la serie de artículos que publicó entre 1838 y 1851. En sentido estricto lo que Thomson demuestra experimentalmente es la existencia de electrones libres (separados de los átomos).
[2] Se sobreentiende que hablamos de un material conductor.
[3] El modelo incluye asunciones más radicales, como que los electrones no están sujetos a fuerzas repulsivas de otros electrones ni a atracciones hacia los iones metálicos.
[4] En el modelo el “exterior” es el “espacio”, en el sentido de que tampoco hay interacciones que influyan.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El modelo clásico de electrones libres de Drude-Lorentz se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Dilemas éticos en la frontera de la ciencia
Los avances científicos y tecnológicos suscitan a menudo la duda de si, además de los beneficios que se puedan derivar de ellos, pueden también dar lugar a perjuicios o, incluso, causar daños que puedan eventualmente llegar a tener efectos catastróficos. El desarrollo científico actual no se ve libre de esos dilemas, que afectan a campos y líneas de investigación en las que se han creado tecnologías con un potencial impresionante. Para ilustrar estos dilemas hemos optado por presentar brevemente aquí tres de esas áreas en las que los avances en la frontera del conocimiento generan debate, inquietud o, incluso, provocan directamente ya la oposición de ciertos sectores sociales. Nos referiremos a la ingeniería genética, la selección de embriones con características prefijadas, y la nanociencia y nanotecnología.
En materia de ingeniería genética, hay asuntos que son objeto de controversia, algunos de los cuales se exponen brevemente a continuación (Spier, 2012).
La posibilidad de secuenciar de forma barata y rápida el genoma de numerosos individuos abre la puerta a que se pida a la gente, implícita o explícitamente, que proporcione su información genética a empleadores o aseguradoras, por ejemplo. Los gobiernos, a través de los sistemas públicos de salud también tendrían acceso a esa información. La intimidad de las personas afectadas se vería en todos esos casos y otros no contemplados aquí claramente vulnerada.
La sustitución o modificación de genes que puedan condicionar la predisposición a ciertas enfermedades, la propensión a determinados rasgos de carácter, el envejecimiento, las habilidades cognitivas, los rasgos físicos, el estado de ánimo, el vigor sexual u otras características también es motivo de preocupación. ¿Dónde se establecerían los límites? ¿Quién los establecería? ¿No supondría la aplicación de estas técnicas una forma de eugenesia “positiva”? En muchos casos se trata de posibilidades todavía lejanas, por las limitaciones técnicas, pero en el supuesto de que bastantes de esas limitaciones se superasen, subsistiría el dilema de si es lícito realizar dichas prácticas o, hasta dónde llegar con ellas (Neri, 2012).
Ya se producen de forma rutinaria animales de laboratorio con características especiales. También organismos a los que se les han inactivado ciertos genes (los ratones knockout son un excelente ejemplo). La biotecnología ha abierto también la puerta a la creación de quimeras o de nuevos organismos con características predeterminadas.
De un orden completamente diferente, pues no conciernen a la naturaleza humana, son las controversias relativas a la producción de organismos transgénicos con propósitos comerciales. Nos referimos, principalmente, a la producción de semillas transgénicas o de animales de esa misma condición, como salmones de crecimiento rápido, por ejemplo. Aunque la mayoría de la comunidad científica coincide en que no se han encontrado pruebas de la peligrosidad de estos organismos, a ellos se oponen sectores sociales y políticos con gran presencia mediática. Esgrimen argumentos de carácter ecológico y razones de salud, pues sostienen que pueden causar un daño grave e irreversible a ecosistemas y seres humanos.
La edición genómica con similares propósitos haciendo uso de las técnicas CRISPR suscita la misma oposición. Es más, el pasado año el Tribunal de Justicia de la Unión Europea sentenció que los organismos que se obtengan mediante la modificación del genoma haciendo uso de esas técnicas han de ser considerados legalmente organismos transgénicos, por lo que les será de aplicación la directiva 2001/18EC. La citada resolución da la razón a varias organizaciones de empresarios agrícolas y grupos ecologistas franceses. La resolución del Tribunal es de gran trascendencia. Dadas las dificultades que han de superarse en la UE para que sea autorizado el cultivo de un transgénico, los obstáculos que deberán salvar los organismos creados mediante edición genética serán similares.
La sentencia no debería extrañar si miramos la forma en que está redactada la normativa europea en materia de organismos modificados genéticamente (OMG). Sin embargo, la decisión no se sostiene desde el punto de vista científico, tal y como explica el genetista y especialista en el uso de estas técnicas Lluís Montoliu.
Volviendo a los seres humanos, con las técnicas hoy disponibles y las que puedan desarrollarse en el futuro inmediato se han abierto posibilidades antes nunca vistas. Para empezar, se pueden hacer diagnósticos genéticos previos a la implantación de embriones, lo que abre la puerta, de entrada, a una eugenesia positiva comentada antes. En noviembre pasado, el científico chino He Jiankui anunció haber creado bebes cuyo genoma había sido editado para hacerlos resistentes al VIH y otros patógenos. El problema, como muchos científicos se encargaron de alertar, es que no es en absoluto descartable que se produzcan errores, que pueden ser fatales o causar daños inasumibles. La clonación plantea problemas similares. Además, hay una gran incertidumbre con los resultados de los tests genéticos, y ser difícilmente interpretables por los interesados (Häyry, 2012).
Por otro lado, las técnicas de reproducción asistida generan también importantes dilemas como el estatus y derechos de un embrión humano viable congelado en caso de muerte de sus progenitores, el recurso a mujeres a quienes se paga para llevar a término un embarazo, la edad de una madre en el momento de la implantación de un embrión, o el desarrollo de clones humanos, entre otros. (Spier, 2012)
De una naturaleza completamente diferente son los dilemas que plantea la nanociencia y nanotecnología por los posibles riesgos que su uso pudiera provocar. Según Maynard et al (2006) y Johnson (2012), es posible que el temor a los posibles peligros de algunas nanotecnologías sea exagerado, pero no carece necesariamente de fundamento. Investigaciones que han analizado la toxicidad de nanomateriales en cultivos celulares y animales han mostrado que el tamaño, el área superficial, la química de la superficie, la solubilidad y quizás la forma influyen en cierta medida en el daño que puede producir los materiales de dimensiones nanométricas. Y por otro lado, hay quien duda de que la ciencia disponga de la tecnología adecuada para evaluar esos posibles daños.
Entiéndase que los tres casos expuestos lo son a modo de ejemplo de muchos otros posibles (inteligencia artificial, “big data”, uso de robots, etc.)
Fuentes:
Además de las enlazadas en el texto, las fuentes utilizadas han sido los artículos de la Encyclopedia of Applied Ethics referenciados a continuación:
Häyry, M (2012): Genetic Engineering of Human Beings, in Encyclopedia of Applied Ethics, Vol II, pp.: 437-444, 2nd edition, Academic Press, London
Johnson, S (2012): Nanotechnology, in Encyclopedia of Applied Ethics, Vol III, pp.: 183-185, 2nd edition, Academic Press, London
Neri, D (2012): Eugenics, in Encyclopedia of Applied Ethics, Vol 1, pp.: 189-199, 2nd edition, Academic Press, London
Spier, R E (2012): Science and Engineering Ethics, Overview, in Encyclopedia of Applied Ethics, Vol 4, pp.: 14-31, 2nd edition, Academic Press, London
Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.
Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.
El artículo Dilemas éticos en la frontera de la ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Epigenética, desigualdad y cambio climático
Emilio Muñoz Ruiz y Jesús Rey Rocha
Arabidopsis thaliana. Fuente: Shutterstock/lehicUno de nosotros (Emilio Muñoz) estudia desde hace décadas la filosofía de la biología, con la evolución como soporte analítico. Este trabajo ha promovido la importancia de la regulación. Este artículo persigue aumentar la difusión de las relaciones entre el sorprendente fenómeno de regulación biológica con algunos de los grandes retos sociales y riesgos ambientales.
La epigenética ha experimentado avances impresionantes desde que en 1942 Conrad Waddington empezó a proponer este mecanismo bajo una visión híbrida, entre genética y embriología, para conectar el genotipo (el patrimonio genético de cada ser vivo) y el fenotipo (los caracteres perceptibles), incluso antes de conocer de qué estaban hechos los genes. El término hoy día engloba todos los procesos de regulación de la expresión génica, tanto en el desarrollo como en respuesta a las señales externas.
La epigenética en 2020 y más allá
Los mecanismos epigenéticos conocidos son cada día más variados. Esta variedad es mucho mayor en los organismos con núcleo celular (eucariotas) que en los más sencillos procariotas (bacterias y arqueobacterias). Existen datos fehacientes sobre procesos de transmisión a la descendencia: la langosta del desierto (Schistocerca gregaria) cambia su comportamiento en cuanto a agresividad, gregarismo e incluso estrategia de supervivencia, en cuanto se reúnen tres ejemplares de la especie.
Schistocerca gregaria.Shutterstock/Benny Marty
Todos estos cambios que se conservan en la descendencia,los induce una única molécula, un precursor de la dopamina, la levodopa, que desencadena una serie de alteraciones en el desarrollo que se reflejan en la fisiología, un proceso que podemos considerar epigenético. Para reforzar estos argumentos: el comportamiento gregario induce grandes cambios en la expresión de los genes por el incremento en el nivel de otro neurotransmisor, la serotonina; sin estar codificado en los gametos, las madres los transmiten de generación en generación.
Una pregunta precisa se orienta de modo decisivo a mostrar evidencias que justifiquen la heredabilidad de las modificaciones epigenéticas. Vincent Colot, director de investigación del Centro Nacional para la Investigación Científica de Francia, ha obtenido resultados fascinantes en plantas (Arabidopsis thaliana) que se resumen del modo siguiente: “Individuos que, con el mismo genoma, difieren en su perfil de metilación, una parte de cuyas diferencias se transmiten a lo largo de generaciones”.
C. elegans.Bob Goldstein
A la pregunta ¿y en los animales? tanto Colot como Edith Heard, directora del Laboratorio Europeo de Biología Molecular en Heidelberg (Alemania) ofrecen ejemplos del gusano Caenorhabditis elegans. Este reacciona a agresiones ambientales con la producción de ácidos ribonucleicos (ARN) de pequeño tamaño, procesos de respuesta que se refuerzan y mantienen durante generaciones. Lo más sorprendente es que existe un mecanismo de retroacción que decide si perdura o se elimina esta respuesta epigenética.
Por su parte, Heard expone el caso de ratones derivados de experimentos del año 2000, en los que el gen que controla el color del pelaje – vía melanina – podía experimentar procesos de metilación que se conservan durante generaciones de forma estable con variabilidad en la progenie. Asimismo, es muy significativo que el régimen alimenticio parezca jugar un papel en mantener la herencia del estado deseado.
Incursión en la filosofía: evolución y selección natural
¿Qué papel tienen los estados epigenéticos sobre un proceso tan complejo como la selección natural? En línea con la cultura francesa, entramos en el terreno filosófico, donde las respuestas ya no pueden ser tan rotundas.
Los datos que ofrece Colot en Arabidopsis son significativos a nivel experimental con el modelo de plantas y tienen que ver con la intervención de esos elementos celulares fascinantes que son los transposones. Barbara McClintock, una heroína de la biología molecular, los descubrió en el maíz en la década de los 40 del siglo pasado, descubrimiento por el que recibió el Premio Nobel de Fisiología o Medicina en 1983.
Barbara McClintock.Smithsonian
Heard, con menos experiencia sobre tales elementos al trabajar con animales, apostilla lo siguiente: “Recuperamos una hipótesis que Barbara McClintock formuló en 1950 cuando los descubrió; los consideraba elementos de control de la expresión de los genes, aunque no hablaba de epigenética”.
Los científicos, aún dentro de la prudencia, hablan del fenómeno de “plasticidad fenotípica”. Según esta, los transposones y sus vestigios podrían tener como función última la adaptabilidad para la selección natural. Heard reconoce este papel de los transposones y se pregunta algo tan valiente como “si son esenciales para la adaptación a entornos diferentes, las plantas quizá sean ejemplos más llamativos porque no se desplazan mientras que los animales gozan de esta propiedad”. Una afirmación plena de inteligencia y lógica científica.
Lamarck, al estrado
Con estos avances en la comprensión del fenómeno epigenético ya no se puede eludir la pregunta de que si hay que revisar los planteamientos de Lamarck. Colot, cultura francesa, admite que “el acercamiento se vuelve interesante”. Heard, educada en Cambridge y más rotunda en la _fe_por Darwin, señala que “el mecanismo que propuso Lamarck para adquirir rasgos hereditarios no es admisible porque la base de la selección son las mutaciones, son el motor último de la evolución”.
No obstante, reconoce que Lamarck tenía razón “al decir que hacían falta respuestas flexibles y rápidas al entorno y esto abriría la posibilidad a la plasticidad fenotípica de ser el motor de cambios más remotos”.
Interdependencia entre evolución, desigualdad y cambio climático
En función de lo que se ha expuesto sobre el potencial de la epigenética, se plantea una visión analítica de la relación entre evolución y dos grandes desafíos ambientales.
Uno es la desigualdad como gran reto social para la democracia neoliberal que ha sido promovida por el neoliberalismo especulativo, como ya sostienen con instrumentos de la ciencia económica un importante grupo de economistas como Stiglitz, Deaton, Piketty, Galbraith, Sachs y Pilling.
Otro es el cambio climático como gran desastre ambiental, tesis que ya incorporan economistas y un importante número de científicos de la ciencia del clima, que cuenta con un acervo impresionante de datos, opiniones y reclamaciones para la acción.
La desigualdad explotada desde el ámbito del desafío social deriva en la generación de riesgos ambientales para individuos, familias y colectivos que la sufren, como la pobreza energética, la dependencia, las preocupaciones económicas o problemas de salud mental. Tales presiones evolutivas relacionadas con la calidad de vida se pueden agravar en una sociedad tan consumista como la actual.
El cambio climático es el enorme riesgo ambiental de nuestros tiempos que causa y potencia los retos sociales: además su influencia con la producción de desastres naturales de notables dinámicas y dimensiones sobre los acervos genéticos y epigenéticos, puede llegar hasta a inducir mutaciones.
No seamos apocalípticos pero si analíticos. Proponemos la siguiente pauta de acción: “Más pensamiento crítico y reflexión, y menos populismo modelo Trump y Bannon”
La versión original de este artículo aparece publicada en la web de la Asociación Española para el Avance de la Ciencia (AEAC). Está inspirado en un artículo de la revista Investigación y Ciencia.
Emilio Muñoz Ruiz es profesor de investigación y Jesús Rey Rocha investigador en el Instituto de Filosofía del Consejo Superior de Investigaciones Científicas (IFS-CSIC), Centro de Ciencias Humanas y Sociales (CCHS – CSIC)
Este artículo fue publicado originalmente en The Conversation. Artículo original
El artículo Epigenética, desigualdad y cambio climático se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Física, ingeniería, geología y ética en (el estudio de) los deslizamientos de ladera
Los fósiles, los minerales o las rocas son, entre otras cosas, en lo primero que pensamos al hablar de geología, pero lo cierto es que la física es un ámbito científico que difícilmente se puede desvincular de la geología. Y es que el fundamento físico resulta clave a la hora de explicar algunos procesos geológicos que suceden tanto en el océano como en la superficie terrestre.
Con el fin de poner sobre la mesa la estrecha relación entre la geología y la física, los días 27 y 28 de noviembre de 2019 se celebró la jornada divulgativa “Geología para poetas, miopes y despistados: La Geología también tiene su Física”. El evento tuvo lugar en la Sala Baroja del Bizkaia Aretoa de la UPV/EHU en Bilbao.
La segunda edición de esta iniciativa estuvo organizada por miembros del grupo de investigación de Procesos Hidro-Ambientales (HGI) de la Facultad de Ciencia y Tecnología de la Universidad del País Vasco, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Geoparque de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.
La observación de la naturaleza (geología) permite crear modelos (física) sobre los que establecer posibilidades de actuación (ingeniería) con unos condicionantes sociales (ética) en algo con tanto impacto para las poblaciones humanas como los deslizamientos de ladera. La reflexión corre a cargo de Antonio Casas, profesor del departamento de ciencias de la Tierra de la Universidad de Zaragoza.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Física, ingeniería, geología y ética en (el estudio de) los deslizamientos de ladera se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Guetos animales
Un equipo de investigación internacional en el que participan expertos de la UPV/EHU ha demostrado que las especies raras –entendidas estas como poco abundantes- se asocian espacialmente en el 90% de las comunidades de animales y plantas estudiadas.
“Las comunidades de animales y plantas se organizan igual que lo hacemos en las ciudades, en guetos o barrios étnicos”, determinan los investigadores. Esta organización podría estar detrás de la persistencia de especies raras, ya que estas podrían evitar la presión competitiva de las especies más abundantes, bien porque cooperan entre ellas o porque prefieren microhábitat concretos “o ambas cosas a la vez”.
Los resultados de esta investigación sugieren una explicación general para el mantenimiento de la biodiversidad en ambientes competitivos, matizando el principio de exclusión competitiva por el que las especies con las habilidades competitivas más bajas deberían ser excluidas por las competidoras más eficientes.
“Este patrón podría explicar cómo especies que compiten por los mismos recursos son capaces de coexistir”, comentan los biólogos.
Para llevar a cabo el estudio, se han analizado más de trescientas comunidades ecológicas de musgos, hierbas, árboles, insectos, arácnidos y corales, entre otros, distribuidas por todo el mundo.
Los investigadores explican que, para detectar los guetos o grupos, utilizaron la teoría de redes mientras que para estudiar los mecanismos que daban lugar a ellos aplicaron simulaciones numéricas. Los resultados de estas simulaciones constatan que la agrupación entre especies poco abundantes es necesaria para explicar los patrones de coexistencia observados a escala mundial.
Estos hallazgos pueden tener profundas implicaciones para la comprensión de la formación de las comunidades ecológicas. Entre sus aplicaciones, los expertos destacan la planificación de la conservación o incluso el estudio de enfermedades humanas relacionadas con el microbioma intestinal, “donde la coexistencia de especies es fundamental”.
“Sin embargo, aún se desconocen las interacciones y mecanismos específicos que permiten asociaciones de especies raras, lo que también debería impulsar una nueva agenda de investigación en varios campos de las ciencias de la vida”, reconocen.
Referencia:
Calatayud J. et al. (2019) Positive associations among rare species and their persistence in ecological assemblages Nature Ecology & Evolution doi: 10.1038/s41559-019-1053-5
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Guetos animales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ingredientes para la receta: Los cítricos
Cidra: Fruto del cidro, semejante al limón, y comúnmente mayor, de sabor agrio, cuya corteza gorda y carnosa está sembrada de vejiguillas muy espesas, llenas de aceite volátil, que se usa en medicina.
Foto: Ben Ashby / UnsplashLos cítricos son especies, varias de ellas comestibles, que pertenecen al género Citrus, de la familia Rutaceae, y tienen su origen en Asia. Llegaron a Europa por las rutas comerciales y de conquista con Asia oriental hace unos 3500-5000 años. En la actualidad y según la FAO, con cifras de 2016, la mayor producción de cítricos es la de China, seguida de la cuenca mediterránea, con España como primer productor, y en tercer lugar aparecen Brasil y Estados Unidos.
La taxonomía de las especies comestibles del género Citrus es complicada. David John Mabberley, de la Universidad de Leiden, en Holanda, escribía hace unos años que, según los debates entre los expertos, el número de especies comestibles varía de 1 a 162. Mabberley afirma que, en general los autores siguen la clasificación de Swingle, publicada en 1944, con 12 especies comestibles. El propio Mabberley concluye que son 3 especies y 4 grupos de híbridos, con decenas de variedades. La facilidad de producir híbridos entre las especies y de estas con híbridos ya existentes hace que el número de variedades crezca sin cesar y complica la clasificación que está, además, siempre en continua revisión.
Cidra (Citrus medica). Imagen: Wikimedia CommonsPara Mabberley y Dafna Langgut, de la Universidad de Tel Aviv, las especies originales son, en primer lugar, la cidra, Citrus medica, del Himalaya y el sur de China, que, a su vez, participa en dos grupos de híbridos: el limón, híbrido de la cidra con Citrus limon, y está en debate su relación con la lima; y el híbrido con Citrus jambhiori o limón arrugado.
La segunda especie es el pomelo chino, Citrus maxima, de Malasia, con dos híbridos: para la lima hibrida con el Citrus aurantiifolia; y para naranjas amarga y dulce con Citrus aurantium.
La tercera especie, según Mabberley, es la mandarina o Citrus reticulata, que viene del sur de China y del norte de Myanmar. Sus muchos híbridos también se conocen como mandarinas.
La revisión de la taxonomía de los cítricos que publicó Mabberley años después, en 2004, es la mejor herramienta para conocer la complicada taxonomía del género Citrus y de los híbridos de sus especies.
Las zonas de origen de los cítricos coinciden con las que propuso Vavilov como origen de especies cultivadas en Asia, con el sur de China, los Himalayas e Indochina. Sin embargo, solo conocemos en detalle las especies que llegaron a Europa como comestibles y se clasificaron según Linneo. Queda mucho por conocer para integrar los cítricos asiáticos en un esquema general junto a las especies comestibles conocidas en Europa.
Los cítricos llegaron a Europa después de su cultivo en Asia durante milenios. En China se les menciona en textos que se cree se redactaron hace más de 4000 años, o en escritos de los tiempos de la dinastía Chou de hace 3000 años.
Después, los cítricos llegaron a Birmania y a la India. En este país, ya se cultivaban otras especies de cítricos y, por ello, la terminología en textos antiguos es confusa. Limones y limas han aparecido en las excavaciones de Mehenjo-daro, en el valle del Indo, en el actual Pakistán, y con fecha de hace unos 4000 años.
El estudio del ADN de los cítricos, publicado en 2018, confirma que su origen está a los pies del Himalaya, en la zona de Assam, en la India, en Yunnan en China, y al norte de Birmania, en la actual Myanmar.
Ahora, la naranja es naranja en España y Hungría. En Alemania es orange, applelsine o pomeranze. Pomeranz es en Polonia y apielcine en Rusia. También es arancia en Italia, y orange en Francia y en Inglaterra. Y laranja en euskera. Todo tiene su origen en aquel na ranga del sánscrito en la India o, quizá, como naranga, puede venir del tamil.
Foto: Hans Braxmeier / PixabayLas semillas más antiguas de cidra encontradas en Europa proceden de las excavaciones de Hal Sultan Tekke, en Chipre. Fueron dos semillas y están fechadas hace 3200 años. También se han identificado granos de polen de cidra en el yacimiento de Ramat Rahel, cerca de Jerusalén, y vienen, quizá, de algún árbol del jardín de un personaje importante. Con una fecha parecida, ha aparecido un grano de polen de cidra en las excavaciones de Cartago, en el actual Túnez.
El primer cítrico cuyo cultivo se extendió por Europa fue la cidra. Su historia es complicada. Hay algunos términos en sánscrito que parece se refieren a esta fruta pero, también, se ha propuesto que su origen está en Arabia. La variedad árabe llegó a Mesopotamia y Persia, done la encontraron los griegos con las conquistas de Alejandro Magno en el Próximo Oriente. Han aparecido semillas de cidra en las excavaciones de Nippur, en Mesopotamia y, ahora, en Irak, fechadas hace unos 6000 años.
El griego Teofrasto fue el primer autor clásico que describió la cidra en su Historia de las plantas, que se supone se escribió hacia el año 310 antes de nuestra era:
En el este y sur hay plantas especiales… es decir, en Media y Persia hay muchos tipos de frutas, entre ellas hay una fruta llamada manzana persa o media. El árbol tiene una hoja similar y casi idéntica a la del audrácnico, pero tiene espinas como las de los apios. O la espina de fuego, excepto que son blancos, lisos, afilados y fuertes. El fruto no se come, pero es muy fragante, como también lo es la hoja del árbol; y la fruta se pone entre las ropas, evita que las coman las polillas. También es útil cuando uno ha bebido veneno mortal, para cuando se administra en vino; altera el estómago y saca el veneno. También es útil para mejorar la respiración, ya que si uno hierve la parte interna de la fruta en un plato o la exprime en la boca en algún otro medio, hace que la respiración sea más agradable. La semilla se retira de la fruta y se siembra en primavera en camas cuidadosamente labradas, y se riega cada cuarto o quinto día. Tan pronto como la planta es fuerte, se trasplanta, también en primavera, a un sitio suave y bien regado, donde el suelo no es muy fino, ya que prefiere esos lugares.
Y da sus frutos en todas las estaciones, porque cuando algunos se han reunido, la flor de los demás está en el árbol y está madurando a otros. De las flores que he dicho, las que tienen una especie de rueca que se proyectan desde el centro son fértiles, mientras que las que no tienen esta son estériles. También se siembra, como las palmeras, en macetas perforadas con agujeros.
Hace 2000 años, naranjas amargas y limones ya habían llegado a Europa y en la Roma imperial, como ejemplo, nos sirve su presencia en frescos y mosaicos de Pompeya o en diferentes lugares del Mediterráneo como Egipto, Palestina o Nápoles. Se supone que, más que como alimento, eran árboles de adorno en jardines públicos y en las mansiones de gente pudiente. También citan la cidra en sus escritos, autores clásicos romanos como Virgilio o Plinio el Viejo.
Sin embargo, Marco Gavio Apicio, que vivió en el siglo I y fue el más reputado gastrónomo romano, citó en varias ocasiones a la cidra en su libro De re coquinaria. Aconseja, para conservar las cidras en su despensa, que se pongan “en un recipiente, cubrirlas con yeso y colgarlo”. Con esta fruta, Apicio elaboraba vino de rosas sin rosas: “Poner hojas de cidro verdes en un pequeño capazo de palma dentro de una jarra de mosto sin fermentar y, después de cuarenta días, las sacas. Si fuera necesario, añades miel y lo sirves en sustitución del vino de rosas”.
Algo más contundente es su receta de “picado dulce de cidras”:
Pones en la olla aceite, garum, caldo, puerro entero, cortas cilantro bien pequeño, un lomo de cerdo cocido y albóndigas pequeñas. Mientras cuece, mueles pimienta, comino, cilantro verde o semilla, ruda verde y raíz de laserpicio. Viertes vinagre, vino cocido, caldo del que haga el guiso, lo ligas con vinagre y lo hierves. Cuando haya hervido, pones la cidra en la olla, bien limpia por dentro y por fuera, hervida y cortada en trocitos pequeños. Pones pasta desmenuzada y lo ligas todo. Echar pimienta y lo presentas.
Los romanos también conocían el limón y, en excavaciones en el Foro Romano fechadas hace 2000 años, se han encontrado 13 semillas y un fragmento de piel. Cerca del Vesubio han aparecido restos de madera de limonero, e imágenes de la fruta en pinturas y mosaicos. De nuevo, como con la cidra, era un árbol para jardines de personajes importantes.
Los judíos cultivaban cidras para su Fiesta del Tabernáculo o Sucot y, en su diáspora, la llevaron por toda la cuenca mediterránea. La variedad que recogían es la llamada etrog, siempre pura o no híbrida ni injertada.
Los árabes extendieron por el norte de África y el sur de Europa, en el siglo X, limones, lima, pomelos y naranjas amargas. Una receta árabe del siglo XIII, de Muhammad el-Khatib, de Bagdad, nos la cuenta Helena Attlee en su gran y muy recomendable libro sobre la historia de los cítricos en Italia:
Hervir a fuego lento cordero en tacos, puerro, cebolla y zanahoria picados. Añadir comino, semillas de cilantro, canela, jengibre, pimienta, lentisco molido y unas hojas de menta. Cuando esté casi hecho, hacer albóndigas con todo. En una cazuela poner menta seca y zumo de naranja amarga. Añadir semillas molidas de cardamomo y las albóndigas y cocer a fuego suave. Servir con menta seca espolvoreada.
En el siglo XIII existía en la cocina de Florencia una receta de pato a la naranja, con pato salvaje y naranja amarga. Y en el Llibre de Sent Sovi, recetario de cocina valenciana y catalana medieval, publicado en 1324, ya se citan cidras, naranjas y limones.
Otra historia curiosa relacionada con las naranjas acaeció en Navarra en el siglo XV. Era el año 1421 cuando Leonor de Castilla, esposa de Carlos III de Navarra, después de comer una bigarda, una variedad de naranja de sabor fuerte y amargo, le gustó tanto que plantó cinco semillas en un tiesto. Y prendieron y crecieron en Pamplona hasta 1499 cuando Catalina, esposa de Juan III, rey de Navarra, regaló los cinco naranjos a Ana de Bretaña, casada con Luis XII de Francia, y, además, le relató su historia. Se dice que fueron los primerso naranjos en llegar a Francia donde, con los años, fueron muriendo, y el último lo hizo en Versalles en 1858 o en 1894, según opiniones de diferentes expertos, casi cinco siglos después de su plantación.
Fueron primero los genoveses y, después, los portugueses los que, en los siglos XVI y XVII transportaron la naranja dulce a Europa.
En el siglo XVI, en Italia, los cítricos eran populares y muy utilizados en las grandes casas para sus exquisiteces gastronómicas. Linda Civitello cuenta que, en 1529, el arzobispo de Milán ofreció una cena con 16 platos que incluía
Caviar y naranjas fritas con azúcar y canela, sardinas con rodajas de naranja y limón, ostras con pimienta y naranjas, ensalada de langostas con cidras, esturión con gelatina cubierto con jugo de naranjas, gorriones fritos con naranja, ensaladas personalizadas para cada comensal con cidras y los brazos de los invitados tallados con ellas, buñuelos de naranja, suflé de pasas y piñones cubiertos de azúcar y jugo de naranja, quinientas ostras fritas con rodajas de limón, peladuras de cidra y naranjas confitadas.
Del 1600 en adelante, un testimonio muy visible de la presencia de cítricos en Europa lo dan los bodegones y naturalezas muertas de los pintores holandeses. Allí aparecen, por su color y su forma, muchos cítricos, sobre todo limones y naranjas. Brian Wansink y sus colegas, de la Universidad Cornell de Ithaca, cuentan como los cítricos aparecen en los bodegones holandeses de los siglos XVI y XVII. Los limones son las figuras más importantes y aparecen en el 51% de las obras holandesas analizadas, seguidos de las naranjas en el 14% de los cuadros.
Orangerie de Versalles en verano (en invierno los naranjos están en el invernadero). Los naranjos están en cajones para poder transportarlos. Fuente: Wikimedia CommonsLuis XIV, gran aficionado a las naranjas, construyó en Versalles un “orangerie”, una especie de enorme invernadero almacén para conseguir una temperatura adecuada para el cultivo de naranjas. Era tan amplio que se utilizaba para bailes, conciertos y para las obras de teatro que tanto gustaban al Rey Sol. En las “orangeries”, el aroma a flor de azahar era tan intenso que así lo describió La Fontaine en unos versos:
Orangers, arbres que j’adore
Vos fleurs ont embaumé tout l’air
Que je respire.
En su Nuevo arte de cocina publicado en 1745, Juan Altamiras, fraile franciscano aragonés, escribe alguna receta con naranjas amargas. Para hacernos con los sabores árabe-bereberes que, además, fueron los que trajeron a la Península la naranja amarga, nos ayuda una receta, Pechuga de pollo en salsa de naranja, que escribe Benavides-Barajas en su Nueva-clásica cocina andalusí:
Se sofríen las pechugas en un poco de aceite y, después, se ponen en la cazuela con zumos de naranja y un poco de limón. Se cuece y reduce y se añade algo de mantequilla, menta picada, cilantro y nueces molidas o avellanas. Espolvorear con pimienta y servir.
Parece ser que fue en 1791 cuando se inició la primera plantación moderna de naranjas dulces como cultivo comercial. Fue en Carcagente y se atribuye a la iniciativa del sacerdote Vicente Monzó. Por su éxito, siguieron otras plantaciones en Burriana y Villarreal, en la provincia de Castellón.
Y ya en el siglo XIX, en 1805, llegó a Europa la mandarina, en 1850 estaba bien establecida en Italia, después de pasar por Malta y Sicilia. A España llegó en 1845 y se empezó a cultivar en Castellón en 1856. Llegó a Europa por el encargo de un mecenas, Sir Abraham Hume, que encargó le trajeran dos plantones desde Catón. Hume se los entregó a Sir Joseph Banks, del Real Jardín Botánico de Kew, que, a su vez, donó semillas a Malta, y para 1821 ya crecía en el Jardín Botánico de Palermo, en Sicilia.
Para resumir lo anterior, podemos utilizar la revisión de Dafna Langgut, publicada en 2017, sobre la llegada de cítricos al Mediterráneo. La cidra apareció hace unos 2500 años con los persas; el limón hace unos 2000 años con los romanos; la naranja amarga, la lima y el pomelo llegaron con los árabes entre los siglos X al XII; la naranja dulce con genoveses y portugueses en los siglos XV y XVI; y la mandarina en el siglo XIX con los británicos.
Foto: Michele Hayes / UnsplashPara ilustrar los cítricos con una receta actual no hay mejor ejemplo que las Naranjas “asás” de la Cocina para pobres del doctor Alfredo Juderías en su undécima edición de 1994.
Se pelan unas buenas naranjas, procurando que la cortezuela salga entera, y se desgajan un poquejo. Se echa azúcar, así como un par de garbanzos de mantequilla y una chispa de canela. Se ponen en una fuente refractaria, previamente engrasada, y se meten al horno a fuego suave. Se retiran; se dejan enfriar y se sirven adornadas y cordoneadas por su propia envoltura.
Y, no hay que olvidar, están los licores elaborados con cítricos. Por ejemplo, el Cointreau, cuya historia nos cuentan Amilcar Duarte y sus colegas, de la Universidad del Algarve. Es el licor más conocido elaborado con cítricos, en concreto con piel de naranjas dulce y amarga macerada en alcohol y destilado tres veces para concentrar los aromas. Lo inventaron los hermanos Adolphe y Edouard-Jean Cointreau y, desde 1849, lo elaboran en Angers.
Algo parecido tenemos aquí cerca, el Licor Karpy que elaboran las Destilerías Acha, de Amurrio, desde 1930. Maceran peladuras de naranjas dulces y amargas por separado. Después de la maceración, mezclan glucosa, fructosa, alcohol y agua destilada. Dejan reposar de dos a tres meses, lo filtran y embotellan. Por cierto, las naranjas, una vez peladas, se vendían a los vecinos de Amurrio y a la fábrica de refrescos KAS.
Todas estas bebidas con alcohol, algún cítrico macerado y azúcar nos cuentan la historia del escorbuto y de la Armada Real inglesa. La enfermedad era un azote para los marineros en sus largas travesías y, a menudo, llegaba a matar a la mitad de la tripulación. Hasta no hace mucho se desconocía que el escorbuto era provocado por la falta de vitaminas, sobre todo de vitamina C, y de minerales pues no se consumían, en aquellos largos viajes, frutas y verduras frescas. Fue James Lind, médico de los barcos de la Armada Real, el que organizó un experimento con zumo de cidra durante una travesía por el Golfo de Vizcaya. En 1753 publicó su libro Tratado sobre el escorbuto, en el que explicaba como los marineros, con una ración diaria de zumo de cidra, evitaban el escorbuto. Años después, en 1795, el Almirantazgo decidió incluir zumo de lima o de limón en las provisiones de los barcos. Y fue Edward Vernon, un oficial de la Armada, el que decidió unir el zumo de lima con la ración diaria de ron de cada marinero. Desapareció el escorbuto de la Armada Real, excepto en casos muy concretos.
Referencias:
Alvarez, B.T. 2015. La cidra, el primer cítrico conocido en Europa. UAM Gazette. Unidad de Cultura Científica. Universidad Autónoma de Madrid. 16 julio.
Apicio, M.G. 2007. El arte de la cocina. De re coquinaria. Comunicación y Publicaciones SA. Barcelona. 119 pp.
Attlee, H. 2017. El país donde florece el limonero. La historia de Italia y sus cítricos. Acantilado. Barcelona. 316 pp.
Baron, J.H. 2009. Sailors’ scuvy before and after James Lind – a reassessment. Nutrition Reviews 67: 315-332.
Benavides-Barajas, L. 1995. Nueva-clásica cocina andalusí. Ed. Dulcinea. Granada. 328 pp.
Brothwell, D. & P. Brothwell. 1969. Food in Antiquity. A survey of the diet of early peoples. Johns Hopkins University Press. Baltimore. 283 pp.
Civitello, L. 2005. Cuisine and culture. A history of food and people. John Wiley & Sons. Hoboken, New Jersey. 410 pp.
Duarte, A. et al. 2016. Citrus as component of the Mediterranean diet. Journal of Spatial and Organizational Dynamics 4: 289-304.
Estruch Guitart, V. 2007. La citricultura española. Evolución y perspectivas de futuro. Agricultura Familiar en España 2007: 126-140.
FAO. 2017. Citrus fruit – Fresh and procesed. Statistical Bulletin 2016. FAO. Roma.
Faraudo de Saint-Germain, L. 1951-1952. El “Libre de Sent Sovi”. Recetario de cocina catalana medieval. Boletín de la Real Academia de Buenas Letras de Barcelona 24: 5-81.
Hayward, V. 2017. Nuevo Arte de la cocina española de Juan Altamiras. Círculo de Lectores. Barcelona. 493 pp.
Isaac, E. 1959. Influence of religión on the spread of citrus. Science 129: 179-186.
Juderías, A. 1994. Cocina para pobres. Undécima edición. Ed. Seteco. Madrid. 325 pp.
Khoury, C.K. et al. 2016. Origins of food crops connect countries worldwide. Proceedings of the Royal Society B doi: 10.1098/rspb.2016.0792
Langgut, D. 2014. Prestigious fruit tres in ancient Israel: first palynological evidence for growing Junglans regia and Citrus medica. Israel Journal of Plant Sciences doi: 10.1080/07929978.2014.950067
Langgut, D. 2017. The citrus route reveales: From Southeast Asia into the Mediterranean. HortScience 52: 814-822.
Mabberley, D.J. 1997. A classification for edible citrus (Rutaceae). Telopea 7: 167-172.
Mabberley, D.J. 2004. Citrus (Rutaceae): A review of recent advances in etymology, systematics and medical applications. Blumea 49: 481-499.
Pagnoux, C. et al. 2013. The introduction of citrus in Italy, with reference to the identification problems of seed remains. Vegetation History and Archaeobotany DOI: 10.1007/s00334-012-0389-4
Teofrasto. 1988. Historia de las plantas. Ed. Gredos. Madrid. 531 pp.
Toussaint-Samat, M. 2009. A history of food. Wiley-Blackwell. Chichester. UK. 756 pp.
Velasco, R. & C. Licciardello. 2014. A genealogy of the citrus family. Nature Biotechnology 32: 640-642.
Wansink, B. et al. 2016. Food art does not reflect reality: A quantitative content analysis of meals in popular paintings. SAGE Open Doi: 10.1177/215824401654950
Wikipedia. 2019. Citrus. 17 August.
Xu, Q. Et al. 2013. The draft genome of sweet orange (Citrus sinensis). Nature Genetics 45: 59-66.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Ingredientes para la receta: Los cítricos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: