Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 21 min 1 sec ago

Arte y geometría del triángulo rectángulo: Broken Lights

Wed, 2018/10/17 - 11:59

En la sección Matemoción del Cuaderno de Cultura Científica de la UPV/EHU nos gusta hablar de las diferentes formas en las que el arte y las matemáticas se relacionan entre sí. Hoy traemos a este espacio un nuevo y motivador ejemplo. Es la interesante exposición del artista brasileño Felipe Cohen, titulada Broken Lights, que la galería y editorial de libros de arte Ivorypress ha organizado en su espacio expositivo de Madrid, del 12 de septiembre al 3 de noviembre de 2018.

Obra “Broken Lights Series #51” (2017), pintura acrílica sobre madera (24,6  24,6 cm), del artista brasileño Felipe Cohen, dentro de la exposición “Broken Lights” en la galería Ivorypress de Madrid. Imagen de Ivorypress

Esta es una exposición a caballo entre la pintura y la escultura en la cual la geometría y el arte dialogan entre sí, y el artista Felipe Cohen hace partícipe al público de ese diálogo y de la belleza que emana del mismo.

Utilizando únicamente triángulos rectángulos, todos ellos con la misma forma pero de tres tamaños distintos, Felipe Cohen realiza hermosos, sugerentes e impactantes retratos de paisajes de la naturaleza. El artista brasileño trabaja con los módulos triangulares como si de un puzle geométrico, al estilo del Tangram (véase la entrada Tangram), se tratase.

En palabras del autor de la exposición:

Mi principal objetivo era retratar la naturaleza como un campo de constante indeterminación y cambio, generado mediante sistemas. La construcción de la geometría y la repetición de módulos triangulares proporciona control y rigor, mientras que la apropiación de la naturaleza orgánica de las vetas de madera y el proceso con acuarela hace visible las marcas naturales del material, creando un efecto evocador, menos gráfico.

Obras “Broken Lights Series #43”, “Broken Lights Series #51” y “Broken Lights Series #45” (2017), pintura acrílica sobre madera (24,6 x 24,6 cm), del artista brasileño Felipe Cohen, dentro de la exposición “Broken Lights” en la galería Ivorypress de Madrid. Imagen de Ivorypress

Ivorypress es una editorial especializada en arte y en los libros de artista que fue fundada en 1996 por Elena Ochoa Foster. Entre las variadas actividades que incluye este proyecto están la organización de exposiciones de arte, como las organizadas en su galería de arte de Madrid, la publicación de diferentes colecciones de libros de arte y libros de artista, un programa educativo que pretende llevar el arte contemporáneo a la educación universitaria, proyectos audiovisuales relacionados con el arte y la arquitectura, y la activa librería de la galería de Madrid especializada en fotografía, arte contemporáneo y arquitectura.

Una de las señas de identidad de Ivorypress son sus exclusivos libros de artista. Entre los que ha publicado encontramos joyas artísticas como Reflections (2002), de Eduardo Chillida, Open Secret (2004), de Anthony Caro, Wound (2005), de Anish Kapoor, The Secrets Life of Plants (2008), de Anselm Kiefer, Becoming (2009), de Ai Weiwei, o Tummelplatz (2017), de William Kentridge, entre otros.

Dos fotografías, una de Elena Ochoa Foster y el artista Isidoro Valcárcel Medina, frente a uno de los volúmenes del libro de artista “Ilimit” (2012), de Isidoro Valcárcel Medina, y la otra del artista trabajando en la página 6 de “Ilimit”. La edición consta de 9 volúmenes, más dos pruebas de artista, más una H.C. (siglas de Hors Commerce, prueba que está fuera de comercio). Como se explica en la página de Ivorypress, en “Ilimit” se “explora la contraposición entre los conceptos “limitado” e “ilimitado”, al tiempo que propone una reflexión acerca de los conceptos de seriación y exclusividad, tan recurrentes en el mundo del arte. Cada uno de los volúmenes es distinto y consta de 500 páginas. El contenido de estas páginas consiste únicamente en su numeración, correlativa volumen tras volumen desde la página 1 hasta la 6.000. Dicha paginación está escrita con numeración ordinal en distintos idiomas, escogidos aleatoriamente de entre una selección total de 58 lenguas”. Imágenes de Ivorypress

Pero volvamos a la exposición actual Broken Lights, del artista brasileño Felipe Cohen. Esta es la primera exposición individual en España del artista nacido en Sao Paolo (Brasil) en 1976, y que recibió en 2016 el premio illy SustainArt en la feria ARCOmadrid. Entre sus exposiciones individuales nos encontramos, entre otras, Ocidente en la Kubikgallery (Oporto, Portugal) en 2017 y en la Galeria Millan (São Paulo, Brasil) en 2016, Lapso en la Galeria Millan (São Paulo, Brasil) en 2013, Poente en Capela do Morumbi (São Paulo, Brasil) en 2013, Colagens en Anita Schwartz (Río de Janeiro, Brasil) en 2009 o A Gravidade e a Graça en la Galeria Virgílio (São Paulo, Brasil) en 2008, además de exposiciones colectivas a lo largo de todo el mundo. Sus obras se encuentran en colecciones como la Pinacoteca do Estado de São Paulo, Museu de Arte Moderna de São Paulo y Museu de Arte do Rio, Río de Janeiro.

“Sin título” (2004), de Felipe Cohen, copa de vidrio y mármol, 7 x 6 x 6 cm. Imagen de la Galería Virgílio

Felipe Cohen utiliza todo tipo de materiales y medios para desarrollar su arte. Realiza esculturas con objetos encontrados, collages con diferentes materiales, como madera, papel o vidrio, instalaciones, videos y dibujos.

“Catedral #2” (2010), de Felipe Cohen, pinza de la ropa de madera y travertino romano, 16,5 x 9,5 x 2 cm. Imagen de la Galería Estaçao

En la serie de obras Broken Lights, algunas de las cuales se exponen en la galería Ivorypress (Madrid), el artista Felipe Cohen trabaja uno de los temas centrales de la historia del arte, como es la representación de paisajes de la naturaleza, pero lo hace de una forma muy particular, a través de un proceso de geometrización del paisaje que quiere representar. Para realizar estos retratos utiliza una única figura geométrica, un triángulo rectángulo. Estas piezas triangulares se construyen en madera, de tres tamaños distintos, pero siempre la misma forma, y, además, algunas de ellas están pintadas con un color suave (cada pieza un único color). Mediante la combinación de diferentes triángulos se crea el retrato del rincón de la naturaleza que se desea representar, por ejemplo, una playa, un lago, un valle o una cueva.

Vista de la exposición “Broken Lights”, de Felipe Cohen, en la galería Ivorypress, en la que se ven, de izquierda a derecha, las obras “Broken Lights Series #30, #29 y #28” (2017), pintura acrílica sobre madera. Imagen de Ivorypress

El triángulo rectángulo utilizado por el artista de Sao Paolo es siempre el mismo, no se cambia su forma, aunque se utilizan tres tamaños distintos. Veamos qué triángulo es este.

Para empezar, el triángulo utilizado por Felipe Cohen es un triángulo rectángulo, luego con un ángulo recto, es decir, de 90º, que nos recuerda mucho a un cartabón. Recordemos que el cartabón es un instrumento de dibujo cuya forma es la de un triángulo rectángulo escaleno, sus lados son los tres de longitudes distintas, cuyos ángulos son 30º, 60º y 90º. Una de las propiedades del triángulo del cartabón es que, al colocar dos triángulos juntos, pegados por el cateto más largo, se forma un triángulo equilátero, con los tres lados iguales, y los tres ángulos también, de 60º.

A la izquierda, un triángulo rectángulo escaleno de ángulos 30º, 60º y 90º, que es el que da lugar a la forma del cartabón, y a la derecha un triángulo equilátero, con los tres lados iguales, formado por la unión de dos triángulos como el anterior

Pero estos no son los triángulos rectángulos que utiliza Felipe Cohen. ¿Qué forma tienen, entonces, estos triángulos? Como podemos observar en las obras de la serie Broken Lights con cuatro triángulos rectángulos se forma un cuadrado (como se puede apreciar, por ejemplo, en la parte superior del primer cuadro, Broken Lights Series #51), por lo que la longitud del cateto mayor del triángulo rectángulo es igual al doble de la longitud del cateto menor. En la siguiente imagen hemos dibujado la forma de los triángulos que utiliza Felipe Cohen, el cateto grande el doble del cateto pequeño, y además hemos calculado, utilizando el teorema de Pitágoras, la longitud de la diagonal y, utilizando un poco de trigonometría, el valor exacto de los ángulos de ese triángulo.

La geometría del triángulo rectángulo utilizado por el artista Felipe Cohen en la serie “Broken Lights” Comparativa de la forma del triángulo rectángulo del cartabón, a la izquierda, y del utilizado por Felipe Cohen, a la derecha

La obra Broken Lights Series #74, que sería la composición más sencilla de esta serie ya que todas las obras mantienen la forma rectangular o cuadrada clásica de un cuadro, está formada por dos triángulos rectángulos que forman un rectángulo de proporción 2, es decir, el largo es el doble que el ancho, de hecho, las medidas de la obra, sin el marco, son 6 cm de ancho y 12 cm de largo.

Obra “Broken Lights Series #74” (2018), pintura acrílica sobre madera (6,5  12,5 cm), del artista brasileño Felipe Cohen, dentro de la exposición “Broken Lights” en la galería Ivorypress de Madrid. Imagen de Ivorypress

Y como hemos comentado, con cuatro triángulos de los utilizados por Felipe Cohen se puede formar un cuadrado, como se muestra en la siguiente imagen.

Además, en esta serie de obras se utilizan tres tamaños distintos de triángulos rectángulos. Los tres tamaños utilizados, dados por la longitud de sus catetos, son 6 x 12 cm, 12 x 24 cm y 18 x 36 cm, respectivamente, para que puedan encajar bien unos triángulos con otros.

En la obra Broken Lights Series #61 pueden verse los tres tamaños de triángulos utilizados. A continuación, mostramos la obra y la estructura de los triángulos de la misma.

Obra “Broken Lights Series #61” (2017), pintura acrílica sobre madera (36,4 x 36,5 cm), del artista brasileño Felipe Cohen, dentro de la exposición “Broken Lights” en la galería Ivorypress de Madrid. Imagen de Ivorypress Estructura de los triángulos rectángulos de la obra “Broken Lights Series #61”, de Felipe Cohen

Otra de las peculiaridades de esta serie de obras, que conecta de nuevo con la historia del arte, es el uso del color para dotar de profundidad, de tridimensionalidad, a la pintura, que es una imagen bidimensional. Una de las obras en las que se aprecia muy bien este efecto es Broken Lights Series #73, que se muestra más abajo, la cual quizás podría representar la imagen de una cueva, mirando desde el interior hacia la salida. Otro de los elementos a destacar en esta obra es el uso de espirales mediante el contraste de color.

Obra “Broken Lights Series #73” (2017), pintura acrílica sobre madera (36,6 x 36,6 cm), del artista brasileño Felipe Cohen, dentro de la exposición “Broken Lights” en la galería Ivorypress de Madrid. Imagen de Ivorypress

Aunque, la idea de utilizar triángulos rectángulos, a la manera de un puzle geométrico, como pueda ser el clásico y conocido Tangram u otros puzles similares, ya la utilizó el artista de Sao Paulo en su obra Chao ou Vao (2013), que consta de una serie de 140 triángulos rectángulos iguales de tres colores (blanco, gris y negro) que se pueden manipular para construir diferentes paisajes sobre el estuche rectangular con tapa transparente que hace las veces de cuadro, siendo por tanto una obra dinámica, nunca terminada y siempre dispuesta a ser modificada para crear la siguiente imagen.

Tres imágenes de la obra “Chao ou Vao” (2013), del artista Felipe Cohen. Imagen de la galería Carbono

En palabras del artista:

A partir de juegos de madera como el Tangram y otros, que veía frecuentemente expuestos en el taller del carpintero con quien trabajo, empecé a pensar en la posibilidad de explorar la idea de collages no definitivos. A partir de esa idea central desarrollé la estructura de ese objeto/juego utilizando una malla geométrica formada por 140 triángulos de mdf de dimensiones iguales revestidos por formica por los dos lados, pero divididos en tres tonalidades: una más luminosa, próxima al color blanco, y las otras dos en tonos de gris, uno más claro y otro casi negro. Lo suficiente para hacer posible elaborar dentro de esa malla geométrica dibujos que sugieran profundidad. Las imágenes encontradas por mí por la combinación de estas piezas son paisajes abisales que sugieren agujeros y huecos a partir de la relación de las piezas más claras con las oscuras. Estas piezas se encajan en un estuche de madera con una tapa de acrílico, que permite el montaje de este juego en la pared, en una alusión directa al marco”.

Para terminar, simplemente recomendar a las personas que puedan pasarse por la galería Ivorypress de Madrid que visiten esta magnífica exposición y que disfruten del arte geométrico del artista brasileño Felipe Cohen, y para quienes no puedan visitarla, que entren en la página web de Ivorypress y/o compren el catálogo de Broken Lights.

Biblioteca

1.- Ivorypress, editorial y galería de arte

2.- Felipe Cohen, Broken Light, Ivorypress, 2018.

3.- Felipe Cohen, Trabalhos recentes, Galeria Marilia Razuk, 2012.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Arte y geometría del triángulo rectángulo: Broken Lights se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La geometría de la obsesión
  2. El tamaño sí importa, que se lo pregunten a Colón (o de la geometría griega para medir el diámetro de la Tierra)
  3. Arte cartográfico, arte con mapas
Categories: Zientzia

Contra la meritocracia

Tue, 2018/10/16 - 11:59

En una gran organización la gente viene y va. Siempre hay decisiones que tomar sobre a quien se promociona, las nuevas promesas recién llegadas frente a los cuadros medios experimentados, mientras todo el mundo espera el ascenso. Dados dos candidatos para un puesto, uno muy competente en su trabajo actual y el otro más errático y, en general, con menos éxito, la mayoría de la gente considera una obviedad que debe ascender el primero y no el segundo. Sin embargo, en 1969, Laurence Peter introdujo el famoso principio que lleva su nombre, que afirma que cada nuevo miembro de una organización jerárquica asciende en la jerarquía hasta que alcanza su nivel de máxima incompetencia. Una afirmación que está en contra, aparentemente, del sentido común y de lo que ha dado en llamarse meritocracia, que muchos citan como un chiste… pero que es muy probable que no lo sea.

Imagen: Truman Show HDR by Maximes21500 (DeviantArt)

Efectivamente, un resultado obvio de la estrategia promocional basada en el sentido común de ascender al competente es que todo el mundo promocionará hasta que llegue a un trabajo para el que no sea bueno. En ese momento dejará de ascender y la organización tenderá a tener incompetentes en cada puesto [asumimos que el departamento de recursos humanos ya es incompetente, no es consciente de esta situación por una variante del efecto Dunning-Kruger, y es incapaz de intervenir eficazmente]. La eficiencia de la organización disminuye. A esto es a lo que se refería Peter cuando afirmaba que cada nuevo miembro de la organización asciende hasta alcanzar su máximo nivel de incompetencia.

El principio de Peter se basa en que el departamento de recursos humanos tiene poco que decir más allá de administrar las nominas. Dicho de forma más técnica, Peter asume la hipótesis, no necesariamente cierta, de que existe poca o ninguna correlación entre las competencias necesarias para desempeñar un puesto y el nivel en la organización. Aquí chocamos de nuevo con el sentido común que afirma que sí existe esa correlación. Sin embargo, el hecho empírico es que existe un patrón de promoción en las organizaciones que hace que las personas que son buenas haciendo determinadas cosas alcancen puestos en los que ya no se hacen esas cosas: en muchos casos pasan a “administrar” personas que las hacen. Es decir, en muchas organizaciones se actúa de hecho como si no existiese correlación entre competencias y nivel jerárquico. Veamos algunos ejemplos familiares: los buenos profesores dando clase no suelen ser buenos directores de instituto, futbolistas de mucho éxito no siempre se convierten en buenos directores deportivos, magníficos investigadores es probable que no sean buenos decanos, estupendos atletas puede que no sean buenos entrenadores, vendedores superlativos casi nunca son buenos jefes de ventas y extraordinarios estudiantes con notas magníficas puede que no sean buenos médicos.

Un grupo de investigadores de la Universidad de Catania, encabezados por Alessandro Pluchino, fue un paso más allá y estudió las distintas políticas de promoción usando modelos computacionales de distintas organizaciones con distintos niveles a los que promocionar. Increíblemente (o no), encontraron que la política de ascender siempre a la persona menos competente puede maximizar la competencia general de la empresa, mientras que ascender al más competente puede disminuirla significativamente. La investigación fue merecedora de un Ig-Nobel en 2010.

Los investigadores compararon los cambios en la organización en su conjunto con tres políticas de promoción distintas (al mejor, al peor, al azar) aplicadas en los dos supuestos de que hay o no hay correlación entre las capacidades necesarias para realizar tu trabajo actual y aquel al que se te promociona.

Sus resultados son contundentes. Si, tal y como asume Peter, no existe correlación entre trabajos nuevos y antiguos entonces “al mejor” lleva, efectivamente, a una pérdida del 10% en la eficiencia de la organización. Ello se debe a la gente que es mucho menos competente en sus nuevos trabajos que en los anteriores. Por otra parte, “al peor” lleva a una ganancia del 12%, ya que la gente que era mala en un puesto lo hará igual de mal o mejor. En el caso de que exista correlación, “al mejor” lleva a una ganancia del 9% y “al peor” a una pérdida del 5 %.

La cuestión es que en una organización nada es blanco o negro, y la correlación estará en algún punto intermedio. El reto para el departamento de recursos humanos y para el máximo ejecutivo está en superar los resultados al azar: si no hay correlación la promoción al azar incrementa la efectividad de la organización en un 2% y si la hay en un 1%. No parecen grandes números, pero para superarlos el departamento de RR.HH. debe ser, primero, muy competente y, segundo, que su labor no sea interferida por asuntos políticos ajenos a las valoraciones técnicas. Ambos supuestos, mucho nos tememos, es muy improbable que se den completamente. Paradójicamente, por tanto, puede que la mejor decisión para mejorar la eficiencia de la organización sea dejar de gestionar los recursos humanos y ahorrarse el coste de un departamento y sus reuniones y papeleos asociados.

Habrá quien argumente que promocionar al azar disminuye la moral y los incentivos para el trabajo duro. Pero esto tiene fácil solución: primero, negarlo taxativamente y, segundo, un uso adecuado de la propaganda interna. Lo importante no es la realidad, sino lo que las personas crean que es la realidad.

Referencia:

Pluchino, A., Rapisarda, A., & Garofalo, C. (2010). The Peter principle revisited: A computational study Physica A: Statistical Mechanics and its Applications, 389 (3), 467-472 doi: 10.1016/j.physa.2009.09.045

Una versión anterior de este texto se publicó en Experientia docet el 9 de noviembre de 2011 con el título Más allá del principio de Peter: el azar como política de recursos humanos.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Contra la meritocracia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. De los organismos
  2. Inteligencia contraterrorista contra el cáncer
  3. La paradoja de la recurrencia
Categories: Zientzia

Una fórmula para dominarlos a todos: La conservación de la energía y la ley de la palanca

Mon, 2018/10/15 - 11:59
Representación de la frase de Arquímedes “Dadme un punto de apoyo y moveré el mundo”, que ejemplifica la ley de la palanca, en la decoración del techo del “Stanzino delle Matematiche” de la Galleria degli Uffizzi (Florencia). Obra de Giulio Parigi (1599-1600)

En la entrega anterior vimos cómo la definición del trabajo en la física era mucho más comprensible y de “sentido común” de lo que suele apreciarse.

Hasta aquí estupendo, pero, ¿qué tiene que ver esto con la energía y los mecanismos?

La primera ley de la termodinámica nos dice que la variación de energía (ΔU) de un sistema se produce por el intercambio de calor (Q) y de trabajo (W).

ΔU = Q + W

No nos meteremos aquí con el asunto del calor, estamos pensando en mecanismos que cambian tipos de movimiento y su velocidad, entenderemos que habrá pérdidas por rozamiento, pero consideraremos el caso ideal sin pérdidas (recordad que soy físico).

Así que elijamos un mecanismo, una palanca, por ejemplo.

Fuente: Dnu72 / Wikimedia Commons

No hay más aportes de energía que la que hacemos en un extremo mediante nuestra fuerza y eso es todo lo que tendremos a la salida. La energía que entra será la que salga, y ambas serán trabajo (ya, ya, salvo pérdidas).

Así que podemos decir que

W1 = W2

Como hemos visto, nuestro trabajo tiene dos factores, la fuerza y la distancia (supongamos alineación entre ellos). Por lo que podríamos conseguir 10 J (unidades de trabajo) de muchas maneras, por ejemplo:

W = F · d

1 · 10 = 10 J

2 · 5 = 10 J

5 · 2 = 10 J

10 · 1 = 10 J

Mandaremos la misma energía (trabajo) de un extremo al otro del mecanismo, pero podemos hacerlo con más fuerza y menos recorrido o al revés, según nos interese.

¿Podría ser entonces que en un extremo del mecanismo tuviéramos más fuerza que en el otro? Por supuesto, no existe nada parecido a un “principio de conservación de la fuerza”. Tú puedes multiplicar tu fuerza lo que desees (idealmente, claro). De ahí viene la expresión “Dadme un punto de apoyo y moveré el mundo”.

Supongo que ya te habrás dado cuenta de que ese aumento de fuerza tiene un precio. Tendrás que reducir el recorrido en la misma proporción, de forma que la energía se mantenga constante, porque para la energía sí tenemos una ley de conservación.

Así que, sin más, podemos afirmar que si en un mecanismo el recorrido que se hace a la salida es la mitad que el que se hace a la entrada, la fuerza será el doble. No necesitamos saber nada más de lo que ocurre en el interior del mecanismo. Estoy haciendo balance de energía a la entrada y a la salida, punto. Pura conservación de la energía que no se la salta nadie, primera ley de la termodinámica.

Volvamos a nuestra palanca, mediante argumentos geométricos podemos saber qué relación hay entre las distancias recorridas a un lado y a otro, y eso nos llevará, vía conservación de la energía, a concluir la relación entre las fuerzas a ambos extremos. Vaya, llegaremos a la “ley de la palanca”.

La Palanca

Fuente: Dnu72 / Wikimedia Commons

Fuente: Silver Spoon / Wikimedia Commons

Vemos que los extremos de la palanca recorren ambos un arco de circunferencia, cuyos radios son Br y Bp, y son obviamente distintos en longitud, así que ya estamos en condiciones de afirmar que las fuerzas a ambos lados también lo serán.

Fíjate que los ángulos recorridos en ambos extremos son iguales, en caso contrario la barra se doblaría.

Pero a nosotros nos interesa la distancia (para la fórmula del trabajo), así que pensemos en la longitud del arco de circunferencia que se recorre.

Esa longitud de arco es proporcional al radio y al ángulo. Si recordáis la popular fórmula para la longitud de la circunferencia completa L = (2π)·r es justo esa proporcionalidad para un ángulo de 2π radianes, lo que en grados sería 360º.

Por lo tanto, para un arco cualquiera sería:

arco = ángulo · radio de giro

Sigamos adelante, comparemos trabajos:

W1 = W2

W = F·d (suponiendo fuerzas alineadas con el desplazamiento)

R · arco1= P · arco2

R · ángulo · Br = P · ángulo · Bp (ya que los radios de giro son Br y Bp)

Como los ángulos son iguales, si la barra no se dobla, podemos simplificar

R · Br = P · Bp

¡Hecho! Fuerza por su brazo igual a fuerza por su brazo. La ley de la palanca.

Vemos que simplemente hemos aplicado argumentos geométricos para averiguar la distancia recorrida al principio y al final del mecanismo y después la conservación de la energía para ver la relación entre las fuerzas.

En la próxima entrega haremos los cálculos para varios mecanismos, pero os animamos a que lo probéis vosotros y, si sois docentes, que se lo pongáis a vuestros (pobres) alumnos como ejercicio.

El artículo Una fórmula para dominarlos a todos: La conservación de la energía y la ley de la palanca se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una fórmula para dominarlos a todos: El trabajo
  2. Se establece el principio de conservación de la energía
  3. El modelo cuántico de Rabi, un sencillo modelo para dominarlos a todos
Categories: Zientzia

El Imperio Romano extendió la tuberculosis

Sun, 2018/10/14 - 11:59

La tuberculosis es una enfermedad que afecta principalmente a los pulmones y que se contagia fácilmente a través del aire. De no ser tratada correctamente provoca tos continua, fiebre, pérdida de peso, debilidad y finalmente, la muerte. Ha sido y es una de las mayores causas de muerte infecciosa en el mundo; cada año se producen entre 10 y 11 millones de nuevos casos y provoca entre 1,5 y 1,8 millones de muertes.

El equipo de Caitilin Pepperell, de la Universidad de Wisconsin-Madison (EEUU), ha analizado el genoma de 552 muestras de la bacteria que produce la tuberculosis, Mycobacterium tuberculosis, obtenidas de personas de diferentes lugares del Mundo, salvo del continente americano (la bacteria llegó a América con los europeos en el siglo XV). A partir del origen geográfico de las muestras y teniendo en cuenta la velocidad a que cambia el genoma bacteriano por efecto de las mutaciones, el grupo de la Dra. Pepperell ha reconstruido el árbol de linajes de la bacteria. Como ya se sabía, hay siete familias principales de Mycobacterium tuberculosis. El último ancestro común a esas siete familias surgió probablemente en el Oeste de África hace unos cinco mil años, y tres de ellas no han salido nunca del continente africano.

Al parecer, una de esas familias se extendió al Sudeste asiático más de tres siglos antes del comienzo de nuestra era. Había entonces un intenso tráfico de mercancías –especias, principalmente- por las costas del Océano Índico, y ello propició que ese linaje de Mycobacterium tuberculosis llegase incluso a la isla de Papua Nueva Guinea.

Sin embargo, la variedad que ha alcanzado mayor extensión es la que se propagó en el primer siglo desde la cuenca del Mediterráneo hacia casi toda Europa, las estepas rusas, Asia y, retornando a la zona donde surgió, África también. La época en la que se produjo esa expansión coincide con el periodo en que el Imperio Romano alcanzó su máxima extensión, por lo que aumentaron los desplazamientos, creció mucho el transporte de mercancías en el interior de sus fronteras, y se intensificó el comercio con los pueblos del entorno e, incluso, con el mismísimo Imperio Chino. Se pusieron así en contacto personas de muy diferentes orígenes, pertenecientes a pueblos que no habían tenido relación directa con anterioridad. Además, las ciudades adquirieron una gran importancia. Roma llegó a tener entonces un millón de habitantes, una cifra que en Europa solo alcanzaría Londres durante la revolución industrial. A Roma y de Roma viajaban en todas las direcciones miles de personas cada año. Muchas de esas personas llevaban consigo unos cuantos miles de ejemplares de Mycobacterium tuberculosis. Además, algunos hábitos que los romanos extendieron allí donde llegaban, como la vida en grandes barracones militares o el uso de los populares baños públicos, proporcionaban condiciones ideales para la transmisión de estos microbios de unas personas a otras.

De los romanos heredamos las lenguas que hablamos muchos europeos y gran parte del vocabulario de las demás lenguas de Europa, incluida la vasca. Construyeron, además, carreteras, acueductos, aseos públicos, teatros, circos y otras infraestructuras que fueron los cimientos materiales de su civilización. Nos legaron el derecho que hoy conocemos precisamente como romano, y sentaron las bases del calendario que utilizamos en la actualidad; en otras palabras, organizamos nuestra vida y convivencia de acuerdo con normas creadas por ellos. Y a todo lo anterior y muchas otras cosas hay que añadir que facilitaron la expansión de la bacteria que causa la tuberculosis, la enfermedad que, de acuerdo con estimaciones recientes, más muertes ha provocado en la historia de la humanidad.

—————————————————————–

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

Una versión anterior de este artículo fue publicada en el diario Deia el 29 de julio de 2018.

El artículo El Imperio Romano extendió la tuberculosis se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las contorsiones de una enzima clave para la tuberculosis
  2. El arte de abrir cráneos: neurocirugía y trepanaciones durante el imperio inca
  3. Superbacterias
Categories: Zientzia

Medicina regenerativa: utilización de células madre para el tratamiento de enfermedades humanas

Sat, 2018/10/13 - 11:59

Las investigaciones realizadas en los últimos veinte años han demostrado la capacidad de regeneración de los tejidos dañados asociada a la presencia de células madre específicas. Esta es precisamente la premisa sobre la que trabaja la medicina regenerativa y la terapia celular, basada en el uso de medicamentos de terapia avanzada para el tratamiento de ciertas enfermedades humanas.

Pero, ¿cuáles son los principios científicos que justifican la utilización de estos medicamentos y las dificultades regulatorias y científicas a las que hay que hacer frente para llevarlos a la práctica clínica? El doctor Felipe Prósper Cardoso, director del Área de Terapia Celular y codirector de Hematología de la Clínica Universidad de Navarra, abordó las realidades y los retos de futuro de las terapias celulares en una conferencia titulada “Medicina regenerativa: utilización de células madre para el tratamiento de enfermedades humanas”, que se celebró el pasado 31 de enero en la Biblioteca Bidebarrieta de Bilbao.

Esta charla que se enmarca dentro del ciclo “Bidebarrieta Científica” una iniciativa que organiza todos los meses la Cátedra de Cultura Científica de la UPV/EHU y la Biblioteca Bidebarrieta para divulgar asuntos científicos de actualidad.



Edición realizada por César Tomé López.

El artículo Medicina regenerativa: utilización de células madre para el tratamiento de enfermedades humanas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Microcápsulas biomiméticas de células madre
  2. Naukas Pro 2017: Manuel Collado y las células madre
  3. El Nobel de Medicina de 2013: Logística de prefabricados de construcción (en las células)
Categories: Zientzia

El modelo cuántico de Rabi, un sencillo modelo para dominarlos a todos

Fri, 2018/10/12 - 11:59

Sofisticados modelos matemáticos que se usan para describir fenómenos físicos muy diferentes estrían integrados en el sencillo modelo cuántico de Rabi, que describe la interacción entre un sistema muy simple, de solo dos niveles, y un campo electromagnético.

I.I. Rabi ganó el premio Nobel por el descubrimiento de la resonancia magnética nuclear. Este sistema se describe usando su modelo cuántico, en el que los dos estados del sistema son los dos valores del espín y el campo aplicado un campo magnético externo.

La mecánica cuántica ha revolucionado el mundo de las comunicaciones y los ordenadores con la introducción de algoritmos mucho más veloces y seguros en la trasferencia de la información. “El modelo cuántico de Rabi es un modelo fundamental que aparece en muchos sistemas físicos, incluyendo plataformas cuánticas como iones atrapados o circuitos superconductores, que en un futuro más o menos cercano podrían utilizarse como hardware de un ordenador cuántico”, explica Jorge Casanova quien desarrolló este trabajo mientras trabajaba en Universidad de Ulm (Alemania) y que es actualmente investigador Juan de la Cierva en el grupo de investigación Quantum Technologies for Information Science (QUTIS) del Departamento de Química Física de la UPV/EHU. “Se trata del modelo matemático más sencillo que tenemos para describir los procesos de interacción entre la luz y la materia. Es decir, el modelo cuántico de Rabi es el mecanismo que la materia y la luz (la radiación) han elegido para comunicarse”, comenta el investigador de la UPV/EHU.

Este trabajo ha demostrado por primera vez que varios modelos matemáticos muy sofisticados que se usan para describir fenómenos físicos diferentes, se encuentran dentro del mismo modelo cuántico de Rabi. “Es como si el modelo cuántico de Rabi fuera la raíz de un conjunto mucho más avanzado de modelos matemáticos”, dice Casanova. “Esto significa que si uno interpreta los resultados que el modelo cuántico de Rabi predice, tendría acceso directo a las predicciones de otros modelos más complejos”, señala el investigador. Básicamente, “hemos conectado el modelo cuántico de Rabi con otros modelos matemáticos más sofisticados que se creían muy diferentes, todo esto mediante un algoritmo matemático, es decir, mediante una serie de reglas que, además, son bastante sencillas”, añade.

Por lo tanto, “una comprensión más profunda del mecanismo operacional del modelo cuántico de Rabi nos permitiría, por un lado, lidiar de manera más precisa con los problemas técnicos que tiene el desarrollo de un ordenador cuántico”, subraya el autor del trabajo. Por otra parte, “dado que ahora tendríamos acceso de manera directa a otros modelos más allá del modelo cuántico de Rabi —comenta Casanova—, también tendríamos acceso directo a cambiar el mecanismo operacional más básico de las anteriormente citadas plataformas cuánticas, y por consiguiente de un futuro ordenador cuántico”.

Jorge Casanova señala que “más allá de las posibles aplicaciones prácticas que puedan derivarse y que sin duda son muy interesantes, como físico me parece increíble que un modelo tan sencillo siga escondiendo secretos como el que hemos encontrado”. “Es un avance inesperado, del que todavía tenemos que aprender y extraer toda la información posible para abrir nuevas vías de desarrollo en el campo de la computación cuántica”, añade el investigador de la UPV/EHU.

Referencia:

Jorge Casanova, Ricardo Puebla, Hector Moya-Cessa, Martin B. Plenio (2018) Connecting nth order generalised quantum Rabi models: Emergence of nonlinear spin-boson coupling via spin rotations Npj Quantum Information volume 4, Article number: 47 (2018) doi: 10.1038/s41534-018-0096-9

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El modelo cuántico de Rabi, un sencillo modelo para dominarlos a todos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una fórmula para dominarlos a todos: El trabajo
  2. Física de partículas en un simulador cuántico
  3. Entrelazamiento cuántico entre dos nubes de átomos ultrafríos
Categories: Zientzia

La forma fractal de mapas y pulmones

Thu, 2018/10/11 - 11:59

Los mapas isócronos son mapas que representan tiempos: en general, el tiempo que se tarda en llegar de un lugar a otro. Distintos tonos de color corresponden a distintos valores de tiempo y, en consecuencia, dos puntos del mapa del mismo color están a la misma “distancia temporal” de otro que se haya tomado como origen.

Si la superficie representada en el mapa fuese la de un terreno liso, igualmente transitable en todas las direcciones, podríamos esperar que un mapa isócrono fuese, sencillamente, una especie de diana: círculos concéntricos trazados a partir del origen elegido. En lugar de eso, el patrón que nos encontramos es este:

El vídeo, publicado por Alberto Hernando de Castro, muestra un mapa isócrono de España con origen en la Plaza Mayor de Madrid, creado con herramientas de software libre (el autor explica cómo aquí, por si queréis jugar). Pero existe una galería completa de mapas isócronos que podéis consultar: Estados Unidos, Japón, Brasil… y todos ellos tienen la misma forma. Una forma que recuerda poderosamente a la de un fractal.

No es casualidad, claro. Esta es la forma que tienen, en general, los caminos construidos por humanos mirados desde un único punto de origen (o de destino). Pero también; la forma que adopta nuestro sistema circulatorio. O las ramificaciones de nuestros pulmones. O las raíces de un árbol… Todos estos sistemas se parecen porque todos dan solución a un problema muy concreto: el problema del transporte, o de cómo cubrir una superficie (léase, un objeto de dimensión n) usando sólo líneas (de dimensión n-1).

Todos los caminos llevan a Roma… formando un precioso fractal. Fuente: Moovel Lab

Los fractales son, quizás, una de las estrellas pop de la matemática moderna y, francamente, no me extraña. Presentan un equilibrio intrigante de sencillez y complejidad, como los mejores puzzles de lógica: una premisa aparentemente fácil va escalando poco a poco y da lugar a una trama mucho más rica y minuciosa. Puede que su atractivo visual algo que ver con esto. O puede que nos hechice saber que ninguna de sus líneas se debe al capricho: cada una obedece un camino preciso, exacto, sin que ningún diseñador haya tenido que trazarlo, sin que ningún espectador vaya a poder recorrerlo por completo jamás.

A pesar de su encanto y su fama, los fractales son también grandes incomprendidos: la idea popular los pinta como objetos idénticos a sí mismos a distintas escalas. Sin embargo, esta no es una característica compartida por todos los fractales, sólo por los llamados autosimilares. Como definición, resultaría demasiado restrictiva, demasiado “ideal”. Los fractales, en cambio, nacieron en los años 70 con la ambición de describir objetos muy reales de la naturaleza, que no podían ser delimitados por las líneas suaves a las que nos tenía acostumbrado el cálculo, o la geometría. Lo que Mandelbrot tenía en mente era capturar la idea de rugosidad: como la de la costa de Gran Bretaña o, sí, como el contorno de una carretera. Para representar esta idea matemáticamente, podemos utilizar el concepto de dimensión fractal.

Fácil y divertido. O… no tanto. Veamos qué es esto: ¿qué es una dimensión?

A todos nos suena más o menos, aunque sólo sea como salmodia, que “un punto no tiene dimensiones”, que una línea recta es un objeto unidimensional, una superficie tiene dos dimensiones y los volúmenes que nos rodean ocupan un espacio de tres dimensiones (4 si consideramos el tiempo). De manera intuitiva, podemos decir que una dimensión es un parámetro de cambio que puede ser fijado mediante una coordenada. Por lo tanto, el número de dimensiones de un objeto será igual al número de coordenadas necesarias para definir un punto sobre el mismo.

Ahora bien, tomemos un fractal e intentemos poner a prueba esta idea: por simplicidad, elegiremos un fractal de los más populares, autosimilar, como el copo de nieve de Koch. A primera vista, parece ser una línea (unidimensional), por lo que debería bastar una única coordenada para definir un punto sobre ella. En este caso, claro, al no estar sobre una línea recta, nuestra coordenada será una especie de “punto kilométrico” sobre la curva.

Bien, imaginemos que buscamos el punto “1,5” de la curva, siendo sus segmentos rectos de longitud 1. Para ello, hacemos zoom y nos quedamos con un fragmento lo más sencillo posible del copo de nieve. Algo como esto:

Lo dicho ¡fácil y divertido! O… no tanto. En realidad, al intentar simplificar el problema, hemos hecho una pequeña trampa. Hemos eliminado, precisamente, la rugosidad del fractal. De hecho, si nos fijamos un poco mejor y añadimos más detalle a la curva de Koch, nos encontramos con que el punto 1,5 ya no donde lo habíamos encontrado:

Y con una tercera iteración, el punto se desplaza todavía más:

Supongo que veis adónde va a parar esto. Realmente, no es posible localizar nuestro punto de esta manera porque la longitud un fragmento cualquiera de la curva de Koch es infinito.

Como lo sería (figuradamente) el contorno de Gran Bretaña medido alrededor de cada grano de arena de su costa (o del peinado de Boris Johnson). El detalle de nuestra medida, la “escala” elegida, altera la medida misma. Esto es lo que se conoce como el efecto Richardson.

Nuestro primer intento, por tanto, no ha funcionado. Pensemos en otra manera de entender la dimensión de un objeto. Partamos, de nuevo, ejemplos conocidos: un fragmento de recta, un cuadrado, un cubo e imaginemos que queremos “pesarlos”. En este caso, se tratará de un peso imaginario, intuitivo. Podemos usar una báscula matemática de masas platónicas para medirlo, si queréis. En concreto, nos interesa saber cómo cambia la masa de estos objetos al cambiar su escala y multiplicarla por 3.

Bien: si tomamos la recta y multiplicamos su tamaño por 3, su masa se multiplicará también por 3. En el caso del cuadrado, al triplicar su escala, obtendremos un peso 9 veces mayor (dicho de otro modo: el cuadrado original cabe 9 veces en el ampliado). El cubo, pasará a pesar 27 veces más… Supongo el patrón es fácil de ver: 3=31, 9=32, 27=33. La dimensión de cada objeto nos indica a qué número debemos elevar el cambio de escala (3) para obtener el valor de la nueva masa.

¿Qué sucede entonces con la curva de Koch? Bien, en este caso, si ampliamos un fragmento de nuestro copo por 3, obtenemos un fragmento que contiene 4 veces al fragmento original. Es decir: su peso se multiplicará por 4.

Siguiendo el razonamiento del párrafo anterior, podemos calcular cuánto vale la dimensión del fractal, encontrando el valor de este exponente (x): 3x=4

¿A cuánto hay que elevar el factor de escala (3) para que el peso se multiplique por 4? La solución de la ecuación, x = log4 / log3 nos indica que la dimensión fractal de la curva de Koch no es ni 1 ni 2: es, aproximadamente, 1,26.

Esta es la magia de los fractales: su dimensión puede ser un número no entero. El infinito que llevan en su ADN (infinitas torsiones, infinitas ramificaciones) los coloca a mitad de camino entre líneas y superficies, o superficies y volúmenes. Existen, incluso, curvas ¡de dimensión fractal 2! capaces de llenar el plano. Este es el caso de la curva de Hilbert, por ejemplo, pero existen muchas otras.

Pero volvamos a los ejemplos reales. Ciertamente, nuestros pulmones no se ramifican de manera infinita ni tienen una masa platónica. Sin embargo, es precisamente su parecido con un fractal lo que les permite maximizar su superficie siguiendo un patrón de crecimiento relativamente sencillo (similar a distintas escalas). Los pulmones, como árboles invertidos (y los árboles, como pulmones invertidos), intercambian gases en la punta de cada rama, donde se encuentran los alvéolos (las hojas). La cantidad de gases que consiguen aprovechar es directamente proporcional a su superficie total. Y aquí es donde viene el dato sorprendente: aunque el volumen de los pulmones humanos es apenas de unos 4 a 6 litros, su superficie ronda los 140 metros cuadrados1, algo más de media cancha de tenis. En esto consiste, precisamente, la idea de rugosidad. Para cuantificarla, eso sí, pueden tomarse distintas aproximaciones: en el caso de los pulmones, la dimensión fractal varía, según distintos autores, entre 2,26 y 2,882.

Pulmones humanos (con sistema circulatorio a la derecha). Fotografía de Ewald Weibel, Institute of Anantomy, University of Berne.

Volviendo a las líneas del precioso mapa isócrono que, sin quererlo, se han ramificado hasta dar forma a esta digresión: se ha estimado que podrían tener una dimensión de 1,83. Resulta difícil asegurar si la fractalidad de estas carreteras se debe, quizás, a la rugosidad del propio terreno sobre el que se construyen. O si el truco radica en tomar un punto de origen sobre una red mucho más compleja. En cualquier caso, es bonito pensar que nuestros caminos son, de hecho, equivalentes a pulmones, o al sistema circulatorio de un organismo inmenso del que, sin saberlo, formamos parte. Un organismo vivo que nosotros mismos hemos ido construyendo.

Bonus track: Este es el aspecto de los ríos y sus afluentes

Referencias:

1 E.N. Marieb, K.N. Hoehn. Human anatomy and physiology.

2 K. Lamrini Uahabi and M. Atounti. New approach to the calculation of fractal dimension of the lungs

3 P. Pavón et al. Multifractal approach for comparing road transport network geometry: The case of Spain

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo La forma fractal de mapas y pulmones se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia en la cocina: Fractal de cochinilla
  2. Frank Stella, la forma del lienzo
  3. La nueva forma de enfriar que lo cambiará todo
Categories: Zientzia

La misteriosa sucesión de Kolakoski

Wed, 2018/10/10 - 11:59

William Kolakoski (1944-1997) fue un artista que se dedicó también a la matemática recreativa. Es conocido –fuera del ámbito artístico– por la sucesión que lleva su nombre y que él mismo introdujo en 1965 en la revista American Mathematical Monthly:

Imagen 1: Captura de pantalla del problema planteado en la referencia [1].

El matemático Rufus Oldenburger ya había descrito esta sucesión en 1939, aunque parece en ese momento no llamó la atención de la comunidad científica.

En este ‘problema 5304’ planteado en la American Mathematical Monthly, Kolakoski escribía los primeros términos de la sucesión, proponía describir una regla para construirla, encontrar su n-ésimo término y decidir si se trata de una sucesión periódica.

Para describirla se puede recurrir a la llamada ‘sucesión contadora’ de una dada, es decir, la sucesión formada por aquellos enteros positivos que indican el número de bloques de símbolos consecutivos iguales en la sucesión. Por ejemplo, la sucesión contadora de:

a, b, b, a, a, b, b, b, a, b, a, a, b, b,…,

es 1, 2, 2, 3, 1, 1, 2, 2…; porque el término a aparece una vez, la b dos veces, la a dos veces, la b tres veces, la a una vez, la b una vez, la a dos veces, la b dos veces,…

La sucesión de Kolakoski posee bloques de uno o dos dígitos de ‘1’ y ‘2’; los primeros son:

1, 2, 2, 1, 1, 2, 1, 2, 2, 1, 2, 2, 1, 1, 2, 1, 1, 2, 2, 1, 2, 1, 1, 2, 1, 2, 2, 1, 1,…

Su sucesión contadora es:

1, 2, 2, 1, 1, 2, 1, 2, 2, 1, 2, 2, 1, 1, 2, 1, 1, 2, 2,…,

ya que los bloques de dígitos van agrupados de la siguiente manera:

1, 2, 2, 1, 1, 2, 1, 2, 2, 1, 2, 2, 1, 1, 2, 1, 1, 2, 2, 1, 2, 1, 1, 2, 1, 2, 2, 1, 1,…

Es decir, la sucesión contadora de la de Kolakoski… ¡vuelve a ser la de Kolakoski!

Cada término de la sucesión de Kolakoski genera un ‘camino’ de uno o dos términos ‘futuros’. ¿Cómo? El primer 1 de la sucesión genera un camino de “1”, es decir, a sí mismo. El primer 2 genera el camino “2, 2” (que se incluye a sí mismo) y el segundo 2 genera un camino “1, 1” y así sucesivamente.

Construcción de la sucesión de Kolakoski. Fuente Wikimedia Commons.

En [5] se demuestra que la sucesión de Kolakoski no es periódica. En [6] el autor proporciona una fórmula recursiva para la sucesión… Pero muchos otros problemas relativos a esta sucesión quedan aún abiertos, como los siguientes:

  • dada una cadena de dígitos en la sucesión, ¿vuelve a aparecer en algún otro lugar de la sucesión?

  • dada una cadena de dígitos en la sucesión, ¿la cadena inversa también aparece en algún otro lugar de la sucesión?

  • ¿aparecen los dígitos 1 y 2 con la misma frecuencia en la sucesión de Kolakoski?

En este video del canal de YouTube de Numberphile, el divulgador Alex Bellos explica algunas de las curiosidades sobre la misteriosa sucesión de Kolakoski…



Existen numerosas variaciones –incorporando más cifras a la sucesión, o cifras diferentes, etc. (ver [4])– que añaden dificultad al tema y hacen surgir otro tipo de preguntas, muchas de ellas aún sin solución. Así avanzan las matemáticas… aumentando la dificultad de los retos y buscando nuevas ideas y diferentes técnicas que puedan ayudar a resolverlos.

Referencias

[1] William Kolakoski (1965). Problem 5304, The American Mathematical Monthly 72: 674.

[2] The Kolakoski Sequence, Futility Closet, 5 octubre 2018

[3] N. J. A. Sloane, A000002 Kolakoski sequence, The On-Line Encyclopedia of Integer Sequences (y los 10 500 primeros términos de la sucesión).

[4] Kolakoski Sequence, Wikipedia (consultado: 6 octubre 2018)

[5] Necdet Üçoluk (1966). Problem 5304, The American Mathematical Monthly 73, 681-682.

[6] Steinsky, Bertran (2006). A recursive formula for the Kolakoski sequence A000002. Journal of Integer Sequences. 9 (3).

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo La misteriosa sucesión de Kolakoski se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. John Rainwater no existe
  2. Los números (y los inversos) de Fibonacci
  3. El teorema de los cuatro colores (y 4): ¿Podemos creer la prueba de la conjetura?
Categories: Zientzia

La clasificación actual de los minerales

Tue, 2018/10/09 - 11:59

En Esa pesadilla científica llamada mineralogía dábamos una definición de mineral que nos ha servido suficientemente bien por el recorrido que hemos hecho por la historia de esta ciencia. Y, sin embargo, esa definición no es del todo correcta. Y no es exactamente correcta porque la historia tiene cosas que decir.

En los listados existen algunos minerales que, según las reglas actuales, no podrían considerarse minerales y sin embargo lo son oficialmente. Esas reglas las establece una comisión específica de la Asociación Mineralógica Internacional (IMA, por sus siglas en inglés), un organismo fundado en Madrid en 1958 y que agrupa actualmente a 40 sociedades nacionales. La AMI publica regularmente el listado de especies minerales reconocidas, listado que se ha actualizado en septiembre de 2018 y que puede ser descargado aquí. Pero vayamos por orden y veamos el origen de la clasificación actual de los minerales reconocida oficialmente.

La clasificación actual de los minerales, la 10ª Edición de la Nickel-Strunz, tiene su origen en el trabajo de Karl Hugo Strunz.

Strunz nació en Weiden (Baviera, Alemania) en 1910 y estudió ciencias naturales en la Universidad de Múnich, especializándose en mineralogía. Obtuvo una beca de investigación en la Universidad Victoria en Manchester (Reino Unido), donde trabajó con el físico y cristalógrafo William Lawrence Bragg, quien en 1912 descubrió lo que hoy se conoce como la ley de difracción de rayos X de Bragg, la base para a determinación de la estructura cristalina. Posteriormente, Strunz ocupó puestos de investigación con Paul Niggli en Zurich y Paul Ramdohr en Berlín. Ocupó cargos de profesor en la Universidad Friedrich-Wilhelm, ahora Universidad Humboldt en Berlín, en la Universidad de Ratisbona y en el Instituto de Tecnología de Berlín.

Strunz desarrolló una clasificación de los minerales que se basaba tanto en su composición química como en su estructura cristalina. Su trabajo reagrupó las categorías de James Dwight Dana en un sistema más útil, pero también más complejo.

Edición original de las “Mineralogische Tabellen” (1941) conservada en la Universidad Humboldt de Berlín. Tiene los sellos de la biblioteca con la nueva denomincación de la universidad y el de cuando entró en ella bajo el régimen nazi. Fuente: Humboldt Universität zu Berlin

Las Mineralogische Tabellen de Strunz se publicaron por primera vez en 1941, cuando era curador del Museo de Mineralogía de la Universidad Friedrich-Wilhelm. Strunz había estado clasificando la colección del museo de acuerdo con las propiedades cristalinas y químicas.

Strunz fue miembro fundador y luego presidente de la Asociación Mineralógica Internacional. Él mismo descubrió 14 nuevos minerales, y la strunzita lleva su nombre.

El sistema de Strunz se sometió a una revisión importante en 1966 y tras la colaboración con Ernest Henry Nickel para la novena edición, publicada en 2001, el sistema pasó a conocerse como la clasificación Nickel-Strunz. Actalmente está en vigor la décima edición.

La clasificación de Strunz dividía los minerales en nueve clases que se dividen aún más según la composición y la estructura del cristal. La décima edición establece 10 categorías. Estas categorías son (pueden verse con algo más de detalle aquí):

1 – Minerales elementos

2 – Minerales sulfuros y sulfosales

3 – Minerales haluros

4 – Minerales óxidos e hidróxidos

5 – Minerales carbonatos y nitratos

6 – Minerales boratos

7 – Minerales sulfatos

8 – Minerales fosfatos

9 – Minerales silicatos

10 – Compuestos orgánicos

Decíamos al comienzo que nuestra definición no es del todo correcta porque la historia tiene cosas que decir. Recordemos: Un mineral es una sustancia que:

a) existe en la naturaleza (esto incluye cualquier parte del universo) naturalmente, esto es, sin intervención humana;

b) tiene una composición química característica, aunque no tiene por qué tener una fórmula química exacta;

c) posee una estructura generalmente cristalina. Esta afirmación implica que los minerales son, en principio, sólidos, que la estructura cristalina puede tener alteraciones debido a impurezas, y que además se usa la definición actualizada de cristal (sólido con un patrón de difracción definido) lo que incluye a los cuasicristales.

Pero, si la definición incluye a los cuasicristales y los minerales extraterrestres, ¿que es lo que la clasificación de Nickel-Strunz admite que no cumple con la definición? La clave está en la condición de cristalinidad.

Existe un mineral aprobado actualmente que es un líquido a temperatura ambiente, el mercurio, que, al ser un líquido, no tiene estructura cristalina y no puede producir un patrón de difracción. De hecho existe una familia del mercurio y sus amalgamas (la 1.AD de Strunz).

También existe todo un conjunto minerales amorfos. El ópalo es, quizás, el más conocido. Ello se debe a que cuando la composición se define con precisión mediante un análisis cuidadoso, se demuestra que la sustancia es única, está en una sola fase y, a pesar de ello, se comprueba que no existe un patrón de difracción, la CNMNC (la comisión de la IMA encargada) puede considerar incluir en los listados una sustancia amorfa. Esto se hace siempre caso por caso. El ópalo, sílice hidratada (SiO2·nH2O), sin embargo, es otra de estas excepciones históricas que nunca se aprobarían como mineral bajo las normas actuales (la n indica que la composición es variable). De momento el ópalo aparece clasificado como óxido: 4.DA.10 de Strunz, pero es muy posible que en una futura edición tanto el ópalo como el mercurio pierdan su estatus.

Ya lo dijimos, la mineralogía es una pesadilla científica. Pero fascinante.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo La clasificación actual de los minerales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Clasificación y origen, los dos problemas de la mineralogía
  2. Esa pesadilla científica llamada mineralogía
  3. Ácidos minerales y alquimistas europeos
Categories: Zientzia

Modalidades de alimentación

Mon, 2018/10/08 - 11:59

Los animales necesitan obtener de su entorno ciertas moléculas orgánicas para construir y renovar sus propias estructuras. Además también necesitan un suministro de energía que les permita desarrollar las actividades que les son propias. Esa energía la obtienen también de moléculas orgánicas, algunas de ellas coincidentes o muy similares a las que se utilizan como sillares de construcción de sus estructuras. Las moléculas que obtienen los animales de su entorno son, principalmente, carbohidratos, grasas y proteínas. Una vez adquiridas, las fragmentan hasta disponer de ellas en forma de sus unidades constitutivas, que son azúcares simples, ácidos grasos y aminoácidos, que es la forma en que serán utilizadas bien para renovar y construir las estructuras corporales propias, bien para degradarlas metabólicamente para sintetizar moléculas utilizables como moneda de intercambio energético; se trata, principalmente, de trifosfato de adenosina (ATP), molécula cuyos enlaces fosfato contienen la energía que se utiliza en las células para desarrollar trabajo biológico cuando es necesario. Además de componentes estructurales y sustratos para la obtención de energía, los animales han de ingerir ciertas vitaminas y oligoelementos que son esenciales para el normal funcionamiento del organismo.

Se denomina alimento al conjunto de sustancias que se adquieren con los fines dichos. Y el procesamiento para la posterior utilización incluye su adquisición, su digestión y la absorción de los productos de la digestión.

Los primeros animales realizaban la digestión dentro de las células, pero esa forma de proceder está limitada por el pequeñísimo tamaño que han de tener las partículas de alimento para su introducción en el interior celular. Esa limitación se pudo salvar cuando aparecieron estructuras específicas en forma de saco o de tubo y abiertas al exterior, en cuyo interior pudieron digerirse los alimentos. Los cnidarios, por ejemplo, tienen una cavidad general tapizada por un endodermo interno llamado gastrodermis, que se abre al exterior por un orificio (que hace funciones de boca) en cuyo perímetro se disponen una serie de tentáculos de los que se sirve el animal para atrapar el alimento y llevarlo a la boca.

En otros grupos de posterior aparición, el fondo del saco se abrió al exterior dando lugar a un tubo y un segundo orificio. El orificio inicial era la boca y el segundo, el ano. El tubo resultante era un aparato digestivo cuyas células epiteliales fueron evolucionando y dando lugar a áreas especializadas en diversas funciones. Así, las células especializadas en la digestión ácida quedaron en un compartimento separado de la zona en que quedaron las células especializadas en la digestión alcalina. Además, otras áreas se dedicaron a la recepción y almacenamiento inicial del alimento, y otras al procesamiento de los residuos. De esta forma, no todo el alimento ingerido tiene por qué ingresar en las células digestivas, quedando el material indigerible fuera de ellas.

Se han desarrollado formas muy diversas de adquirir el alimento, formas que están relacionadas, a su vez, con las características del mismo. Aunque como ocurre con muchas otras clasificaciones, también en lo relativo a la alimentación las categorías tienen fronteras no muy bien definidas, los modos de alimentación pueden clasificarse de acuerdo con las categorías que se presentan a continuación.

Comedores de fluidos. Entran en este grupo todos aquellos que succionan fluidos de plantas o animales de mayor tamaño que ellos mismos. Aquellos que permanecen unidos durante largos periodos de tiempo al organismo del que se alimentan son considerados parásitos. Moscas blancas, cochinillas y pulgones se alimentan de la savia de las plantas; vampiros, mosquitos, y sanguijuelas, de la sangre de animales; y luego están los que, como las tenias y otros parásitos intestinales, se alimentan de jugos intestinales.

Filtradores (o suspensívoros). Son aquellos cuyo alimento se encuentra en suspensión en una masa de agua; lo atrapan haciendo pasar el agua por un cedazo en ingiriendo lo que queda retenido en él. El alimento pueden consistir en bacterias, microalgas unicelulares, partículas detríticas, protozoos, y hasta pequeños animales, como los crustáceos eufasiáceos (krill) que sirve de alimento a las ballenas. Entre la macrofauna, los filtradores más abundantes son los bivalvos, que se alimentan de todo tipo de partículas de materia orgánica en suspensión. A este grupo pertenecen, entre otros, esponjas, copépodos, poliquetos, bivalvos y ballenas.

Sedimentívoros. Son los que se alimentan de partículas de sedimento en el que abunda la materia orgánica, normalmente de carácter detrítico. De hecho, en ocasiones se utiliza la denominación “detritívoro” para referirse a los sedimentívoros. La mayor parte de los sedimentívoros son, como la mayoría de los suspensívoros, micrófagos, porque ingieren partículas microscópicas. En este grupo se encuentran los gusanos de tierra (oligoquetos, por ejemplo), o algunos bivalvos y holoturias.

Herbívoros. Se consideran parte de este grupo a aquellos animales macrófagos (que capturan trozos macroscópicos de alimento) que se alimentan de materia vegetal predominantemente (algas, plantas, frutas o semillas, sobre todo). Dado que una parte importante de los materiales que sirven de alimento a los herbívoros es difícil de digerir, no es extraño que muchos herbívoros hayan desarrollado modalidades de digestión en las que intervienen microorganismos simbiontes. Los rumiantes, como las vacas, han recurrido a una fermentación pregrástrica a cargo de diferentes microbios que ponen a disposición del animal sustancias que de otra forman no estarían a su alcance. Otros, como caballos y conejos, cuentan con un dispositivo para la digestión microbiana simbióntica que se encuentra en el intestino posterior, ya sea el colon del animal, ya en sacos intestinales ciegos.

Carnívoros. Como los anteriores, también estos son macrófagos. Capturan presas animales y las ingieren, a veces troceándola, como el león, y en otras ocasiones introduciéndola entera en su aparato digestivo, como la serpiente pitón.

Omnívoros. Los omnívoros son los que consumen indistintamente material vegetal o animal, aunque su sistema digestivo se asemeja más al de los carnívoros que al de los herbívoros. Los cerdos y los seres humanos entramos dentro de esta categoría.

Animales con simbiontes autótrofos en sus tejidos. Algunos ejemplos son los cnidarios (corales) con dinoflagelados simbiontes (fotosintetizadores) en su interior que proporcionan al hospedador parte de su alimento; o los anélidos siboglínidos que habitan los entornos de fuentes hidrotermales sulfurosas en fondos oceánicos, y que contienen bacterias quimiolitotrofas que proporcionan al gusano todo el alimento que necesita.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Modalidades de alimentación se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las actividades animales
  2. Sistemas nerviosos: evolución del tamaño encefálico
  3. El balance energético animal
Categories: Zientzia

Los ‘Lugares de Encuentro’ de Chillida y la importancia de la restauración.

Sun, 2018/10/07 - 11:59

Preámbulo:

Desde el celebérrimo Ecce Homo de Borja hemos visto cómo, de tanto en tanto, desastrosas intervenciones realizadas sobre obras de arte de gran valor se convierten en noticia. Son tan sólo una muestra más del descuido al que se ve sometido parte de nuestro patrimonio cultural que debería ser atendido exclusivamente por profesionales de la Conservación-Restauración. Con el fin de aumentar la visibilidad de esta profesión, ACRE (Asociación Profesional de Conservadores Restauradores de España) ha impulsado una serie de eventos que se realizarán a lo largo de esta semana con motivo del Día Europeo de la Conservación-Restauración a celebrarse el próximo 14 de octubre. No dudéis en visitar la página web para consultar si hay alguna actividad programada en vuestra ciudad. Desde KimikArte nos queremos unir a esta iniciativa dando a conocer uno de los muchos trabajos que realizó el Departamento de Conservación y Restauración del Museo de Bellas Artes de Bilbao durante el 2017. Porque aunque las intervenciones que no acaban arruinando obras de arte rara vez aparecen en los medios son las que realmente deberíamos visibilizar.

Imagen 1. Eduardo Chillida y su obra. Fuente: Foto Archivo Eduardo Chillida Copyright Zabalaga-Leku, VEGAP, Madrid (2018). Courtesy of The Estate of Eduardo Chillida and Hauser & Wirth.

Se suele pensar que los museos son edificios impasibles al paso del tiempo, quizás porque su función habitual es albergar obras de arte que pretenden perdurar eternamente. Pero lo cierto es que son lugares en constante cambio, cambios que van mucho más allá que la inauguración de una exposición temporal o la adquisición de una nueva obra. Si no, que se lo pregunten al Museo de Bellas Artes de Bilbao cuyo edificio antiguo fue construido en 1945 con un claro porte clásico. En los 70 se realizó una ampliación en la que se añadió un edificio de estilo mucho más moderno. La última ampliación llegó con el cambio de milenio y sirvió para integrar mejor ambos edificios. Tiene mérito que con 55 años de diferencia entre construcciones se mantenga una cohesión arquitectónica. Sin embargo, alguien que visitase el museo en 1999 difícilmente reconocería el espacio que alberga el hall hoy en día. Uno de los principales motivos sería que una gran pieza de hormigón que habitaba en ese lugar desapareció para crear un espacio mucho más diáfano (Imagen 2). Pero dicha obra no ha abandonado el museo o, por lo menos, no del todo. Ahora flanquea una de sus dos entradas, sirviendo de perfecto contrapunto a Euterpe, la musa que se encarga de guardar la otra. Hablamos de Lugar de Encuentros IV, una creación del inconfundible Eduardo Chillida. Por supuesto, el cambio de hábitat expuso la pieza a unos cambios de temperatura más bruscos y la privó de abrigo contra las constantes lluvias. Teniendo en cuenta esas nuevas condiciones el equipo de Conservación y Restauración del museo bilbaíno prestó especial atención al cuidado de la obra, hasta que en 2017 se tomó la decisión de llevar a cabo un proceso de restauración.

Imagen 2.Lugar de Encuentros IV” en la primera planta del Museo de Bellas Artes antes de la reforma del edificio (1989).] Fuente: El Correo Digital

La obra

Como ya habréis intuido, si nuestra protagonista se llama Lugar de Encuentros IV es porque no es única en su especie. El escultor donostiarra concibió una serie de obras como “espacios para el diálogo y la convivencia”. La primera de ellas la elaboró en 1964 en madera de roble y se expuso en Nueva York, aunque ahora es propiedad del Museo Peggy Guggenheim de Venecia. La segunda escultura la creó en acero en 1971 y decora la Plaza del Rey de Madrid. En la misma ciudad encontramos Lugar de Encuentros III (1972), también conocida como La Sirena Varada, que cuelga de un puente que atraviesa la Castellana y es parte del Museo de Arte Público. Con esa obra, que no estuvo exenta de polémica, Chillida inicia la construcción de esculturas de hormigón de gran tamaño. Así, en 1973 nace nuestra protagonista de hoy, junto con Lugar de Encuentros V que se puede disfrutar en Toledo. Ambas se fabricaron con el mismo encofrado, pero la “gemela” castellana reposa sobre una base cilíndrica en posición inversa. Chillida todavía realizaría una obra más para la Fundación Juan March en Madrid (1974) y remataría su serie con Lugar de Encuentros VII (1974) en Palma de Mallorca. Como podéis ver en la Imagen 3, todas estas obras son un juego de curvas y rectas con las que el artista genera un espacio interior. En sus propias palabras: “Para definir esos espacios interiores es necesario envolverlos, haciéndolos casi inaccesibles para el espectador situado al exterior… yo aspiro a definir lo tridimensional hueco por medio de lo tridimensional lleno, estableciendo al mismo tiempo una especie de diálogo entre ellos”.

Imagen 3. Los siete “Lugares de Encuentro”. Fuentes: I: Fundación Peggy Guggenheim; II: Arte de Madrid; III: Luís Garcia, IV: Museo de Bellas Artes de Bilbao; V: Arantxa Castaño; VI: Tnarik Innael; VII: Panoramio.

Pero centrémonos ahora en Lugar de Encuentros IV. Chillida sigue el camino que había iniciado con su predecesora, donde debemos de destacar dos aspectos. Primero, desde un punto de vista artístico, la idea de que la escultura esté sujeta por cables que permiten que levite a 60 centímetros del suelo, logrando sensación de ingravidez. Segundo, desde una perspectiva técnica, el uso del hormigón como material artístico que sería recurrente en otras obras del donostiarra. Como siempre, el material empleado es de especial importancia, sobre todo a la hora de abordar un proceso de restauración, como veremos a continuación. Se podría hablar largo y tendido sobre el hormigón en el arte, pero quedémonos con lo esencial: es una mezcla de cemento (el aglomerante) y áridos que tras mezclarse con agua se fragua (gracias al cemento) para formar un material pétreo. Para más información os recomiendo encarecidamente visitar la entrada de Deborah García Bello que tiene como protagonista otra obra de Chillida: El Elogio del Horizonte.

Lugar de Encuentros IV tiene unas dimensiones de 215 x 475 x 408 cm y pesa más de 16 toneladas. Para crear una obra de tan espectaculares dimensiones Chillida contó con la colaboración del ingeniero José Antonio Fernández Ordoñez. A la escultura se le dio forma mediante un encofrado de madera permitiendo que el hormigón fraguara alrededor de una armadura metálica. Tras el fraguado Chillida aplicó ácido sobre el hormigón con lo que cambió la textura y matizó el color. El resultado final es una obra llena de contrastes: es de rudo hormigón, pero delicada; su peso es dantesco, pero levita y su masa es grande, pero crea vacío. La escultura lleva en el museo desde que el artista la donase en 1982. Entonces se colocó en la planta baja (lo que hoy es el hall de entrada), para moverse, como ya hemos dicho antes, al exterior en el año 2000, en ambos casos bajo la atenta supervisión del escultor.

Imagen 4. Fotografías del proceso de elaboración de “Lugar de Encuentros”: Encofrado y armadura (i). Proceso de desencofrado (ii y iii). Aplicación del ácido sobre el hormigón (iv).] Fuente: Foto Archivo Eduardo Chillida Copyright Zabalaga-Leku, VEGAP, Madrid (2018). Courtesy of The Estate of Eduardo Chillida and Hauser & Wirth.

El deterioro y el estudio previo

Lugar de Encuentros IV sobrepasaba ya los 40 años cuando el museo decidió someterlo a un proceso de restauración. Pero, antes de afrontar intervenciones de este, lo primero que nos debemos preguntar es: ¿por qué se está produciendo el deterioro? Para contestar tenemos que entender la composición química de la obra de arte y su interacción con los factores externos. En el caso de la estructura de Chillida, dos son las principales causas: la colonización biológica y, por encima de todo, la carbonatación del hormigón. Una vez producida la hidratación y fraguado del cemento que sirve de aglomerante en el hormigón, el producto resultante tiene un elevado pH debido a la gran cantidad de hidróxido cálcico. Cuando este compuesto entra en contacto con el dióxido de carbono (proceso que sucede en disolución) se forma carbonato cálcico. Esta reacción química tiene dos consecuencias que pueden resultar nefastas. Por una parte aumenta la porosidad del hormigón, lo que facilita la penetración del agua y, por otra, disminuye el pH, lo que permite que el hierro de la armadura se oxide. Debido a esta oxidación la armadura aumenta su tamaño y provoca grietas en la estructura que pueden ocasionar las pérdidas que alguna vez habréis observado en alguna construcción de hormigón.

Imagen 5. Crecimiento biológico sobre el hormigón (izquierda) y armadura visible tras retirar una reposición inhábil de hormigón (derecha). Fuente: Cortesía del Museo de Bellas Artes de Bilbao.

Para conocer mejor las propiedades físicoquímicas de la obra y su estado de deterioro se sometió a diversos análisis técnicos, siempre sobre trozos que se habían desprendido, para no perjudicar a la escultura El estudio petrográfico sirvió para saber que el árido que forma el hormigón se podía dividir en dos fracciones: una gruesa compuesta por material calcáreo (gran cantidad de carbonato cálcico) y una más fina que contenía principalmente silicatos y rocas metamórficas. Además, mediante difracción de rayos X se obtuvo información valiosísima sobre la composición química del hormigón. Así, se detectaron compuestos silíceos del árido y aluminosilicatos que apuntan al uso de cemento portland y aluminoso. Además, se observó que la temida carbonatación del cemento se había producido, por lo menos en la muestra analizada.

La restauración

Una vez se conocía perfectamente la obra, era el momento de comenzar con la intervención. Para ello el museo contó con la ayuda de Instituciones y expertos en el campo; a destacar la colaboración con Javier Chillida, especialista en la conservación y restauración de este tipo de materiales y con amplia experiencia en obras de Eduardo Chillida. Como estáis viendo, el trabajo que lleva restaurar una sola obra es más complejo de lo que podríamos pensar, y eso que todavía no le hemos puesto la mano encima. Vamos allá.

El primer paso fue colocar un andamio alrededor de la escultura, ya que si no sería imposible llegar a todos los puntos en los que hay que intervenir. A continuación, con sumo cuidado y la ayuda de brochas o pequeños aspiradores, se realizó una limpieza superficial en la que se quitaron desde hojas a excrementos de aves. Así, la obra estaba lista para recibir el primer tratamiento químico: la aplicación de un biocida que serviría para eliminar esa capa verdosa que podemos apreciar en tantos superficies (formada por musgos y líquenes). Se dejó actuar al biocida durante un día cubriendo la obra con polietileno y posteriormente se procedió a la limpieza.

Imagen 6. Antes y después de la aplicación del biocida. Fuente: Cortesía del Museo de Bellas Artes de Bilbao.

Como la obra ya había sido sometida a otras intervenciones, antes de proceder con la restauración se decidió eliminar reintegraciones anteriores. Es decir, se quitaron adiciones que se habían realizado para sustituir a las pérdidas de hormigón. A continuación se eliminó el óxido que se había creado sobre todas las partes de la estructura de hierro que quedaban al descubierto. Para ello se empleó una herramienta rotativa equipada con cepillos de acero, siempre dejando una pequeña capa de óxido para que hiciera las veces de protector. Los trozos de metal se limpiaron con etanol y se les aplicó una disolución que contenía ácido tánico. Quizás os preguntéis cómo puede un ácido evitar la corrosión si antes hemos dicho que el descenso del pH era perjudicial para la armadura interior. Pues bien, en este caso no tenemos que centrarnos en ese parámetro. En algunos metales la aparición de óxidos forma una capa sobre la superficie del metal que impide que siga en contacto con el oxígeno. En esa situación hablamos de pasivación, ya que el metal no seguirá oxidandose. En el caso del hierro, dicha capa no es homogénea y no cumple una misión protectora frente al agua y el oxígeno. Sin embargo, el compuesto que se forma entre los iones de hierro y los taninos sí que crea una película protectora, de ahí que se emplee como agente pasivante. El uso de esta reacción entre hierro y taninos quizás os suene por su papel en la tinta ferrogálica.

Pero no nos vayamos por las ramas y sigamos con la intervención sobre Lugar de Encuentros. Ya tenemos la obra limpia, libre de plagas biológicas y reintegraciones anteriores y el hierro visible está pasivado. A todos aquellas partes metálicas que no iban a ser tapadas posteriormente se les puso una protección más: una resina acrílica que se aplicó con pincel. La obra estaba en este punto lista para el proceso de consolidación y reintegración. Las grietas y fisuras se rellenaron con una mezcla de cemento y agua (lechada) que contenía una pequeña cantidad de resina acrílica. Por supuesto, antes de aplicar esa lechada se estudió si podría haber pérdidas durante la aplicación. Si no, podría haber sido como intentar llenar una botella agujereada. Dicho proceso se realizó con una disolución de agua y alcohol, y allí donde se observaron fugas se taparon con un mortero especialmente elaborado para tal propósito.

Imagen 7. Aplicación de la lechada mediante una jeringuilla. Fuente: Cortesía del Museo de Bellas Artes de Bilbao

Además de fisuras y grietas, la escultura tenía una pérdida de un tamaño destacable que supuso un desafío mayor. Se decidió realizar una reintegración empleando un hormigón lo más parecido posible al original. Para ello se realizaron varias pruebas y finalmente se empleó un mortero que contenía, entre otros áridos, mármol rojo de Alicante como el que usara Chillida. Por último, se realizó una reintegración cromática o, en otras palabras, se homogenizó el color del mortero aplicado con el de la obra aplicando con pincel una pintura acrílica con pigmentos.

Imagen 8. Aplicación del mortero sobre la pérdida (i). Reposición antes de secarse (ii). Reposición seca (iii). Reposición reintegrada (iv). Fuente: Cortesía del Museo de Bellas Artes de Bilbao.

Tras la reintegración cromática la intervención estaba prácticamente completada, pero como es mejor prevenir que curar (o conservar que restaurar), se aplicó sobre la superficie un hidrofugante. Es decir, un producto que servirá de impermeable a la obra y que, en este caso, es un producto nanotecnológico. También se aplicó biocida nuevamente para retrasar el crecimiento de hongos y líquenes y se dieron los últimos retoques de color con acuarela y pintura acrílica.

Y hasta aquí el proceso de restauración de Lugar de Encuentros IV que, como habéis visto, va mucho más allá de preparar un poco de cemento y ponerlo de mala manera sobre los agujeros. Es un proceso que ha implicado a un gran número de profesionales que han trabajado con rigurosidad y cuyas indagaciones servirán sin duda para futuras intervenciones en otras obras de Chillida. Como colofón os dejo un video en el que podéis ver cada uno de los pasos que he tratado de explicar.

Imagen 9. “Lugar de Encuentros IV” en su emplazamiento actual. Fuente: Cortesía del Museo de Bellas Artes de Bilbao.

Agradecimientos

Me gustaría agradecer a todos los miembros del Departamento de Conservación y Restauración del Museo de Bellas Artes de Bilbao su total predisposición a compartir el trabajo que realizan, especialmente a Maria José Ruíz-Ozaita y a Sandra Rodríguez por el tiempo empleado en las explicaciones. Del mismo modo quiero agradecer al Museo y a la Sucesión Chillida su gentileza al darnos permiso para emplear las imágenes que aparecen en este artículo.

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

Nota: Si se pretende republicar este artículo se debe solicitar permiso expreso de los titulares del copyright de cada una las imágenes antes de reproducirlas.

El artículo Los ‘Lugares de Encuentro’ de Chillida y la importancia de la restauración. se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El Elogio del Horizonte de Chillida, un encuentro entre ciencia y arte
  2. Arte & Ciencia: La importancia de la ciencia para la conservación del arte
  3. El Peine del Viento de Chillida: materia, forma y lugar
Categories: Zientzia

Helena Matute: “Los algoritmos nos ganan en cualquier partida que juguemos contra ellos”

Sat, 2018/10/06 - 11:59

La catedrática de Psicología Experimental Helena Matute explica cómo las grandes empresas de internet utilizan los conocimientos sobre la conducta humana y el aprendizaje para influir en los usuarios

Qué difícil es explicar las leyes del condicionamiento instrumental y su relación con los algoritmos de internet en apenas diez minutos, pero la catedrática de Psicología Experimental en la Universidad de Deusto Helena Matute no ha temido el desafío.

El escenario escogido fue la octava edición de Naukas, el evento de divulgación científica que llenó Bilbao de conocimiento del 13 al 16 de septiembre en el Palacio Euskalduna de la capital vizcaína.

En la charla “Humanos, algoritmos y otros bichos”, Matute relató cómo los psicólogos Edward Thorndike y B.F. Skinner hicieron una contribución capital a la ciencia en el siglo XX. Así sus experimentos y ensayos culminaron en las leyes del aprendizaje humano y del condicionamiento instrumental. Esas teorías, para las que se usaron gatos que tenían que conseguir salir de una caja a cambio de un premio, llegaban a la conclusión de que el proceso de aprendizaje está relacionado con las consecuencias derivadas de nuestras acciones, por lo que una conducta que desencadena un resultado positivo o consigue una recompensa se repetirá y, ¡ojo!, también al revés.

Imagen: Helena Matute, catedrática de Psicología Experimental en la Universidad de Deusto, durante su charla en Naukas Bilbao 2018. (Fotografía: Iñigo Sierra)

“Toda conducta que va seguida de consecuencias agradables tenderá a repetirse. Toda conducta que no vaya seguida de consecuencias agradables tenderá a extinguirse. Es como la evolución, pero en comportamiento”, explicó la experta.

Pero ¿qué relación guardan estas teorías con los mecanismos de aprendizaje de la inteligencia artificial y los algoritmos de internet?

En la actualidad los grandes gigantes de la red como Amazon, Google o Facebook emplean los frutos de esas investigaciones psicológicas para afinar sus algoritmos y mejorar las funciones de los motores de búsqueda, pero también para influir en el usuario y motivar comportamientos.

“Todos los principios de modificación de conducta se están aplicando a día de hoy. Cosas que hemos estudiado los psicólogos creyendo que eran para el beneficio de la humanidad, investigaciones que hemos desarrollado para contribuir al progreso, se están utilizando para meternos dentro de esa caja de Skinner gigantesca”, alertó.

La experta relató cómo las compañías más influyentes en la red disponen de equipos formados por grandes profesionales que están volcando todo el conocimiento atesorado durante décadas sobre la psicología de la personalidad, de la persuasión y de las emociones, así como las teorías de modificación de la conducta y de sesgo cognitivo, con objetivos de los que no hemos sido debidamente informados.

“Lo que están haciendo los psicólogos y los ingenieros (que trabajan para los gigantes de internet) es desarrollar algoritmos que exploten nuestros sesgos, que exploten nuestras debilidades”, razonó.

Imagen: Helena Matute en otro momento de su charla en Naukas Bilbao 2018. (Fotografía: Iñigo Sierra)

En opinión de Matute se trata de un círculo vicioso, porque el algoritmo aprende de los humanos y aprovecha ese aprendizaje para influir posteriormente sobre sus actos.

“Decimos al algoritmo lo que nos gusta continuamente, lo reforzamos y nos da más. Nos ponen un titular loco y lo retuiteamos. El siguiente que nos ponen es todavía más loco. Da igual lo que haya detrás o si refleja una realidad verdadera”, añadió la catedrática, quien advirtió: “Los algoritmos aprenden, recordad que nos ganan en cualquier partida que juguemos contra ellos porque han aprendido de nosotros”.

Sin embargo, Matute, que dejó claro que el problema nunca es la tecnología, sino el mal uso que pueda derivarse de los avances científicos y tecnológicos, se mostró esperanzada con el futuro.

“Esto acaba de empezar, no vengamos con eso de que ya no podemos hacer nada. Estamos empezando. Tenemos que hacer algo, tenemos que volver a equilibrar la balanza. Tenemos que conseguir, entre todos, que toda esa inteligencia artificial que se ha desarrollado para el progreso humano (…) se reoriente y vuelva a tener interés para la especie humana”, concluyó.

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Helena Matute: “Los algoritmos nos ganan en cualquier partida que juguemos contra ellos” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Helena Matute: “Sería un error pensar que los robots van a limitarse a tareas rutinarias.”
  2. Coloquios escépticos: Medicinas alternativas, con Helena Matute
  3. Algoritmos de triaje para readmitidos en urgencias
Categories: Zientzia

La paleodieta de una aldea visigoda

Fri, 2018/10/05 - 11:59

El equipo encabezado por Maite Iris García Collado, de la UPV/EHU, ha reconstruido la dieta de la población que habitaba la aldea de Boadilla, un asentamiento de campesinos de época visigoda (siglos VI-VIII e.c.) situado a las afueras del actual municipio de Illescas, en Toledo. El análisis biomolecular ha permitido no sólo reconstruir cómo se alimentaba un grupo de población, sino que ha demostrado ser una alternativa real para historiar conjuntos antropológicos que tendrían escaso potencial si sólo se estudiaran mediante métodos tradicionales.

Maite Iris García Collado. Foto: Nuria González – UPV/EHU

El objetivo de la investigación era comprobar hasta qué punto las técnicas de arqueología biomolecular pueden ser una alternativa útil para obtener nuevos datos sobre diversos aspectos sociales y económicos de las sociedades rurales de la Península Ibérica en la Alta Edad Media y así devolver el valor histórico a esos conjuntos antropológicos.

Para ello, por un lado, se realizó un estudio antropológico tradicional para determinar el tamaño de la población enterrada en Boadilla y su perfil demográfico (edad y sexo), lo cual determinó que se trataba de una población estable en la que estaban representadas todas las categorías de edad. Por otro lado, se llevaron a cabo los análisis de isótopos estables de carbono y nitrógeno de una parte de la población seleccionada aleatoriamente. “Esta técnica se basa en la premisa de que la composición química de los alimentos que tomamos queda reflejada en la composición química de los tejidos de nuestro organismo. Por lo tanto, analizando la composición de los restos antropológicos de una población arqueológica, podemos conocer su dieta”, explica García Collado.

Se sabe poco sobre los hábitats rurales de esa época porque las fuentes escritas apenas cuentan nada sobre ellos y los restos arqueológicos que dejaron son escasos y poco visibles. “En ese tipo de contextos son frecuentes los cementerios que ocupan grandes extensiones, con tumbas que forman hiladas irregulares, en las que se inhumaban una o varias personas sucesivamente, a menudo acompañadas de distintos tipos de objetos”, comenta la investigadora. Sin embargo, el material antropológico procedente de esos cementerios, es decir, los huesos y los dientes de las personas que habitaron esas aldeas, no han recibido mucha atención, porque frecuentemente están fragmentados y mal conservados. Eso ha sido un obstáculo para el conocimiento de esas poblaciones, ya que se asumía que la información que se podía sacar de sus restos antropológicos era muy escasa. Ahora, con esta investigación, se demuestra que la aplicación de ese tipo de análisis permite no sólo reconstruir la dieta de un grupo de población, sino que constituye una alternativa real para historiar conjuntos antropológicos que tendrían escaso potencial si sólo se estudiaran mediante métodos tradicionales.

La alimentación de la población enterrada en Boadilla, según los datos aportados por el análisis de los isótopos de carbono, estaba basada en cereales de invierno, una categoría que incluye el trigo, la cebada, el centeno o la avena. No obstante, los cereales de ciclo corto, que en esta cronología están restringidos al mijo y el panizo, también formaban parte importante de la dieta de esa comunidad. “Esto es relevante porque este y otros estudios anteriores apuntan a que la producción y el consumo de esos cereales menores podría ser un rasgo característico de grupos de campesinos con cierta autonomía y control sobre su producción. Los mijos son cereales muy nutritivos y eficientes ecológicamente, pero que tradicionalmente han sido poco apreciados. Por eso no responden a las lógicas en las que un poder superior controla los productos que se cultivan, sino que tienen más sentido en contextos en los que los propios campesinos pueden decidir diversificar sus cosechas”, destaca García Collado.

En cuanto a las proteínas de origen animal (carne, huevos, leche, lácteos) que se han podido detectar a través de los isótopos de nitrógeno, su consumo sería limitado y ocasional. Asimismo, se ha podido descartar el consumo de pescado.

A partir de ahí, se analizó la variabilidad en la dieta dentro de la población. “No detectamos ninguna diferencia en cuanto al consumo de cereales a lo largo de las diferentes categorías de edad. Sin embargo, sí que identificamos una pauta en lo que respecta al consumo de proteínas de origen animal”, comenta la investigadora de la UPV/EHU.

Según los resultados de los isótopos de nitrógeno, los individuos más jóvenes (entre 2 y 8 años) eran los que menos productos de origen animal consumían. El consumo de carne, huevos, lácteos y otros productos derivados se incrementaba ligeramente entre los 8 y los 14 años, para ponerse a la misma altura que los adultos durante la adolescencia (a partir de los 14 años). “Eso quiere decir que el acceso a ese tipo de productos estaba condicionado por la edad y que los individuos más jóvenes tenían un acceso muy restringido a ellos. Además, nos indica que era a partir de los 14 años aproximadamente cuando los adolescentes empezaban a ser tratados como adultos”, puntualiza.

Otra cuestión interesante investigada fue la existencia de diferencias en la alimentación entre los individuos enterrados con objetos de adorno personal o herramientas de uso cotidiano y los que se enterraron sin nada de ello. “A menudo, se ha considerado que esos objetos, que en ocasiones se depositaban junto a los cuerpos, podrían denotar la posición social del individuo. No obstante, de ser así, no habría habido diferencias significativas entre la dieta de los individuos más y menos relevantes”, concluye García Collado. Además, se pudo comprobar que las dietas de los individuos enterrados dentro de la misma tumba tendían a ser similares, un argumento a favor de la hipótesis de que esas estructuras funerarias se usasen como panteones de grupos familiares extensos.

Por último, también se analizó un conjunto de muestras de animales domésticos, ya que determinar las pautas alimenticias de esos animales es útil para caracterizar la ganadería que se practicaba en esa aldea. “El resultado más interesante es que se practicaban diferentes estrategias para cada especie. Las vacas, las ovejas y las cabras probablemente pastaban en tierras cercanas a la aldea, lo cual contribuía al abonado de los campos de cultivo. En cambio, seguramente los caballos eran enviados a pastos abiertos más alejados del asentamiento”, explica la investigadora.

Referencia:

Maite I. García-Collado, Paola Ricci, Raúl Catalán Ramos, Simona Altieri, Carmine Lubritto, Juan Antonio Quirós Castillo (2018) Palaeodietary reconstruction as an alternative approach to poorly preserved early medieval human bone assemblages: the case of Boadilla (Toledo, Spain) Archaeological and Anthropological Sciences (Julio 2018) doi: 10.1007/s12520-018-0672-0

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo La paleodieta de una aldea visigoda se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los vegetales de la dieta neandertal
  2. Consumo de carnes rojas y ubicación del cáncer en mujeres
  3. Si consumes cocaína tienes cuatro veces más probabilidades de morir de repente
Categories: Zientzia

A nadie le preocupan las grasas trans

Thu, 2018/10/04 - 11:59

Hemos encontrado evidencia científica suficiente como para afirmar que el consumo de grasas trans afecta a nuestra salud, sobre todo a lo relativo a nuestra salud cardiovascular. Es por eso que en 2020 no podrán comercializarse alimentos con grasas trans en Canadá[1]. En 2015 se prohibieron en EEUU, con un plazo de retirada que finaliza en 2018. En Dinamarca, Austria, Letonia y Hungría, solo se permite una cantidad muy limitada. En cambio, en la mayoría de los países de la Unión Europea, incluida España, no existe ninguna ley que lo regule.

La Organización Mundial de la Salud recomienda que el consumo de grasas trans no supere el 1% de las calorías ingeridas. La Food and Drug Administration (FDA) recomienda una ingesta tan baja como sea posible. En Europa, algunos países, como los nórdicos, han dictado sus propias normas y recomendaciones, sin embargo, la European Food Safety Authority (EFSA) solamente indica que el consumo debe ser lo más bajo posible.

A pesar de la limitada regulación, la presencia de grasas trans en los alimentos es cada vez más pequeña y consumimos menos del 1% que establece la OMS, por eso no tendríamos que preocuparnos por ellas.

  • Efecto sobre la salud de las grasas trans

Las primeras evidencias de los efectos adversos de las grasas trans sobre la salud se publicaron en la década de los 90, cuando diversos estudios realizados en humanos mostraron que su ingesta aumentaba el riesgo de padecer alteraciones cardiacas tanto o más que las grasas saturadas. Desde entonces, se han publicado múltiples estudios científicos llegando a las mismas conclusiones: un aumento de un 2% de la energía a partir de grasas trans incrementa significativamente el riesgo de sufrir enfermedades cardiovasculares hasta en un 23 %. [2][3][4]

El efecto negativo de las grasas trans sobre la salud cardiovascular se debe a que producen alteraciones en el metabolismo de las lipoproteínas: su ingesta está relacionada con el aumento de la concentración de colesterol total y colesterol LDL en sangre (el malo) y con la disminución del colesterol HDL (el bueno).

Se continúan haciendo estudios sobre la posible implicación del consumo de grasas trans en el desarrollo de otras enfermedades, como la diabetes tipo 2, entre otras. Aunque todavía se desconocen los mecanismos por los cuales las grasas trans disminuyen la sensibilidad a la insulina. [5]

  • Qué son las grasas trans

La denominación trans no tiene nada que ver con los transgénicos, sino que se corresponde con la nomenclatura que utilizamos los químicos para un tipo de enlace.

Los ácidos grasos (coloquialmente denominados grasas) son moléculas formadas por una cadena hidrocarbonada (carbonos unidos entre sí como las cuentas de un collar) y un extremo denominado ácido carboxílico. La cadena hidrocarbonada es la que hace que unos ácidos grasos sean diferentes a otros: puede ser más larga o más corta, y puede presentar carbonos unidos por un enlace simple o por un enlace doble.

Si el ácido graso presenta algún enlace doble, estaremos ante una grasa insaturada. Si no hay ningún enlace doble (si son todos simples) estaremos ante una grasa saturada.

Por norma general, las grasas saturadas son las que debemos evitar en la dieta, puesto que son las que hemos relacionado con ciertas cardiopatías. Y las grasas insaturadas son las saludables. Pero esta norma tiene una excepción, y es que las grasas insaturadas no son todas iguales. Esos dobles enlaces pueden estar orientados de diferente manera. Si la orientación es cis, significa que el ácido graso adquiere forma curva. Pero si es trans, significa que el ácido graso adquiere forma recta (ver imagen anterior).

Puede parecer una diferencia muy sutil, pero ese cambio en la orientación y la forma que adquiere el ácido graso insaturado hace que pase de ser saludable (cis) a no serlo (trans).

Tanto las grasas saturadas, como las grasas insaturadas trans, presentan algo en común. Ambas tienen forma recta, y esto les confiere una característica: funden a temperaturas más altas o, lo que es lo mismo, pueden ser sólidas o más viscosas a temperatura ambiente. La razón de esto es, precisamente esa forma recta. Si nos las imaginamos como piezas, son fácilmente apilables. Podemos hacer coincidir los carbonos unos sobre otros, sin dejar huecos entre sí (ver imagen inferior). Si alguna de esas piezas fuese curva, nos complicaría la tarea. Pero si todos son rectos, se podrían apilar perfectamente, lo que se traduce en que entre ellos surgen unos enlaces débiles. El resultado macroscópico de esto es que tendremos una grasa más sólida y con un mayor punto de fusión.

Las grasas saturadas y las grasas trans tienen más facilidad para enlazar débilmente entre sí.

Las grasas insaturadas cis son las que presentan un mayor impedimento para enlazar sus cadenas hidrocarbonadas entre sí. Esto se traduce en puntos de fusión más bajos, es decir, cuantas más grasas insaturadas cis, mayor es la tendencia a mantenerse líquidas a temperatura ambiente.

Las grasas insaturadas tienen más dificultad para enlazar débilmente entre sí.

  • Por qué hay alimentos con grasas trans

La industria alimentaria no produce grasas trans de forma deliberada, sino que estas grasas se producen como consecuencia de otros procesos, sobre todo durante la síntesis de grasas saturadas.

Desde hace años sabemos que la mayoría de las grasas saturadas no son saludables. Sin embargo, las encontramos en algunos alimentos. La razón de que estén ahí es que las grasas saturadas presentan ciertas ventajas tecnológicas. Hacen que algunos alimentos tarden más tiempo en echarse a perder, ofrecen texturas más cremosas, evitan que los alimentos se reblandezcan y los hacen permanecer crujientes más tiempo. Mejoran la experiencia de consumo y son responsables del efecto “derretirse en la boca”. Esto se debe a su estructura y cómo ésta afecta al punto de fusión. Nos gustan por muchas razones.

En el proceso de conversión de grasas insaturadas en grasas saturadas o parcialmente insaturadas es donde se pueden producir grasas trans. Este proceso suele hacerse con grasas de origen vegetal para que ganen consistencia. Estas grasas vegetales, en gran medida insaturadas, se someten a un proceso de hidrogenación. Esto consiste en hacerlas reaccionar con gas hidrógeno en presencia de un catalizador metálico a una presión y temperatura controladas. El resultado es que el hidrógeno pasa a formar parte de la grasa rompiendo los enlaces dobles. Es decir, el hidrógeno destruye las insaturaciones. Y si la reacción se lleva a cabo hasta su término, obtendríamos grasas completamente saturadas. Por ese motivo llamamos “grasas totalmente hidrogenadas” a las grasas saturadas y “grasas parcialmente hidrogenadas” a las grasas que han perdido alguno de sus enlaces dobles.

Durante estas reacciones se producen, de forma indeseada, las grasas trans. Es decir, algunos enlaces se acaban transformando en enlaces dobles trans. Actualmente conocemos mucho mejor los mecanismos de la reacción, y ajustando las condiciones de la reacción somos capaces de evitar que se produzcan grasas trans durante la hidrogenación.

Los tratamientos térmicos en los procesos de desodorización, en el refinado de aceites vegetales o de pescado, o el calentamiento y fritura de los aceites a altas temperaturas, también generan grasas trans. Por este motivo, algunos países europeos han establecido que la temperatura de fritura no debe superar los 180 oC. [5]

También hay alimentos que de forma natural presentan grasas trans. Pero ojo, no podemos catalogar a un producto de sano o insano solo por eso, sino que hay que contemplar el alimento en su conjunto. Por ejemplo, en los productos lácteos y en las carnes los rumiantes (vacas, corderos y ovejas), las grasas trans se encuentran de manera natural en una concentración del 3% al 6% porque las bacterias que se encuentran en el rumen de estos animales cambian la configuración de los ácidos grasos insaturados de cis a trans.

Las grasas trans producidas por efecto del metabolismo ruminal se absorben en el intestino, se distribuyen en el tejido mamario, entre otros, y se excretan finalmente a través de la leche. Más del 70% del contenido en ácidos linoleicos conjugados (CLA) de la leche se corresponden ácido ruménico, al que se le atribuyen la mayoría de sus propiedades beneficiosas [6]. Así que no hay que dejar de consumir leche por esto.

La evidencia científica apunta a que el consumo de cantidades moderadas de grasas trans procedentes de la leche no contribuye a aumentar el riesgo cardiovascular. La ingesta de ácidos grasos contenidos en los productos lácteos se asocia al descenso de partículas de colesterol LDL (el malo)[7].

  • Consumes menos grasas trans de las que crees

A comienzos de los 90 se estimaba que en Europa consumíamos entre 2 y 17 g al día de grasas trans. Para conocer con precisión la ingesta de grasas saturadas en los distintos países europeos, la Comisión Europea financió el proyecto TRANSFAIR [8]. Su objetivo fue valorar el consumo de grasas trans en 14 países europeos occidentales durante los años 1995 y 1996. Los valores de la ingesta media diaria obtenida en el estudio variaron entre los distintos países. Los valores más elevados, 5,4 g al día (2% de las calorías de la dieta) se encontraron en Islandia y los más bajos 1,5 g al día (0,5%) en Grecia e Italia. En el caso de España, la ingesta media se situaba en 2,1 g al día (0,7%). El estudio concluía que, en general, el consumo de grasas trans en Europa occidental no era preocupante. En cambio, en Estados Unidos, la ingesta diaria estimada mediante un cuestionario de frecuencias de consumo fue de 3-4 g al día.

Desde la publicación de los resultados del proyecto TRANSFAIR, muchos países han realizado estudios sobre los contenidos de grasas trans en los alimentos de uso habitual y la industria ha comenzado a utilizar nuevas tecnologías que disminuyen su formación. La ingesta en la mayor parte de los países europeos ha descendido a niveles inferiores al 1%[9], debido fundamentalmente a la reformulación de los productos que las contenían. En países como Reino Unido o Francia, la ingesta oscila entre el 0,8-1%, siendo proporcionalmente mayor la ingesta de grasas trans de origen natural.

La Agencia Española de Seguridad Alimentaria y Nutrición (AESAN), elaboró un Informe Científico [10] sobre el riesgo asociado a la presencia de grasas trans en los alimentos en 2010, en el que se llegaba a la conclusión de que la ingesta estaba por debajo del 0,7%. En el informe publicado en 2015 [11] se llegó a la conclusión de que la presencia de grasas trans en los alimentos había disminuido todavía más, llegando a ser indetectables en muchos de ellos. La implicación de la industria alimentaria fue clave en este descenso. Lo consiguieron reformulando sus productos y desarrollando nuevas técnicas de evitación de formación de grasas trans. Estos datos hacen que sea prácticamente imposible superar la recomendación de la OMS de consumir menos del 1% de calorías en forma de grasas trans.

  • En España no hay una ley que regule las grasas trans

La Ley 17/2011 del 5 de julio de seguridad alimentaria y nutrición establece en relación a las grasas trans que «en las escuelas infantiles y en los centros escolares no se permitirá la venta de alimentos y bebidas con un alto contenido en ácidos grasos saturados, ácidos grasos trans, sal y azúcares». Sabemos que esta ley nos la saltamos alegremente. También «está limitado el contenido de grasas trans en fórmulas infantiles (han de contener menos del 4% del total de ácidos grasos)». Este artículo de la ley sí que lo respetamos. Con respecto a los demás alimentos no existe ningún tipo de reglamento, ni siquiera se establecen unos valores mínimos.

Sin embargo, a pesar de la falta de regulación, la presencia de grasas trans en los alimentos es mínima, y según la AESAN no representa un problema de salud [11].

  • Qué alimentos contienen grasas trans

Los aportes más altos de grasas trans en la dieta se corresponden a los alimentos elaborados con grasas hidrogenadas (margarinas, shortening -término genérico utilizado para describir grasas y aceites usados en la preparación de alimentos-, productos comerciales de pastelería, platos precocinados, hamburguesas, patatas fritas de bolsa, aperitivos o snacks, sopas deshidratadas entre otros) y los aportes dietéticos más bajos a la carne y productos lácteos (leche, queso y yogur).

En el caso concreto de las margarinas[5], en España, el contenido en grasas trans ha ido disminuyendo en los últimos años, pasando de más del 10% en los años 80, a cero o prácticamente cero en la actualidad.

Así que de los únicos alimentos de los que podríamos preocuparnos son, como siempre, los ultraprocesados. En esta ocasión el problema no está en la presencia de grasas trans, que como hemos visto, es muy limitada, sino en el alimento en su conjunto. Un ultraprocesado con azúcares, altos niveles de sal, harinas refinadas y grasas en general de baja calidad, no se va a convertir en un alimento saludable por carecer de grasas trans.

  • Conclusiones

Las grasas trans son perjudiciales para la salud. Se producen como subproductos indeseables durante la fabricación de alimentos ultraprocesados. Actualmente la industria ha mejorado tanto estos procesos que la ingesta de grasas trans está por debajo de lo que aconseja la Organización Mundial de la Salud.

Aunque en muchos países, entre ellos España, no existe ninguna normativa que regule cuánta cantidad puede haber en los alimentos, lo cierto es que no encontramos grasas trans que debieran alarmarnos dentro de los parámetros de una dieta normal. Así que la conclusión es clara: afortunadamente ya nadie tiene que preocuparse por las grasas trans.

Fuentes:

[1] Canadá prohíbe el uso de grasas trans en los productos alimenticios.

[2] Mozaffarian, D., Katan, M.B., Ascherio, A., Stampfer, M.J. y Willett, W.C. Trans fatty acids and cardiovascular disease. N Engl J Med 2006; 354, pp: 1601-1613. Mozaffarian, D., Katan, M.B., Ascherio, A., Stampfer, M.J. y Willett, W.C. Trans fatty acids and cardiovascular disease. N Engl J Med 2006; 354, pp: 1601-1613.

[3] Clifton PM, Keogh JB, Noakes M. Trans fatty acids in adipose tissue and the food supply are associated with myocardial infarction. J Nutr 2004; 134: 874- 879.

[4]Bendsen NT, Christensen R, Bartels EM, Astrup A. Consumption of industrial and ruminant trans fatty acids and risk of coronary heart disease: a systematic review and meta-analysis of cohort studies. Eur J Clin Nutr. 2011;65:773-83.

[5]Informe FESNAD sobre la ingesta de grasas trans. Situación es España. 2013.

[6] Cruz-Hernández, C., Kramer, J.K.G., Kraft, J., Santercole, V., Or-Rashid, M., Deng, Z., Dugan, M.E.R., Delmonte, P. y Yurawecz, M.P. (2006). Systematic analysis of trans and conjugated linoleic acids in the milk and meat of ruminants. Advances in CLA Research. 2006; 3:45-93.

[7] Sjogren, P., Rosell, M., Skoglund-Andersson, C., Zdravkovic, S., Vessby, B., De, F.U., Hamsten, A., Hellenius, M.L. y Fisher, R.M. Milk-derived fatty acids are associated with a more favourable LDL particle size distribution in healthy men. J Nutr 2004; 134: 1729-1735.

[8] A. Carbajala, C. Cuadradoa, C. Núñeza, B. Beltrána, G. Toledanoa, O. Moreirasa. TRANSFAIR Study. II. Intake of cis and trans fatty acids with the total diet in Spain (2000)

[9] EFSA Panel on Dietetic Products, Nutrition, and Allergies (NDA). Scientific Opinion on Dietary Reference Values for fats, including saturated fatty acids, polyunsaturated fatty acids, monounsaturated fatty acids, trans fatty acids, and cholesterol. The EFSA Journal, 2010; 8, 1461.

[10] Informe del Comité Científico de la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN) sobre el riesgo asociado a la presencia de ácidos grasos trans en alimentos. Revista del Comité Científico de la AESAN nº 12, Madrid 2010.

[11] Informe del Comité Científico de la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN) sobre el contenido de ácidos grasos trans en los alimentos en España. 2015.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo A nadie le preocupan las grasas trans se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El azúcar oculto en los alimentos
  2. Si te preocupa el aceite de palma, que sea por las razones adecuadas
  3. Lo dicen en la tele: un alimento natural no lleva aditivos
Categories: Zientzia

El tamaño sí importa, que se lo pregunten a Colón (o de la geometría griega para medir el diámetro de la Tierra)

Wed, 2018/10/03 - 11:59

Si miramos a nuestro alrededor, puede dar la impresión de que vivimos en un planeta plano, como así lo creyeron muchos pueblos en la antigüedad. Babilonios, egipcios, chinos, incas, nativos americanos, o incluso los primeros griegos, pensaron que la Tierra era plana. Según el filósofo y matemático griego Tales de Mileto (aprox. 624-547 a.n.e.), la Tierra es un disco flotando en un mar de agua, mientras que, para su discípulo Anaximandro (aprox. 610-545 a.n.e.), es un cilindro, con la ecúmene (el mundo habitado) en una de sus tapas planas. Precisamente, el mapa de la ecúmene de Anaximandro está considerado uno de los primeros mapas geográficos del mundo.

Reconstrucción del mapa de Hecateo, basado en el mapa de Anaximandro, perteneciente al “Cram’s atlas of the world, ancient and modern” (1901), de G. F. Cram. Imagen de la David Rumsey Map Collection [2] Sin embargo, también fueron los antiguos griegos quienes pronto descubrirían que la Tierra tiene forma esférica, como aparece recogido en el diálogo del filósofo griego Platón (aprox. 427-347 a.n.e.) Fedón o la inmortalidad del alma o en el Tratado del Cielo de su discípulo Aristóteles (384-322 a.n.e.), este último con argumentos físicos y lógicos que lo demostraban.

El siguiente pasaje es del diálogo Fedón o la inmortalidad del alma (Platón, Diálogos, Espasa-Calpe, 1984):

Primeramente, repuso Sócrates, estoy convencido de que, si la Tierra está en medio del cielo, y es de forma esférica, no tiene necesidad ni del aire ni de ningún otro apoyo que la impida caer…

Además, estoy convencido de que la Tierra es muy grande y que no habitamos en ella más que esta parte que se extiende desde Fasis hasta las columnas de Hércules, repartidos alrededor del mar como las hormigas y las ranas alrededor de un pantano…

Se dice, mi querido Simmias, que si se mira esta Tierra desde un punto elevado, se parece a uno de esos balones de cuero…

Por otra parte, los argumentos de la esfericidad terrestre que aparecen en la obra de Aristóteles son sencillos y contundentes, como puede leerse en el libro El sueño del mapa perfecto (RBA, 2010), la posición de las estrellas en el firmamento, la existencia de usos horarios o la existencia y forma del horizonte.

Representación de la Tierra vista desde el espacio utilizando datos obtenidos por la NASA y NOAA. Imagen de la NASA realizada por Reto Stöckli

Una vez conocida la forma del planeta en el que vivimos, surge la cuestión de conocer cuál es su tamaño. De nuevo, fue la ciencia griega la que se puso manos a la obra, y realizó algunas estimaciones, utilizando la geometría, del perímetro terrestre.

Ya Aristóteles, en el mencionado Tratado del cielo, escribía que los “matemáticos” habían calculado la longitud de la circunferencia del globo terráqueo, estableciéndola en 400.000 estadios (más adelante, discutiremos el valor de esta unidad de longitud). Según parece la estimación citada por Aristóteles se debía al matemático y astrónomo griego Eudoxo de Cnido (aprox. 400-347 a.n.e.), considerado el fundador de la astronomía matemática.

La siguiente estimación del tamaño de la Tierra aparece en la obra El Arenario de uno de los más grandes científicos griegos, Arquímedes de Siracusa (aprox. 287-212 a.n.e.), quien en el transcurso de la discusión sobre la cantidad de granos de arena que se necesitarían para llenar todo el universo, y, por tanto, sobre el tamaño del universo, afirma que “el perímetro de la Tierra es de 3.000.000 de estadios y no más”, aunque también reconoce que hay quienes afirman que es de 300.000 estadios, que a él le parece demasiado pequeña.

“Muerte de Arquímedes”, del pintor francés Edouard Vimont (1846-1930)

La medición griega más famosa, y certera, del perímetro de la Tierra se debe al sabio polifacético griego Eratóstenes de Cirene (276-194 a.n.e.). Eratóstenes trabajó en geografía, matemáticas, astronomía, filosofía, cronología, gramática, crítica literaria e incluso escribió poesía, lo que motivó que sus compañeros le pusieran el mote “pentathlos”, en referencia a la prueba atlética “penthlaton” que integraba cinco disciplinas. Pero el hecho de que trabajara en tantos campos también fue la razón por la cual le pusieran también otro apodo, “beta”, es decir el segundo, que puede interpretarse como una persona que ocupa el tiempo en muchas cosas no puede ser excelente en cada una de ellas. A pesar de este apodo, Eratóstenes fue uno de los grandes sabios de la antigüedad. Con 30 años fue nombrado director de la Biblioteca de Alejandría, puesto en el que permaneció hasta su muerte, 45 años después.

Antes de continuar nuestro viaje, una breve parada para hablar de la Biblioteca y el Museo de Alejandría.

Tras anexionar Egipto a su imperio, Alejandro Magno (356-323 a.n.e.), rey de Macedonia, fundaría la ciudad de Alejandría en el año 331 a.n.e., la cual se convertiría en la ciudad más importante e influyente durante siglos, sustituyendo a Atenas en hegemonía cuando esta perdió su esplendor. A la muerte de Alejandro, cuando este contaba con 33 años, se desmanteló su imperio y en el trono de Egipto se instaló el rey Ptolomeo I, fundando la dinastía de los Lángidas. Este decide poner en práctica el proyecto aristotélico de un saber universal, motivo por lo que construye la Biblioteca y el Museo, y hace el siguiente llamamiento: “Pido a todos los soberanos y gobernantes de la Tierra que envíen a nuestra ciudad de Alejandría las obras de poetas y prosistas, retóricos y sofistas, médicos y adivinos, historiadores, filósofos y …”.

La Biblioteca llegaría a tener 700.000 rollos. Hay que tener en cuenta que las obras se escribían en papiros (el nombre griego para papiro es Biblos, de donde surge la palabra Biblioteca), los cuales no se plegaban, sino que se enrollaban alrededor de un bastón. Cada obra podía estar formada por varios rollos (volumen en latín), es decir, varios volúmenes.

Imagen de la película “Ágora” (2009), dirigida por Alejandro Amenábar, en la que vemos a Hipatia, interpretada por la actriz Rachel Weisz, en la Biblioteca de Alejandría, aunque en esa época ya no era la Gran Biblioteca, sino la Biblioteca hija, mucho más humilde, intentando salvar algunos rollos de dicha biblioteca, durante su destrucción por orden del emperador Teodosio el Grande

“Buscadores de libros” se pusieron a rastrear en los principales mercados del mundo mediterráneo, comprando, a precio de oro, todos los manuscritos que encontraban, y si no podían comprarlos, los conseguían por otros medios (robo, soborno o extorsión). Además, cuando un navío entraba en el puerto de Alejandría los soldados entraban en el barco en busca de todos los manuscritos que se encontraban en el navío para llevarlos a los talleres de la Biblioteca, donde eran cuidadosamente estudiados y copiados por escribas. Si se trataba de un ejemplar raro, se le devolvía al dueño la copia. A esta colección de la Biblioteca se la llamó “los fondos de los barcos”.

El Museo era una especie de centro de investigación financiado por el estado, dedicado a todas las Musas, de ahí su nombre, es decir, a todo tipo de conocimiento. Por él pasaron grandes sabios como Euclides, Apolonio, Eratóstenes, Hiparco, Aristarco, Herón o Ptolomeo.

Con el paso de los siglos el sueño de toda la sabiduría del mundo reunida en la Biblioteca de Alejandría se desvanecería. Diferentes desastres asolaron Alejandría, miles de libros se quemaron y la Biblioteca acabó totalmente destruida. Lo cierto es que la destrucción de las obras de la Biblioteca de Alejandría es sin duda una de las mayores tragedias de la historia de la humanidad, en la que se han perdido para siempre parte de la cultura y ciencia humanas.

Pero volvamos a la estimación del diámetro de la Tierra realizada por Eratóstenes, quien estableció en 252.000 estadios la longitud del meridiano terrestre que pasa por Alejandría. Conocemos el método utilizado por Eratóstenes gracias al astrónomo griego Cleomedes (aprox. 10-70) y a algunos autores clásicos como Herón, Estrabón, Plinio o Vitrubio, entre otros.

La medición de la circunferencia terrestre realizada por Eratóstenes tenía en cuenta que la Tierra es esférica, que podemos considerar que los rayos del Sol llegan paralelos al encontrarse con la superficie terrestre, debido a la distancia a la que se encuentra el astro, así como que las ciudades consideradas, Alejandría y Siena (en la actualidad, Asuán), estaban situadas en el mismo meridiano.

La primera estimación necesaria para el cálculo fue la de la distancia entre Alejandría y Siena, que el director de la Biblioteca consideró de 5.000 estadios. Según cuenta la leyenda, Eratóstenes preguntó a los caravaneros que comerciaban entre ambas ciudades, quienes le contestaron que un camello, que recorría una distancia aproximada de 100 estadios al día, tardaba 50 días en ir de una ciudad a otra. Aunque es muy probable que el sabio griego consultase ese dato en los libros de la biblioteca, contrastando las informaciones que caravaneros o saldados pudieran proporcionarle.

Por otra parte, la ciudad de Siena se encontraba en el trópico de Cáncer, es decir, que al mediodía del solsticio de verano (hacia el 21 de junio) los rayos solares caían perpendicularmente sobre la ciudad, lo cual podía ser comprobado observando que la luz se reflejaba en el fondo de un pozo profundo.

Además, Eratóstenes necesitaba medir el ángulo de inclinación del sol en Alejandría con respecto a la vertical (el ángulo α en la imagen con el esquema de la medición), lo cual se podía calcular con un sencillo gnomon (es decir, una estaca vertical colocada sobre una base horizontal), como se muestra en el esquema, aunque parece ser que Eratóstenes utilizó un gran obelisco.

Haciendo uso del gnomon y su sombra mediante los rayos solares se calcula la altura angular del Sol

Haciendo uso de un particular gnomon, el obelisco en la ciudad de Alejandría, Eratóstenes midió el ángulo de la inclinación del Sol respecto a la vertical (el ángulo α) en el mediodía del solsticio de verano, que, según sus cálculos, era 1/50 de una circunferencia, es decir, 360º / 50 = 7,2º. Como ya hemos dicho, el sol cae verticalmente en ese momento sobre la ciudad de Siena, luego el arco del ángulo del meridiano entre Alejandría y Siena es también 7,2º.

Al mediodía del solsticio de verano, los rayos solares caían verticalmente sobre la ciudad egipcia de Siena, por lo que se reflejaba en el fondo de cualquier pozo, mientras que sobre Alejandría caían formando un ángulo de 7,2º con la vertical, por ejemplo, un obelisco

Ya solo queda un pequeño cálculo. Si la longitud de un arco de meridiano de 7,2º, entre Alejandría y Siena, es de 5.000 estadios, entonces la circunferencia completa, correspondiente a los 360º, será de (360º / 7,2º) x 5.000 = 50 x 5.000 = 250.000 estadios.

Aunque según algunos autores, Eratóstenes llevó a cabo diferentes mediciones hasta considerar la estimación final de 252.000 estadios.

Uno de los problemas actuales para poder valorar las estimaciones antiguas del perímetro terrestre es el valor de la medida de longitud utilizada, en este caso, el estadio. En aquellos tiempos no existían medidas unificadas y el valor de los estadios variaba de unos lugares a otros, por lo que existen diferentes posibilidades a la hora de convertir los estadios en metros. Si consideramos el estadio egipcio, cuyo valor era de 157,5 metros, la estimación de Eratóstenes del perímetro terrestre era de 39.690 kilómetros. Si tenemos en cuenta que la longitud de uno de los meridianos terrestres es aproximadamente de 39.940 kilómetros (mientras que el ecuador mide 40.075 kilómetros), podemos decir que la de Eratóstenes no era una mala estimación.

Curiosamente, todas las estimaciones que realizó el director de la Biblioteca de Alejandría fueron ligeramente incorrectas, pero los errores se compensaron para dar una estimación que se aproxima bastante a la realidad. Las ciudades de Alejandría y Siena no se encontraban exactamente en el mismo meridiano, la longitud entre ambas ciudades era imposible de calcular en aquella época con cierta exactitud y con el método del gnomon el cálculo del ángulo de los rayos solares era más bien aproximado.

Reconstrucción del plano de la antigua Alejandría, realizado en 1898 por G. Botti, director del Museo Greco-Romano. Imagen de la página web Alexanders Tomb

Otra estimación importante del tamaño de la Tierra fue realizada por el político, astrónomo y filósofo estoico griego Posidonio (aprox. 130-50 a.n.e.), quien fuera uno de los grandes geógrafos de su tiempo. Al igual que en el anterior caso, su medición también nos ha llegado a través de diferentes autores clásicos.

De nuevo, la idea fue medir un arco de meridiano, en concreto, entre las ciudades de Rodas y Alejandría (aunque, como en el caso anterior, no están exactamente sobre el mismo meridiano). Desde su observatorio en Rodas, Posidonio observó que la estrella Canopus, la segunda más brillante del cielo, se encontraba sobre el horizonte, mientras que esa misma estrella se veía elevada en el cielo un ángulo de 1/48 de circunferencia completa, es decir, 7,5º (el ángulo θ en la siguiente imagen). Por lo tanto, el ángulo del arco de meridiano entre Rodas y Alejandría era también 7,5º. Según Cleomedes, Posidonio consideró que la distancia entre Rodas y Alejandría era de 5.000 estadios, lo que hacía que la estimación de la Tierra fuera de 48 x 5.000 = 240.000 estadios. Sin embargo, el geógrafo e historiador griego Estrabón (aprox. 63 a.n.e.-24 n.e.), en su Geografía, recoge la posterior estimación de Posidonio de 180.000 estadios, obtenida al realizar un cálculo más acertado de la distancia entre ambas ciudades de 3.750 estadios.

Esquema de la medición del meridiano terrestre que pasa por Alejandría y Rodas. Cuando la estrella Canopus se ve en el horizonte desde Rodas, en Alejandría se ve con un ángulo θ, igual al ángulo del arco de meridiano terrestre entre Rodas y Alejandría

Si consideramos los estadios egipcios la estimación de Posidonio, de 180.000 estadios, equivalía a 28.350 kilómetros, quedando así reducidas las dimensiones reales de la Tierra.

El método de Posidonio es, como el de Eratóstenes, sencillo, ingenioso y geométricamente impecable, aunque comete un error desde el punto de vista de la física. El filósofo estoico no tuvo en cuenta la refracción atmosférica terrestre, que provoca que cuando observamos objetos celestes cerca del horizonte su posición esté más baja de lo que nosotros creemos. Lo cual provoca que veamos el Sol, o las estrellas, por encima de su posición real. Si los rayos de luz no sufrieran este efecto, Posidonio no habría visto Canopus cuando lo vio, sino más tarde, y, en consecuencia, el ángulo que habría obtenido habría sido menor.

Esquema de la refracción atmosférica terrestre

El astrónomo, matemático y geógrafo greco-romano Claudio Ptolomeo (aprox. 90-170), dio por buena la estimación de Posidonio de 180.000 estadios (unos 28.350 kilómetros), y es la que recogió en su obra Geografía cuando en la misma aborda la cuestión del tamaño de la Tierra.

La Geografía de Ptolomeo, que estaba formada por 8 libros, era una recopilación de todo el saber geográfico del mundo en su tiempo. El libro I era un tratado de cartografía, de los libros II al principio del VII se daban las coordenadas geográficas, longitud y latitud, de gran cantidad de lugares de la ecúmene, 8.000 ubicaciones diferentes, en el final del libro VII se describían tres proyecciones cartográficas para crear mapas del mundo (aunque los mapas de Ptolomeo que conocemos hoy en día se deben a las primeras ediciones impresas del siglo XV) y el libro VIII era un atlas de mapas regionales, que contenía cuatro mapas de África, doce de Asia y diez de Europa.

Mapa del mundo con la primera proyección de Ptolomeo, que aparece en el Codex Vaticanus Urbinas Graecus 82 (Constantinopla, aprox. 1300), copia manuscrita bizantina de la “Geografía” de Ptolomeo. Imagen: Wikimedia Commons

Los diferentes manuscritos de la Geografía de la época de Ptolomeo se perdieron y la obra estuvo “perdida” hasta el siglo XIII que apareció una copia bizantina. La primera edición manuscrita en latín fue de 1406, y le seguirían muchísimas más (de hecho, se han conservado 38 códices o libros manuscritos). Pero fundamentalmente, a partir del momento en el que se empiezan a realizar ediciones impresas de las obras, junto con los dos conocidos mapas del mundo y los demás mapas regionales (en especial la hermosa edición impresa en Ulm, de 1482, con los conocidos grabados de mares azules y bordes amarillos, uno de cuyos mapas puede verse en la entrada Imago mundi, 7 retratos del mundo), la obra se convierte en una referencia fundamental en geografía y cartografía, y un auténtico “best-seller” durante varios siglos.

Terminaremos esta entrada del Cuaderno de Cultura Científica con un par de comentarios sobre el navegante y explorador italiano (aunque hay expertos que opinan que pudo ser catalán, gallego, portugués, andaluz, e incluso vasco) Cristóbal Colón (1451-1506) y el “descubrimiento” de América.

“Colón en Salamanca” (1887), de Joan Brull i Vinyoles (1863-1912). Imagen de Catàleg d’obres de Joan Brull i Vinyoles

El primer comentario está relacionado con la forma de la Tierra. Una de las creencias asociadas al descubrimiento de América, que nos enseñaron en nuestra etapa escolar, es que en aquél tiempo todo el mundo creía que la Tierra era plana, y que Colón tuvo que enfrentarse a esa creencia para encontrar quien apoyara su búsqueda de las Indias por el Océano Atlántico.

Es cierto, que una interpretación literal de la Biblia en la Edad Media llevó a la concepción de una Tierra plana. Esta idea fue popularizada por la famosa Topographica Christiana del monje griego Cosmas Indicopleustes (siglo VI). La forma plana del Orbis Terrarum se convirtió en una verdad oficial defendida por muchos teólogos cristianos y personas afines al poder, y fue la creencia que mucha gente humilde a la que no llegó otro conocimiento más que el que recibían de la Iglesia.

Mapa del mundo de Cosmas Indicopleustes. Orientado con el norte hacia arriba, el mapa muestra la Tierra rectangular, colocada en el centro y rodeada por el Océano. A la izquierda se observa el mar Mediterráneo, en el que desemboca el río Nilo, mientras que a la derecha están representados, arriba, el mar Caspio y, abajo, los golfos Árabe (Mar Rojo) y Pérsico, en este último desembocan los ríos Tigris y Eufrates. Imagen: Wikimedia Commons.

Sin embargo, como hemos comentado, muchos siglos antes los griegos ya habían descubierto que la Tierra tenía forma esférica, y esta idea no fue abandonada por los sabios, ni las personas cultas, durante la Edad Media. Por este motivo, en los tiempos de Cristóbal Colón no había ninguna duda sobre la forma del planeta. Este mito erróneo tiene su origen en la biografía romántica que escribió el escritor estadounidense Washington Irving (1783-1859), Vida y viajes de Cristóbal Colón (1828).

El segundo comentario está relacionado con el tamaño de la Tierra. Entre los libros que se conoce que leyó, y anotó, Cristóbal Colón están Historia rerum ubique gestarum (1477) del Papa Pío II (Aeneas Sylvius Piccolomini, 1405-1464), que contiene la estimación de Eratóstenes del tamaño de la Tierra, la versión impresa (1480) del Imago Mundi de Pierre d’Ailly (1350-1420), la primera versión en latín (1478) de la Geografía de Ptolomeo, con la estimación de Posidonio y sus mapas cónicos del mundo, así como la primera edición en latín (1485) del libro de Marco Polo (1254-1324), narrando sus viajes a Catay (China) y Cipangu (Japón), De consuetudinibus et condicionibus orientalium regionum (1300).

Una de las personas que creyó en el relato que Marco Polo hizo de su viaje fue el matemático y astrónomo italiano Paolo Toscanelli (1397-1482). Toscanelli, después de hablar con algunos navegantes e influenciado el tamaño de la Tierra recogido en las Geografías de Estrabo y Ptolomeo, propuso alcanzar Asia viajando por el oeste y diseñó un mapa del Atlántico que mostraba la cercanía, por otra parte errónea, de Catay y Cipangu, con Europa, sin América, que no se sabía que existía, de por medio.

Mapa del océano Atlántico (1468) de Paolo Toscanelli Reconstrucción moderna, con la silueta del continente americano dibujada en su posición más o menos real, de un mapa del océano Atlántico (1474) de Paolo Toscanelli, enviado al obispo de Lisboa, y posteriormente, a Cristóbal Colón

El navegante Cristóbal Colón tuvo conocimiento de las ideas y el mapa de Toscanelli, además de leer la Geografía de Ptolomeo, con la medida del perímetro terrestre de Posidonio, lo que le animaría a aventurarse en un viaje hacia las Indias a través del océano Atlántico. En el camino “descubriría” un “nuevo mundo”, que en un principio llamarían las “Indias Occidentales”, en contraposición a las “Indias Orientales”, a las que nunca llegó.

“Por el Oro, Dios y la Gloria” (2016), de Igor Babailov. Imagen de [7]

Biblioteca

1.- Raúl Ibáñez, El sueño del mapa perfecto; cartografía y matemáticas, RBA, 2010.

2.- David Rumsey Map Collection.

3.- Aubrey Diller, The Ancient Measurements of the Earth, Isis, vol. 40, n. 1, p. 6-9, 1949.

4.- I. E. Drabkin, Posidonius and the Circumference of the Earth, Isis, vol. 34, n. 6, p. 509-512, 1943.

5.- V. Frederick Rickey, How Columbus Encountered America, Mathematics Magazine, vol. 65, n. 4, p. 219-225, 1992.

6.- Denis Guedj, El Teorema del Loro, Anagrama, 2000

7.- Catàleg d’obres de Joan Brull i Vinyoles

8.- Página de Igor Babailov

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El tamaño sí importa, que se lo pregunten a Colón (o de la geometría griega para medir el diámetro de la Tierra) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La geometría de la obsesión
  2. #Naukas14 El tamaño sí importa…sobre todo en el nanomundo
  3. El tamaño importa en organismos, empresas, ciudades y economías
Categories: Zientzia

Cristalografía (y 15): El siglo de Bragg

Tue, 2018/10/02 - 11:59

En la conferencia que impartió Thomson ante la Sociedad Filosófica de Cambridge el 11 de noviembre de 1912, en la que presentaba las propuestas de W Lawrence Bragg, estuvo presente el físico Charles TR Wilson (que se haría famoso por sus cámaras de niebla para localizar rayos cósmicos y otras partículas y que le valdrían el premio Nobel en 1927). En el turno de preguntas Wilson sugirió que los rayos X también deberían reflejarse en las caras externas de los cristales, siempre y cuando las caras fuesen suficientemente lisas.

La idea tenía sentido, por lo que Lawrence realizó inmediatamente una serie de experimentos en las caras de exfoliación de la mica, ya que se suponía que debía de ser muy plana incluso a escala atómica. Lawrence pudo fotografiar esta reflexión y en diciembre, esto es, poco más de un mes después de la sugerencia de Wilson, aparecía en Nature su The Specular Reflexion of X-rays.

Por su parte William H Bragg demostró poco después que el espectrómetro de rayos X que había construido podía detectar los rayos X monocromáticos difractados, pero no con una placa fotográfica sino con un detector de ionización de gas.

La importancia de la ley de Bragg, así como la capacidad del espectrómetro para registrar las intensidades de los rayos X de una longitud de onda determinada, quedó demostrada de forma espectacular en dos artículos aparecidos en los Proceedings of the Royal Society en 1913. En uno de ellos, firmado sólo por Lawrence, se analizaban las estructuras de los cristales de los cloruros de sodio y potasio, y del bromuro e ioduro de potasio; en el otro, de Lawrence con William, se estudiaba la estructura del diamante.

La metodología desarrollada por los Bragg constituía una forma fiable de determinar la estructura interna de todos los sólidos cristalinos y, por tanto, de explicar sus propiedades. Una vez que se descubrió la estructura del diamante, con átomos de carbono enlazados firmemente en tres dimensiones, era fácil entender que fuese tan duro. Cuando en los años treinta se determinó la estructura del grafito, de idéntica composición química que el diamante, se entendió que, a pesar de ello, fuese tan blando, que reaccionase químicamente de forma tan diferente y que tuviese comportamiento electrónico tan distinto.

Durante las décadas siguientes la ecuación de Bragg y el espectrómetro se convirtieron en los ejes de la investigación difracción de rayos X, desplazando el método policromático de Laue. Con todo, algunos investigadores usaban ambos procedimientos, el más famoso Linus Pauling en la determinación de las estructuras de la hematita y el corindón en 1925.

En 1919 Lawrence sucedió a Ernest Rutherford en la cátedra de física de la Universidad de Manchester. Allí se dedicó al estudio de las propiedades químicas y físicas de los silicatos, los minerales más abundantes en la corteza terrestre y que, sin embargo, las aproximaciones químicas tradicionales no habían terminado de explicar satisfactoriamente a nivel atómico. Por ejemplo, hoy sabemos por qué la mica y el talco son blandos o el berilo duro gracias al trabajo de Lawrence en esta época.

Lawrence demostró que muchos minerales, especialmente los silicatos, están dominados por el oxígeno cargado negativamente que ocupa buena parte del espacio mientras que los cationes metálicos ocupan los intersticios que dejan. En el caso de los silicatos descubrió una coordinación tetraédrica de cuatro átomos de oxígeno independiente del ratio silicio: oxígeno.

También durante la época de Manchester, Lawrence resolvió las estructuras del latón-gamma y de varias aleaciones magnéticas, fundamentales para el desarrollo de la teoría moderna de los metales.

En 1938, Lawrence volvía a suceder a Rutherford, esta vez al frente del laboratorio Cavendish de Cambridge, al que revolucionaría, sobre todo tras el esfuerzo bélico de la Segunda Guerra Mundial, orientándolo hacia la cristalografía de interés biológico, donde él veía el futuro. Aquí, basándose en el trabajo de 1934 de JD Bernal y Dorothy Crowfoot (después Hodgkin) que demostraba que las proteínas cristalizadas difractaban los rayos X en patrones complejos, alentaría a Max Perutz y John Kendrew (ambos Nobel de química 1962), en la determinación cristalográfica por rayos X de la estructura, endiabladamente compleja, de las proteínas hemoglobina y mioglobina. Más tarde daría rienda suelta a las investigaciones de Francis Crick y James Watson sobre el ADN (ambos Nobel de medicina o fisiología 1962).

En 1953, Lawrence se convirtió en director de la Royal Institution. De nuevo su impulso revolucionaba una institución: la nueva línea de la cristalografía de estructuras biológicas se veía potenciada con la construcción de un difractómetro lineal de rayos X automatizado, primero en su género. Fue este aparato el que permitió a Kendrew, al que Bragg había incorporado como investigador “honorario”, junto a David Phillips determinar los últimos detalles de la primera proteína caracterizada, la mioglobina. También ayudaría a Phillips y a Louise Johnson con la determinación y modo de actuación de la estructura de la primera enzima, la lisozima.

Desde su descubrimiento en 1912 el método de los Bragg permitió el establecimiento de múltiples grupos de investigadores en todo el mundo trabajando en la determinación de todo tipo de estructuras moleculares. No menos de 24 premios Nobel se han concedido relacionados con la difracción de rayos X. Hoy día sigue estando en el corazón de la cristalografía y, con esta, en todas las ramas de la ciencia.

Referencias generales sobre historia de la cristalografía:

[1] Wikipedia (enlazada en el texto)

[2] Cristalografía – CSIC

[3] Molčanov K. & Stilinović V. (2013). Chemical Crystallography before X-ray Diffraction., Angewandte Chemie (International ed. in English), PMID:

[4] Lalena J.N. (2006). From quartz to quasicrystals: probing nature’s geometric patterns in crystalline substances, Crystallography Reviews, 12 (2) 125-180. DOI:

[5] Kubbinga H. (2012). Crystallography from Haüy to Laue: controversies on the molecular and atomistic nature of solids, Zeitschrift für Kristallographie, 227 (1) 1-26. DOI:

[6] Schwarzenbach D. (2012). The success story of crystallography, Zeitschrift für Kristallographie, 227 (1) 52-62. DOI:

Este texto es una revisión del publicado en Experientia docet el 20 de febrero de 2014

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Cristalografía (y 15): El siglo de Bragg se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cristalografía (14): Generación X
  2. Cristalografía (11): Asimetrías y juegos de luz
  3. Cristalografía (8): Morfismos químicos
Categories: Zientzia

Una fórmula para dominarlos a todos: El trabajo

Mon, 2018/10/01 - 11:59

A los científicos nos encanta ir reduciendo la multiplicidad del mundo observable a combinaciones de objetos más simples o a leyes más generales.

Con esta actitud hemos desarrollado explicaciones relativamente sencillas que dan cuenta de multitud de fenómenos de mucha mayor complejidad. Podríamos citar como ejemplos la tabla periódica o las ecuaciones de Maxwell.

Es preciso recordar que la naturaleza no tiene por qué ser simple ni elegante y que hay cierta complejidad con la que tenemos que lidiar, bastante agradecidos deberíamos estar de que se “deje” describir con las matemáticas.

Entre todos los científicos quizá los físicos seamos de los más recalcitrantes en esta actitud. Desearíamos que cualquier factor de una fórmula fuera una combinación de las constantes universales: c, ℏ, e… mientras que un ingeniero, que tiene que vérselas con el intransigente MundoRealTM, no tendrá mayores reparos en ir haciendo pruebas y ajustar su valor “a mano”, perdón, heurísticamente.

Con las fórmulas nos pasa algo parecido. Por ejemplo, la ley de la palanca, todo el mundo la conoce, todo el mundo la aplica (imagen de abajo). Muy bien, pero, ¿por qué? ¿De dónde sale eso? Cuando juntemos las fórmulas claves de la ciencia: las leyes de la termodinámica, las leyes de Newton… ¿habrá que hacerle un hueco a esta “ley de la palanca” que nadie sabe de dónde salió ni a quién debe pleitesía?

P · Bp = R · Br. La fuerza que se hace por un lado multiplicada por la distancia al punto de giro será igual a la fuerza que se resiste por el otro lado multiplicada por la distancia al punto de giro. Fuente: Dnu72 / Wikimedia Commons

Pues no. Esta fórmula es fácilmente derivable de nuestra vieja amiga, la conservación de la energía que, como ya os contamos aquí, es de los asuntos que más claro vemos (aunque haya quien siga buscando un móvil perpetuo de primera especie y que Lisa Simpson lo tire por tierra con un proyecto escolar).

Nuestro objetivo en esta serie será derivar las fórmulas de los distintos mecanismos a partir de la conservación de la energía.

Como vamos a hablar de energía y trabajo quizá lo primero sería explicar cómo definimos el trabajo en física.

Para ser más precisos diremos “el trabajo que hace una fuerza”. Y dicho en palabras más sencillas sería: ¿Qué efecto ha producido esa fuerza en el sistema?

A ver qué os parece esta metáfora:

Tenéis una mina y un grupo de trabajadores que están con el mineral y las vagonetas. Miremos por la ventana.

Trabajador1: Está sentado tan tranquilo.

Trabajador2: Está empujando una vagoneta y esta se mueve en el sentido que está siendo empujada.

Trabajador3: Está empujando una vagoneta que se mueve por unos raíles, pero el tipo la empuja perpendicularmente al movimiento.

Trabajador4: Mientras dos trabajadores empujan una vagoneta en un sentido, nuestro amigo empuja en sentido contrario.

Volvamos a nuestra oficina y vayamos pensando en las nóminas de este mes.

El trabajador número uno, cuya fuerza es cero, supongo que no esperará ningún pago. Podríamos decir en lenguaje común que el trabajo ha sido cero.

El trabajador número dos sí que parece que nos esté aportando algún efecto, algún trabajo. La vagoneta se mueve y tiene que ver con la fuerza que está recibiendo. Muy bien. De hecho, si empujase con más fuerza o la vagoneta se moviese más distancia, me plantearía pagarle más.

El trabajador número 3 suda como un pollo, el pobre, pero no me aporta nada, la fuerza que él hace no tiene un efecto sobre el resultado que vemos. Lo siento, pero no cobrará, trabajo = cero.

El trabajador número cuatro me va a oír cuando acabe el día. No sólo no está aportando, sino que está dificultando, no diré que no tiene un efecto sobre el sistema, sí que lo tiene: negativo. Así que, bien podría pedirle yo dinero, en lugar de dárselo.

Escribamos esto como una ecuación:

El trabajo (el efecto) es directamente proporcional a la fuerza que se hace, a la distancia que se recorre… pero resulta importante el ángulo con el que se hace. Siendo lo más favorable estar alineado y apuntar en el mismo sentido, de influencia cero si se está perpendicular y negativo si se aplica la fuerza en sentido contrario al movimiento. Esto matemáticamente queda bien definido de la siguiente manera:

W = F · d · cos ɸ

W: Trabajo

F: Fuerza

d: distancia

ɸ: ángulo entre la fuerza y el desplazamiento.

La función coseno nos selecciona esa “parte” de la fuerza que está alineada con el desplazamiento y nos dará el valor negativo si va en sentido contrario.

Por lo tanto, si fuerza y desplazamientos están alineados y van en el mismo sentido, tendremos:

W = F · d

En la próxima entrega hablaremos de conservación de la energía y cómo aplicar estos argumentos a la obtención de la ley de la palanca.

Sobre el autor: Javier Fernández Panadero es físico y profesor de secundaria además de escritor de libros de divulgación.

El artículo Una fórmula para dominarlos a todos: El trabajo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia para todos a través del cine y la literatura de ciencia ficción
  2. Arte & Ciencia: ¿Qué interés puede tener para los artistas el trabajo de un científico?
  3. La fórmula para una fiesta ‘acústicamente’ perfecta
Categories: Zientzia

La cultura del fútbol

Sun, 2018/09/30 - 11:59

En un partido que acabó siendo legendario se llegó, incluso, a invocar la mano de Dios.”

Juan Ignacio Pérez.

En el fútbol hay que intentar engañar al contrario, ¿sí o no?”

Mauricio Pochettino, entrenador.

Todo el estudio de los políticos se emplea en cubrirle el rostro a la mentira para que parezca verdad, disimulando el engaño y disfrazando los designios.”

Diego de Saavedra Fajardo (1584-1648).

El lenguaje político está diseñado para que las mentiras parezcan verdades.”

George Orwell.

Hay tres cosas que la mayoría de los estadounidenses toman como un artículo de fe: el cielo es azul, el Papa es católico, y los políticos son mentirosos.”

Brian Montopoli, periodista CBS, 2012.

Todo cuanto sé con mayor certeza sobre la moral y las obligaciones de los hombres, se lo debo al fútbol.”

Albert Camus.

En julio de este año los medios comentaron un informe, publicado por el Washington Post, sobre las mentiras que Donald Trump ha dicho desde que tomó posesión de la presidencia en enero de 2017. Solo en los dos últimos meses antes de la publicación del informe había mentido unas 1000 veces con mentiras totales, afirmaciones falsas o medias verdades. Algo así, como media, unas 16 mentiras al día. A esta conducta, los psiquiatras la diagnostican como mitomanía, mentira patológica o pseudología fantástica. Trump y sus colegas lo llaman hechos alternativos o postverdades.

No hay muchas estadísticas pero se ha propuesto que uno de cada diez adultos es mitómano, sin diferencias entre géneros. Las estadísticas de Trump, según el Washington Post, indican que va a peor pues miente cuatro veces más que cuando llegó a presidente: entonces el promedio era de 4.6 mentiras al día y, ahora, hemos visto que llega a las 16 al día.

Y, también en el mes de julio, la prensa publicó un estudio de la cadena suiza de televisión RTS sobre el tiempo que pasó en el suelo el jugador brasileño Neymar durante los cuatro primeros partidos que jugó en el Campeonato Mundial de Fútbol de Rusia. En total fueron 14 minutos, en el suelo, derribado y con muchos dolores y aspavientos. Después de la publicación del informe de la RTS, en el siguiente partido, el quinto que jugó Neymar, casi no cayó al suelo. Brasil perdió y fue eliminada.

Es una conducta habitual en el fútbol. Como decía Pochettino en la cita que abre este texto, si hay que engañar, se engaña y ya está. Sobre la conducta de Neymar, el exjugador internacional brasileño Rivaldo escribió en las redes sociales que

Neymar, juega como siempre lo hiciste y no te preocupes con los comentarios de los otros países, porque muchos ya regresaron a casa. Si tienes que eludir, elude. Si tienes que hacer un filigrana, hazla. Si tienes que hacer un gol, anótalo. Si tienes que caer por una falta, cae. Y si tienes que ganar tiempo quedándote en el piso, gánalo. Porque todos hacen los mismo.”

Es la cultura del fútbol, hay que ganar como sea. Como dice Rivaldo, los que pierden ya están en casa. En el estudio de Paul Morris y David Lewis, de la Universidad de Portsmouth, en Inglaterra, sobre imágenes de la Premier inglesa y con el diagnóstico de 30 observadores cualificados, se detecta cuándo y cómo se simula una falta. Hay cuatro conductas que indican que el jugador está simulando una falta:

  • se agarra partes del cuerpo que no han sido tocadas por el contario.
  • exageran de más al tocar el suelo (grita, se retuerce, rueda sobre sí mismo.,…).
  • después del contacto, da unos pasos y cae al suelo.
  • al sentir la proximidad del contrario levanta ambos brazos con las manos abiertas, echa el tórax y dobla las piernas hacia atrás, queda arqueado en el aire y, después, cae al suelo. Los autores denominan, con ironía, esta gesticulación como el “arco del arquero”.

Simular un derribo es una estrategia muy utilizada por los futbolistas para conseguir que el árbitro pite una falta o un penalti. Después de todo, en el fútbol el reglamento se aplica a criterio de los árbitros. Pero, la simulación es, a su vez, una jugada ilegal según el ¡reglamento. Para detectar faltas simuladas, Peter Renden y su grupo, de la Universidad Libre de Amsterdam, están desarrollando, con las propuestas de lenguaje corporal de Morris y Lewis, un protocolo para descubrir las simulaciones. Solo necesitan revisar los movimientos del jugador y el diagnóstico de observadores expertos como árbitros y jugadores.

En la práctica del juego, tirarse en el área para simular un penalti lo estudiaron Eran Sabag y su colegas, del Instituto Wingate de Netanya, en Israel, con 160 grabaciones de 339 jugadas de la Primera División israelí analizadas por 16 árbitros experimentados.

En el 34.5% de las jugadas analizadas el delantero se tira cuando siente al defensa y simula la falta. Y en el 14% de las jugadas simuladas, el delantero ve la tarjeta amarilla por simular la falta pero, también, en el 8.5% de las simulaciones el árbitro pita penalty. Según los evaluadores, el porcentaje de simulaciones es el doble, con el 17.7%, que las jugadas en que el defensa derriba realmente al delantero.

Pero también hay simulaciones en el resto del campo y no solo en el área de penalti. Según la revisión de Daryl Rosenbaum y sus colegas, de la Universidad Wake Forest de Winstom-Salem, en Estados Unidos, del repaso de grabaciones de 89 partidos en cuatro torneos internacionales, en cada equipo y por partido hay una media de 5.27 lesiones atendidas por los servicios médicos de cada club y que permiten seguir jugando al futbolista atendido. Pero también hay una media de 0.41 lesiones que obligan al jugador a retirarse. Y las lesiones que permiten seguir jugando abundan más en el último tercio del segundo tiempo y en jugadores del equipo que va ganando.

En el fútbol femenino y según un estudio del mismo grupo, el número de lesiones atendidas es parecido, 5.74 de media para las que permiten seguir jugando y 0.78 de las que obligan a cambiar a la jugadora.

Es evidente para cualquier practicante de este deporte que el engaño es esencial en su juego. El grupo de Iris Guldenpenning, de la Universidad de Paderborn, en Alemania, ha estudiado como una de las más espectaculares jugadas de fútbol, el dribling a un contrario, se basa en engañarle y provocar su movimiento para esquivarle y seguir la jugada. Ahí intervienen las neuronas espejo cerebrales que más adelante mencionaré.

Tan evidente y, a veces, tan escandalosa, es la utilización del engaño en el fútbol que el grupo de Francisco Javier Ponseti, de la Universidad de las Islas Baleares, ha preparado un cuestionario para cuantificar la disposición al engaño en los deportistas jóvenes. Lo prueban con 110 adolescentes, con 41 chicas, de 10 a 19 años y una edad media de 14.6 años. Entre ellos, hay 42 practicantes de fútbol y, para ellos, hay una propensión al engaño superior a la media. En esta investigación falta una encuesta a entrenadores y responsables de las canteras de los clubs sobre que jugadores elegirían para sus equipos, los que están por debajo o por encima de la media de simulaciones.

Volvamos a Donald Trump, a su extraordinario récord de mentiras y a la abundante presencia del engaño en la práctica política. Mentira y política van unidas desde hace siglos, desde siempre. Jonathan Swift ya lo comentaba con su típica ironía en su breve tratado titulado “El arte de la mentira política”, publicado en 1733. Allí dice que desconoce, a pesar de sus prolongadas investigaciones, quien convirtió la mentira en un arte y la adaptó a la política. Quizá, si leemos lo que escribió Swift, nos convenzamos de que, proféticamente, describía a Trump, o quizá los políticos de su tiempo eran ya muy parecidos a los actuales.

La superioridad de su genio no consiste en otra cosa que en un fondo inagotable de mentiras políticas, que distribuye con largueza cada minuto que habla y que, por una generosidad sin paralelo, olvida, y consecuentemente contradice la siguiente media hora. Hasta ahora no se ha detenido a considerar si una proposición es verdadera o falsa, sino si es conveniente en tal momento y para tal compañía.”

Y, como seguidor de la teorías de Swift, seguro que Trump apoya la definición de mentira política que ofrece:

el arte de hacer creer al pueblo falsedades saludables con vistas a un buen fin.”

Swift concluye que “todo el mundo miente”, tanto en política como, aunque en aquellos años lo ignoraba, en el fútbol.

Para confirmar, quizá, lo que proponía Swift, nos servirá el estudio, publicado en 2013, por Alessandro Bucciol y Luca Zarri, de la Universidad de Verona, en el que revisaban 2459 declaraciones, de 2007 a 2012, de 444 líderes políticos de Estados Unidos, tomadas de la base de datos PolitiFact que estudia la veracidad de las declaraciones de los políticos de aquel país.

El 64% de las declaraciones son, más o menos, mentiras y, en concreto, el 27.5% son mentiras totales. Como media, mienten más a los 56 años, y lo hacen, sobre todo, cuando tratan de finanzas públicas, de política en general y de economía. Mienten más los republicanos que los demócratas. Por ejemplo, en las elecciones en que salió elegido Obama fue el candidato que menos mentía. Lo cual no quiere decir que no mentía, solo que lo hacía con menos intensidad. Ya lo afirmó Otto von Bismarck en el siglo XIX: “Nunca se miente más que después de una cacería, durante una guerra y antes de las elecciones.”

Los últimos datos, del 15 de agosto, sobre Donald Trump en la PolitiFact dicen que miente, más o menos, el 69% de sus declaraciones, y el 47% de ellas son absolutamente falsas.

Por supuesto, no debemos creer que solo Neymar y Trump o, si se quiere, futbolistas y políticos, son los únicos que mienten. Un equipo formado por decenas de expertos llamado Grupo de Investigación Global sobre el Engaño, entre los que está Jaume Masip, de la Universidad de Salamanca, ha investigado la mentira y el engaño con voluntarios de 75 países con 43 idiomas diferentes. La conclusión es que todas las culturas conocen al estereotipo del mentiroso. Y su conducta más reconocible es que no miran a los ojos de su interlocutor, están nerviosos y su conversación puede ser incoherente. Pero, sobre todo, su conclusión es que en todas partes hay mentirosos. Un mundo de mentiras se titula la publicación de este grupo.

Cuando alguna conducta de la especie humana está extendida en muchos, casi todos por no exagerar, los individuos, podemos plantear la hipótesis de que ha sido seleccionada por el proceso de la evolución. De alguna manera ayuda a la supervivencia y la reproducción y es seleccionada para la mejor adaptación de la especie. Así, el engaño y la mentira son conductas beneficiosas para la especie humana.

Esta propuesta la han revisado Charles Bond y Michael Robinson, de la Universidad Cristiana de Texas en Fort Worth. En primer lugar, concluyen que la mentira y el engaño no son conductas exclusivas de nuestra especie sino que abundan en plantas, insectos, moluscos como, por ejemplo, los pulpos, camaleones, chimpancés, Homo sapiens y muchos otros.

Definen la mentira y el engaño como “una comunicación falsa que busca el beneficio del comunicador”. La búsqueda del beneficio puede ser consciente o no como ocurre en el caso de mimetismos y camuflajes permanentes. La conclusión de los autores es que la propensión a la mentira y el engaño es, en parte y según la especie, genética, y en parte puede basarse en el entorno social, en la cultura y en el aprendizaje. En nuestra especie, la genética de la mentira se basa en estudios con gemelos, en familias y en grandes grupos de voluntarios. De algún modo todavía no muy conocido, mentir es una ventaja evolutiva en Homo sapiens. Como especie, no solo como futbolista o político.

Detrás de la selección evolutiva de esta conducta, empezamos a conocer el funcionamiento del cerebro cuando se miente o engaña. Sería la base funcional de la adaptación que se ha seleccionado. Se ha sugerido la participación de las neuronas espejo. Estas neuronas cerebrales se activan cuando se observa una acción en otro individuo. Por tanto, reflejan el comportamiento del otro y participan en conductas como la imitación o la empatía. Así, se pueden adivinar en el otro sentimientos y sensaciones que, es obvio, es importante conocer para engañar o mentir.

En la actualidad, se investiga la intervención de las neuronas espejo tanto en el fútbol como en la política. Quizá, en algún momento, se encuentren evidencias de que las neuronas espejo de Donald Trump y de Neymar se parecen o, por lo menos, que funcionen parecido y provoquen conductas similares. Es la cultura del fútbol en la política, o viceversa, o, en todo caso, la mentira y el engaño y sus beneficios en nuestra especie. Es la cultura del engaño en que las reglas para su control se aplican a criterio del árbitro o del juez. Ante los mismos hechos, la aplicación puede no ser la misma.

Referencias:

Bond, Jr., C.F. & M. Robinson. 1988. The evolution of deception. Journal of Nonverbal Behavior 12: 295.307.

Bucciol, A. 2018. False claims in politics: Evidence from the US. Research in Economics 72: 196-210.

Bucciol, A. & L. Zarri. 2013. Lying in politics: Evidence from the US. Working Paper University of Verona Series 22: 43 pp.

Camus, A. 1957. Lo que debo al fútbol. France Football. Octubre.

Courtine, J.-L. 2006. Introducción. En “El arte de la mentira política”, p. 7-21. Sequitur. Madrid. 96 pp.

Morris, P.H. & D. Lewis. 2009. Tackling diving: The perception of deceptive intentions in association football (soccer). Journal of Nonverbal Behavior 34: 1-13.

Guldenpenning, I. et al. 2017. How to trick your oponent: A review article on deceptive actions in interactive sports. Frontiers in Psychology 8: 917.

Pennisi. E. 2011. Soccer and the art of deception. Science 331: 280.

Pérez, J.I. 2018. Fútbol es fútbol. Deia. 1 julio.

Ponseti, F.J. et al. 2012. El Cuestionario de Disposición al Engaño en el Deporte (CDED): su aplicación a jóvenes deportistas. Revista de Psicología del Deporte 21: 75-80.

Renden, P.G. et al. 2014. Foul or dive? Motor contributions to judging ambiguous foul situations in football. European Journal of Sport Science 14: S221-S227.

Rosenbaum, D.A. et al. 2010. Estimation of injury simulation in international men´s soccer. International Journal of Sport Science 31: 747-750.

Rosenbaum, D.A. et al. 2011. Estimation of injury simulation in international women´s football. Research in Sports Science 19: 162-169.

Sabag, E. et al. 2018. To dive or not dive in the penalti área? The questionable art of deception in soccer. International Journal of Sport and Exercise Psychology doi: 10.1080/1612197X.2018.1462100.

The Global Deception Research Team. 2006. A world of lies. Journal of Cross Culture Psychology 37: 60-74.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo La cultura del fútbol se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Fútbol es fútbol
  2. Fórmulas matemáticas y números: cómo ayuda la economía al fútbol
  3. Los beneficios de las prendas de compresión para los jugadores de fútbol
Categories: Zientzia

Maia García Vergniory: “Materiales que nos cambiaron”

Sat, 2018/09/29 - 11:59

Las grandes transformaciones sociales y los cambios de paradigma registrados a lo largo de la historia de la humanidad suelen ir aparejados al descubrimiento de un nuevo material, cuyas novedosas aplicaciones acaban desencadenando una gran revolución. Este fue el hilo conductor de la charla “Materiales que nos cambiaron“, que la investigadora del Donostia International Physics Center (DIPC) Maia García Vergniory ofreció en Naukas Bilbao 2018, celebrado en el Palacio Euskalduna de Bilbao del 13 al 16 de septiembre.

Imagen: Maia García Vergniory, investigadora Ikerbasque en el Donostia International Physics Center, durante su charla en Naukas Bilbao 2018. (Fotografía: Iñigo Sierra)

La investigadora relató la relevancia de los materiales para el progreso de la civilización y aseguró que “El hombre deja de ser recolector con el uso de la calcita”.

Más adelante, el uso del hierro tuvo un impacto fundamental en el devenir de la civilización. Ese material está unido a la industria armamentística y a las guerras, pero también a la revolución industrial, las migraciones del campo a los grandes núcleos urbanos y a las transformaciones sociales que esos movimientos de población generaron.

Y si avanzamos hasta el momento presente las cosas no son muy distintas. La actualidad también está marcada por un material que ha revolucionado nuestras vidas: el silicio.

“Este material semiconductor es la base para la fabricación de cualquier transistor y el transistor es la base de nuestra tecnología”, dijo García.

Su gran abundancia -se trata del segundo elemento más presente en la corteza terrestre tras el oxígeno- y su relevancia para la industria electrónica han convertido al silicio en uno de los protagonistas de la era contemporánea, pero el uso masivo de las tecnologías digitales en las comunicaciones, las administraciones públicas, el transporte, los servicios financieros o la fabricación industrial está ejerciendo una fuerte presión para provocar la llegada de nuevas alternativas.

“Hay que encontrar un material nuevo porque el silicio ha llegado al límite de su capacidad en memoria y además consume mucha energía”, según la investigadora.

Uno de los candidatos a convertirse en el nuevo icono pop de los materiales es el grafeno, un material flexible, ligero, elástico, conductor térmico y eléctrico y con capacidad de modificarse para ser empleado en diferentes aplicaciones, pero, según la investigadora, todavía “queda bastante trabajo por delante” para que este material se convierta en una alternativa de mercado real.

Sobre la autora: Marta Berard, es periodista en la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Maia García Vergniory: “Materiales que nos cambiaron” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un atlas para materiales 2D
  2. Selección sexual: la evolución de las diferencias entre los sexos, por Ambrosio García Leal
  3. Materiales tipo perovskita como contacto en pilas de combustible de óxido sólido
Categories: Zientzia

La elasticidad es más importante que el tamaño a la hora de atravesar nanoporos

Fri, 2018/09/28 - 11:59
Las nanopartículas con gran elasticidad tienen la capacidad de cambiar su conformación hasta ser capaces de atravesar poros incluso 10 veces menores que ellas. (studiom1-123RF)

El grupo de Polímeros y Materia Blanda de la UPV/EHU, donde confluyen investigadores del Centro de Física de Materiales-CFM (centro mixto CSIC-UPV/EHU), del Departamento de Física de Materiales y del Donostia International Physics Center (DIPC) ha publicado recientemente los resultados de un estudio en el que han investigado el paso (translocación) de nanopartículas sintéticas blandas a través de nanoporos y nanohendiduras de menor diámetro.

“Una de las áreas de investigación de nuestro grupo es la síntesis de cadenas de polímeros y su plegamiento hasta formar nanopartículas, intentando asemejar ese doblamiento al que se produce en las proteínas, en la naturaleza —expone el miembro del grupo Josetxo Pomposo, profesor de investigación Ikerbasque en la UPV/EHU—. Una posible aplicación de estas nanopartículas podría ser la dosificación de medicamentos, que serían transportados en los huecos que se forman al plegar las cadenas, que harían las veces de bolsillos, y se liberarían cuando la nanopartícula llegase a la zona a tratar”.

Pero para llegar a cumplir con esa función, las nanopartículas deben ser capaces de atravesar las membranas de las células diana, y “esa capacidad de atravesar los poros o hendiduras de las membranas, que son más pequeños que las propias nanopartículas, se ve condicionada por el nivel de plegamiento y la elasticidad que presenten”, detalla el investigador.

En este estudio, el grupo de investigación ha trabajado con un modelo de nanopartículas, a nivel teórico, para poder anticipar el comportamiento que presentarán las nanopartículas reales a la hora de tener que atravesar un nanoporo o una nanohendidura. Tal como explica el Dr. Pomposo, “se da la circunstancia de que hay nanopartículas bastante grandes que son capaces de pasar por poros pequeños, por su alta elasticidad, y otras más pequeñas, pero también más rígidas, que, sin embargo, no pueden atravesarlos”.

El trabajo ha resultado en una serie de leyes de escala, que relacionan el diámetro más pequeño que podrá atravesar una nanopartícula, con su tamaño y su elasticidad, o la tasa de flujo crítica que es necesaria para que se dé la translocación de las nanopartículas a través de nanoporos, entre otros. “Lo que hace es aportar la base teórica de lo que se estaba observando en diferentes estudios de este tipo”, destaca.

Esta información podría dar pie, incluso, a desarrollar técnicas de caracterización que hoy en día no existen, como la determinación de la elasticidad de las nanopartículas blandas, haciéndolas pasar por una serie de nanoporos, o la separación de estas en función de su elasticidad o el nivel de cohesión interna. El Dr. Pomposo recalca el nivel de resolución al que se está llegando con las nuevas técnicas de caracterización, ya que “están dando información sobre nanopartículas individuales, de tamaños nanométricos”.

Referencia:

Jose A. Pomposo, Jon Rubio-Cervilla, Edurne Gonzalez, Angel J. Moreno, Arantxa Arbe, Juan Colmenero (2018) Ultrafiltration of single-chain polymer nanoparticles through nanopores and nanoslits Polymer DOI: 10.1016/j.polymer.2018.06.030

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo La elasticidad es más importante que el tamaño a la hora de atravesar nanoporos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Es hora de prepararse para el Maquinoceno
  2. Ni lo más importante ni lo más divertido
  3. Nanopartículas lipídicas como vectores en terapia génica
Categories: Zientzia

Pages