Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 1 hour 27 min ago

Luces y sombras del uso de la tecnología en clase

Sat, 2020/01/04 - 11:59

Érase una vez… en el País Vasco, un congreso tan oportuno y tan útil, y tan bien recibido en Bilbao y en Donostia-San Sebastián, que muchos pensaron que tenía que viajar a más lugares. Así que la Cátedra de Cultura Científica y la Fundación Promaestro se pusiron de acuerdo y, con la ayuda de EduCaixa, lo llevaron a Madrid: casi un centenar de personas con espíritu crítico y bien informadas llenaron el pasado 2 de abril la modesta y acogedora sala de CaixaForum en la que se celebró.

Algo desalentadoras son las evidencias que Pablo Garaizar presenta sobre el uso (y abuso) de la tecnología en las aulas. Muchas veces asociamos los buenos resultados a la supuesta bondad de una metodología cuando, en realidad, dichos resultados se explican mejor atendiendo a otros factores, principalmente al nivel socio-económico de las familias de los alumnos. Es lo que suele ocurrir con las apuestas tecnológicas en educación: “el tiempo de pantalla no se puede medir «al peso» y las pantallas se usan de manera diferente en unos contextos y en otros», por lo que tampoco es igual el aprovechamiento de la tecnología en unas familias y en otras.

Ciertos programas innovadores y conocidos, como Escuela 2.0, no han funcionado y, en todo caso, los efectos positivos encontrados en ellos se suelen limitar “al uso moderado de las TIC a la hora de hacer los deberes, es decir –matizó el profesor de la Universidad de Deusto– a usar la tablet o el ordenador una o dos veces al mes”.

A la pregunta de si merece la pena invertir en tecnología para mejorar la educación, la respuesta de Garaizar es igual de clara: “los principales estudios muestran que un poco de tecnología es bueno, pero mucha no ayuda e incluso puede empeorar la educación”. Lo que sucede, reconoce el ingeniero informático, “es que la educación es un sector económico muy jugoso”, y las empresas tecnológicas están introduciéndose en él valiéndose de los maestros y de los deseos de las familias. En respuesta a esta deriva, el investigador cierra su ponencia con un recordatorio: “la educación no es un producto, los estudiantes no son nuestros clientes, los profesores no somos herramientas y la universidad no es una fábrica de titulados”.

Edición realizada por César Tomé López a partir de materiales suministrados por Fundación Promaestro

El artículo Luces y sombras del uso de la tecnología en clase se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas14 Luces y sombras en películas de animación
  2. #Naukas14 El camino no tomado: azar y tecnología
  3. Modelado matemático: del legado de Galileo al ambiente, la medicina y la tecnología
Categories: Zientzia

Entrenan a las máquinas para reconocer la belleza y edad de las caras

Fri, 2020/01/03 - 11:59
Ignacio Arganda. Foto: UPV/EHU.

Los investigadores Ikerbasque Fadi Dornaika e Ignacio Arganda del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UPV/EHU proponen avances en la visión por ordenador y el aprendizaje automático. Concretamente, han obtenido muy buenos resultados utilizando técnicas semisupervisadas en el campo de predicción de la belleza facial, y, por otra parte, han estudiado qué funciones de error ayudan a entrenar mejor a las redes para mejorar la estimación de la edad facial.

La investigación en inteligencia artificial abarca muchísimos campos con el objetivo de conseguir la que podría ser la máquina inteligente ideal que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea. El grupo Computer Vision and Pattern Discovery de la UPV/EHU se dedica a la visión por ordenador y al aprendizaje automático. “Básicamente, utilizamos técnicas modernas de inteligencia artificial para resolver problemas de imagen muy diversos, en imágenes de todo tipo: 2D, 3D, vídeos, etc.”, explica Ignacio Arganda, investigador Ikerbasque del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UPV/EHU.

De hecho, el grupo de investigación está especializado en temas tan diversos como imágenes biomédicas (detección de células, tejidos, tumores…), imágenes faciales (percepción de la belleza, estimación de la edad) o imágenes de la calle (localización de vehículos, peatones…), que abordan en colaboración con investigadores de otras entidades y centros de investigación. “En general, son técnicas de aprendizaje automático, porque normalmente partimos de un conjunto de datos, imágenes o vídeos etiquetados (en los que se conoce dónde están los objetos o qué tipo de categoría tienen), con los que enseñamos o entrenamos a nuestros modelos estadísticos o de inteligencia artificial a asignar esas mismas etiquetas a ejemplos que no habían visto antes”, explica Arganda.

¿En qué se fija la red para deducir la edad de una persona o dar una puntuación de belleza?

En sendas investigaciones relacionadas con las imágenes faciales, los investigadores han propuesto mejoras en relación con la predicción de la belleza y la estimación de la edad. “En la investigación de la predicción de la belleza, intentamos replicar las puntuaciones de belleza dadas en diferentes bases de datos, utilizando técnicas semisupervisadas (en las que no todas las imágenes están etiquetadas) —explica el doctor Arganda—. Para eso, utilizamos redes en las que se extraen diferentes características que se utilizan para entrenar a los modelos con los que predecir la belleza”. En esta línea, los miembros del equipo han demostrado que “el aprendizaje semisupervisado, nunca utilizado hasta ahora para este tipo de problema, da tan buenos resultados o incluso mejores que el supervisado (en el que todas las imágenes están etiquetadas)”, apunta.

“Para la estimación de la edad, se utilizan redes neuronales convolucionales (CNN): lo que se tiene es una imagen de entrada; una serie de filtros van extrayendo características que ayudan a tomar la decisión final, o sea un número, en este caso la edad”, añade. En esta línea, “hicimos un estudio empírico para ver qué funciones de error ayudan a entrenar mejor a las redes en este ámbito, porque el error en las estimaciones se puede minimizar de maneras diferentes”, explica el investigador. Los resultados experimentales obtenidos han demostrado la manera en la que se puede mejorar la estimación de la edad.

Para este tipo de predicciones y estimaciones se utilizan redes neuronales profundas: “Redes con muchísimas conexiones, muchísimos filtros, millones de datos… Pero es importante entender en qué se está fijando la red para predecir la edad de una persona, o hacer cualquier otro tipo de predicción. Actualmente, existe otro campo de investigación, en el que estamos sumergidos, llamado inteligencia artificial explicable o interpretable, que estudia técnicas con las que dilucidar en qué pone la red su atención”, explica Arganda.

Asimismo, el investigador alerta de que “las técnicas de aprendizaje automático nos afectan en la vida más de lo que pensamos. Se están generando muchísimos datos y se están tomando decisiones de alto nivel en función de estos sistemas. Es muy importante tener en cuenta el factor ético. De hecho, en el aprendizaje automático se utilizan bases de datos gigantescas con las que se entrenan los modelos, y todos los sesgos que contienen estos datos se replican en las predicciones y estimaciones que hacen los modelos, y puede ser realmente nocivo. En ese sentido, hay investigaciones abiertas en la que se estudia cómo quitar los diferentes sesgos de los datos”. En opinión de Arganda, “estamos en un momento apasionante en este campo”.

Referencia:

Fadi Dornaika, Kunwei Wang, Ignacio Arganda-Carreras, Anne Elorza, Abdelmalik Moujahid (2019) Toward graph-based semi-supervised face beauty prediction Expert Systems With Applications Expert Systems with Applications doi: 10.1016/j.eswa.2019.112990

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Entrenan a las máquinas para reconocer la belleza y edad de las caras se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Aprendiendo de las máquinas
  2. Máquinas inteligentes (II): Inteligencia artificial y robótica
  3. Algoritmos de triaje para readmitidos en urgencias
Categories: Zientzia

Receta de un Adagio (1)

Thu, 2020/01/02 - 11:59

Sentía la pobre oscuramente, sin darse de ello clara cuenta, que la música es preparación eterna, preparación a un advenimiento que nunca llega, eterna iniciación que no acaba cosa.

Miguel de Unamuno. Niebla.

Foto: Uriel Soberanes / Unsplash

Hay muchas formas de componer la tristeza. Si uno toma el top dramones de la encuesta de la BBC por ejemplo, puede resultar sorprendente que las obras incluidas ni siquiera parecen comparables entre sí. Sólo en 5 piezas encontramos desde un tema de jazz de 3 minutos cantado por Billy Holiday, hasta una obra para cuerda de media hora de duración compuesta por Richard Strauss. Y si uno le pregunta a Twitter, el abanico de posibilidades se vuelve todavía más extenso.

Hay muchas formas de componer la tristeza. No existe una única pieza clave, una nota dolorosa, ni una fórmula mágica que haga brotar las lágrimas. Pero como el vinagre y el aceite, existen ingredientes que se repiten en casi todas las ensaladas (tristes ensaladas). Para componer la tristeza no se usan aliños sino sonidos que se parecen a los que emite un humano triste y sonidos que se parecen a los de un humano que gotea.

Elige un tempo lento.

Es difícil encontrar un patrón que se repita en todas las obras que nos producen tristeza. Pero si hubiese que elegir uno, sería este: casi todas las canciones tristes son lentas. Basta alterar la velocidad y el carácter de la pieza cambia por completo.

El tempo (la velocidad a la que interpreta una pieza de música) se encuentra, de hecho, en la base de las emociones y es, probablemente, el ingrediente más importante a la hora de determinar el carácter de la música. Tanto es así que muchas de las palabras que utilizamos para designarlo corresponden a estados anímicos expresados en italiano (o, más raramente, en francés): Allegro, Tranquillo, Moderato espressivo, Afettuoso, Grave…

El término Adagio no es una excepción. Proviene del italiano ad agio que significa “con facilidad”. En este caso, el contagio se dio a la inversa y un término que en principio hacía referencia a una velocidad de interpretación cómoda, hoy está empapada de matices emocionales. Un Adagio es lento, sí, pausado como un humano triste. Pero es más que eso… también es noble, amable, amplio, a veces elegíaco, siempre expresivo. Un Adagio canta con voz redonda y sostiene una mirada serena. Encarna todos los antónimos que se puedan pensar de la palabra frívolo. Y, a estas alturas… un Adagio ya no es fácil.

El Adagio de Barber, de hecho, resulta engañosamente sencillo. Y uno de los mayores retos que plantea de su interpretación radica, justamente, en elegir y mantener el tempo adecuado. Ni demasiado rápido —arruinaría el carácter de la pieza— ni demasiado lento —acabaría por ahogarla. “Con intensidad creciente”—escribió Toscanini de su puño y letra en su partitura de ensayo— “pero sin correr”. Aunque desde fuera un tempo rápido puede parecer más díficil de ejecutar (a todos nos impresionan los grandes virtuosos con sus malabarismos digitales), la lentitud plantea sus propios retos. Es difícil sostener la tensión de la música, controlar las propias emociones para que la música no se desparrame hacia delante siguiendo el pulso acelerado de quien la interpreta. Pero incluso a nivel puramente técnico: un movimiento demasiado lento del arco sobre el violín puede hacer más difícil mantener una presión constante sobre las cuerdas, o calcular que el arco no se acabe antes de la cuenta.

Tampoco las pausas deben extenderse más de la cuenta: un rubato excesivo (las pequeñas variaciones que se hacen sobre el tempo base) podría llevar a que el pulso, ya de por sí lento y difícil de seguir, se perdiera por completo. Intuitivamente, como dice Zubin Mehta: “si uno exprime cada cadencia, puede acabar un poco mareado”.

A veces me imagino el Adagio de Barber como una escultura de agua. Un montón de líneas de flujo laminar suspendidas sin roturas en el aire: inmóviles gracias al constante movimiento de las moléculas del agua, transparente sólo si se consigue fijar la velocidad perfecta.

Elimina las esquinas.

Los humanos tristes balbucean, arrastran los pies, se mueven despacio y odian los saltos. Los humanos tristes no tienen esquinas.

Por eso, las piezas de música triste suelen dar pocos saltos y prefieren las melodías suaves, también en su articulación: la alegría a menudo utiliza sonidos breves, saltarines, cortantes (pizzicato, staccato…). La tristeza, en cambio, prefiere fundir sus sonidos en un continuo legatto (o diluirlo todo al piano, con un buen pedal de resonancia).

La ausencia de esquinas se hace evidente en el Adagio de Barber, que desliza su melodía por grados contiguos y pinta toda la armonía a base de gradientes y acuarelas. En el Adagio, los acordes se desbordan de cada compás mediante retardos y apoyaturas. Todo es fluido, ambiguo y curvo… como una escultura de agua.

Esto puede provocar que la coordinación de los músicos se vuelve complicada: en Barber, el pulso a veces es tan lento que puede llegar a perderse por completo. La ausencia generalizada de líneas nítidas hace difícil colocar hitos temporales sobre los que coordinarse con los demás. Es como quedar a pasear en un día con niebla. Los intérpretes de la orquesta deben prestar atención a lo que hacen los demás para ubicarse y reubicarse, y andar a la par.

Los finales de frase tienden a relajar tempo. Es ahí donde la música se para a respirar. Así, con los pulmones llenos, las frases pueden hacerse más largas. Pero, en palabras del director William Schrickel, “no tendría sentido si fuesen tan lentas que nadie las pudiese cantarlas en realidad”. Por supuesto, los violines no tienen nada que limite su capacidad pulmonar… pero toda música es, con perspectiva, la sofisticación de algún tipo de canto. Los violines del Adagio, encarnan su voz.

El artículo Receta de un Adagio (1) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. A la sombra de un Adagio
  2. El último puzle de Bach
  3. Tema y variaciones
Categories: Zientzia

Un teorema sobre el Tangram

Wed, 2020/01/01 - 11:59

 

En la entrada del Cuaderno de Cultura Científica titulada El arte contemporáneo mira al Tangram estuvimos viendo como algunos artistas contemporáneos utilizaban el Tangram como un elemento fundamental en el desarrollo de algunas de sus obras de arte.

En particular, pudimos observar que, entre las configuraciones posibles con las siete piezas de este rompecabezas geométrico, un grupo que llamaba especialmente la atención de estos artistas era la familia de configuraciones convexas, quizás por ser una familia muy matemática. En la entrada de hoy vamos a hablar precisamente de este tipo de configuraciones, en qué consisten y cuántas existen.

Tangram convexo 007 (2014), del artista Kaufman, pseudónimo artístico de James Marr, realizado con madera reciclada. Imagen de la página web del artista

 

Puesto que esta entrada va a ser algo más matemática, volvamos a introducir y observar, desde una óptica más geométrica, el rompecabezas Tangram y las siete piezas poligonales que lo componen.

Para empezar, volvamos a observar las siete piezas poligonales que forman el Tangram, dos triángulos pequeños, un triángulo mediano y dos triángulos grandes, todos ellos con la misma forma –triángulo rectángulo isósceles–, pero distintos tamaños (sus ángulos son 90, 45 y 45 grados), un cuadrado (con cuatro ángulos de 90 grados) y un romboide (cuyos ángulos son 45, 135, 45 y 135 grados, pero observemos que 135 = 90 + 45). Todas las piezas son “simétricas”, en el sentido de que si se voltean no cambian de forma, son la misma figura (tienen simetría especular), salvo el romboide, que si se voltea cambia su orientación. Por lo tanto, el romboide tiene dos posibilidades a la hora de ser utilizado para realizar una configuración, como la original del cuadrado.

Una cuestión interesante de las piezas del Tangram, que además va a ser fundamental en el estudio de las configuraciones convexas, es que las piezas del Tangram pueden ser divididas en triángulos rectángulos isósceles, del mismo tamaño que las dos piezas triangulares pequeñas del Tangram, como se muestra en la siguiente imagen. De esta forma, las piezas del Tangram pueden dividirse en 16 triángulos rectángulos isósceles iguales.

Si consideramos que los dos lados iguales de estos triángulos rectángulos isósceles, que son los catetos, miden 1 (son nuestra unidad de medida), entonces la hipotenusa medirá, por el teorema de Pitágoras, raíz de 2. Es decir, bajo esta premisa podemos considerar que dos lados del triángulo rectángulo isósceles son “lados racionales” y el otro es un “lado irracional”.

Además, teniendo en cuenta esto podemos ver, en la siguiente imagen, las medidas de las piezas del Tangram. Así mismo, podemos calcular sus áreas. El área de los triángulos pequeños es 0,5, el área del cuadrado, el triángulo mediano y el romboide es 1, y el área de los triángulos grandes es 2.

El objetivo del rompecabezas geométrico es buscar la forma de colocar las piezas para obtener una configuración dada del mismo, como el cuadrado básico, pero también otras configuraciones, ya sean figurativas (personas, animales, árboles, flores, edificios, letras, números, etc) o geométricas (polígonos convexos, estrellas, poliominós, etc), o incluso diseñar nuevas configuraciones. Puede ocurrir que una configuración dada no tenga ninguna solución, en cuyo caso hay que buscar la forma de demostrar que no la tiene, o en caso de tener solución puede analizarse cuántas formas distintas de conseguir esa configuración existen.

Por ejemplo, si tomamos la configuración básica del Tangram solo existe una solución de la misma, salvo rotaciones y reflexiones (dar la vuelta), que se extendería a 8 soluciones si admitiésemos como distintas las rotaciones y reflexiones (dar la vuelta), como se muestra en la siguiente imagen.

Ocho soluciones simétricas del cuadrado con las piezas del Tangram, que constituyen la única solución, salvo rotaciones y reflexiones

 

El gran divulgador de las matemáticas Martin Gardner (1914-2010), en su primer artículo sobre el Tangram de su columna Mathematical Games de la revista Scientific American, titulado On the fanciful history and the creative challenges of the puzzle game of tangrams, mostraba una colección de configuraciones con el reto de obtenerlas con las siete piezas, pero una de ellas no era posible y la cuestión era, además, demostrar por qué no era posible. A continuación, mostramos estas configuraciones.

Reto: Obtener estas configuraciones con las siete piezas del Tangram y demostrar que una de ellas es imposible (la demostración al final de la entrada).

Desde el punto de vista matemático, los problemas más interesantes son los de tipo combinatorio. Cuestiones como las siguientes: ¿cuántos polígonos convexos pueden formarse con las piezas del Tangram?, ¿cuántos polígonos de tres, cuatro o cinco lados pueden construirse?, ¿cuántos poliominós (donde un poliominó es una figura geométrica plana formada conectando dos o más cuadrados por alguno de sus lados, como vimos en la entrada Embaldosando con L-triominós (un ejemplo de demostración por inducción)?, ¿cuántas formas estrelladas pueden formarse?, etc.

Antes de continuar, recordemos que un polígono convexo es un polígono cuyos ángulos interiores miden menos de 180º, es decir, no hay zonas que externas metidas hacia dentro. En general, en matemáticas, se dice que un conjunto es convexo, si dados dos puntos cualesquiera del conjunto se verifica que los puntos del segmento que une esos dos puntos está también dentro del conjunto.

Dos figuras realizadas con las piezas del Tangram, la primera es convexa (sus ángulos interiores miden, desde arriba y en el sentido de las agujas del reloj, 90, 45 y 45 grados), mientras que la segunda no lo es (sus ángulos interiores miden, desde arriba y en el sentido de las agujas del reloj, 90, 45, 135, 270, 135 y 45 grados

 

Antes de entrar en el teorema sobre el Tangram referido al número de configuraciones convexas que existen, primero pensemos cuántos triángulos, polígonos de tres lados, se pueden construir con las piezas del Tangram. La respuesta es sencilla, únicamente el triángulo de la imagen anterior, que es un triángulo rectángulo isósceles (con ángulos de 45, 45 y 90 grados). El motivo es que los ángulos de las piezas del Tangram son 45, 90 y 135 grados, como la suma de los ángulos de un triángulo es 180 grados, la única opción posible es 45, 45 y 90 grados, es decir, el triángulo rectángulo anterior.

Observemos ahora que la solución anterior de la configuración triangular del Tangram no es la única, en contraposición a lo que ocurría con el cuadrado básico. Por ejemplo, otra posible solución es la que mostramos a continuación.

Otra solución de la configuración triangular del Tangram

 

Si nos planteáramos qué ocurre con las figuras cuadriláteras, si es posible que existan figuras no convexas de cuatro lados, la respuesta es negativa. La única opción posible para los cuatro ángulos es tres ángulos de 45 grados y uno de 225 grados, el problema es que no se puede realizar esta figura con 16 triángulos rectángulos isósceles del tamaño de las piezas triangulares pequeñas del Tangram. Luego todos los cuadriláteros que se puedan construir serán convexos.

Pero vayamos al resultado importante respecto a las configuraciones convexas del Tangram, la existencia únicamente de 13 polígonos convexos realizados con las figuras del rompecabezas.

Teorema (F.T. Wang, Ch. Hsiung, 1942): Utilizando las piezas del Tangram se pueden formar exactamente trece polígonos convexos.

Los matemáticos chinos Fu Traing Wang y Chuan-Chih Hsiung, en su artículo publicado en The American Mathematical Monthly en 1942, demostraron primero algunos lemas (resultados técnicos previos) que tenían en cuenta fundamentalmente el carácter racional e irracional de los lados de los dieciséis triángulos rectángulos isósceles y que nos permiten entender mejor la situación, así como simplificar la demostración del resultado matemático.

Lema 1. El primer lema dice que, si utilizamos dieciséis triángulos rectángulos iguales para formar un polígono convexo, entonces un lado racional de un triángulo no puede apoyarse en un lado irracional de otro triángulo, como en la imagen siguiente.

Si nos fijamos en la imagen de arriba, los dos triángulos apoyados uno en otro, racional frente a irracional, la figura es claramente no convexa con solo esas dos piezas. Si dibujamos la recta que extiende el lado compartido de los triángulos, podemos observar que:

1. No hay forma de que ninguna pieza atraviese esa línea;

2. Si en la parte superior colocamos triángulos con el lado racional apoyado en la recta, como el que está, y en la parte inferior colocamos triángulos con el lado irracional apoyado en la recta, no hay forma de que coincidan los vértices sobre la recta, ya que una cantidad racional, la suma de los lados de arriba, no puede ser igual a una cantidad irracional, la suma de los de abajo, por lo que siempre quedará una situación no convexa, similar a la de la imagen;

3. La única forma de igualar las longitudes de las piezas que se apoyan en la parte superior e inferior de la recta, es apoyando desde arriba un triángulo con su lado irracional y desde abajo un triángulo con el racional, como se muestra en la imagen.

Pero, en este caso, para romper la no convexidad de la figura formada hay que incluir más triángulos en las zonas con una estrella, lo que nos lleva a volver a poner necesariamente otro lado irracional sobre uno racional y volver a la misma situación inicial, luego de no convexidad.

Lema 2. Si se tiene en cuenta el primer lema, en particular, el argumento del punto 3, se tiene que, si utilizamos dieciséis triángulos rectángulos iguales para formar un polígono convexo, entonces los lados del polígono están formados por lados del mismo tipo (racionales o irracionales) de los triángulos. Además, se dice que un lado del polígono convexo es racional, o irracional, cuando está formado por lados racionales, o irracionales (respectivamente), de los triángulos. En general, los lados racionales e irracionales del polígono convexo alternan, pero si un ángulo del polígono es recto, los lados adyacentes son ambos racionales o irracionales.

Si miramos a la solución del Tangram con forma triangular, pero vista como formada por los dieciséis triángulos rectángulos isósceles del mismo tamaño, observamos que efectivamente se cumple este lema. Los dos lados adyacentes al ángulo recto son racionales, mientras que el otro, entre ellos, es irracional.

Lema 3. Este lema nos establece un número máximo de lados que puede tener un polígono convexo formado por dieciséis triángulos rectángulos isósceles del mismo tamaño. Por una parte, tiene en cuenta que la suma de los ángulos interiores de un polígono convexo de n lados es (n – 2) x 180 grados (este resultado se puede demostrar fácilmente tomando un punto interior del polígono convexo y dividiendo este en triángulos con uno de sus vértices ese punto interior, con solo tener en cuenta que la suma de los ángulos de un triángulo es 180 grados y que los ángulos alrededor del punto interior suman 360 grados) y, por otra parte, que en cada uno de los n vértices del polígono convexo la suma máxima que pueden alcanzar los ángulos que proporcionan los triángulos es 135 grados. Considerando ambas informaciones se tiene que la suma de los ángulos interiores del polígono convexo, (n – 2) x 180 grados, es menor o igual que n x 135 grados, de donde, n es menor o igual que 8.

En conclusión, no hay polígonos convexos de más de 8 lados que puedan ser formados con 16 triángulos rectángulos isósceles iguales.

Lema 4. Teniendo en cuenta los lemas anteriores y que los ángulos del polígono convexo solo pueden tener los valores 45, 90 y 135 grados, se obtiene que, si utilizamos dieciséis triángulos rectángulos iguales para formar un polígono convexo, entonces este polígono está inscrito en un rectángulo con todos los lados racionales, o irracionales, del polígono apoyados en los lados del rectángulo.

Si consideramos que el polígono convexo tiene p ángulos de 45 grados, q de 90 grados y r de 135 grados, y que la suma de los ángulos del polígono convexo es (n – 2) x 180 grados, se tiene que 2p + q = 8 – n, luego como el polígono tiene como mucho 8 lados, entonces se tienen las siguientes posibilidades para los valores de (p, q, r):

Con los anteriores resultados, ya estamos en condiciones de demostrar este teorema sobre el Tangram.

Demostración del teorema. Para empezar, podemos asumir que el polígono convexo generado con los dieciséis triángulos rectángulos isósceles iguales es un octógono, que denotamos de la siguiente forma ABCDEFGH (sus vértices), ya que podemos considerar que los polígonos con menos lados son octógonos degenerados, en los que algunos lados tienen longitud cero, es decir, son solo vértices. Por otra parte, podemos suponer que el polígono está inscrito en un rectángulo PQRS tal que los lados racionales del polígono BC, DE, FG y HA son los que se apoyan en los lados del rectángulo.

A continuación, llamamos a, b, c y d al número de lados irracionales de los triángulos rectángulos isósceles que forman los lados irracionales del octógono AB, CD, EF y GH, respectivamente. Si seguimos con la convención de que los lados racionales de los dieciséis triángulos rectángulos isósceles iguales miden 1 (por el teorema de Pitágoras, los irracionales miden raíz de 2), entonces resulta que los números naturales a, b, c y d (que podrían valer 0 en el caso de un octógono degenerado) son las longitudes de los catetos de los triángulos rectángulos APB, CQD, ERF y GSH, cuyas hipotenusas son los lados irracionales del octógono, como puede observarse en la anterior imagen. El siguiente diagrama nos muestra la justificación de lo anterior.

Y llamamos x e y a las longitudes de los lados del rectángulo en el que está inscrito el octógono, como se indica en la imagen de más arriba. Ahora, por un simple razonamiento de áreas en el diagrama del octógono inscrito en el rectángulo, tenemos que los números naturales a, b, c, d, x, y (que pueden tomar también el valor 0) satisfacen la siguiente ecuación:

con las restricciones naturales siguientes

Por lo tanto, hemos reducido la demostración del resultado sobre las configuraciones convexas del Tangram a la búsqueda de soluciones enteras (no negativas) de la anterior ecuación, con sus restricciones y de las mismas (ya que estas se corresponden a disposiciones con los 16 triángulos rectángulos isósceles iguales) determinar cuáles son posibles mediante las piezas del Tangram.

En esta entrada nos vamos a saltar la parte de la demostración que consiste en buscar las soluciones enteras, no negativas, de la anterior ecuación. Para las personas que estén interesadas les remitimos al artículo original A theorem on the Tangram, de Wang y Hsiung, o al artículo Finding all convex tangrams, de T.G.J. Beelen, que se incluyen en la bibliografía. A continuación, mostramos una tabla con las soluciones para las incógnitas a, b, c, d, x, y, además, están marcadas con un asterisco aquellas que no se corresponden con configuraciones del Tangram.

De donde podemos construir los trece poliedros convexos posibles con las siete piezas del Tangram.

Las 13 configuraciones convexas posibles con el rompecabezas Tangram

 

Por otra parte, las siete construcciones posibles con dieciséis triángulos rectángulos isósceles iguales, pero que no son realizables con las piezas del Tangram son las siguientes.

Las 7 configuraciones convexas realizables con los 16 triángulos rectángulos isósceles iguales, pero no con las piezas del Tangram

 

Vamos a terminar con un grabado basado en una de las trece construcciones poligonales convexas del Tangram, realizada por el artista italiano Francesco Moretti, de quien ya hablamos en la anterior entrada El arte contemporáneo que mira al Tangram.

Forma cerrada 02 (2018), de Francesco Moretti. Linograbado en 2 colores, de tamaño 50 x 50 cm. Imagen extraída de la página del artista Francesco Moretti

 

Pero no hemos terminado del todo, aún nos queda la solución del reto que habíamos planteado.

Solución del reto: Para terminar, resolvamos la parte del reto de la configuración que es imposible de realizar. Esta es el cuadrado con un agujero cuadrado en el centro. Demostremos que no es posible realizarla con las siete piezas del Tangram. Si observamos bien la configuración, vemos que efectivamente la superficie de la misma está formada por 8 cuadrados, es decir, 16 triángulos rectángulos isósceles, como las 7 piezas del Tangram. Si vemos donde pueden ir colocadas las piezas triangulares grandes, resulta que solo pueden ir colocadas en dos esquinas opuestas de la configuración, como se muestra en la imagen de abajo. Además, la pieza cuadrada solo podrá ir en una de las dos esquinas libres.

El problema es que la pieza romboide solo puede ir pegada a la única esquina que queda libre, pero entonces no hay sitio para poder colocar la pieza triangular mediana. En conclusión, es imposible realizar esta configuración.

Bibliografía

1.- Fu Traing Wang, Chuan-Chih Hsiung, A theorem on the Tangram, The American Mathematical Monthly, vol. 49, no. 9, pp. 596-599, 1942.

2.- Martin Gardner, Viajes en el tiempo y otras perplejidades matemáticas, RBA, 2010 (los dos artículos originales de Martin Gardner sobre el Tangram que aparecen en este libro fueron publicados originalmente en la columna Mathematical Games de la revista Scientific American en 1974)

3.- Paul Scott, Convex Tangrams

4.- T.G.J. Beelen, Finding all convex tangrams, CASA-report Vol. 1702, Technische Universiteit Eindhoven, 2017.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Un teorema sobre el Tangram se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El arte contemporáneo que mira al Tangram
  2. El teorema del pollo picante (o sobre particiones convexas equitativas)
  3. Tangram
Categories: Zientzia

Las ondas electrónicas y la estructura atómica

Tue, 2019/12/31 - 11:59
Foto: Paulo Carrolo / Unsplash

Bohr había postulado que la cantidad mvr, que llamaremos «momento angular» [1] del electrón que orbita en el átomo de hidrógeno, donde r es el radio de la órbita del electrón, m es la masa de los electrones y v es su velocidad lineal [2], puede tener solo ciertos valores cuantizados. Estos valores cuantizados permiten definir los estados estacionarios.

La relación de de Broglie, λ = h/mv, esto es, el comportamiento ondulatorio de los electrones tiene una aplicación interesante y extremadamente simple que respalda este postulado [3] y ayuda a explicar la existencia de unos estados estacionarios y no otros. Veámoslo.

Bohr asumió que mvr solo puede tener los valores mvr = nh/2π [4], donde h es la constante de Planck y n un número natural que solo puede adoptar los valores n = 1, 2, 3, . . . .

Bien. Supongamos ahora que la onda asociada al electrón se extiende, de alguna forma, por la órbita circular de radio r, de tal forma que ocupa toda la órbita. Si esto es así la longitud de la circunferencia de la órbita, 2π tiene que ser igual a una longitud de onda o a un número entero n de longitudes de onda. En cualquier otro caso la onda se autoanula. Lo vemos en la figura: a la izquierda, encaja (fit), a la derecha no lo hace (no fit) y las ondas se anulan.

Fuente: Cassidy Physics Library

Si esto mismo lo reemplazamos por símbolos tenemos que 2πr, la longitud de la circunferencia, ha de ser igual a un número natural de longitudes de onda, nλ, o sea, 2πr = nλ. Por la relación de de Broglie sabemos que λ = h/mv, por tanto 2πr = nh/mv; que no es más que el postulado de Bohr escrito de otra manera ya que, simplemente reordenando obtenemos mvr = nh/2π.

La relación de Broglie para las ondas electrónicas unida a la idea de que los electrones tienen órbitas que permiten ondas estacionarias nos permite derivar la cuantización de las órbitas electrónicas que Bohr tuvo que asumir.

De lo que hemos visto resulta que uno se puede imaginar electrón que orbita en el átomo tanto como un corpúsculo que se mueve en una órbita con un cierto valor cuantizado del producto mvr como una onda tipo de Broglie estacionaria que ocupa una cierta región alrededor del núcleo.

Ya tenemos los mimbres básicos con los que construir la mecánica cuántica.

Notas:

[1] La definición estricta de momento angular puede llegar a complicarse mucho, conceptual y matemáticamente, sin embargo, y a los efectos que aquí nos ocupan, el producto del momento lineal en un instante (mv) por el radio (r) es más que suficiente y no del todo descabellado.

[2] Velocidad lineal es un componente de la velocidad total, ya que el electrón está en una órbita circular. Podemos interpretarla como la velocidad en un instante en la dirección de la tangente a la órbita en un punto.

[3] Recordemos que este postulado lo había introducido Bohr porque funcionaba pero sin saber por qué funcionaba.

[4] El que aparezca un 2π cuando estamos hablando de una órbita circular de longitud 2πr no debería extrañarnos.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Las ondas electrónicas y la estructura atómica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La estructura de la tabla periódica se deduce de la estructura de capas de los átomos
  2. La energía del estado estacionario
  3. El concepto de estructura atómica
Categories: Zientzia

Los valores en la filosofía de la ciencia

Mon, 2019/12/30 - 11:59
Fuente: Wikimedia Commons

Una vez que Merton (1942) abrió la puerta a los valores como elementos que caracterizan a la empresa científica y que sirven para legitimarla socialmente, otros autores han aportado su propia visión. Sin ánimo de ser exhaustivos, repasamos brevemente a continuación otros puntos de vista, recurriendo para ello a referencias recogidas por Echeverría en sendos trabajos de 1995 y de 2002. El grueso del contenido que sigue se ha tomado de esta entrada en el Cuaderno de Cultura Científica [*].

De acuerdo con la teoría de los objetivos de la ciencia de Karl Popper: “la ciencia busca la verdad y la resolución de problemas de explicación, es decir, que busca teorías de mayor capacidad explicativa, mayor contenido y mayor contrastabilidad.” Según Popper, la objetividad científica exige que las conjeturas sean sometidas a prueba; por eso, la falsación y la crítica no son solo preceptos metodológicos, son también reglas propias del ethos de la ciencia. Por otra parte, la comunicabilidad del conocimiento científico (y en concreto la escritura) son condiciones sine qua non para que esa objetividad sea factible. Popper formuló una nueva característica universal para todo tipo de ciencias (formales, naturales, sociales), a saber, su carácter público.“[…] decimos que una experiencia es pública, cuando todo aquel que quiera tomarse el trabajo de hacerlo puede repetirla,» para remachar a continuación: “Esto es lo que constituye la objetividad científica. Todo aquel que haya aprendido el procedimiento para comprender y verificar las teorías científicas puede repetir el experimento y juzgar por sí mismo.” Y por lo mismo, la  universalidad de la ciencia es otro valor continuamente subrayado por él. La investigación científica se lleva a cabo en un marco social, cultural, institucional e histórico determinado. Sin embargo, ello no implica que no podamos sobrepasar dicho marco, conduciendo nuestra indagación hacia una mayor universalidad.

“En último término, el progreso depende en gran medida de factores políticos, de instituciones políticas que salvaguarden la libertad de pensamiento: de la democracia.” […] La axiología subyacente a la teoría popperiana del objetivo de la ciencia nos muestra nuevos valores, que él considera fundamentales para el desarrollo de la actividad científica: por ejemplo la libertad de pensamiento y la libertad de crítica.

Mario Bunge negó la dicotomía entre hechos y valores en la ciencia y mantuvo al respecto una postura matizada: «el contenido del conocimiento científico es axiológica y éticamente neutral», pero «algunos de los criterios que se emplean en ciencia son claramente normativos». Para Bunge, «los valores son propiedades relacionales que adjudicamos en ciertas ocasiones a cosas, actos o ideas, en relación con ciertos desiderata«. Hay valores que la ciencia moderna ha promovido siempre, como la verdad, la novedad, el progreso, la libertad y la utilidad. Bunge afirmó incluso que «la actividad científica es una escuela de moral «y que «la ciencia es una fuerza moral a la vez que una fuerza productiva», para terminar diciendo que «en conclusión, la ciencia, en su conjunto, no es éticamente neutral».

En una conferencia dictada en 1973, Thomas Kuhn planteó una nueva pregunta en filosofía de la ciencia: ¿cuándo una teoría científica es buena (o mala)? En lugar de preguntar sobre la verdad, falsedad, verosimilitud, falsabilidad, contrastabilidad, etc., de las teorías científicas, como era habitual entre los filósofos de la ciencia, Kuhn suscitó una cuestión que es previa a la de la verdad, falsedad o verosimilitud de las teorías. Según Kuhn, los científicos criban previamente las propuestas y para ello recurren a una serie de requisitos y valores a los que hay que prestar gran atención.

Respondiendo a su propia pregunta, Kuhn indicó al menos cinco características para admitir que una teoría científica es buena: precisión, coherencia, amplitud, simplicidad y fecundidad. Posteriormente sugirió un sexto valor, la utilidad, de índole mayormente técnica, por lo que Kuhn no lo incluyó en su lista inicial de “valores de la ciencia”. También subrayó que ninguno de esos criterios basta por sí mismo para dilucidar si una teoría es buena o no y, por supuesto, tampoco para decidir si es verdadera o falsa. Sin embargo, los cinco son requisitos axiológicos exigibles a toda teoría científica, es decir, condiciones necesarias, pero no suficientes.

Según Kuhn, “[,,,] una teoría debe ser precisa: esto es, dentro de su dominio, las consecuencias deducibles de ella deben estar en acuerdo demostrado con los resultados de los experimentos y las observaciones existentes. En segundo lugar, una teoría debe ser coherente, no solo de manera interna o consigo misma, sino también con otras teorías aceptadas y aplicables a aspectos relacionables de la naturaleza. Tercero, debe ser amplia: en particular las consecuencias de una teoría deben extenderse más allá de las observaciones, leyes o subteorías particulares para las que se destinó en un principio. Cuarto, e íntimamente relacionado con lo anterior, debe ser simple, ordenar fenómenos que, sin ella, y tomados uno por uno, estarían aislados y, en conjunto, serían confusos. Quinto -aspecto algo menos frecuente, pero de importancia especial para las decisiones científicas reales-, una teoría debe ser fecunda, esto es, debe dar lugar a nuevos resultados de investigación: debe revelar fenómenos nuevos o relaciones no observadas antes entre las cosas que ya se saben.” […] “toda elección individual entre teorías rivales depende de una mezcla de factores objetivos y subjetivos, o de criterios compartidos y criterios individuales. Como esos últimos no han figurado en la filosofía de la ciencia, mi insistencia en ellos ha hecho que mis críticos no vean mi creencia en los factores objetivos.”

En su libro “Reason, Truth and History” (1981), Hilary Putnam no solo negó la dicotomía positivista entre hechos y valores, sino que afirmó tajantemente que no hay hechos científicos ni mundo sin valores. Según Putnam, “sin los valores cognitivos de coherencia, simplicidad y eficacia instrumental no tenemos ni mundo ni hechos”

En 1984 Larry Laudan publicó un libro con el sugestivo título Science and Values, pero desde las primeras páginas anunciaba que no iba a ocuparse de las relaciones entre la ciencia y la ética, sino que se centraría exclusivamente en los valores epistémicos:

“No tengo nada que decir sobre los valores éticos como tales, puesto que manifiestamente no son los valores predominantes en la empresa científica. Ello no equivale a decir que la ética juegue papel alguno en la ciencia; por el contrario, los valores éticos siempre están presentes en las decisiones de los científicos y, de manera muy ocasional, su influencia es de gran importancia. Pero dicha importancia se convierte en insignificancia cuando se compara con el papel omnipresente (ubiquitous) de los valores cognitivos. Una de las funciones de este libro consiste en corregir el desequilibrio que ha llevado a tantos escritores recientes sobre la ciencia a estar preocupados por la moralidad científica más que por la racionalidad científica, que será mi tema central.”

En relación con los criterios axiológicos que se utilizan para evaluar las teorías y los problemas, Laudan solo se ocupa de los valores epistémicos (verdad, coherencia, simplicidad y fecundidad predictiva), o, como también dice, de la «evaluación cognoscitivamente racional». Puede haber problemas muy importantes desde un punto de vista político o económico, pero éstos pertenecen a «las dimensiones no racionales de la evaluación de problemas».

Javier Echeverría (2019), por su parte, sostiene que las acciones tecnocientíficas están basadas en un complejo sistema de valores (pluralismo axiológico), compuesto por diversos subsistemas que interactúan entre sí. La axiología no se reduciría a la filosofía moral, sino que sería más amplia que ésta. Así, para analizar axiológicamente la tecnociencia contemporánea no basta con tener en cuenta los valores epistémicos, ni tampoco los valores éticos, religiosos o estéticos, sino que además es preciso ocuparse de valores tecnológicos, económicos, políticos, militares, jurídicos, ecológicos y sociales, así como de lo que podría denominarse, siguiendo a Ortega, valores vitales (o valores naturales, en su terminología). Esos doce subsistemas de valores tendrían mayor o menor peso específico según las acciones tecnocientíficas concretas.

Fuentes:

Javier Echevarría (1995): El pluralismo axiológico de la ciencia. Isegoría 12: 44-79.

Javier Echevarría (2002): Ciencia y valores. Ediciones Destino, Barcelona.

Javier Echeverría (2019): Valores y mundos digitales (en prensa)

Nota: Uno de nosotros (JIPI) desarrolló de forma más extensa el tema de los valores de la ciencia en una serie publicada en el Cuaderno de Cultura Científica.

[*] Nota del editor: este artículo se reproduce en su redacción actual a pesar de su coincidencia en buena medida con un artículo anterior para mantener la coherencia interna de la serie.

Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.

Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.

El artículo Los valores en la filosofía de la ciencia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Algunas visiones en filosofía de la ciencia sobre sus valores
  2. “Filosofía, Ciencia y Valores”, el máster
  3. La ciencia quizás tenga valores… pero no sabemos cuáles son
Categories: Zientzia

La tabla periódica en el Arte: Carbono

Sun, 2019/12/29 - 11:59

 

Se acerca el fin del año y con él concluye este espacio dedicado a la tabla periódica en el arte. Hemos dejado para el final un elemento químico muy especial: el elemento más versátil, el elemento en el que se basa la vida tal y como la conocemos, el elemento que tiene una rama de la química que se encarga en exclusiva de los compuestos que forma: el carbono. Como este átomo es omnipresente entre los materiales artísticos, nos limitaremos a mostrar doce casos. Uno por cada campanada, uno por cada uva, uno por cada nucleón del isótopo más estable del carbono.

Imagen 1. Obra de arte con lapiceros de Jasenko Đorđević. Fuente: ToldArt

Con C de carbonato

La Capilla Sixtina, el Pantocrator de Sant Climent de Taüll, la Escuela de Atenas o la Capilla de los Scrovegni son algunos de los grandes exponentes de la pintura al fresco. Podríamos pensar que realizar este tipo de arte mural es tan sencillo como depositar pintura en una pared, pero estaríamos muy equivocados. Tras esta técnica pictórica hay mucha química, por lo menos cuando hablamos del buon fresco, que dirían los italianos.

La ejecución clásica de un fresco comienza por cubrir la pared con una o varias capas de un mortero de cal muerta (Ca(OH)2) y arena. La última capa de esta preparación se conoce como arriccio y es en la que se realiza la sinopia: el dibujo que servirá de ayuda para pintar la obra. Sobre el arriccio se coloca una capa fina de mortero con cal muerta y polvo de mármol: el intonaco. Es sobre esta superficie húmeda donde se añaden los pigmentos y donde sucede el fenómeno químico fundamental: la cal muerta se carbonata por el contacto con el CO2 de la atmósfera y el mortero se solidifica por la aparición de carbonato cálcico (CaCO3). Los pigmentos depositados en la superficie todavía húmeda quedan atrapados y pueden perdurar durante siglos. Es como pintar dentro de la pared. Obviamente los pigmentos deben de depositarse antes de que el mortero se seque, tarea imposible en un solo día para la mayoría de las obras. Para que realizar el fresco sea viable se va trabajando por trozos y solo se cubre con intonaco la parte de la sinopia que se puede pintar en un día, lo que se conoce como giornata. Con esta nueva perspectiva quizás os parezca todavía más asombroso el trabajo que Miguel Ángel realizó en el Vaticano.

Por último, diremos que la cal muerta con la que se lograba el mortero se obtiene poniendo en agua cal viva (CaO) que a su vez se logra de la calcinación de roca caliza (CaCO3). Como veis, el arte del fresco se crea gracias a un ciclo que comienza y termina con el carbonato cálcico.

Imagen 2. Fresco de Gentile da Fabriano en el Palacio Trinci (s. XV) donde se pueden apreciar partes de la sinopia subyacente. Fuente: Wikimedia Commons.

 

Con C de carbón

El negro es, junto al rojo, el color dominante en el arte prehistórico. La razón es simple: nuestros ancestros podían lograr pigmentos negros valiéndose de hollín o trozos de madera semicalcinados. Gracias a la combustión incompleta de la materia orgánica se pueden lograr substancias ricas en carbono con las que dibujar trazos negros. En función del origen de esta materia orgánica se han distinguido diferentes tipos de negro de carbón a lo largo de la historia: negro de vid, negro de humo (del hollín de las lámparas) e, incluso, negro de hueso o negro de marfil. Claro que, en estos últimos casos, además de carbono, encontraremos calcio y fosfato provenientes de la quema de residuos óseos. Por muy rudimentarias que nos puedan parecer estas substancias, no hemos de olvidar que ya se usaban en las pinturas rupestres y han sobrevivido hasta nuestros días. Curiosamente uno de los pigmentos negros más modernos que existen también se basa en la química del carbono. Hablamos del Vantablack de Anish Kapoor, un producto de alta tecnología formado por nanotubos de carbono.

Imagen 3. Pinturas rupestres de la cueva de Ekain. Fuente: Wikimedia Commons.

Con C de caseína

Quien lea este blog con asiduidad ya sabrá que la pintura tiene dos componentes fundamentales: el pigmento, que da color, y el aglutinante, que sirve de medio para las partículas de pigmento. Por ejemplo, en la pintura al óleo el aglutinante es un aceite. En el caso de las témperas o pinturas al temple el aglutinante es una substancia capaz de formar emulsiones, es decir, capaz de formar mezclas en las que dos líquidos inmiscibles crean una disolución aparentemente homogénea (uno de los líquidos se dispersa en el otro en forma de gotitas minúsculas). Seguro que en vuestra nevera encontráis algún ejemplo: la mayonesa, la mantequilla, etc. También encontraréis en la nevera el ingrediente fundamental para elaborar la témpera más tradicional: el huevo. En este caso son los lípidos y las proteínas de la yema los que actúan como agentes emulsionantes. La segunda témpera más conocida es el temple de caseína, así llamada por valerse de una fosfoproteína abundante en la leche (y vital para producir queso). Como todas las proteínas está formada por aminoácidos, pequeñas moléculas con un esqueleto que contiene nitrógeno, hidrógeno, oxígeno y, por supuesto, carbono. Los diferentes tipos de aminoácidos difieren tan solo en su cadena lateral que, además de los elementos mencionados, puede incorporar azufre. Lo maravilloso es que con sólo 20 (ó 22) de estas piezas podemos formar todas las proteínas que necesitamos.

La caseína se puede extraer de la leche añadiendo un ácido como el vinagre o el zumo de limón para que la proteína precipite. Posteriormente el sólido obtenido se hidroliza con una base y se puede emplear en disolución acuosa junto a un pigmento a modo de pintura. De la nevera a la paleta.

Imagen 4. El Friso de Beethoven, de Klimt (1902) contiene pintura a la caseína. Fuente: Wikimedia Commons.

 

Con C de cera

La cera es una substancia que producen las abejas para construir las celdas donde acumulan la miel y protegen a sus larvas. Esta substancia está formada por diferentes compuestos orgánicos, mayoritariamente ésteres con un número par de carbonos (C40-C52) y, en menor medida, alcanos con un número impar de carbonos (C23-C31), alcoholes y ácidos grasos. Mucho carbono. Todos estos compuestos son incoloros, por lo que al mezclar cera con pigmentos se puede lograr pintura del color deseado. Un momento, ¿incoloros? Así es. La cera es amarillenta por la presencia de otras substancias como el polen, que se pueden eliminar antes de elaborar la pintura. Pero, ¿cómo se mezcla el pigmento con la cera si ésta es sólida? Tan sencillo como derritiéndola primero (su punto de fusión es de unos 63 ⁰C). El propio nombre de esta técnica pictórica, denominada encáustica, está relacionado con el proceso de calentamiento, ya que el vocablo griego del que proviene (enkaustikós) se asocia a “en quemado”. Una vez depositada la cera, ésta se secará gracias a un proceso de solidificación. Como este secado es extremadamente rápido, actualmente se emplean instrumentos en caliente para retrasar el proceso y que el artista tenga más tiempo para aplicar la pintura y realizar retoques. Si bien artistas contemporáneos hacen uso de esta técnica, su existencia se remonta a tiempos clásicos, siendo un magnífico exponente los retratos funerarios de El-Fayum.

Imagen 5. Retrato del niño Eutyches (38×19 cm) (100-150 e.c.) Fuente: Met Museum.

 

Con C de cera perdida

Piensa que tienes que realizar una escultura de bronce. Puede que te imagines martilleando planchas de metal o soldando diferentes piezas. ¿Qué tiene que ver la cera con esto? La respuesta es sencilla: es indispensable para una técnica de fundido. Esta técnica consiste en realizar una versión en cera de la pieza que se desea conseguir para cubrirla posteriormente con un material que aguante temperaturas elevadas como la arcilla o ciertos tipos de silicona. Así se crea un molde que se calienta para que la cera escape por unos orificios previamente realizados. En el vacío dejado por la cera se verte el bronce fundido que adapta la forma de la figura que se desea obtener. Una vez solidificado, se rompe la cubierta, se corrigen errores y se da lustre a la pieza. Esta sería la explicación grosso modo. En realidad el proceso es ligeramente más complicado, sobre todo cuando la pieza no es maciza. Como en este caso un video vale más que mil palabras, aquí os dejo una explicación muy visual del Victoria & Albert Museum.

El fundido a la cera perdida se lleva usando varios milenios y ha servido para realizar algunas de las grandes obras maestras de la escultura. Por ejemplo, el célebre auriga de Delfos del s. V a.e.c. se elaboró uniendo diferentes piezas logradas mediante la técnica de la cera perdida. Dos mil años después el célebre artista Benvenuto Cellini quiso pasar a la historia e hizo una estatua de más de tres metros para los Medici… ¡de una sola pieza!

Imagen 6. Perseo con la cabeza de medusa. Fuente: Dimitris Kamaras.

 

Con C de China

La tinta china, ese líquido denso de un color negro impenetrable, debe sus propiedades al omnipresente átomo de seis protones. Ya hemos visto que que el carbono servía como pigmento tras la calcinación parcial de diferentes materias primas. Pues bien, la tinta china no es otra cosa que hollín con un poco de agua. Las partículas de hollín permanecen en suspensión y, cuando la tinta se seca, forman una película resistente. Cuenta la historiadora Victoria Finley que hace 1500 años los chinos preparaban la mejor tinta con el hollín de lámparas de aceite que ardían tras un biombo de bambú. No acaba ahí la cosa: el hollín se recogía cada media hora usando una pluma. Obviamente el producto que podemos comprar en la papelería no se logra así. Es más, además de agua se le suele añadir goma laca u otro tipo de aglutinante para mejorar sus propiedades.

Imagen 7. Detalle de Nueve dragones (47 x 1497 cm) de Chen Rong (s. XIII). Fuente: Museum of Fine Arts Boston.

Con C de clorofila

La clorofila que tiñe de verde el reino vegetal es una molécula fotosensible, por lo que su uso en pintura no ha sido muy frecuente. Sin embargo, la fragilidad de esta substancia sirve para que el artista Binh Danh cree obras de arte reinventado una técnica fotográfica. Este artista vietnamita coloca un negativo sobre una hoja y deja que la luz solar actúe sobre ella durante días. De esta forma donde en el negativo hay zonas oscuras la clorofila no se degradará. En las zonas más claras, en cambio, la luz traspasará el negativo y hará desaparecer la molécula orgánica. Una vez finalizado este proceso logra atractivas obras de arte que protege con resina para que la luz no siga haciendo mella sobre ellas. Desde el punto de vista químico, en la estructura de la clorofila destaca el anillo de porfirina compuesto por un gran número de carbonos. Aunque hemos dicho que esta molécula se degrada con la luz, hoy en día existen pigmentos estables que poseen una estructura química similar: las ftalocianinas.

Imagen 8. Obra de Binh Danh. Fuente: Rocor

Con C de cochinilla

Una de las lacas más empleadas en pintura es el carmín, substancia de un atractivo color rojizo. Las lacas son una especie particular de pigmento que se logra empleando un sustrato incoloro como el alumbre y un tinte. En el caso del carmín el tinte se obtiene de insectos, concretamente de dos especies de cochinilla: el quermes (Kermes vermilio) y la cochinilla americana (Dactylopius coccus). El carmín proveniente del quermes era conocido en Asia y Europa desde la Antigüedad, pero su uso entró en declive cuando los españoles llegaron a América. Allí vieron que los aztecas empleaban un insecto similar para obtener un producto con el que teñir la ropa y lo empezaron a traer a Europa logrando pingües beneficios. Partiendo de ese tinte se crearon lacas rojas que fueron usadas por los pintores flamencos y tuvieron un gran éxito durante el Renacimiento y el Barroco, ya que eran idóneas para el uso de veladuras (trazos de pintura que dejan ver la pintura inferior). Desde el punto de vista químico, las moléculas que otorgan el color rojizo son similares en ambos insectos y tienen un esqueleto de antraquinona, molécula orgánica que, lógicamente, tiene varios átomos de carbono.

Imagen 9. Caridad (148×107 cm), de Anton van Dyck (1627-8). Fuente: National Gallery

 

Con C de cocolito

Que el lienzo o la madera son soportes pictóricos tradicionales no sorprenderá a nadie. Mucha gente también sabrá que estos materiales deben de ser “preparados” para su uso. Lo que no es tan conocido es que esa preparación puede contener millones de fósiles diminutos: los cocolitos. Pero, ¿cómo demonios llegan esos fósiles ahí?

La superficie sobre la que trabaja un pintor debe de estar nivelada y ofrecer un brillo y color adecuado. Por eso, sobre el soporte se colocan capas de un aparejo que se solía preparar con cola de conejo y yeso o carbonato cálcico. Posteriormente se añade una última capa de preparación, conocida como imprimación, que puede estar elaborada al óleo y tener cierto color (por ejemplo, Velázquez solía usar una rojiza). En cualquier caso, los fósiles que nos ocupan están relacionados con el carbonato cálcico de la preparación. Si antes hablábamos del origen mineral de este compuesto, ahora nos toca hablar del origen orgánico. Una fuente muy habitual de carbonato cálcico es la creta, roca que, además de dar nombre al Periodo Cretácico, se forma por la acumulación de residuos de unas algas denominadas cocolitóforos. Estas algas unicelulares poseen un exoesqueleto de placas de carbonato cálcico que con el paso de los siglos se acumulan en zonas marinas hasta crear formaciones rocosas de gran tamaño. Del mar al lienzo.

Imagen 10. Fotografía de microscopio electrónico del cocolito de la Gephyrocapsa oceanica Fuente: Wikimedia Commons.

 

Con C de colágeno

No, no vamos a hablar del producto que nos venden para mejorar las articulaciones y sirve de bien poco. El colágeno es la proteína que estructura el tejido conjuntivo de los animales y, como ya hemos explicado antes, está formada por aminoácidos. El colágeno, además de su función biológica, nos resulta útil para otros menesteres porque se puede usar como pegamento. Para dicho fin, el colágeno puede extraerse gracias a un proceso de desnaturalización cociendo la piel, tendones y otras partes de animales ricas en esta proteína. Después, el extracto puede solidificarse y volverse a disolver en agua calentada al baño maría para su uso como adhesivo. Así es como se logra la famosa cola de conejo, tan importante históricamente en la preparación de lienzos.

Imagen 11. Cola de conejo de la casa comercial Liberon. Fuente: Wood Finishes Direct.

 

Con C de concha

Los caparazones de los moluscos marinos siempre han despertado el interés del ser humano con fines decorativos. En muchos casos esta atracción se debe a la presencia de nácar, un material iridiscente y brillante de alto valor estético. Las propiedades ópticas del nácar vienen condicionadas por su estructura y composición química. Al igual que en el fresco y en los cocolitos, el compuesto químico más importante es el carbonato cálcico (en forma de aragonito). En este caso el carbonato cálcico forma pequeñas láminas que se organizan en capas unidas mediante biopolímeros. También conocido como madreperla, el nácar ha sido empleado para realizar joyas y otros ornamentos, pero también ha servido como soporte para obras de arte más elaboradas como las que creo Cornelis Bellekin.

Imagen 12. Concha de ostra tallada con el mito de Andrómeda y Perseo, de Cornelis Bellekin (s. XVII). Fuente: Rijksmuseum.

 

Con C de cuero

A los soportes pictóricos previamente mencionados se les puede añadir, entre otros, el papiro o el cuero. Estos dos soportes conectan históricamente a dos grandes urbes de la antigüedad: Alejandría y Pérgamo. Los egipcios eran grandes productores de papiro, obtenido de la planta homónima que abundaba en el Delta del Nilo. Los de Asia Menor, en cambio, se especializaron en elaborar pergamino, material al cual cedieron su nombre. El pergamino, tan empleado en los manuscritos medievales, está elaborado con piel de animales como novillos, cabras u ovejas; al igual que el cuero, aunque este último está curtido. La parte de la piel más útil para producir pergaminos es la dermis reticular, rica en proteínas como el colágeno del que ya hemos hablado o la elastina. Dentro de la oferta de pergaminos, existía un producto de una calidad superior, extraordinariamente delgado y reservado para los códices más valiosos: la vitela. Supuestamente este material se obtenía de la vitela uterina, que no sería otra cosa que la piel de animales mortinatos o neonatos. Si esta forma de lograr soportes para hacer códices os causa desasosiego, podéis estar tranquilos: los estudios realizados sobre biblias medievales apuntan a que se trata de una falsa creencia. Además, el número de animales que se debería de haber sacrificado para cubrir la demanda hubiese sido imposible de satisfacer.

Imagen 13. Natividad en Las muy ricas horas del Duque de Berry, de los hermanos Limbourg (1411-1416). Fuente: Wikimedia Commons.

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

El artículo La tabla periódica en el Arte: Carbono se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tabla periódica en el arte: Cobre
  2. La tabla periódica en el arte: Titanio
  3. La tabla periódica en el arte: Plata
Categories: Zientzia

¿Que puede aportar (y qué no) la neurociencia a la educación?

Sat, 2019/12/28 - 11:59

Érase una vez… en el País Vasco, un congreso tan oportuno y tan útil, y tan bien recibido en Bilbao y en Donostia-San Sebastián, que muchos pensaron que tenía que viajar a más lugares. Así que la Cátedra de Cultura Científica y la Fundación Promaestro se pusiron de acuerdo y, con la ayuda de EduCaixa, lo llevaron a Madrid: casi un centenar de personas con espíritu crítico y bien informadas llenaron el pasado 2 de abril la modesta y acogedora sala de CaixaForum en la que se celebró.

Así como toda (buena) historia tiene un (buen) principio, toda (buena) práctica tiene un (buen) fundamento. Un fundamento, una justificación, una razón, una prueba. Lo más importante es que nuestras prácticas educativas estén sostenidas por evidencias científicas. Su nombre da igual. Da igual, ¿o no?

“Que algo lleve el prefijo «neuro» no significa que contenga más verdad, pero –apostilla el profesor Juan Lupiáñez en su ponencia– la neurociencia le presta estatus a la psicología”. Sorprendentemente, aportaciones teóricas ya clásicas de la psicología son tenidas más en cuenta por el público cuando provienen de la neurociencia. El catedrático de la Universidad de Granada presenta estudios que demuestran que la gente comprende y recuerda mejor aquellos datos y teorías en los que aparecen términos e imágenes relacionadas con el cerebro.

Es decir, que las palabras también importan y, precisamente por eso, tenemos que ser especialmente cuidadosos con ellas y evitar que nos obnubilen: ¿Cuántos siguen creyendo en neuromitos, en el brain gym y en la teoría del cerebro derecho e izquierdo, por ejemplo? ¿Cuántos hablan de educar al cerebro y olvidan que el objetivo de la escuela es educar a la persona? Entender el cerebro, repite el ponente, “es mucho más complicado que entender el comportamiento, que ya es complicado”, y además “éste no es una máquina: no podemos cambiar sus conexiones como cambiamos las bujías de un coche”.

Es muy recomendable escuchar a los neurocientíficos –afirma en su conclusión Lupiáñez– pero, en lo que se refiere a evidencias educativas, “siempre es mejor ampliar su búsqueda más allá de un solo campo”.

Edición realizada por César Tomé López a partir de materiales suministrados por Fundación Promaestro

El artículo ¿Que puede aportar (y qué no) la neurociencia a la educación? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las ideas erróneas sobre educación entre el profesorado: prevalencia, causas y soluciones
  2. Autismo y educación: problemas y pautas en el aula
  3. Educación basada en la evidencia: retos y propuestas de mejora
Categories: Zientzia

Cómo conservar mejor los alimentos con una iluminación inteligente

Fri, 2019/12/27 - 11:59

Raquel Esteban, José Ignacio García Plazaola y Víctor Resco de Dios

Ernest Brillo / Unsplash

El otoño ha dejado paso al invierno. Y con él, se van los colores propios de la estación que hemos despedido: el verde que cubría a los árboles de hoja caduca se transforma en un abanico de colores, que va desde el ocre hasta el naranja.

Los pigmentos responsables de estos colores son imprescindibles para la salud humana. Además, la calidad de los alimentos está relacionada con la preservación de estos compuestos y, por lo tanto, conocer su funcionamiento ayuda a disminuir el desperdicio de alimentos.

A través de las nuevas tecnologías podemos lograr mejoras sustanciales en dos aspectos: la calidad nutricional y la preservación de los vegetales vegetales.

Los pigmentos de las plantas, nuestras vitaminas

Tanto el color verde como la gama de colores típicamente otoñales se deben a las propiedades físico-químicas de los pigmentos de las hojas:

  • Las clorofilas son los pigmentos responsables de los tonos verdes.
  • Los carotenoides de los colores amarillo-naranja.

Estos pigmentos son clave en el funcionamiento y la supervivencia vegetal. Participan en procesos tan importantes como la fotosíntesis y la tolerancia a las condiciones adversas.

¿Recuerda cuando su abuela le decía que comiera zanahorias para preservar la vista? Pues llevaba parte de razón. Los carotenoides son imprescindibles para la vista.

El beta caroteno, el mayoritario de la zanahoria, es la provitamina A, que forma parte de la retina de los ojos. Los amarillos como la luteína y la zeaxantina están en la mácula y son los responsables de disipar las especies reactivas de oxigeno de nuestros ojos

Además, debido a sus propiedades antioxidantes, estos pigmentos aportan otros beneficios a la salud, como la mejora de la capacidad cognitiva y la prevención de enfermedades degenerativas.

Al ser los humanos incapaces de sintetizar carotenoides, los debemos incorporar en la dieta mediante la ingesta de frutas, verduras y legumbres, principalmente. Forman parte de las vitaminas.

Las zanahorias contienen carotenoides beneficiosos para la vista.
Voltamax/Pixabay

Así cambia el valor nutritivo de los vegetales

Una cualidad que define a las plantas es que, aunque las cosechemos, siguen vivas. Es decir, continúan realizando procesos fisiológicos como la fotosíntesis y la respiración.

Todos los vegetales que vemos en los expositores de los supermercados están vivos. Esto se debe a la característica modular de sus órganos y a su habilidad para mantener una autonomía fisiológica.

Aunque aparentemente estén inactivos, en realidad su maquinaria está completamente activa. Responden a las condiciones ambientales que se dan desde que se recolectan hasta que acaban en la nevera de nuestros hogares.

El contenido de carotenoides y, por lo tanto, de las vitaminas o compuestos antioxidantes, es muy variable. Va a responder a las condiciones a las que están expuestos los productos, aumentando o disminuyendo su concentración.

Dicho de otra forma: el contenido nutricional de un vegetal (basándonos en el contenido de carotenoides) varía a lo largo del día.

Por ejemplo, el carotenoide zeaxantina –relacionado, junto con la luteína, con la disminución del riesgo de padecer degeneración macular asociada a la edad– presenta valores máximos durante el día y mínimos por la noche.

El papel de los frigoríficos

Los frigoríficos, ya sea en nuestra casa, o en un supermercado, suelen mantener los alimentos bajo condiciones de oscuridad continua o de luz continua.

En los hogares, por ejemplo, suele suceder lo primero: el vegetal no ve la luz, salvo por los pocos segundos en los que abrimos la puerta. En muchos supermercados, sin embargo, la iluminación es continua y el producto en el expositor nunca experimenta la oscuridad.

En los supermercados, los vegetales se conservan en condiciones de luz.
Matheus Cenali/Pexels

Nuestros estudios indican que guardar las verduras bajo estas condiciones tan extremas de luz acorta su vida.

Los carotenoides y demás pigmentos foliares se degradan más rápidamente bajo estos ritmos de luz artificial, lo que provoca cambios visuales (cambios de color en las hojas de verde a amarillento). Disminuye la calidad de los alimentos y hace que se desperdicien con más facilidad.

Si incorporamos ciclos de luz/oscuridad en los sistemas de refrigeración, de forma que reproduzcamos los ciclos de día/noche que el vegetal experimenta cuando crece en el campo, lograremos mejoras sustanciales en la preservación de los alimentos.

Medir los contenidos de carotenoides

Para entender mejor el valor nutricional de los vegetales, y para mejorar su preservación, necesitamos cuantificar cuántos carotenoides y clorofilas tienen los alimentos que comemos.

La técnica más precisa, pero a la vez costosa, de cuantificación es el análisis mediante cromatografía en un laboratorio. Este es un procedimiento caro y complejo.

Una alternativa mucho más sencilla es el uso de técnicas basadas en al análisis de la reflectancia de la luz. Consisten en evaluar la cantidad de cada tipo de luz reflejada por la superficie del alimento en cuestión, es decir, en cuantificar el color. Este será proporcional a su contenido de pigmentos.

Estos métodos no son tan precisos, pero sí más económicos. Solo se necesita el aparato de medición y generalmente existe en versión portátil.

En una investigación reciente, hemos aplicado estas técnicas en una simulación de un ambiente de supermercado. Hemos conseguido determinar el contenido aproximado de los carotenoides a partir de la medida de sus características ópticas. Este hecho abre una interesante línea para el futuro y nos dirige hacia los supermercados 2.0.

En un futuro cercano será posible medir los antioxidantes de nuestros alimentos tan solo apretando un botón. Incluso, la tecnología de los supermercados podría incluir drones con sensores que nos indiquen el valor aproximado de esos compuestos.

Sobre los autores: Raquel Esteban y José Ignacio García Plazaola son profesores de fisiología vegetal en la Universidad del País Vasco / Euskal Herriko Unibertsitatea y Víctor Resco de Dios es profesor de incendios forestales y cambio global en la Universitat de Lleida.

 

Este artículo fue publicado originalmente en The Conversation. Artículo Original.

El artículo Cómo conservar mejor los alimentos con una iluminación inteligente se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un espectrómetro Raman portátil mide el punto óptimo de maduración del tomate
  2. ¿Cómo llegan bacterias resistentes y residuos de antibióticos a los alimentos?
  3. El azúcar oculto en los alimentos
Categories: Zientzia

¿Y si la bolsa de plástico fuese más sostenible que las de papel o algodón?

Thu, 2019/12/26 - 11:59
Foto: Karina Tess / Unsplash

Las bolsas de plástico son las que peor reputación tienen. Esto sucede porque a menudo se juzga la sostenibilidad de las bolsas y su impacto medioambiental solo en función de si el material es fácilmente biodegradable. Sale ganando la bolsa de papel porque imaginamos que, si la tirásemos en el monte o al mar, se biodegradaría en poco tiempo. Sin embargo, este análisis es superficial e incompleto. No se está teniendo el cuenta el ciclo de vida de la bolsa: qué impacto medioambiental tiene su fabricación, cuánta energía se usa en su producción y transporte, cómo se conserva, si se reutiliza, cuánto tiempo de vida útil tiene…

Todos estos parámetros se han analizado científicamente y, para sorpresa de muchos, las bolsas de algodón y de papel no salen mejor paradas que las de plástico.

El análisis de ciclo de vida, ACV (LCA en inglés) es un balance ecológico con el que se evalúa el impacto ambiental de un producto durante todas las etapas de su existencia, desde la extracción de materias primas, la producción, la distribución, el uso, la posible reutilización, el reciclaje, la valorización y la gestión de residuos.

Las bolsas de plástico de polietileno surgieron en los años 60 como una alternativa sostenible a las bolsas de papel que se usaban tradicionalmente. El coste energético de fabricación es irrisorio en comparación con el papel, se usa una fracción residual de petróleo que no es útil como combustible, no implica tala de árboles, es más resistente y pesa diez veces menos que el papel, por lo que la huella de carbono derivada del transporte también se reduce diez veces. Todo parecían ventajas. Lo que no se esperaba es que se usasen de forma tan irresponsable.

Cada persona gasta de media 180 bolsas de plástico al año. En 2008 la media en España era de 300 bolsas por habitante y año, dato que se ha reducido más del 60% gracias a la reutilización, principalmente animada por campañas de concienciación medioambiental y por el cobro obligatorio de las bolsas.

El plástico es un material inerte y duradero, lo que en principio es ventajoso. Pero la realidad es que el 80% de los residuos que llegan al mar son plásticos. Cada año llegan al mar unos ocho millones de toneladas de plástico. China, Indonesia y Filipinas encabezan la clasificación de los países que más cantidad arrojan, y los 20 primeros –todos en Asia y África, excepto Estados Unidos y Brasil– son responsables del 83% del plástico mal gestionado que puede acabar en el mar. De todo el plástico que llega al mar, el 1,5% se ha convertido en microplásticos, se ha ido fragmentando hasta transformarse en pedazos tan pequeños que son muy difíciles de eliminar.

El plástico llega al mar porque no se está reciclando ni destruyendo como es debido. En España solo el 66,5% del plástico se recicla y el 12% se incinera para obtener energía.

Con respecto al la influencia sobre el cambio climático podemos hacer un cálculo que nos permite saber la cantidad de CO2 emitido por el uso de bolsas de plástico, incluyendo su incineración. Una bolsa de plástico tiene una masa de entre 4 y 8 g. Cada persona gasta unas 180 bolsas de plástico al año, mayoritariamente de polietileno. Haciendo los cálculos estequiométricos, el uso de bolsas de plástico supone un aporte de 340 g de CO2 al año por individuo. En comparación con el transporte esto es muy poco: desplazarse en coche sólo 3 o 4 km (dependiendo del modelo) también produce 340 g de CO2.

Fábrica de pasta de celulosa en Finlandia. Fuente: Wikimedia Commons

Haciendo el análisis del ciclo de vida (ACV) de las bolsas de plástico convencionales comparadas con las de papel, sale ganado ampliamente la bolsa de plástico. La producción y consumo de papel tienen un fuerte impacto ambiental y social sobre el planeta. La industria papelera y de celulosa ocupa el quinto lugar del sector industrial en consumo mundial de energía, y utiliza más agua por cada tonelada producida que cualquier otra industria. También, la industria papelera se encuentra entre los mayores generadores de contaminantes del aire y del agua, así como gases de efecto invernadero responsables del cambio climático. Tendríamos que reutilizar la bolsa de papel tres veces para que su impacto medioambiental sea equivalente al de una bolsa de plástico convencional. Es decir, usar y tirar una bolsa de plástico tiene un impacto medioambiental tres veces menor que hacerlo con una de papel. Si además reutilizamos la bolsa de plástico una sola vez, aunque solo sea para contener basura, el impacto será 6 veces menor que el de la bolsa de papel.

Si analizamos el ciclo de vida (ACV) de las bolsas de algodón, su impacto medioambiental es el más dañino de todos. El algodón se cultiva de forma intensiva, necesita de mucho terreno, un importante gasto energético y su transformación en tejido emite, entre otras sustancias nocivas, gases de efecto invernadero. Producir 1 kg de tejido de algodón requiere más de 40.000 litros de agua en promedio, una sed mucho mayor que la de cualquier vegetal e incluso la mayoría de las carnes. A diferencia del papel, también hay que tener en cuenta que el algodón no se recicla en la mayoría de los países.

Cosecha y empaquetamiento sobre el terreno de algodón en Texas (EE.UU.). Fuente: Wikimedia Commons

A esto hay que añadir que las bolsas de algodón son la opción menos higiénica. El algodón es un material que puede ser colonizado por microorganismos patógenos, por lo que no debería ponerse en contacto directo con alimentos, y debería lavarse con la misma asiduidad y a la misma temperatura que los trapos de cocina. El gasto energético y el impacto medioambiental derivado de su uso es sustancial.

En comparación, una bolsa de algodón habría que utilizarla 131 veces para que su impacto medioambiental fuese equiparable al de la bolsa de plástico convencional.

La única forma en la que una bolsa de tela es más sostenible que una de papel es usándola muchas veces a lo largo de mucho tiempo. Y tener dos o tres bolsas de algodón, no decenas. Lo mismo podría decirse de las bolsas de papel. Sin embargo, las bolsas de papel no resisten tantas reutilizaciones, principalmente porque se contaminan, no son lavables y se descomponen con la humedad.

Analizando toda la evidencia científica de la que disponemos, las bolsas de plástico son la opción más sostenible. Si además las reutilizamos y las llevamos al contenedor adecuado (en España es el contenedor amarillo), el impacto medioambiental será todavía menor. En la actualidad ya hay superficies comerciales en las que ofrecen bolsas reutilizables de plástico de poliéster para frutas y verduras, más sostenibles que las habituales de polietileno de baja densidad.

Bolsa de plástico de poliéster. Foto: Deborah García Bello

 

La opción más sostenible de todas es la que engloba las bondades del plástico y las del uso responsable que solemos hacer con las de algodón, que se prestan a un mayor número de reutilizaciones. Las bolsas de rafia, por ejemplo, que son un tejido de plástico de polietileno y propileno, son muy resistentes, estéticas e higiénicas. También lo son las de poliéster, como la «puto plástico» de la foto que, irónicamente también es de plástico.

Fuentes:

Lewis, H., Verghese, K., & Fitzpatrick, L. (2010). Evaluating the sustainability impacts of packaging: the plastic carry bag dilemma. Packaging Technology and Science: An International Journal, 23(3), 145-160.

Edwards, C., & Fry, J. M. (2011). Life cycle assessment of supermarket carrier bags. Environment Agency, Horizon House, Deanery Road, Bristol, BS1 5AH.

Bell, K., & Cave, S. (2015). Comparison of Environmental Impact of Plastic, Paper and Cloth Bags. Research and Library Service Briefing Note, Northern Ireland Assembly

Interim Review os the Plastic Shopping Bags Ban. ACT Government. 2012.

Hyder Consulting, LCA of shopping bag alternatives: Final report, Zero Waste South Australia, August 2009, p.3

Daniel Montoya. Plastic bags: an update. NSW Parliamentary Research Service April 2013

The Danish Environmental Protection Agency (2018). Life Cycle Assessment of grocery carrier bags.

Brian Halweil y Lisa Mastny. Informe anual del Worldwatch Institute sobre progreso hacia una sociedad sostenible. Ed. Icaria, Noruega, 2004.

Advancing Sustainable Materials Management: 25Fact Sheet Assessing Trends in Material Generation, Recycling, Composting, Combustion with Energy Recovery and Landfilling in the United States July 2018

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo ¿Y si la bolsa de plástico fuese más sostenible que las de papel o algodón? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Adiós a las microesferas de plástico en los cosméticos
  2. Si hacer fármacos fuese como jugar a Lego, la pieza más guay se llamaría carbino
  3. Corales, ciencia y plástico.
Categories: Zientzia

Composición nº1, la historia de X gobernada por el azar

Wed, 2019/12/25 - 11:59

 

Una tirada de dados jamás abolirá el azar.

Stéphane Mallarmé

Un Coup de Dés jamais n’abolira le HasardUna tirada de dados jamás abolirá el azar– es el título de un poema de Stéphane Mallarmé (1842-1898) publicado en 1897. Compuesto en forma de versos libres, es uno de los primeros poemas tipográficos de la literatura francesa.

El título de este poema, junto a su autor, aparece en el colofón del libro Composición n01 de Marc Saporta (1923-2009) en su traducción al castellano publicada por la editorial Capitán Swing en 2012. La primera versión, en francés, fue publicada en 1962 por la editorial Le Seuil.

Composición n01 es una novela compuesta por 150 hojas no encuadernadas, no numeradas, escritas por una única cara e introducidas al azar en una caja.

Foto: Marta Macho Stadler.

 

En el prefacio, el autor explica las ‘instrucciones de uso’ de su novela y proporciona algunas claves sobre la lectura:

Se ruega al lector que mezcle estas páginas como una baraja. Que las corte, si lo desea, con la mano izquierda, igual que una echadora de cartas. El orden en el que salgan las hojas después de hacerlo orientará el destino de X.

Porque el tiempo y el orden de los acontecimientos regulan la vida más que la naturaleza de estos acontecimientos. Sin duda, la Historia impone un marco: la pertenencia de un hombre al maquis y su paso por las tropas de ocupación en Alemania pertenecen a una época determinada. Asimismo, los hechos que marcaron su infancia no pueden presentarse como vividos en la edad adulta.

No obstante, no es indiferente saber si conoció a su amante, Dagmar, antes o después de su matrimonio; si abusó de la pequeña Helga durante su adolescencia o su madurez; si el robo que cometió tuvo lugar bajo el abrigo de la Resistencia o en tiempos menos turbulentos; si el accidente del que fue víctima carece de relación con el robo (o la violación) o si tuvo lugar durante la huida.

Del encadenamiento de las circunstancias depende que la historia acabe bien o mal. Una vida se compone de elementos múltiples. Pero el número de composiciones posibles es infinito.

El libro de Saporta ‘cuenta’ una historia de un personaje misterioso. Una, y no la historia, porque el relato transcurre dependiendo del orden en el que se colocan las hojas tras barajarlas, como indica el autor en el prefacio. Cada página corresponde a un episodio procedente de los recuerdos del personaje X. Este narrador aparece como un ladrón y un violador. De hecho, dos de las páginas de Composición n01 se dedican a citar algunos artículos –entiendo que eran los que estaban vigentes en Francia cuando Saporta publicó su texto, en 1962– relativos a los delitos de robo y violación.

Al recorrer las páginas de esta singular novela, la historia va incorporando diferentes personajes, algunos de los cuales son recurrentes: Marianne –la esposa de X–, Dagmar –su amante– o Helga –una joven a la que X viola– aparecen en numerosas ocasiones, mientras que otros personajes solo son citados en una de las páginas. Cada una de las hojas corresponde a un marco espacio-temporal que cambia continuamente. El lugar elegido –una ciudad ocupada por el ejército alemán, el patio de una escuela o el apartamento de alguno de los personajes– depende de lo que el azar dispone tras barajar las páginas del libro.

Aunque pienses que estoy intentando ‘destripar’ la versión de Composición n01 que he leído, no pasa nada; es bastante improbable que, tras barajar las páginas del libro, la versión que tú vas a leer sea la misma que la mía…

Foto: Marta Macho Stadler.

 

El prefacio de Marc Saporta termina con la frase: Pero el número de composiciones posibles es infinito. En realidad, Composición n01 no contiene infinitas versiones de la historia de X. Aunque es cierto que contiene muchas. De hecho, al haber 150 páginas que pueden ordenarse de manera aleatoria, el número de novelas distintas que podemos leer es la factorial de 150 –son las permutaciones sin repetición de 150 elementos–.

Para hacernos una idea de esa cantidad de versiones, el factorial de 150 es el número:

57133839564458545904789328652610540031895535786011264182548375833179829124845398393126574488675311145377107878746854204162666250198684504466355949195922066574942592095735778929325357290444962472405416790722118445437122269675520000000000000000000000000000000000000,

número que está formado por 263 cifras y finaliza con 37 ceros. Redondeando, el factorial de 150 es aproximadamente 5,7 x 10262. Y, efectivamente, es un número muy, muy grande… pero no infinito.

Referencias

  • Una tirada de dados jamás abolirá el azar de Stéphane Mallarmé (Una propuesta estético-filosófica de Juan David García Bacca, incluida en su obra «Necesidad y Azar. Parménides y Mallarmé», Editorial Antrophos, Barcelona, 1985), Revista aesthethika 12 (2), septiembre 2016. Caos e invención, pág. 53-54

  • Marc Saporta, Composición no1, Capitán Swing, 2012

 

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Composición nº1, la historia de X gobernada por el azar se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ‘La Historia es la ciencia de la desgracia de los hombres’
  2. El teorema de los cuatro colores (1): una historia que comienza en 1852
  3. Ciegos ante el azar
Categories: Zientzia

El comportamiento ondulatorio de los electrones

Tue, 2019/12/24 - 11:59
Una imagen por difracción de electrones parecida a esta pero tomada en 1982 terminó dándole el premio Nobel de química a Dan Shechtman en 2011 por el descubrimiento de los cuasicristales. Fuente: Wikimedia Commons

En 1923, Louis de Broglie sugirió que la dualidad onda-corpúsculo que se aplica a los fotones, a la radiación electromagnética, también podría aplicarse a los electrones y otras partículas atómicas. Quizás, dijo, la dualidad onda-corpúsculo es una propiedad fundamental de todos los procesos cuánticos. Si es así, las partículas que siempre se consideraron corpúsculos materiales pueden, en algunas circunstancias, actuar como ondas. De Broglie buscó una expresión para la longitud de onda que podría estar asociada con el comportamiento ondulatorio de un electrón. Encontró la expresión con un argumento muy simple.

El momento lineal de un fotón de longitud de onda λ es p = h/λ o, dicho de otra forma, la longitud de onda del fotón es λ = h/p. De Broglie pensó que esta relación también podría aplicarse a los electrones que se mueven con velocidad v y, por tanto, con un momento lineal p = mv. Sugirió audazmente que la longitud de onda de un electrón es λ = h/mv, donde m es la masa del electrón y v su velocidad.

Pero, ¿qué significa decir que un electrón tiene una longitud de onda igual a la constante de Planck dividida por su mometo lineal? Como hemos visto, si esta afirmación tiene algún significado físico debe ser posible comprobarla mediante algún tipo de experimento. En este caso, se debería poder medir alguna propiedad ondulatoria del electrón. La primera de esas propiedades que se pudo medir fue la difracción.

De la relación λ = h/mv se deduce que las longitudes de onda asociadas a los electrones serán muy cortas, incluso para electrones bastante lentos. Un electrón acelerado a través de una diferencia de potencial de solo 100 V tendría una longitud de onda de solo 10-10 m. Una longitud de onda tan pequeña no daría efectos de difracción mensurables al encontrar incluso un objeto microscópicamente pequeño (digamos, de una micra, 10-6 m). No podía manipularse un objeto así en la época. Había que buscar algo del tamaño de la longitud de onda que pudiese usarse.

En 1920 estaba bien establecido que los cristales tienen una estructura reticular regular. La distancia entre los planos de átomos en un cristal es de aproximadamente 10-10 m. Tras proponer De Broglie que los electrones podían tener propiedades de onda, varios físicos sugirieron que la existencia de ondas de electrones podría mostrarse usando cristales como rejillas de difracción. Los experimentos iniciados en 1923 por C.J. Davisson y L.H. Germer encontraron patrones de difracción similares a los obtenidos anteriormente para los rayos X.

El experimento de Davisson-Germer demostraba dos cosas. Primero, los electrones tienen propiedades de onda, de lo contrario no podrían mostrar el patrón de difracción de las ondas. Se podría decir que un electrón se mueve siguiendo el camino que toma la onda de Broglie que está asociada al electrón. En segundo lugar, las longitudes de onda de los electrones están dadas correctamente por la relación de de Broglie, λ = h/mv .

Patrón de difracción obtenido al hacer incidir un haz de electrones en aluminio policristalino (una masa de aluminio compuesta de multitud de cristales diminutos orientados al azar). G.P. Thomson encontró un patrón similar usando una lámina de oro. Fuente: Cassidy Physics Library.

Estos resultados fueron confirmados en 1927 cuando G.P. Thomson [1] hizo pasar un haz de electrones a través de una delgada lámina de oro. Thomson encontró un patrón como el que se muestra en la imagen 1. Se asemeja a los patrones de difracción producidos por los haces de luz que atraviesan hojas finas de materiales. Para 1930 la difracción que se producía en los cristales había permitido demostrar el comportamiento ondulatorio incluso de los átomos de helio y de las moléculas de hidrógeno. [2]

Los experimentos que confirmaban la hipótesis de De Broglie indicaban que la dualidad onda-corpúsculo es una propiedad general no solo de la radiación sino también de la materia.

Notas:

[1] Sí, el hijo de J.J. Thomson.

[2] Se puede decir que Joseph John Thomson demostró que el electrón es una partícula y que su hijo George Paget Thomson que es una onda.  J.J. recibió el Nobel en 1906 y G.P. en 1937.

El artículo El comportamiento ondulatorio de los electrones se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El comportamiento corpuscular de la luz: el efecto Compton
  2. El comportamiento corpuscular de la luz: momento lineal del fotón
  3. La realidad de los estados estacionarios
Categories: Zientzia

El ethos de la ciencia

Mon, 2019/12/23 - 11:59
Lise Meitner con unas estudiantes estadounidenses (Sue Jones Swisher, Rosalie Hoyt y Danna Pearson McDonough) en las escaleras del edificio de química del Bryn Mawr College (Pennsylvania, EE.UU.) en abril de 1959. Meitner, de origen judío, nació en Austria, trabajó en Alemania y finalmente se refugió en Suecia debido a la persecución nazi. Participó notablemente en el descubrimiento de la fisión nuclear. Su compañero de equipo Otto Hahn recibió el premio Nobel (1944), pero no ella cuando era igualmente merecedora, si no más.

Dado que lo que aquí nos interesa es la cuestión de los males que afligen a la empresa científica, nos parece conveniente partir de una exposición de los valores de la ciencia, puesto que, en general, los males son rasgos que se oponen a aquellos. Empezaremos por los valores o normas enunciadas por el sociólogo Robert K. Merton en la primera mitad del siglo pasado, para pasar, en la anotación siguiente, a otras visiones de esta misma cuestión.

Las consideraciones éticas no son ajenas al desempeño científico. La investigación se rige por un código de comportamiento que asumimos como propio quienes nos dedicamos a esa actividad. En 1942, el sociólogo Robert K. Merton postuló la existencia de un “ethos científico”, un conjunto de valores que deben impregnar o inspirar la actividad científica. Sin ellos la ciencia, como empresa colectiva, perdería su misma esencia. Según él, la palabra «ciencia» hace referencia a diferentes cosas, aunque relacionadas entre sí. Normalmente se utiliza para denotar: (1) un conjunto de métodos característicos mediante los cuales se certifica el conocimiento; (2) un acervo de conocimiento acumulado que surge de la aplicación de estos métodos; (3) un conjunto de valores y normas culturales que gobiernan las actividades científicas; (4) cualquier combinación de los elementos anteriores.

En expresión de Merton (1942), “el ethos de la ciencia es ese complejo, con resonancias afectivas, de valores y normas que se consideran obligatorios para el hombre de ciencia. Las normas se expresan en forma de prescripciones, proscripciones, preferencias y permisos. Se las legitima sobre la base de valores institucionales. Estos imperativos, trasmitidos por el precepto y el ejemplo, y reforzados por sanciones, son internalizados en grados diversos por el científico, moldeando su conciencia científica. Aunque el ethos de la ciencia no ha sido codificado, se lo puede inferir del consenso moral de los científicos tal como se expresa en el uso y la costumbre, en innumerables escritos sobre el espíritu científico y en la indignación moral dirigida contra las violaciones del ethos”.

Para Merton (1942), el fin institucional de la ciencia es el crecimiento del conocimiento certificado. Y los métodos empleados para alcanzar ese fin proporcionan la definición de conocimiento apropiada: enunciados de regularidades empíricamente confirmados y lógicamente coherentes (que son, en efecto, predicciones). Los imperativos institucionales (normas) derivan del objetivo y los métodos. Toda la estructura de normas técnicas y morales conducen al objetivo final. La norma técnica de la prueba empírica adecuada y confiable es un requisito para la constante predicción verdadera; la norma técnica de la coherencia lógica es un requisito para la predicción sistemática y válida. Las normas de la ciencia poseen una justificación metodológica, pero son obligatorias, no solo porque constituyen un procedimiento eficiente, sino también porque se las cree correctas y buenas. Son prescripciones morales tanto como técnicas.

Merton (1942) propuso cuatro conjuntos de imperativos institucionales: el universalismo, el comunalismo, el desinterés y el escepticismo organizado, como componentes del ethos de la ciencia moderna.

Si la comunidad científica comparte un proyecto común –la construcción de un cuerpo de conocimiento certificado o fiable acerca del mundo y de cómo funciona-, las normas que Merton (1942) identificó son algo parecido a los valores compartidos por esa comunidad, valores que son considerados esenciales. Una interpretación actualizada de las normas mertonianas, es la que propone el físico John Ziman (2000), y que se presenta a continuación.

  • Lo importante en la ciencia no es quién la practica, sino su contenido, los conocimientos que adquirimos acerca del mundo y de los fenómenos que ocurren en él. Todos pueden contribuir a la ciencia con independencia de su raza, nacionalidad, cultura o sexo.
  • El conocimiento certificado debería ser compartido por el conjunto de la comunidad científica, con independencia de qué parte de los descubrimientos ha sido hecha por unos u otros científicos. Así pues, todos deberían tener el mismo acceso a los bienes científicos y debería haber un sentido de propiedad común al objeto de promover la colaboración. El secretismo es lo opuesto a esta norma, puesto que el conocimiento que se oculta, que no se hace público, no es de ninguna ayuda en el cumplimiento del objetivo de la comunidad, que el conocimiento certificado crezca.
  • Desinterés. Se supone que los científicos actúan en beneficio de una empresa común, más que por interés personal. No obstante, no debe confundirse este “desinterés” con altruismo. De lo que se trata es de que el beneficio que pueda reportar los descubrimientos científicos, sin dejar de resultar beneficiosos para quien los realice, no entorpezca o dificulte la consecución del objetivo institucional de la ciencia: la extensión del conocimiento científico.
  • Escepticismo organizado El escepticismo quiere decir que las declaraciones o pretensiones científicas deben ser expuestas al escrutinio crítico antes de ser aceptadas. Este es el valor que compensa el universalismo. Todos los miembros de la comunidad científica pueden formular hipótesis o teorías científicas, pero cada una de ellas debe ser evaluada, sometida al filtro de la prueba o la refutación para comprobar si se sostiene. Las propuestas que superan esa prueba con éxito pasan a formar parte del bagaje universal de conocimiento científico. El escepticismo es el valor que permite que funcione el del desinterés, porque sin escepticismo es más fácil caer en la tentación de anteponer el interés personal al del conjunto de la comunidad científica.

A los científicos no se nos da un manual con esas normas. Se supone que las adquirimos prestando atención a lo que hacen otros científicos en nuestra comunidad, los comportamientos que se castigan y los que se premian. En otras palabras, no es necesariamente lo que los científicos hacemos habitualmente; porque a veces lo que hacemos no satisface lo que pensamos que deberíamos hacer.

Hace unos años MacFarland & Cheng (2008) analizaron en qué medida los miembros de la academia hacen suyas en la actualidad las normas mertonianas y comprobaron que la norma que menos apoyo recibe es el desinterés. Interpretan ese menor apoyo como una consecuencia de la tendencia creciente a alinear los intereses de investigación con las oportunidades de financiación. Y cabe plantearse si el menor apoyo al ideal del desinterés constituye una disfunción del sistema científico o, por el contrario, es simplemente muestra de una concepción de la empresa científica diferente de la que en su día concibió Robert Merton.

No obstante, creo que el conjunto de valores aquí expuesto sería suscrito como deseable por la mayoría de científicos, por lo que me parece  un buen punto de partida para evaluar la medida en que esos valores impregnan la práctica de la investigación científica que realmente se hace. Por esa razón, me ha parecido adecuado denominar “males de la ciencia” a aquellos comportamientos que no se ajustan a esos principios o aquellas formas de funcionar del sistema científico que impiden o dificultan su cumplimiento.

Fuentes:

Merton, R K (1942): “Science and Technology in a Democratic Order” Journal of Legal and Political Sociology1: 115-126. [Traducción al español como “La estructura normativa de la ciencia” en el volumen II de “La Sociología de la Ciencia” Alianza Editorial 1977, traducción de The Sociology of Science – Theoretical and Empirical Investigations, 1973]

Ziman, J (2000): Real Science: What It Is and What It Means. Cambridge University Press.

 

Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.

Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.

El artículo El ethos de la ciencia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El ethos de la ciencia y las normas de Merton
  2. La ciencia no tiene valores… ¿o sí los tiene?
  3. La hostilidad a la ciencia
Categories: Zientzia

Ha llegado el frío

Sun, 2019/12/22 - 11:59
Foto: Talgat Baizrahmanov / Unsplash

Para mantener la temperatura corporal constante cuando llega el frío, un animal homeotermo necesita reponer mediante el metabolismo el calor que pierde. Esa pérdida depende de la diferencia entre la temperatura del organismo y la del ambiente, por un lado, y del grado de aislamiento, por el otro. Por esa razón y si dejamos al margen a los hibernantes, el modo en que los mamíferos responden a la bajada invernal de temperatura tiene dos componentes principales. Por un lado, aumentan el grado de aislamiento con el exterior. Y por el otro, si la temperatura ambiental baja mucho, también elevan la actividad metabólica; producen así más calor y compensan la mayor pérdida.

El aislamiento se puede modificar de varias formas: cambiando la postura corporal para exponer una menor o mayor superficie al exterior, limitando la circulación sanguínea por la periferia de las extremidades y dejando que se enfríen, o actuando sobre el pelaje para cambiar el grosor de la capa de aire que aísla la superficie del cuerpo del exterior. Pero por debajo de cierta temperatura esas respuestas no bastan y hay que gastar más energía, como se ha dicho, elevando el metabolismo. Por eso es importante contar con alimento abundante cuando llega el frío o, en su defecto, con depósitos de reservas.

Pero los seres humanos somos especiales. Somos homeotermos, sí, pero nuestra especie surgió en África y nuestro linaje homínido es africano. Evolucionamos en la sabana y muchas de nuestras características son claro reflejo de nuestra procedencia. Durante esa evolución nos quedamos prácticamente desnudos y desarrollamos una gran capacidad para sudar y refrigerarnos de una manera muy eficiente evaporando el sudor sobre la superficie corporal. De hecho, el desplazamiento a zonas frías nos obligó a vestir ropas con una capacidad de aislamiento adecuado a la temperatura de cada zona. Y a pesar de todo, la vida en lugares verdaderamente fríos nos ha exigido esfuerzos considerables para disponer de habitación confortable (gastando en calefacción), vestir ropas de abrigo y conseguir el alimento necesario para comer más.

Cuando los sensores de temperatura que tenemos repartidos por diferentes lugares del cuerpo detectan la bajada térmica, informan al hipotálamo, una estructura nerviosa en el interior del encéfalo. Y este responde dando las órdenes debidas, tanto al sistema endocrino como al nervioso. Ciertas órdenes provocan cambios en la circulación sanguínea periférica y en la disposición del pelaje, de manera que se aumenta el grado de aislamiento. Y otras elevan la actividad metabólica. En esos ajustes intervienen hormonas tales como la adrenalina, la noradrenalina y las tiroideas, que provocan un aumento del metabolismo. Quienes tienen grasa parda llevan ventaja, porque es un tejido cuya única función es producir calor. Y llegado el caso, tiritamos también.

Los mamíferos de zonas frías están, lógicamente, bien adaptados a la vida en entornos helados. Una cría de oso polar mantiene su metabolismo constante hasta 0ºC, y se estima que solo llegaría a multiplicarlo por tres a 60ºC bajo cero. Los zorros árticos, perros esquimales y demás grandes mamíferos árticos prácticamente no necesitan elevar su metabolismo salvo a temperaturas verdaderamente extremas, como 25 o 30ºC bajo cero. Pero a los seres humanos, como no hemos dejado de ser primates de sabana, todo eso nos sale muy caro. Un individuo desnudo empieza a elevar su metabolismo al descender la temperatura de 26ºC, aproximadamente, y a 8ºC lo triplica.

De lo anterior se extrae una triste conclusión. El frío es especialmente cruel con los pobres de solemnidad: no solo no tienen recursos para calentar el entorno en el que viven, tampoco los tienen para calentar su propio interior.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Ha llegado el frío se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Caliente o frío?
  2. En los límites del frío
  3. Ha llegado el final de la cosmética «sin»
Categories: Zientzia

1969: el año en el que llegamos a la Luna e inventamos Internet

Sat, 2019/12/21 - 11:59

El año 1969 marcó un antes y un después. Fue el año en el que el ser humano pisó por primera vez un astro distinto al que nos vio nacer: la Luna. Fue, sin ninguna duda, un momento histórico. Pero, pocos meses después sucedería algo que cambiaría nuestro mundo por completo: un grupo de ingenieros en los Estados Unidos consiguió que dos ordenadores de distintos fabricantes se hablaran entre ellos, estableciendo así el germen de lo que sería Internet. Ese hecho pasó desapercibido en esos momentos, pero para muchos fue un hito mucho más relevante que lo que supuso nuestra llegada a la Luna.

Javier Pedreira,  divulgador científico en el blog Microsiervos donde firma como Wicho, repasa en esta charla cómo fueron y que significaron estos dos hitos históricos.

Pedreira es responsable de Informática de los Museos Científicos Coruñeses desde hace ya casi 15 años y cofundador Microsiervos, uno de los blogs sobre ciencia y tecnologías más leídos en español en el mundo. Además, es colaborador habitual en varios medios de comunicación.

Esta charla se enmarca en el ciclo “Bidebarrieta Científica”, una iniciativa que organiza todos los meses la Cátedra de Cultura Científica de la UPV/EHU y la Biblioteca Bidebarrieta para divulgar asuntos científicos de actualidad.

Edición realizada por César Tomé López

El artículo 1969: el año en el que llegamos a la Luna e inventamos Internet se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – Álex Méndez: Luz de luna
  2. Naukas Bilbao 2017 – Ángel Gómez Roldán: Tras la sombra de la Luna
  3. Coloquios escépticos: ¿Fuimos a la Luna?, con Eugenio Manuel Fernández Aguilar
Categories: Zientzia

Un aislante topológico intrínsecamente magnético

Fri, 2019/12/20 - 11:59
Un cristal de telururo de bismuto y manganeso, el primer aislante topológico magnético predicho y confirmado. Foto: A. Isaeva, TU Dresden/IFW Dresden

Los materiales llamados aislantes topológicos son aquéllos que no dejan pasar la corriente eléctrica en su volumen, pero sí sobre su superficie. A diferencia de los conductores habituales, como los metales, la corriente no sufre ninguna pérdida de energía al circular en la superficie de un aislante topológico. Esta propiedad abre grandes posibilidades de aplicación en electrónica, pues facilitaría la fabricación de dispositivos más eficientes y rápidos, propiedades muy deseables habida cuenta del rápido avance de la demanda energética mundial asociada a la electrónica. No es de extrañar, por tanto, que el descubrimiento de los aislantes topológicos hace aproximadamente una década causase que la investigación en nanotecnología y en física de la materia condensada dedicase buena parte de sus recursos a ellos.

Uno de los retos durante estos años de intensa investigación, por las aplicaciones tecnológicas que podría tener en las tecnologías de la información, por ejemplo, ha sido la creación de un aislante topológico magnético. Hasta hace poco el magnetismo se introducía en los aislantes topológicos no-magnéticos exclusivamente por la llamada vía extrínseca, que consiste en añadir átomos que confieren propiedades magnéticas. Sin embargo, gracias al esfuerzo de un grupo de investigadores del Centro de Física de Materiales (CFM, centro mixto CSIC-UPV/EHU), el Donostia International Physics Center (DIPC) y la Universidad del País Vasco (UPV/EHU) ahora ya es posible fabricar un aislante topológico magnético intrínseco, esto es, que tiene propiedades magnéticas por su propia naturaleza. Los resultados se han publicado en Nature y han merecido un análisis en News & Views.

Fuente: Nature

El equipo formado por los investigadores Mikhail Otrokov, Evgueni Chulkov, María Blanco Rey y Pedro M. Etxenike, ha logrado predecir teóricamente el primer aislante topológico magnético, el telururo de bismuto y manganeso, de fórmula química MnBi2Te4.  El investigador Ikerbasque y líder del estudio, Mikhail Otrokov, afirma que «el trabajo previo desde diferentes enfoques nos llevó a la conclusión de que la ruta intrínseca era la única viable hoy en día. Entonces dirigimos nuestros esfuerzos a encontrar un aislante topológico magnético intrínseco basándonos en experiencias previas, gracias a las cuales supimos qué estructura cristalina y composición atómica debía tener tal material».

La confirmación experimental de la predicción ha sido un trabajo que ha involucrado a investigadores expertos en distintas áreas de centros de investigación de referencia de Rusia, Azerbaiyán, Alemania, Austria, Japón, Italia y los EE.UU, coordinados por los investigadores de los centros vascos. Otrokov ha explicado que para la confirmación experimental la primera tarea fue la síntesis de los cristales del compuesto por parte de los expertos en síntesis química. Una vez sintetizadas, las muestras fueron sometidas a multitud de experimentos de caracterización estructural, magnética, electrónica, de transporte, de composición atómica, etc. que han permitido verificar las características predichas.

«El MnBi2Te4 además de ser un aislante topológico con propiedades magnéticas intrínsecas, ha resultado ser un material antiferromagnético, tal y como habíamos calculado», explica Blanco. El antiferromagnetismo consiste en un orden magnético a escala atómica tal que el material carece de magnetización neta. Por ello estos materiales son mucho más robustos frente a perturbaciones por imanes.

El telururo de bismuto y manganeso tiene un gran potencial tanto a nivel fundamental como a nivel tecnológico. Es extraordinariamente rico en propiedades exóticas, como, por ejemplo, varios efectos de Hall, incluido el efecto Hall cuántico, algunos de los cuales se utilizan en la calibración de constantes físicas por su excepcional precisión. El MnBi2Te4 también se puede usar para la creación de los llamados fermiones de Majorana. Un tipo de partícula que se ha llegado a considerar la piedra angular de la computación cuántica. Asimismo, el MnBi2Te4 es el primer material intrínseco para el que se predice una respuesta electromagnética muy similar a la de un axión, una hipotética partícula postulada en el marco de la cromodinámica cuántica, que es buena candidata para resolver el problema de la materia oscura. Por ello se están diseñado muchos experimentos dirigidos precisamente a la detección de señales de un comportamiento de tipo axión en la familia de este compuesto.

Los resultados del estudio, que ya habían sido publicados en arXiv y difundidos en charlas impartidas por los autores en congresos internacionales, han sido bien recibidos por la comunidad científica internacional. A día de hoy el MnBi2Te4 y otros materiales basados en él  se están estudiando en decenas de centros de investigación, siendo los radicados en EE.UU. y China los que muestran una actividad más intensa.

Ya se han patentado ya varios dispositivos basados en los aislantes topológicos magnéticos. Así, el MnBi2Te4 puede ser utilizado en las interconexiones quirales de los circuitos integrados, que prometen un rendimiento superior a las conexiones de cobre ordinarias que se emplean actualmente en los circuitos disponibles comercialmente. Otras aplicaciones incluyen moduladores ópticos, sensores de campo magnético y elementos de memoria.

Los investigadores, junto a su red de colaboradores internacionales, esperan poder observar en el MnBi2Te4 algunas de las exóticas propiedades mencionadas y descubrir nuevos aislantes topológicos magnéticos intrínsecos con características incluso superiores que las del propio MnBi2Te4.

Referencia:

M. M. Otrokov, I. I. Klimovskikh, H. Bentmann, D. Estyunin, A. Zeugner, Z. S. Aliev, S. Gaß, A. U. B. Wolter, A. V. Koroleva, A. M. Shikin, M. Blanco-Rey, M. Hoffmann, I. P. Rusinov, A. Yu. Vyazovskaya, S. V. Eremeev, Yu. M. Koroteev, V. M. Kuznetsov, F. Freyse, J. Sánchez-Barriga, I. R. Amiraslanov, M. B. Babanly, N. T. Mamedov, N. A. Abdullayev, V. N. Zverev, A. Alfonsov, V. Kataev, B. Büchner, E. F. Schwier, S. Kumar, A. Kimura, L. Petaccia, G. Di Santo, R. C. Vidal, S. Schatz, K. Kißner, M. Ünzelmann, C. H. Min, Simon Moser, T. R. F. Peixoto, F. Reinert, A. Ernst, P. M. Echenique, A. Isaeva and E. V. Chulkov.(2019) Prediction and observation of an antiferromagnetic topological insulator. Nature doi: 10.1038/s41586-019-1840-9

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Un aislante topológico intrínsecamente magnético se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La teoría de bandas de los sólidos se hace topológica
  2. Superelasticidad nanométrica
  3. Trayectorias de las partículas cargadas en un campo magnético
Categories: Zientzia

La ciencia de llorar a gusto

Thu, 2019/12/19 - 11:59

Composers have a gift, as Barber did, for confirming with music what we already know—sad music intensifies sadness, and in that intensity, solace is somehow provided. [*]

The saddest music ever written, Thomas Larson, 2010.

Los humanos somos unos monos muy raros. A veces, cuando nos duele algo, goteamos. Pongamos que se nos ha muerto un cactus, que nuestro gato nos deja, que nos pillamos un dedo con la puerta. Entonces, una glándula de la región externa del ojo empieza a liberar un líquido salado lleno de proteínas, agua, moco y grasa. Este líquido, más conocido como lágrimas, fluye por la superficie del ojo y se desprende desde las pestañas hasta que, además de goteras, tenemos la cara roja, la nariz congestionada, el rímel como si lo hubiese aplicado Jackson Pollock…

A priori, no parece una reacción especialmente provechosa y, para colmo, los humanos somos la única especie que produce las llamadas lágrimas psíquicas o emocionales1. En su tercer libro sobre teoría evolutiva, La Expresión de las Emociones en el Hombre y los Animales (1872), Charles Darwin llegó a afirmar que este tipo de lágrimas son “inútiles”. Por suerte, algo hemos aprendido desde entonces.

Para empezar, hoy sabemos que no todas las lágrimas son iguales. Las lágrimas emocionales son solo un tipo. Las producimos cuando sentimos emociones intensas, principalmente dolor, pero también con la risa y la felicidad. Existen además lágrimas reflejas o irritativas, que son las que derramamos al ver sufrir a una cebolla o si se nos mete algo en el ojo. Y aunque desde fuera puedan parecer iguales, al microscopio las diferencias se vuelven evidentes. Si bien todas contienen lípidos, metabolitos, electrolitos y enzimas, las lágrimas emocionales tienen además una mayor cantidad de proteínas y hormonas que no se encuentran en el caso de las reflejas. En concreto, se encuentran sustancias relacionadas con la respuesta al estrés y al dolor, como la Encefalina (un anestésico natural) y la Adrenocorticotropa (un trabador de lenguas artificial), que podrían tener un efecto autorregulador. Eso explicaría por qué a veces uno se encuentra mejor después de una buena llorera.

Y para el profesor David Huron explicaría también, por qué disfrutamos de la música triste2: “Cuando una persona está en un estado triste, esta hormona llamada prolactina se libera y tiene un efecto psicológico de consuelo”. Es como si nuestro cuerpo tuviese un mecanismo para que la tristeza y el dolor no se agudicen demasiado, no alcancen ciertos límites que nos incapaciten. Ahora bien, es posible sentir esta sensación de alivio incluso en situaciones donde no existe ningún duelo real. Y una de esas situaciones se da cuando escuchamos música. “La música triste nos pone en un estado de duelo. Pero al final del día, ¡nada terrible ha sucedido!”, no se nos ha muerto el cactus, no nos ha dejado el gato, no hay restos de dedo en ninguna puerta. Por ello, afirma Huron, “sí es posible llorar a gusto, gracias a la música”.

Sin embargo, esta hipótesis sobre el llanto no es la única ni tampoco la más explicativa3. Si bien las lágrimas desencadenan una respuesta fisiológica, su función principal es actuar como señal. Los ojos con goteras, la nariz congestionada, la cara hinchada y salpicada como un Pollock… todos estos síntomas combinados comunican a otros Sapiens un mensaje claro y directo: “Socorro, necesito ayuda”.

En ese sentido, el llanto es muy distinto de la apacible tristeza. Mientras la tristeza deja ver indicios que pueden llegar a confundirse con otros estados fisiológicos (como el cansancio), el llanto es una señal explícita, su función es comunicar y por ello se vale de varios canales, para resultar más evidente e inequívoca. Cuando lloramos, no sólo goteamos; también vocalizamos de una manera muy peculiar: nuestra garganta se tensa, nuestra voz se agudiza, emitimos sonidos vibrantes y ruidosos, a veces sostenidos en el tiempo —notas largas que languidecen y se rinden hacia el grave—, otras veces, entrecortados en forma de sollozo. Nada que ver con los sonidos de la tristeza.

Algunos estudios muestran que, cuando vemos a alguien llorar, se activa en nosotros automáticamente una respuesta de empatía y compasión por los demás. ¿Quizás sucede lo mismo cuando oímos a un violín llorar?

Referencias:

1Asmir Gračanin, Lauren M. Bylsma, Ad J. J. M. Vingerhoets. “Why Only Humans Shed Emotional Tears”. Humane Nature, 2018.

2David Huron. “Why is sad music pleasurable? A possible role for prolactin”. Musicae Scientiae, 2011.

3Michael Trimble. “Why humans like to cry: Tragedy, evolution and the brain”. 2012

Nota:

[*] Los compositores tienen un don, como lo tenía Barber, para confirmar con música lo que ya sabemos; la música triste intensifica la tristeza, y en esa intensidad, de alguna manera, se proporciona consuelo. [Traducción de César Tomé López]

 

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo La ciencia de llorar a gusto se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia grande, ciencia pequeña
  2. La ciencia contra lo obvio
  3. Ciencia, política y hechos
Categories: Zientzia

El arte contemporáneo que mira al Tangram

Wed, 2019/12/18 - 11:59

En la octava edición del FIG Bilbao, Festival Internacional de Grabado y Arte sobre Papel, que tuvo lugar el pasado mes de noviembre en Bilbao, descubrí una serie de interesantes grabados del artista madrileño Javier Abad Alonso, co-fundador del estudio de grabado y galería Arco Tijera, relacionada con el Tangram, el clásico rompecabezas de tipo geométrico.

Fotografía de la mesa de la galería Arco Tijera durante la celebración del festival FIG Bilbao, en la que podemos ver dos fotolitografías del artista Javier Abad Alonso de la serie que relaciona el rompecabezas Tangram con el cosmos. Imagen de la página de Facebook de Arco Tijera

 

El Tangram es un rompecabezas geométrico de origen chino, aunque de antigüedad desconocida (véase más sobre su historia en la entrada Tangram), formado por 7 piezas poligonales –5 triángulos, 1 cuadrado y 1 paralelogramo de tipo romboide (que pueden verse en la siguiente imagen) – con las cuales se puede formar la figura básica, que es un cuadrado, o una enorme familia de figuras, tanto figurativas (animales, personas, objetos, números, letras, etc), como geométricas (figuras poligonales convexas, etc), además de poder ser utilizado de forma didáctica para aprender matemáticas (teorema de Pitágoras, áreas, ángulos, etc).

Las siete piezas del Tangram formando la figura básica del cuadrado

Este rompecabezas geométrico nos permite incluso jugar con algunas paradojas, es decir, dos figuras formadas por las siete piezas del Tangram, de igual aspecto, salvo que aparentemente una de ellas es una “extensión” (tiene un añadido) de la otra. La paradoja más conocida es la que consiste en dos monjes y que aparece en el libro Amusements in Mathematics (1917), del matemático recreativo Henry Dudeney (1857-1930). Otras dos conocidas paradojas pertenecen a la persona que popularizó el Tangram, el jugador de ajedrez y matemático recreativo Sam Loyd (1841-1911), que las incluye en su libro The Eighth Book of Tan (1903). En la siguiente imagen mostramos la paradoja de la taza mágica.

Paradoja de la taza mágica, de Sam Loyd, que consiste en tres tazas similares, aparentemente una de ellas con más superficie que las otras dos. Imagen de Wikimedia Commons

 

Pero regresemos a la serie de grabados de Javier Abad Alonso, que recibe el nombre “Supremus, el cerebro del hombre también es el cosmos”. Este artista toma como punto de partida las ideas del movimiento artístico Suprematismo y en particular de su cofundador Kazimir Malevich (1879-1935), recogiendo además la idea de imitar la naturaleza utilizando módulos geométricos, como explica el propio artista en el texto del proyecto. Así mismo, explica que una referencia fundamental en su trabajo es la pintura icónica de Kazimir Malevich Cuadrado negro (1915-1930):

El espíritu revolucionario del cuadro de Malévich más de un siglo después de ser exhibido por primera vez sigue manteniendo intacto su espíritu transgresor y aún resulta controvertida para la mayor parte de la sociedad actual, el debate que genera, es algo que aún no ha sido superado y su vigencia es mi punto de partida. Modificar el color negro por paisajes extraídos de un observatorio astronómico e ir deconstruyendo el cuadrado con la ayuda de un juego geométrico siguiendo las reglas suprematistas expuestas de su manifiesto.

Para esta serie de fotolitografías (como se explica en el Diccionario de Historia del Arte, la fotolitografía es un proceso de impresión litográfico que utiliza una imagen formada a través de medios fotográficos), este artista del grabado utilizada por una parte fotografías del cielo estrellado, tomadas con el telescopio de un observatorio astronómico, y el rompecabezas geométrico más conocido, el Tangram.

A través de una serie de ejemplos concretos de sus fotolitografías, que mostraremos a continuación, podemos observar el uso que hace este artista del grabado de este versátil rompecabezas geométrico.

En el primer grabado, que forma parte de un grupo de cinco fotolitografías de la serie Supremus, El cráneo del hombre también es el cosmos con las que este artista ganó el primer premio de la 17 Edición «Gran Canaria Series de Obra Gráfica» (2019), podemos observar la imagen de un trozo de cielo estrellado dividida en siete zonas poligonales, en concreto con la forma de las siete piezas del Tangram. Además, la imagen que configuran las siete piezas, que es la imagen del cielo estrellado, tiene la forma de una figura poligonal convexa, un hexágono irregular, que es una de las 13 configuraciones poligonales convexas (un polígono convexo es un polígono cuyos ángulos interiores miden menos de 180º, es decir, no hay zonas que externas metidas hacia dentro) que puedes realizarse con las piezas del Tangram.

Fotolitografía de la serie “El cráneo del hombre también es el cosmos”, de Javier Abad Alonso, serie ganadora del primer premio de la 17 Edición «Gran Canaria Series de Obra Gráfica» (2019). Imagen de la página de Facebook de Arco Tijera

En los dos siguientes grabados, pertenecientes al tríptico que este artista madrileño ha expuesto durante la VIII Bienal Iberoamericana de obra gráfica ciudad de Cáceres (2019), vemos dos fotolitografías, cuyas imágenes son cuadradas, del cielo estrellado y divididas, de nuevo, en las piezas de un rompecabezas geométrico.

Si nos fijamos bien, en la primera litografía la mitad superior es la imagen de una fotografía recortada por las siete piezas del Tangram formando un rectángulo (de proporciones 1:2), mientras que el rectángulo de la mitad inferior es un giro de 180 grados de la pieza de arriba alrededor del centro de la imagen global. Por lo tanto, en esta composición las piezas de arriba y abajo son las mismas en forma e imagen.

Sin embargo, en la segunda litografía la mitad superior está formada por la imagen de una fotografía recortada por las siete piezas del Tangram formando un triángulo (también de proporciones, 1:2), pero ahora el triángulo de abajo es la imagen especular (de tipo espejo) del triángulo de arriba. Por lo cual, ahora las piezas de abajo y arriba son las mismas en forma, las siete piezas del Tangram (bueno, la pieza romboide volteada), pero realmente no en imagen, ya que la imagen de cada pieza de abajo la imagen de espejo respecto de la de arriba.

Fotolitografía 1 del tríptico de Javier Abad Alonso expuesto en la VIII Bienal Iberoamericana de obra gráfica ciudad de Cáceres (2019). Imagen de la página de Facebook de Arco Tijera

 

Fotolitografía 2 del tríptico de Javier Abad Alonso expuesto en la VIII Bienal Iberoamericana de obra gráfica ciudad de Cáceres (2019). Imagen de la página de Facebook de Arco Tijera

 

En los ejemplos que hemos comentado hasta ahora podemos observar como Javier Abad utiliza configuraciones convexas del Tangram, distintas del cuadrado básico, como son el hexágono irregular, el rectángulo 1:2 y el triángulo 1:2. En la siguiente fotolitografía utiliza un trapecio isósceles, en las partes derecha e izquierda de la imagen, que son una la imagen especular de la otra.

Fotolitografía 3 del tríptico de Javier Abad Alonso expuesto en la VIII Bienal Iberoamericana de obra gráfica ciudad de Cáceres (2019). Imagen de la página de Facebook de Arco Tijera

 

Y en la siguiente obra utiliza la configuración convexa de un trapecio rectangular. Sin embargo, en esta fotolitografía, aunque las piezas que aparecen se corresponden también con dos juegos enteros del rompecabezas Tangram, no ocurre, como en los ejemplos anteriores, que una parte es simétrica a la otra, sino que las dos configuraciones (derecha e izquierda) son dos imágenes celestes distintas.

Fotolitografía de la serie “El cráneo del hombre también es el cosmos”, de Javier Abad Alonso, serie ganadora del primer premio de la 17 Edición «Gran Canaria Series de Obra Gráfica» (2019). Imagen de la página de Facebook de Arco Tijera

Aunque Javier Abad no siempre utiliza configuraciones convexas como puede verse en alguna de las obras que hay en la página de Facebook de Arco Tijera, o incluso maneja las piezas de dos juegos completos del rompecabezas Tangram creando una nueva configuración con las 14 piezas, como en la siguiente fotolitografía, donde además ya no se trata de una imagen del cielo “duplicada”, sino una única imagen.

Fotolitografía de la serie “El cráneo del hombre también es el cosmos”, de Javier Abad Alonso, serie ganadora del primer premio de la 17 Edición «Gran Canaria Series de Obra Gráfica» (2019). Imagen de la página de Facebook de Arco Tijera

Sin embargo, Javier Abad Alonso no es el único artista contemporáneo que ha utilizado, o utiliza, el rompecabezas geométrico Tangram, como se mostrará a lo largo de esta entrada del Cuaderno de Cultura Científica.

Vamos a continuar este pequeño paseo por el arte contemporáneo que mira al Tangram por el artista italiano, aunque en la actualidad reside en Grecia, Francesco Moretti, quien cultiva varios formatos, como la pintura, la escultura, el video, el diseño interior o los libros artísticos (como puede verse en su página web), pero también el grabado. De hecho, tiene varias series de maravillosos grabados en los que hace uso del rompecabezas Tangram y algunas de las configuraciones que pueden realizarse con sus piezas.

La primera serie de grabados de Francesco Moretti lleva el título de Tangram game. Estas obras son algunas de las configuraciones conocidas del Tangram (hombre cayendo, avión, pez, cisne, caballo, gato, flecha o conejo). Cada pieza del Tangram tiene un diseño geométrico diferente. Además, en cada grabado todas las piezas son del mismo color o cada una tiene un color distinto.

Conejo (2018), de Francesco Moretti. Linograbado con 7 colores, de tamaño 50 x 70 cm. Imagen extraída de la página del artista Francesco MorettiGato (2018), de Francesco Moretti. Linograbado con 7 colores, de tamaño 50 x 70 cm. Imagen extraída de la página del artista Francesco Moretti

Tiene una segunda serie dedicada a las mujeres, titulada Tangram Ladies, en la cual utiliza para cada obra dos impresiones en color de la imagen que ha diseñado, las cuales son cortadas en tiras y “entrelazadas como si fueran hilos de lana en un tejido”. Las configuraciones del Tangram utilizadas son, por supuesto, de figuras femeninas. El resultado es de una gran belleza.

Mujer Tangram 01 (2018), de Francesco Moretti. Linograbado con 2 impresiones, de tamaño 50 x 70 cm. Imagen extraída de la página del artista Francesco Moretti

 

La siguiente serie de grabados, denominada Closed forms (formas cerradas), está formada por algunas de las 13 configuraciones convexas que existen para este rompecabezas geométrico. Además, en cada figura incluye líneas paralelas con la forma de la misma figura, que nos recuerdan a algunas de las obras del artista abstracto y minimalista norteamericano Frank Stella (véase la entrada Frank Stella, la forma del lienzo).

Forma cerrada 03 (2018), de Francesco Moretti. Linograbado en 2 colores, de tamaño 50 x 50 cm. Imagen extraída de la página del artista Francesco Moretti

En la última serie de grabados en los que utiliza este rompecabezas geométrico, que recibe el nombre de Tangram óptico, utiliza diferentes configuraciones de animales del Tangram (camello, gallina, oso, ardilla y tejón). Por otra parte, sobre las piezas diseña una serie de líneas que crean cierto efecto óptico y a que, a diferencia de los anteriores diseños, las líneas se continúan de unas piezas a otras ya dentro de la configuración realizada.

Oso (2018), de Francesco Moretti. Linograbado de tamaño 50 x 70 cm. Imagen extraída de la página del artista Francesco Moretti

 

Pero la utilización del Tangram que realiza este artista italiano no se limita al grabado, sino que también realiza una serie de potentes esculturas inspiradas en el rompecabezas, realizadas tanto en madera, como en acero.

Cisne (2018), de Francesco Moretti. Madera. Tamaño 43 x 19 x 45 cm. Imagen extraída de la página del artista Francesco Moretti

 

En el año 2016, la galería Espacio Líquido de Gijón en su nueva propuesta por difundir la obra de artistas del entorno organizó una muestra titulada Estructura primitiva, que unía el trabajo de dos creadores como Jorge Nava (Gijón, 1980) y Job Sánchez (A Coruña, 1979). La propuesta del artista gallego Job Sánchez fue su serie Tangram, en la que se utilizaban algunas configuraciones convexas del rompecabezas. Por ejemplo, en cuatro collages de papel y vinilo sobre papel (con los títulos Tangram 1, 2, 3, 4) se utilizaban cuatro de estas configuraciones. Aunque quizás la propuesta más impactante fue el mural, de acrílico y grafico sobre la pared, de un tamaño de 135 x 180 cm, que vemos a la derecha en la siguiente imagen.

Imagen de la exposición Estructura Primitiva en la Galería Espacio Líquido, en 2016. A la derecha, Sin título (2016), del artista Job Sánchez, perteneciente a la serie Tangram. Acrílico y grafico sobre la pared, de un tamaño de 135 x 180 cm. Imagen de la página de la revista cultural online LaEscena

 

Imagen de la exposición Estructura Primitiva en la Galería Espacio Líquido, en 2016. Tangram 1, 2, 3, 4 (2016), collage de papeles y vinilo sobre papel, y Sin título (2016), tangram de madera pegado y pintado, con vinilo en la pared, del artista Job Sánchez, perteneciente a la serie Tangram. Imagen de la página de la revista cultural online LaEscena

 

Otra artista que utiliza el Tangram es la artista francesa, afincada en Aarhus (Dinamarca), Lucie Payoux. Tiene dos obras en las que utiliza la configuración básica del cuadrado, del Tangram, en las cuatro posiciones obtenidas al rotar 90 grados esa configuración básica. Y cada pieza tiene su propio diseño.

Tangram (2019), de la artista Lucie Payoux. Acrílico y óleo sobre madera. Tamaño de 55 x 55 cm. Imagen de la página web de la artista

El artista holandés Daan Roukens también utiliza las cuatro rotaciones de 90 grados de la configuración básica del cuadrado en su graffiti sobre madera On the Wall / Sobre el muro (2010), que realizó para el Artpie 2010, en Ámsterdam, en el que se van repitiendo las cuatro imágenes de forma periódica.

On the Wall / Sobre el muro (2010), del artista Daan Roukens, para el Artpie 2010, en Ámsterdam. Grafitti sobre madera. Tamaño de 1 x 16 metros. Imagen de la página web del artista

La francesa Françoise Bergaglia ha desarrollado un interesante trabajo como ceramista en los últimos años. Como ella misma ha comentado en su página La galerie des Tangram, este rompecabezas geométrico le fascina, sus siete piezas y la infinidad de configuraciones posibles que existen. En La galerie des Tangram tiene más de 50 piezas, de diferentes tamaños, realizadas en terracota sobre configuraciones del Tangram.

Variaciones rojo y azul sobre fondo pintado, de Françoise Bergaglia. Imagen de su página La galerie des Tangram

Sigamos con el diseño. La compañía de diseño 22 Studio Room de Taipei (Taiwan) realizó la escultura Ciudad Tangram que vemos en la siguiente imagen tomando como base la configuración cuadrada del Tangram.

Escultura Ciudad Tangram, diseñada por la compañía 22 Studio Room de Taipei (Taiwan). Imagen de la página The Journal Shop

También podemos encontrar ejemplos dentro de la arquitectura. El estudio de arquitectura de Barcelona del arquitecto Carlos Ferrater, OAB – Office of Architecture in Barcelona, diseño en el año 2013 el proyecto de Casa Tangram, de Borja Ferrater y Carlos Ferrater, para ser construida en Angelo Drive, Beverly Hills.

El estudio OAB explica así la relación del rompecabezas geométrico con su diseño arquitectónico:

La relación entre el rompecabezas y nuestro proyecto se ha vuelto casual pero con un alcance muy significativo. Nuestro propósito de simplificar el proyecto destacando sus aspectos más importantes nos llevó a relacionar el proyecto con esta brillante, pero a la vez simple idea del juego de rompecabezas, que nos permite representar múltiples formas desde el punto de partida.

Tangram utiliza siete figuras geométricas y con cada una de ellas podemos crear múltiples posibilidades. Nuestro proyecto comenzó con unas premisas muy claras desde el primer día, tales como la relación natural con el paisaje existente, una perfecta organización del programa arquitectónico y un objeto bellamente terminado diseñado para ser visto desde diferentes lugares.

Siempre hemos querido convertir estos tres temas principales en una solución muy clara y potente, tomando como creencia fundamental la fuerza de abstracción en la arquitectura.

Queríamos simplificar la forma mientras transmitíamos estos conceptos importantes con formas geométricas. Este tipo de lógica y pensamiento está bien relacionado con la abstracción, rigor y austeridad que se han utilizado en la arquitectura moderna a lo largo del siglo XX, teniendo California como un magnifico epicentro.

En la página web del estudio OAB puede encontrarse la descripción completa del proyecto.

Imágenes del proyecto Casa Tangram, de Borja Ferrater y Carlos Ferrater, para ser construida en Angelo Drive, Beverly Hills

 

Y vamos a terminar este pequeño paseo con una hermosa obra del diseñador gráfico e ilustrador Hugo Giner.

Ilustración de Hugo Giner. Imagen de su Instagram, a través de su página web

 

Bibliografía

1.- Página web del artista Javier Abad Alonso

2.- Javier Abada Alonso, Supremus, el cerebro del hombre también es el cosmos [comunicación personal]

3.- Diccionario de Historia del Arte: fotolitografía

4.- Página web del artista Francesco Moretti

5.- Página web del artista Job Sánchez

6.- Página web de la artista Lucie Payoux

7.- Página web del artista Daan Roukens

8.- Página web de la ceramista Françoise Bergaglia

9.- Página web de la compañía de diseño 22 Studio Room

10.- Página web del estudio OAB – Office of Architecture in Barcelona

11.- Página web del diseñador gráfico e ilustrador Hugo Giner

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El arte contemporáneo que mira al Tangram se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Arte y geometría del triángulo rectángulo: Broken Lights
  2. Tangram
  3. El teorema de Pitágoras en el arte
Categories: Zientzia

El comportamiento corpuscular de la luz: el efecto Compton

Tue, 2019/12/17 - 11:59
Foto: Bessi / Pixabay

Hemos visto que el momento lineal del fotón es inversamente proporcional a su longitud de onda, p = h/λ. ¿Tiene sentido físico definir el momento lineal de un fotón de esta manera?

Consideremos un haz de luz (visible o de rayos X) que incide sobre los átomos de una objeto diana, una delgada lámina de metal, por ejemplo. Según la teoría electromagnética clásica, la luz se dispersará en varias direcciones, pero su frecuencia no cambiará. La absorción de luz de cierta frecuencia por un átomo puede ser seguida por la reemisión de luz de una frecuencia diferente. Pero si la onda de luz simplemente se dispersa, entonces, según la teoría clásica, la frecuencia no debería cambiar.

Según la teoría cuántica, sin embargo, la luz está compuesta de fotones. Según la teoría de la relatividad, los fotones tienen momento lineal. Si esto es así, en una colisión entre un fotón y un átomo debería aplicarse la ley de conservación del momento, una consecuencia directa de la tercera ley de Newton. Según esta ley cuando un cuerpo de masa pequeña choca con un objeto de masa mucho mayor en reposo, simplemente o rebota hacia atrás o se desvía; experimenta muy poca pérdida de velocidad y los cambios en su energía son mínimos. Pero si las masas de los dos objetos que chocan no son muy diferentes sí se puede transferir una cantidad significativa de energía en la colisión.

Arthur Compton calculó cuánta energía debería perder un fotón en una colisión con un átomo si el momento del fotón fuese h/λ. Llegó a la conclusión de que el cambio en la energía es demasiado pequeño como para poder observar el efecto mecánico de un fotón en algo tan grande comparativamente como un átomo completo. Pero si un fotón golpeara un electrón, que tiene una masa significativamente más pequeña, el fotón debería transferir una cantidad significativa de energía al electrón.

En 1923, Compton pudo demostrar que los rayos X se comportan de hecho como corpúsculos con momento lineal p = h/λ cuando chocan con electrones. Compton midió la longitud de onda (o la frecuencia) de los rayos X incidentes y una vez dispersados y, de esta manera, pudo determinar el cambio en el momento lineal del fotón de rayos X. Al medir por separado el momento lineal del electrón tras la dispersión, pudo verificar que p = h/λ utilizando la ley de conservación del momento. Por este trabajo Compton recibió el Premio Nobel en 1927.

Efecto Compton. (a) Un fotón de frecuencia f incide sobre un electrón en reposo; (b) el fotón es dispersado tras la colisión con una frecuencia diferente f ‘, mientras que el electrón adquiere una velocidad v; (c) la ley de conservación del momento lineal establece que el momento lineal antes de la colisión debe ser igual al momento lineal tras la colisión (recuerda que es una suma vectorial, por lo que en la imagen se representan la dirección y sentido con flechas y se anota la magnitud; p en este caso es el producto de la masa del electrón por la velocidad adquirida v).

Por lo tanto, el experimento de Compton demuestra que un fotón puede considerarse como una partícula con un momento lineal (p = h/λ) y una energía (E = hc/λ = hf) definidos. También demuestra que las colisiones entre fotones y electrones obedecen las leyes de conservación del momento lineal y la energía.

La explicación de Eisntein del efecto fotoeléctrico ya apuntaba a que la luz tiene propiedades similares a las de los corpúsculos. La expresión matemática del momento lineal y el efecto Compton proporcionaron pruebas adicionales de este hecho. Debe quedarnos claro, sin embargo, que los fotones no son como corpúsculos ordinarios, aunque solo sea porque los fotones no existen a velocidades diferentes a la de la luz [*]. Pero en lo demás, como en su comportamiento durante la dispersión, los fotones actúan de manera muy parecida a las corpúsculos de materia; de entrada, tienen momento lineal y energía.

Sin embargo, también sabemos que la luz, los fotones por tanto, actúa como una onda, teniendo frecuencia y longitud de onda. En otras palabras, la radiación electromagnética en algunos experimentos exhibe un comportamiento similar a lo que se considera un comportamiento de corpúsculo, y en otros experimentos su comportamiento es similar a lo que se considera un comportamiento de onda. Este patrón de comportamiento se suele llamar dualidad onda-corpúsculo de la radiación.

¿Es un fotón una onda o un corpúsculo? La única respuesta, señaló Bohr, es que puede actuar como una u otro, dependiendo de lo que se haga con él.

Nota:

[*] No puede haber fotones en reposo y, por lo tanto, no hay masa en reposo para los fotones. Véanse La velocidad de las ondas electromagnéticas y la naturaleza de la luz y El principio de constancia de la velocidad de la luz.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El comportamiento corpuscular de la luz: el efecto Compton se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El comportamiento corpuscular de la luz: momento lineal del fotón
  2. El dilema del efecto fotoeléctrico
  3. La explicación de Einstein del efecto fotoeléctrico
Categories: Zientzia

Las publicaciones científicas

Mon, 2019/12/16 - 11:59
Foto: Nationale Bank van Belgie – Banque Nationale de Belgique / flickr

Un componente clave de la empresa científica es el sistema de publicaciones, pues sin él no sería posible exponer al escrutinio crítico las conclusiones del trabajo de cada uno.

Ya desde los albores de la ciencia moderna las cosas funcionaban de ese modo. Copérnico, Kepler y Galileo, cada uno a su manera, publicaron los resultados de sus observaciones o experimentos (en el caso de Galileo experimentos mentales, algunos de ellos). Lo propio hizo Harvey, por ejemplo, y otros reconocidos pioneros de la ciencia tal y como la conocemos hoy. Además, algunos también operaron de una forma algo diferente. Algunos miembros de la Royal Society acostumbraban, en sus primeros años, a realizar experimentos y demostraciones ante sus compañeros. El contraste era directo; al hacerlos testigos de la forma en que se había obtenido algún resultado de interés, la validación o refutación del resultado era inmediata. Pero ya la misma Royal Society, en 1665 (cinco años después de su creación) comenzó a publicar la Philosophical Transactions of the Royal Society. Ese mismo año, algo antes, se había empezado a publicar en París Le Journal des Sçavans, considerada la primera revista científica de la historia.Andando el tiempo las ciencias de la naturaleza han alcanzado unas dimensiones tales que ya no sería posible recurrir a las demostraciones directas para dar fe de la validez de los resultados obtenidos. Por eso, el aumento de la actividad científica ha venido acompañado por un crecimiento paralelo del sistema de publicaciones científicas.

Los primeros artículos científicos tenían un estilo narrativo más literario y con un hilo argumental biográfico, el autor contaba cómo había ido haciendo el descubrimiento. Posteriormente (se suele citar a Pasteur como el principal impulsor de la idea) el hilo narrativo se centra en la reproducibilidad del descubrimiento, independientemente de la historia que llevo a hacerlo. Hoy día esa estructura (resumen, introducción, materiales y métodos, resultados, discusión, conclusiones y referencias) se ha hecho universal. En el lado positivo, esta estructura permite una alta densidad de información, a cambio los trabajos son difíciles de leer y más aún de escribir.

En principio, las revistas científicas se publican para dar a conocer los resultados de las investigaciones. De otra forma no sería posible poner al alcance de todos los resultados obtenidos ni, por lo tanto, podrían someterse a crítica general. Y por otro lado, la publicación de los resultados supone también un bien en sí mismo, dado que en la medida a que obliga a los investigadores a sistematizar y ordenar los resultados, y a elaborar un argumento que les dé coherencia y los enmarque en el curso general del desarrollo científico, también sirve de ayuda para mejorar los conocimientos y sentar las bases de su progreso. Hay, de hecho, quien argumenta que las publicaciones científicas constituyen el conocimiento científico propiamente dicho, dado que son el archivo de todo lo investigado y conocido.

Pero las publicaciones científicas, además de las señaladas, han pasado a cumplir otras funciones que tienen poco que ver con ellas. Se han convertido en uno de los medios más utilizados para evaluar la productividad y la calidad de investigadores e instituciones científicas y académicas. Por ello, han pasado a formar parte de las herramientas métricas básicas que se utilizan para, en función de las evaluaciones, decidir el acceso a puestos de trabajo de personal investigador, su posterior promoción profesional y, en general, asignar los recursos públicos en el marco de la política científica de gobiernos y universidades.

Por todo ello, desde el punto de vista de los intereses de investigadores e instituciones, las publicaciones científicas no se consideran solo como un elemento de prestigio, el distintivo que señala al buen investigador o la institución de alto nivel. Han pasado a ser una herramienta de promoción profesional e institucional e, incluso, de mera supervivencia en el sistema científico. Ello genera una presión muy grande sobre científicos y centros.

El método que siguen las editoriales para seleccionar los artículos merecedores de ser publicados es someterlos a la consideración de especialistas de reconocido nivel. Es lo que se denomina revisión por pares. El término par, como sinónimo de igual, hace referencia al hecho de que los revisores son investigadores como los autores de los trabajos. Así pues, los evaluadores son colegas de los autores y, en principio, se encuentran al mismo nivel que aquellos. Se supone que este procedimiento garantiza que los trabajos que se publican cumplen los requisitos exigibles para aceptar que un trabajo sea dado a conocer. Normalmente cuanto mayor es el nivel de las revistas y más son los investigadores que les remiten sus trabajos para publicación, y de esa forma se genera un circuito de retroalimentación positiva que funciona de acuerdo con la siguiente secuencia: cuantos más son los trabajos remitidos a una revista, más son los rechazados, por lo que como solo se seleccionan los muy buenos, la calidad de los que se publican es cada vez mayor; ello actúa como incentivo para publicar en esa revista, con lo que la remisión de trabajos aumentará, y así sucesivamente. Esa es la teoría.

Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.

Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.

El artículo Las publicaciones científicas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Hacia un nuevo sistema de publicaciones científicas
  2. #Naukas15 De publicaciones científicas
  3. #Naukas14 Acceso abierto a las publicaciones científicas
Categories: Zientzia

Pages