S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 1 heure 17 min

Las siliconas son seguras y útiles, pero no convienen a todos los cabellos

jeu, 2019/07/25 - 11:59

 

Fotografía de Antonio Terron para Telva

En una búsqueda rápida por internet sobre siliconas en productos capilares nos encontramos con una avalancha de informaciones alarmantes. Si estas alarmas fuesen ciertas, a cuento de qué seguirían existiendo cosméticos para el cabello con siliconas. Las siliconas ni son tóxicas, ni son plásticos. Su uso está permitido por las autoridades sanitarias y cumplen varias funciones en el producto: emolientes, emulsionantes, surfactantes, protectores… Mejoran la apariencia del pelo, le aportan suavidad, brillo, cuerpo, movimiento, facilitan el peinado y evitan el encrespamiento. Sin embargo, algunas siliconas en concreto, las llamadas siliconas no solubles, o las siliconas solubles presentes en mascarillas sin aclarado, pueden apelmazar algunos tipos de cabello, darles aspecto de suciedad y enmascarar un pobre estado de salud.

  • ¿Qué son las siliconas?

Las siliconas son una clase de polímero, es decir, son compuestos formados por unidades más simples que se agrupan en cadenas. Estas unidades se denominan siloxanos por contener silicio y oxígeno.

Las siliconas se pueden describir químicamente como cadenas de átomos alternos de silicio y oxígeno. A su vez, cada silicio está unido a dos radicales orgánicos (R). Estos radicales pueden ser diferentes. Dependiendo de la naturaleza de los radicales y la longitud de la silicona podemos encontrarnos con siliconas volátiles, líquidas, sólidas y con usos diversos. Sus propiedades físicas dependen de la naturaleza de estos radicales orgánicos y de los enlaces débiles que pueden establecer entre sí, afectando a su punto de fusión y a su solubilidad.

  • ¿Para qué se usan las siliconas en productos cosméticos como champús, acondicionadores y mascarillas?

Habitualmente las siliconas están presentes en los productos de cuidado del cabello porque funcionan como emulsionantes. Los emulsionantes son compuestos capaces de mantener una mezcla estable entre sustancias que en principio son inmiscibles. Muchos cosméticos tienen fase acuosa y fase oleosa, que serían inmiscibles (como agua y aceite), pero con la incorporación de emulsionantes las mezclas se vuelven homogéneas y estables.

Químicamente esto se logra incorporando grupos polares a los radicales orgánicos, así aumenta la solubilidad en fase acuosa. El proceso más habitual para lograr esto es la etoxilación. Así se obtienen la dimethicone sustituida con grupos epoxi como los dimethicone copolyols. La solubilidad de estas siliconas se mide de acuerdo al HLB. Cuanto mayor es el HLB de una silicona, mayor es su poder emulsionante.

También tienen función emoliente, para suavizar la piel y el cabello. Esta es una de las propiedades que mejor se percibe, ya que afecta a la sensorialidad. Contribuyen a sentir el pelo más limpio, suave y fácil de peinar, reduciendo la fricción.

Las siliconas más insolubles crean una capa protectora sobre el pelo que lo protegen de agresiones externas. Por ese motivo los productos que alargan la coloración de cabellos teñidos suelen contener alguna silicona.

También están presentes en los protectores térmicos, ya que las siliconas crean una capa protectora entre el cabello y las planchas, las tenacillas o el secador.

En champús funcionan como surfactantes y como vehículos, para garantizar la correcta distribución de los componentes del producto y facilitar su aplicación. Como correctores de viscosidad, para que el producto sea más fluido o viscoso. Y como humectantes, para mantener la hidratación del cabello y, por ejemplo, evitar el encrespado.

Ilustración de Tamara Feijoo
  • ¿Qué siliconas suele haber en los productos del cabello?

Todos los cosméticos cuentan con una lista de ingredientes. Estos se ordenan de mayor a menor cantidad en el producto. Y se nombran con un tipo de nomenclatura internacional denominada INCI. Son siliconas los compuestos que terminan en -methicone, -methiconol y -siloxysilicate, y los que contienen la palabra -siloxane-.

Las siliconas usadas en productos para el cabello se clasifican en: volátiles, solubles en agua e insolubles en agua. Esta es la clasificación que realmente debemos tener en cuenta a la hora de determinar si un producto capilar es o no conveniente para nuestro tipo de cabello.

  1. Siliconas volátiles

Las siliconas volátiles contienen radicales orgánicos cíclicos y un bajo peso molecular. Tienen una permanencia muy baja en el cabello. De hecho, si el producto requiere aclarado, las siliconas cíclicas se desvanecen con él. En productos sin aclarado, estas siliconas se volatilizan con el tiempo desapareciendo del pelo.

Estas siliconas son muy útiles para cabellos finos y con poco cuerpo, ya que aportan textura y brillo.

Son siliconas volátiles las siliconas que contienen el prefijo cyclo-: cyclopentasiloxane, cyclomethicone…

  1. Siliconas insolubles

Las siliconas insolubles son aquellas que tienen muy baja afinidad por el agua. También se consideran insolubles aquellas que tienen gran afinidad por el cabello a causa de su carga positiva. Ambas se consideran insolubles porque no desaparecen con el aclarado.

Las siliconas insolubles son útiles para dar un aspecto saludable a un cabello que está castigado. No recomponen el cabello, pero sí crean la apariencia de que cierran la cutícula, aportan brillo y movimiento. Esto puede entenderse como una virtud o como un defecto. Es una virtud que un cabello dañado pueda aparentar que está sano. Las siliconas insolubles son ideales para cabellos irrecuperables. No obstante, las siliconas insolubles pueden enmascarar un problema capilar. Es decir, el cabello puede estar dañado y las siliconas depositadas en su superficie nos impiden detectarlo.

Son siliconas insolubles la dimethicone, la amodimethicone, polydimethisiloxane…

Las siliconas insolubles no son aconsejables para cabellos con poco cuerpo, principalmente porque aumentan el peso del pelo y pueden llegar a apelmazarlo o a dar la sensación de cabello sucio. Esto lo que en peluquería se denomina buildup. Si el cabello tiene build up es indicativo de que lleva demasiado tiempo recubierto de siliconas insolubles. Además de afectar a su aspecto, afecta a la capacidad de absorción del pelo. El pelo tiene una estructura bastante abierta, por eso es relativamente sencillo que los principios activos penetren. Un cabello con build up es un cabello inerte.

No obstante, las siliconas no impiden que el pelo respire. Estas expresiones carecen de sentido, ya que el pelo no respira. El pelo está formado por una estructura desvitalizada, no contiene células vivas, así que ni se oxigena, ni respira, ni nada que se le parezca.

El build up tiene fácil remedio y también es fácil prevenirlo. Las siliconas insolubles no permanecen adheridas al pelo para siempre. Prácticamente cualquier tensioactivo es capaz de solubilizarlas y arrastrarlas, dejando el pelo libre de residuos de silicona. Los champús con sulfatos son muy eficaces para enmendar el build up.

También hay productos tipo champú+acondicionador que contienen siliconas insolubles, pero como a su vez contienen tensioactivos suficientemente potentes, las siliconas no quedan adheridas al cabello.

El consejo es que, si tenemos un pelo con poco volumen y con tendencia a apelmazarse, evitemos el uso de siliconas insolubles. En el caso de que usemos este tipo de siliconas porque tenemos el pelo muy castigado, o bien por el calor o el tinte, y solo estas siliconas nos hacen sentirlo jugoso, debemos usar champús con sulfatos al menos dos o tres veces al mes para evitar el buildup.

  1. Siliconas solubles

Las siliconas solubles en agua contienen un radical orgánico con cierta polaridad. Esto es lo que las hace solubles en agua.

Si están presentes en productos capilares que necesitan aclarado, no permanecen en el cabello, sino que se van por el desagüe. Son muy útiles a la hora de formular champús más suaves para el cabello y evitar posibles irritaciones provocadas por los tensioactivos.

Si están presentes en productos capilares de acabado, permanecerán sobre el cabello hasta el siguiente lavado, aportando brillo e hidratación sin apelmazar el pelo.

Son siliconas solubles las siliconas que tienen PEG- como prefijo, las que contienen la palabra copolyol, y las que terminan en -methiconol: PEG-3 dimethicone, PEG-10 dimethicone, PEG-11 methyl ether dimethicone, PEG-9 dimethicone, dimethilconol, dimethicone copolyol…

  • Los PEG no son todos siliconas. Los compuestos con silicio tampoco.

Una duda frecuente es si todos los ingredientes que comienzan por PEG son siliconas. No, no todos los PEG son siliconas. PEG es el polietilenglicol. Es un compuesto orgánico que puede estar contenido y enlazado a una silicona para aportarle, entre otras cosas, mayor solubilidad. El número que acompaña a la palabra PEG depende del peso molecular y a su vez está relacionado con la solubilidad.

Para saber si un PEG es una silicona hay que tener en cuenta si la palabra que lo acompaña es o no una silicona. Por ejemplo, sabemos que el PEG-10 dimethicone es una silicona porque contiene el sufijo -methicone. Sin embargo, el PEG-7 glyceryl cocoate no es una silicona.

También es frecuente preguntarse si todos los compuestos que hacen referencia al silicio son siliconas. No es así, hay compuestos con silicio usados en formulación cosmética que no son siliconas. Por ejemplo, ni los silicates ni los silanoles son siliconas. Aunque los nombres se parezcan tanto entre sí, son químicamente diferentes a las siliconas.

  • Siliconas e impacto medioambiental

Algunos consumidores rechazan la presencia de siliconas en sus productos para el cabello bajo la convicción de que todas las siliconas tardan mucho tiempo en biodegradarse y, por tanto, generan cierto impacto medioambiental. Esta creencia se hizo popular porque se ha tendido a comparar las siliconas con los plásticos. Aunque algunos plásticos nos recuerden a las siliconas, químicamente son muy diferentes. Los plásticos son un tipo de polímero hidrocarbonado, mientras que las siliconas están conformadas por siloxanos. Cualquier información en la que encontremos que llaman plásticos a las siliconas, o se diga que las siliconas contienen plástico, o algo similar, podemos dejar de leer y tachar esa información de poco fiable.

Muchas siliconas son fácilmente biodegradables, pero es cierto que otras pueden persistir en el medioambiente. Si las siliconas van a parar a la tierra, allí se descompondrán con cierta facilidad y no supondrán un problema. Sin embargo, las siliconas que van a parar al agua se acumulan con más facilidad. La preocupación por su posible impacto en el medio acuático es reciente, y por eso no se han hecho suficientes estudios científicos al respecto. Por este motivo resulta complejo posicionarse.

Sin embargo, las siliconas más difíciles de biodegradar, las siliconas insolubles, en países en los que el agua se trata en depuradoras antes de ser vertida al mar, quedan retenidas en el proceso, con lo cual no deberían suponer un problema medioambiental.

La dimethicone, el cyclotetrasiloxane (D4) y el cyclopentasiloxane (D5) han suscitado gran preocupación medioambiental, por eso son los compuestos que más se han estudiado. En la actualidad sabemos que, afortunadamente, tanto la dimeticona como el ciclotetrasiloxano se degradan biológicamente. Ambos se degradan a constituyentes inorgánicos: dióxido de carbono, ácido silícico y agua. No se han detectado efectos adversos en los organismos que habitan ambientes susceptibles de contener dimethicone y la cyclotetrasiloxane. Las concentraciones promedio tanto en agua como en subsuelo están muy por debajo del nivel de efectos adversos no observados. Por lo tanto, la evidencia científica indica que la dimethicone y el cyclotetrasiloxane son medioambientalmente amigables. No obstante, algunos laboratorios hace años que tomaron la determinación de eliminar el cyclotetrasiloxane (D4) de sus fórmulas ante la sospecha del posible perjuicio. Por ese motivo es poco frecuente encontrar ese compuesto en cosmética, aunque su uso está aprobado por las autoridades sanitarias.

Con respecto al cyclopentasiloxane (D5), se ha demostrado que cantidades significativas en productos de aplicación sin enjuague, como mascarillas y protectores térmicos, se evaporan durante el uso, con lo cual, no generan ningún impacto medioambiental. Se ha medido que la fracción de estas siliconas que llega al agua es tan pequeña y con tan baja permanencia que se considera insignificante.

  • Resumen y consejos

Las siliconas presentes en los productos capilares son seguras y cumplen varias funciones: emoliente, emulsionante, protector, surfactante… Suavizan el cabello, le dan brillo, cuerpo y además mejoran la sensorialidad de los productos, haciendo que su uso sea más gustoso. No obstante, las siliconas están contraindicadas para ciertos tipos de cabello. Si tu pelo tiende a apelmazarse, las siliconas empeorarán el problema. También, si tu cabello está dañado por el calor y el tinte, las siliconas pueden mejorar mucho su aspecto. Pero esto tiene su cara B, y es que las siliconas pueden enmascarar el verdadero estado de salud de tu pelo. Por estos motivos, si te gustan los productos con siliconas, deberías utilizar champú con sulfatos entre dos y tres veces por semana para evitar su acumulación y prevenir el temido build up.

El consejo de compra es que no hace falta descifrar la lista de ingredientes de los productos capilares. No se pretende que los consumidores sean químicos especialistas en cosmética. La realidad es que la mayor parte de los laboratorios lo ponen fácil cuando indican claramente para qué tipo de cabello está indicado su producto. Fijarse en esto debería ser suficiente.

Por ejemplo, un champú que dice aportar volumen y movimiento difícilmente va a contener siliconas que tiendan a apelmazar el cabello. En cambio, un champú para pelos rizados que dice evitar el frizz, el posible que lo logre por medio de siliconas. Evitará el frizz, pero si nuestro pelo es muy fino, quizá le reste volumen. Esto también pude suceder con los protectores térmicos o los productos de acabado que previenen el encrespado, que como consecuencia pueden crear el efecto de pelo sucio en menos tiempo del habitual.

Los champús y mascarillas reparadoras o los específicos para cabellos castigados por la coloración suelen contener siliconas porque precisamente es eso lo que nuestro pelo necesita para verse sano. Los productos que alargan la coloración también suelen contener siliconas que evitan que el pelo escupa el tinte.

Es interesante fijarse en la fórmula de los champús para entender por qué sirven para lo que sirven, pero no hace falta ir con lupa. La compra debe estar condicionada por las indicaciones para las que se ha formulado ese producto. De hecho, decantarse por un producto solo porque contenga o no siliconas, aunque no esté indicado para nuestro tipo de cabello, es un error. Como siempre ocurre en cosmética, la verdad de un producto no está es sus ingredientes por separado, sino en la fórmula completa.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Las siliconas son seguras y útiles, pero no convienen a todos los cabellos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El aguacate debería haberse extinguido, pero él no lo sabe todavía
  2. Puedes llamarlo responsabilidad, pero es censura
  3. ¿Son útiles los juguetes STEM?
Catégories: Zientzia

La geometría poética del cubo (2)

mer, 2019/07/24 - 11:59

Hace unas semanas, como motivo de la exposición LANTEGI, José Ramón Anda, que puede verse en la sala Kubo Kutxa de Donostia-San Sebastián, del 23 de mayo al 25 de agosto de 2019, escribí una primera entrada en el Cuaderno de Cultura Científica titulada, al igual que esta, La geometría poética del cubo . Con esta entrada empezaba una pequeña serie sobre la investigación artística que el genial escultor navarro José Ramón Anda (Bakaiku, Navarra, 1949), una de las figuras fundamentales de la escultura vasca contemporánea, ha realizado de la estructura geométrica que subyace a la figura del cubo, en particular, a través de distintas descomposiciones de este objeto geométrico básico, que simboliza el espacio tridimensional.

Fotografía en la que estamos el escultor Jose Ramón Anda y yo, Raúl Ibáñez, con motivo del paseo matemático que realicé por la exposición Lantegi, organizada por Kubo Kutxa. Fotografía de Jon Pagola

En esa primera entrada, centré mi atención en dos descomposiciones singulares del cubo, formadas ambas por tres piezas con una cierta simetría, que había realizado José Ramón Anda cuando empezaba a dar sus primeros pasos en la abstracción geométrica. En particular, una de ellas fue el origen de la genial escultura Descomposición del cubo (1973) y ha sido fundamental en la obra del artista navarro, ya que a partir de la misma han surgido toda una serie de obras, aparentemente sin conexión alguna, pero basadas todas ellas en esta interesante y personal descomposición del cubo, y creadas en diferentes momentos de su carrera artística. Entre las obras que tienen como punto de partida esta descomposición del cubo están Homenaje a Juan de Antxieta (1979 – 1986), Haizean [Al viento] (1978 – 2002), Pilotara [A la pelota] (1980), Basaldeko ateak [Las puertas del bosque] (2011 – 2017), o Acotar el vacío I, II y III (2019), sobre las que puede leerse en la anterior entrada La geometría poética del cubo.

Cuatro montajes diferentes de la obra Descomposición del cubo (1973), de José Ramón Anda, con cuatro de las treinta fotografías que ha realizado el fotógrafo José Luis López de Zubiria de esta dinámica escultura

En esta segunda entrega de la serie La geometría poética del cubo vamos a seguir analizando algunas descomposiciones del cubo realizadas por el artista navarro, basadas en lo que en matemáticas llamamos policubos y que le han llevado a crear obras como la genial Zazpiak bat [Las siete, una] (1976), que veremos más adelante.

Los policubos son las figuras geométricas tridimensionales que se forman al unir dos o más cubos por alguna de sus caras, e incluso, podemos considerar un único cubo como un policubo trivial.

Sencillos policubos, realizados con el material LiveCube, con 1, 2, 3 y 4 cubos pequeños, respectivamente, unidos estos cubos pequeños, dos a dos, por alguna de sus caras

El artista José Ramón Anda realiza, de forma independiente a las matemáticas, una investigación plástica de las descomposiciones del cubo en policubos de la siguiente forma. Considera el cubo como formado por 27 cubos pequeños, es decir, cada lado del cubo está formado por 3 de estos cubos (siendo el cubo grande una estructura 3 x 3 x 3), y lo descompone en diferentes piezas que están formadas por la unión, cara a cara, de algunos de estos cubos pequeños, es decir, estas piezas son policubos.

Las dos descomposiciones del cubo vistas en la entrada La geometría poética del cubo, son dos ejemplos de descomposiciones del cubo 3 x 3 x 3 en policubos. En estos ejemplos, cada una de las descomposiciones estaba formada por tan solo tres policubos de 7, 7 y 13 cubos pequeños. Pero José Ramón Anda investigó muchas más descomposiciones. Algunas de ellas, al igual que las anteriores, de pocas piezas, como las que podemos disfrutar en las dos siguientes imágenes, que son pequeñas maquetas realizadas en buztina (arcilla, en euskera), y que forman parte del taller del escultor.

La primera descomposición, realizada en buztina, cuenta con tres piezas (policubos) de 4, 6 y 17 cubos pequeños. A diferencia, de las dos descomposiciones estudiadas en la anterior entrada, esta es completamente asimétrica, aunque de nuevo dispone de una potente pieza central, y con la particularidad de que dispone de un hueco central.

Maqueta, realizada en arcilla, de una descomposición del cubo en tres piezas, con 4, 6 y 17 cubos pequeños, realizada por José Ramón Anda. Fotografía de Raúl Ibáñez

La segunda maqueta de una descomposición del cubo que presentamos en esta entrada, también realizada con arcilla, está formada por tres piezas con 1, 8 y 18 cubos pequeños. En esta última descomposición podemos observar la búsqueda de una cierta autosimilitud, es decir, de repetición a escala, de las piezas que la conforman. La pieza más pequeña es un cubo (aunque resulta trivial, es pertinente indicar que es el cubo 1 x 1 x 1), la segunda pieza sería el cubo 2 x 2 x 2, menos la pieza anterior, es decir, menos el cubo 1 x 1 x 1, y la tercera pieza es el cubo 3 x 3 x 3 menos la unión de las dos anteriores, es decir, menos el cubo 2 x 2 x 2.

Maqueta, realizada en arcilla, de una descomposición del cubo en tres piezas, con 1 –esta no está en la imagen-, 8 y 18 cubos pequeños, realizada por José Ramón Anda. Fotografía de Raúl Ibáñez

De hecho, esta descomposición podría ampliarse a cubos más grandes de forma recurrente. Cada cubo de orden n, es decir, formado por n x n x n cubos pequeños, estaría descompuesto por las piezas de la descomposición del cubo de orden n – 1, más la pieza que consiste en todos los cubos pequeños que están en el cubo de orden n, pero no en el de orden n – 1. Por ejemplo, el cubo 4 x 4 x 4 estaría formado por 4 piezas, a saber, las tres anteriores de la descomposición de José Ramón Anda y la última sería el cubo 4 x 4 x 4 menos la unión de las anteriores, que es el cubo 3 x 3 x 3.

Descomposición del cubo 4 x 4 x 4, realizado con piezas del material LiveCube, siguiendo la idea del escultor José Ramón Anda

Sin embargo, otras descomposiciones del cubo en policubos, investigadas por José Ramón Anda, estaban formadas por más piezas. En particular, el artista navarro estaba interesado en descomposiciones con siete piezas. El motivo era la realización de una escultura que materializara el lema “zazpiak bat” (las siete, una), que reivindica la unión política de los siete territorios en los que se manifiesta la cultura vasca. Como indica la Auñamendi Eusko Entziklopedia, esta expresión toma cuerpo en el siglo XIX, aunque tiene sus antecedentes en el siglo XVIII y se populariza en el siglo XX. En concreto, en referencia directa al lema podemos leer: “el Zazpiak Bat como lema y divisa empieza a perfilarse ya en un poema acróstico de Felipe Casal del año 1891 titulado Ama Euskarari. Zazpiak Beti bat, «A la madre euskera. Las siete (provincias) siempre unidas«; y será al año siguiente en las Grandes Fêtes Internationales du Pays Basque, organizadas por el municipio de San Juan de Luz bajo el patronazgo de Antoine d’Abbadie, cuando aparece ya en los carteles el escudo de las siete provincias”.

A continuación, mostramos una maqueta de buztina con una descomposición del cubo en siete policubos, los cuales están formados por 1, 3, 3, 3, 4, 6 y 7 cubos pequeños. Tres de las piezas son policubos iguales, formados por 3 cubos pequeños y con forma de L y otras tres piezas son “esquinas” con diferente número de piezas cada una, 4, 6 y 7, las cuales se completan con un policubo trivial.

Maqueta, realizada en arcilla, de una descomposición del cubo en siete piezas, con 1, 3, 3, 3, 4, 6 y 7 cubos pequeños, realizada por José Ramón Anda. Fotografía de Raúl Ibáñez

Aunque, José Ramón Anda investigó muchas otras descomposiciones, en particular, la que dio lugar a la escultura Zazpiak bat [Las siete, una] (1976), realizada en madera de roble, que mostramos en la siguiente imagen.

Escultura Zazpiak bat [Las siete, una] (1976), de José Ramón Anda, en la posición en la que las siete piezas de la obra forman un cubo. Escultura realizada en roble y de unas dimensiones de 18 x 18 x 18 cmEscultura Zazpiak bat [Las siete, una] (1976), de José Ramón Anda, con las siete piezas desplegadasEn la anterior imagen se puede distinguir bien la estructura geométrica de cada una de las piezas que componen la escultura. Son siete piezas formadas por 1, 2, 4, 4, 5, 5 y 6 cubos pequeños, pero todas ellas piezas distintas entre sí.

En esta escultura podemos apreciar de nuevo, ya lo comentamos en la anterior entrada para la escultura Descomposición del cubo (1973), tres características fundamentales de la filosofía artística del escultor navarro. La primera es que José Ramón Anda concibe sus esculturas para que sean tocadas, para que pueda percibirse la forma, la textura o los materiales de cada escultura, no solo a través de la vista, sino que también mediante el tacto. Además, Zazpiak Bat [Las siete, una] (1976) es también una obra dinámica, que puede tomar diferentes formas en función de la persona que interaccione con la escultura, una de ellas el cubo tridimensional que a partir de cuya descomposición se genera. Y, además, el escultor de Bakaiku no elige una forma fija para la escultura, sino que la pieza encierra en sí misma, el germen de todas las posibles formas que se generan a partir de ella.

Aunque en esta pieza encontramos un par de diferencias significativas respecto a la escultura Descomposición del cubo (1973). La primera es que, al disponer de más piezas, se produce la curiosa circunstancia de que ya solo el intentar montar el cubo generador a partir de las siete piezas separadas es un pequeño reto, que convierte a esta escultura dinámica en una especie de puzle geométrico, de juego. De esto ya se dio cuenta José Ramón Anda, que hizo dos versiones de Zazpiak bat para una ikastola de la zona en la que tiene su taller, la ikastola Andra Mari de Etxarri Aranatz, para que los niños y niñas de la misma jugaran con ella. La segunda diferencia también está relacionada con el hecho de tener más piezas, ya que esto ofrece una mayor versatilidad en las formas que se pueden generar a partir de ella.

Mi propia versión del cubo de José Ramón Anda, realizado con las piezas del material LiveCube, para poder jugar, manipularla y crear diferentes montajes de la escultura

La investigación plástica que realiza José Ramón Anda del cubo se produce al margen de las matemáticas. Sin embargo, cuando algunas personas del ámbito de las matemáticas observamos una escultura como Zazpiak bat (1976), no podemos dejar de relacionarla con algunos puzles geométricos que han sido creados dentro de la matemática recreativa, como el cubo soma (véase la entrada Cubo soma: diseño, arte y matemáticas), que también está formado por 7 piezas, los 7 policubos irregulares con 4, o menos, cubos pequeños, o el cubo de Steinhaus, formado por 6 piezas.

Las siete piezas del cubo soma, en la versión a color y magnética que ha sacado la empresa Lúdilo bajo el nombre cubimag

Este es un nuevo ejemplo de cómo dos investigaciones paralelas, una artística y otra matemática, puede llevar a resultados relacionados.

En esos últimos años de la década de 1970, José Ramón Anda realiza otra versión muy interesante de la escultura Zazpiak bat, que podemos relacionar con otro objeto matemático, los fractales (concepto matemático que el escultor desconoce cuando realiza esta creación artística), o más concretamente, con una de sus propiedades, la autosemejanza, es decir, la repetición a escala.

La nueva versión de la escultura Zazpiak bat [Las siete, una], también realizada en madera de roble y con un tamaño de 18 x 18 x 18 cm, toma como base la anterior descomposición del cubo en siete piezas, pero montado de tal forma que el policubo trivial, es decir, la pieza con un solo cubo pequeño, está en una esquina superior. Y sobre este pequeño cubo, José Ramón Anda realiza de nuevo la descomposición en siete piezas. Es decir, la nueva escultura Zazpiak bat está formada por dos descomposiciones del cubo a diferentes escalas. Esta escultura fue expuesta, y vendida, en una exposición individual organizada en la Librería Axular, de Vitoria-Gasteiz, en 1979, pero no se conserva ninguna imagen de la misma. Por este motivo, he realizado un sencillo modelo de la escultura con el programa SketchUp.

Modelo, realizado con el programa SketchUp, de la versión fractal de la escultura de José Ramón Anda, Zazpiak bat (década de 1970), realizada originalmente en madera de roble y de un tamaño de 18 x 18 x 18 cm

La investigación geométrico-plástica que realiza el escultor José Ramón Anda de la figura del cubo, no se limita a las descomposiciones mediante policubos, sino que también investiga otras propiedades de este objeto geométrico. Por ejemplo, una de ellas está relacionada con las secciones del cubo, empezando por un vértice, que consisten en triángulos y hexágonos. Precisamente, la escultura que ya mostramos en La geometría poética del cubo, titulada Nahi eta ezin [Querer y no poder] (1975), está relacionada con esta propiedad geométrica.

Sin embargo, me gustaría terminar esta entrada del Cuaderno de Cultura Científica con una hermosa maqueta, realizada una vez más con buztina, de una gran riqueza geométrica y plástica, que analiza la existencia de un tetraedro regular dentro del cubo.

Maqueta de buztina del escultor José Ramón Anda, basada en la existencia de un tetraedro regular dentro de un cubo. Fotografía de Raúl Ibáñez

Como se puede apreciar en la anterior imagen, los seis lados del tetraedro (recordemos que un tetraedro es uno de los cinco solidos plátónicos, es decir, poliedros regulares, que existen y que está formado por cuatro caras triangulares –podemos decir que es una pirámide de base triangular-, seis lados o aristas y cuatro vértices) son las seis diagonales del cubo, luego todas de la misma longitud, en el que está incluido el tetraedro.

Fotografía de las esculturas de José Ramón Anda, Obelisco (1999-2003), en madera de roble, 79 x 16 x 19 cm, y Obelisco II (2000-2001), en madera de boj, 37 x 10,5 cm, en la exposición LANTEGI, José Ramón Anda, en la sala Kubo Kutxa de Donostia-San Sebastián. Fotografía de Raúl Ibáñez

Bibliografía

1.- Jose Ramón Anda (escultor), Javier Balda (comisario), Lantegi, José Ramón Anda (catálogo), Sala Kubo Kutxa (Donostia-San Sebastián), 23 de mayo – 25 de agosto de 2019, Kutxa Fundazioa, 2019.

2.- Página web de la Sala Kubo Kutxa

3.- Página web del artista José Ramón Anda

4.- Jose Ramón Anda (escultor), Javier Balda (comisario), José Ramón Anda. Causa formal y materia – Kausa formala eta materia, Museo Oteiza (Alzuza, Navarra), 21 de junio – 1 de octubre de 2017, Fundación Museo Oteiza, 2017.

5.- Jose Ramón Anda (escultor), Javier Balda (comisario), José Ramón Anda, Denboraren aurkako formak, Formas contra el tiempo, Museo de Bellas Artes de Bilbao, 7 de mayo – 9 de septiembre de 2012, Museo de Bellas Artes de Bilbao, 2012.

6.- Auñamendi Eusko Entziklopedia: zazpiak bat

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo La geometría poética del cubo (2) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La geometría poética del cubo
  2. El cubo soma: diseño, arte y matemáticas
  3. Arte y geometría del triángulo rectángulo: Broken Lights
Catégories: Zientzia

Rayos X, ¿ondas o partículas?

mar, 2019/07/23 - 11:59
Primera difracción de rayos X efectuada por el CheMin (rover Curiosity) del suelo marciano. Fuente: NASA/JPL-Caltech/Ames

Un problema que despertó un gran interés tras el descubrimiento de los rayos X se refería a la naturaleza de estos rayos misteriosos. A diferencia de las partículas cargadas (electrones, por ejemplo), no se desviaban por los campos magnéticos o eléctricos. Por lo tanto, parecía que tenían que ser partículas neutras u ondas electromagnéticas.

Era difícil elegir entre estas dos posibilidades. Por una parte, no se conocían partículas neutras de tamaño atómico (o más pequeñas) que tuvieran el poder de penetración de los rayos X. La existencia de unas partículas así sería extremadamente difícil de probar, porque no había manera de interactuar con ellas [1]. Sin embargo, se encontró que los rayos X tenían propiedades cuánticas, lo que significaba que también exhibían un comportamiento similar a las partículas. Por ejemplo, pueden causar la emisión de electrones de los metales. Estos electrones tienen mayores energías cinéticas que los producidos por la luz ultravioleta [2]. Por lo tanto, los rayos X también requieren de la teoría cuántica para explicar algunos de sus efectos.

Por otro lado, si los rayos X eran ondas electromagnéticas, tendrían que tener longitudes de onda extremadamente cortas porque solo en este caso, según la teoría, podrían tener un alto poder de penetración y no mostrar efectos de refracción o interferencia con aparatos ópticos ordinarios como era el caso. Como vimos al hablar de ondas, las propiedades claramente ondulatorias se hacen evidentes solo cuando las ondas interactúan con objetos, como las rendijas en una barrera, que son más pequeños que varias longitudes de onda. Las longitudes de onda hipotéticas para los rayos X tendrían que ser del orden de 10-10 m. Por lo tanto, para demostrar de su comportamiento como onda requeriría una rejilla de difracción con hendiduras separadas aproximadamente 10-10 m. La teoría cinética y la química del XIX apuntaban a que os átomos tenían precisamente del orden de 10-10 m de diámetro. Parecía razonable, por tanto, que los rayos X pueden ser difractados de forma medible por cristales en los cuales los átomos forman capas ordenadas separadas 10-10 m.

Estos experimentos tuvieron éxito en 1912. Las capas de átomos actuaron como redes de difracción, y los rayos X sí actuaron como cabía esperar de una radiación electromagnéticas de longitud de onda muy corta (como la luz ultravioleta). Estos experimentos son más complicados de interpretar que la difracción de un haz de luz mediante una rejilla óptica bidimensional única. El efecto de difracción se produce en tres dimensiones en lugar de dos. Por lo tanto, los patrones de difracción son mucho más elaborados [3].

Walter Friedrich y Paul Knipping (del departamento de Arnold Sommerfeld en la Universidad de Munich), comprobaron la existencia de un patrón de difracción de rayos X en un cristal de sulfuro de cinc (ZnS). La explicación de este hallazgo llevaría a que un jovenzuelo llamado William Lawrence Bragg ganase el premio Nobel de física con solo 25 años.

La comunidad científica estaba ante otro hecho sorprendente: como le ocurre a la luz, los rayos X tienen propiedades de onda y de partícula.

Notas:

[1] Un problema parecido formalmente al que existe en la actualidad con la naturaleza de la materia oscura, que no interactúa con la radiación electromagnética y de la que solo se detectan efectos gravitatorios.

[2] La ionización de los gases por rayos X es también un ejemplo del efecto fotoeléctrico. En este caso, los electrones se liberan de los átomos y las moléculas del gas.

[3] Aunque tampoco es para tanto. En Generación X dimos una introduccion muy simple a la idea.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Rayos X, ¿ondas o partículas? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las partículas de los rayos catódicos
  2. Reflexión de ondas: rayos
  3. Rayos X y gamma
Catégories: Zientzia

Por qué es tan difícil investigar la depresión en modelos animales

lun, 2019/07/22 - 11:59
Foto: Pixabay

Existe una prueba muy común en la investigación sobre procesos depresivos y medicamentos antidepresivos llamada el test de natación forzada. En esta prueba se suelta a un ratón del laboratorio en una cubeta con agua dos veces en días cercanos y se mide cuanto tiempo tarda en rendirse y dejar de nadar en ambas ocasiones. Se considera que una reducción de ese tiempo de un experimento al siguiente está relacionada con un mayor riesgo de síntomas depresivos, una suerte de desesperanza vital, de apatía y sentimientos negativos que se relacionaría con el riesgo de depresión en seres humanos.

Como decimos, es un test común en las investigaciones que tratan de encontrar y mejorar terapias para tratar la depresión y otras enfermedades mentales relacionadas. Se ha empleado con resultados eficaces, por ejemplo, en el desarrollo de un tipo de medicamentos antidepresivos llamados ISRS (inhibidores selectivos de la recaptación de serotonina): los ratones que recibían estos compuestos luchaban por mantenerse a flote más tiempo que los que no los tomaban.

Foto: Wikimedia Commons

¿Y si los ratones dejan de nadar por otros motivos?

Sin embargo, esta prueba está en el centro de un debate más amplio, que cuenta aquí la revista Nature, que se cuestiona si realmente sirven estos modelos animales a la hora de tratar enfermedades mentales tan complejas como la depresión.

Las dudas sobre la prueba de la natación forzada comienzan con la propia naturaleza de la prueba. Algunos críticos señalan que si el animal se rinde pronto en la segunda zambullida quizá no sea tanto por una mayor presencia de síntomas depresivos sino por mero aprendizaje: después de la primera experiencia sabe que cuando deje de nadar el investigador le sacará del agua antes de ahogarse y, por tanto, para qué invertir tanta energía. En ese caso, las diferencias entre uno y otro bañito no se deberían tanto a los efectos de tal o cual medicación sino a una posible adaptación al entorno.

Esto lleva aparejado el debate ético ya clásico sobre lo oportuno de la investigación biomédica con animales, porque si resulta que esta prueba ofrece resultados cuestionables, ¿qué necesidad hay de hacer pasar a los ratones por ella? Incluso aunque no sufran daño ni dolor (en la prueba correctamente realizada no se deja que se ahoguen), sí deben superar un momento de angustia y estrés que algunos activistas en contra de la experimentación animal, y también algunos científicos del área consideran innecesario si no se obtienen con ello datos fiables.

La depresión, una enfermedad compleja que no todos sufren igual

Pero el debate va más allá de la posible adaptación de los ratones y entra en el terreno de la propia salud mental, al plantear la cuestión de cómo crear un modelo que represente de forma adecuada y eficaz qué es realmente la depresión y cómo evoluciona, mejora o empeora. ¿Es posible y útil pretender que un modelo animal puede representar la complejidad de una enfermedad de este tipo, como lo sería un test que trata de medir su “desesperanza” o su “tendencia a los sentimientos negativos”? ¿O sería más realista fijarse en síntomas más específicos, como por ejemplo la pérdida de apetito hacia su alimento preferido, algo que a menudo padecen los pacientes con depresión?

Quizá esta segunda alternativa tendría más sentido si tenemos en cuenta que la depresión no tiene siempre el mismo aspecto en humanos y que los mismos tratamientos no funcionan para todo el mundo.

¿Cómo modelizar el componente social de la depresión?

Pero hay algo más que eso. Cada vez hay menos deudas de que la salud mental tiene un importante componente social difícil de trasladar a un modelo animal, y que tomar medidas que reduzcan la precariedad y la desigualdad a nivel colectivo tendría un impacto mayor sobre la salud mental de los individuos que poner el énfasis en la medicación y la terapia como principales soluciones como se lleva haciendo en las últimas décadas.

Esa era la principal conclusión de un informe elaborado por Dainius Pūras, psiquiatra y Relator Especial para la salud física y mental de la ONU. Según sus palabras, recogidas aquí por el periódico The Guardian, hacer frente a la discriminación y la desigualdad “sería la mejor vacuna contra la enfermedad mental, y desde luego sería mucho mejor que el uso excesivo de medicación psicotrópica que estamos viendo”.

En cualquier caso, Pūras no pide sacar de la ecuación la medicación, sino dejar de darle el papel único y central en el tratamiento de estos problemas. “La mejor forma de invertir en la salud mental de los individuos es crear un entorno de apoyo en los distintos ámbitos, tanto familiar como laboral. Después, los servicios terapéuticos pueden ser necesarios, por supuesto, pero no deberían estar basados de forma excesiva en el modelo biomédico”.

En su opinión, se ha puesto hasta ahora demasiado énfasis en curar las enfermedades mentales, como la depresión, igual que las enfermedades físicas, a través de la medicina pura, sin pensar en los factores sociales que causan o intervienen en muchas de esas enfermedades, y señala como ejemplo el recetado de antidepresivos que se ha disparado en el mundo desarrollado en los últimos 20 años.

Ante este enfoque más social de la salud mental, de nuevo el debate sobre los modelos animales para tratar la depresión quizá necesite ser reenfocado, más allá de la prueba de la natación forzada en concreto. No porque no sea necesario encontrar nuevos y mejores tratamientos químicos para la depresión y sus síntomas, así como para otras enfermedades mentales, que pueden ayudar a las personas que las padecen, sino porque parece que estas enfermedades son, por decirlo de alguna forma, especialmente humanas, con una dimensión colectiva y social difícil de trasladar a los ratones del laboratorio.

Referencias

Depression researchers rethink popular mouse swim tests – Nature

Right of everyone to the enjoyment of the highest attainable standard of physical and mental health – Organización para las Naciones Unidas

Austerity and inequality fuelling mental illness, says top UN envoy – The Guardian

Animal models of depression – Wikipedia

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Por qué es tan difícil investigar la depresión en modelos animales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Quién llorará por los animales feos cuando desaparezcan?
  2. ¿Cuánto cuesta realmente investigar en biomedicina?
  3. La difícil tarea de persuadir
Catégories: Zientzia

Nivel formativo y transición demográfica

dim, 2019/07/21 - 11:59
Foto: Jonny McLaren / Unsplash

La fecundidad ha descendido o está descendiendo rápidamente en la mayoría de países del mundo. Como consecuencia, la población humana crece cada vez menos y es muy posible que a partir de un determinado momento llegue a disminuir. A ese cambio en la fecundidad y sus consecuencias poblacionales se denomina “transición demográfica”. Desde un punto de vista estrictamente evolutivo es un fenómeno difícil de entender porque, en principio, cuanto mayor es la cantidad de recursos de que dispone una pareja, mayor es la descendencia que puede sacar adelante. Pero las cosas no ocurren de acuerdo con ese esquema.

En Europa, la transición demográfica se inició en algunas regiones de Francia hace casi dos siglos, alrededor de 1830, pero en Normandía y Bretaña no llegó hasta casi un siglo después. En Valonia empezó alrededor de 1870, pero en Flandes lo hizo cuatro décadas más tarde. En Gran Bretaña y algunas regiones de Alemania llegó en 1880, pero en otras de este mismo país se inició en 1910 y tan tarde como en 1930 en las demás. Esas disparidades, sobre todo las que se observan en diferentes zonas de un mismo país, sugieren que en el fenómeno pueden influir factores de naturaleza cultural. De hecho, el descenso de la fecundidad suele ir ligado al acceso de las mujeres a la educación y a trabajos económica y socialmente valorados.

Un estudio realizado en una zona de Polonia en plena transición demográfica puso de manifiesto que, efectivamente, cuanto mayor es el nivel de estudios de una mujer, menor tiende a ser el número de hijos que tiene. Pero el dato más interesante de ese estudio fue que, tanto o más que del nivel de cada mujer de forma individual, la fecundidad depende del nivel de formación de las mujeres de su entorno social. O sea, las mujeres de bajo nivel educativo que se relacionan con otras de nivel alto tienden a copiar el comportamiento reproductivo de estas, generalizándose de esa forma al conjunto del entorno social.

En un principio, las mujeres con un alto nivel de formación tienden a posponer la maternidad porque pueden así dedicar más tiempo y esfuerzo a adquirir los conocimientos y capacidades que facilitan el progreso profesional y proporcionan un estatus más elevado; y el retraso de la maternidad conlleva un descenso en la fecundidad. Como esas mujeres y sus parejas suelen tener un nivel socio-económico más elevado, son imitadas por el resto de mujeres o parejas de su entorno. La imitación puede implicar el dedicar más tiempo a adquirir formación y empleos socialmente deseables; en ese caso, la fecundidad también disminuye. Pero puede ocurrir que lo que se imita sean simplemente las decisiones reproductivas. Se trata de un fenómeno bien conocido de tranmisión cultural que se basa en dos sesgos psicológicos muy poderosos, el de prestigio y el de conformidad.

En virtud del sesgo de prestigio tendemos a imitar el comportamiento de los individuos de mayor éxito. Y en virtud del de conformidad, tendemos a hacer lo que hace la mayoría del grupo al que pertenecemos. El efecto combinado de ambos sesgos provoca la transmisión rápida de normas culturales que propician el descenso de la fecundidad. Es un fenómeno que se autoalimenta y que conduce a tasas de natalidad muy bajas en periodos de tiempo relativamente breves.

En la transición demográfica seguramente actúan otros factores también, pero si se quieren revertir sus efectos más indeseados, seguramente ha de tenerse en cuenta la forma en que el nivel formativo de la población y las expectativas profesionales de las jóvenes parejas ejercen sobre las decisiones reproductivas.

Fuente: H. Colleran, G. Jasienska, I. Nenko, A. Galbarczyk y R. Mace (2014): “Community-level education accelerates the cultural evolution of fertility decline.” Proc. R. Soc. B 281: 20132732.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Nivel formativo y transición demográfica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Tener hijos o no tenerlos?
  2. La compleja transición de cazador-recolector a agricultor
  3. Una consecuencia inesperada de la longevidad
Catégories: Zientzia

Pizza y terraplanistas

sam, 2019/07/20 - 11:59

Es razonable pensar que la Tierra tiene forma de pizza. Y puede ser muy complicado convencer a una persona que crea que esto es así de lo contrario. Salvo que intervengan las matemáticas y la definición de curvatura. Alberto Márquez, de la Universidad de Sevilla, lo explica.

Quizás sea el número más famoso de la historia. Lo cierto es que el número Pi, representado por la letra griega π, es una de las constantes matemáticas más importantes que existen en el mundo, estudiada por el ser humano desde hace más de 4.000 años. La fascinación que ha suscitado durante siglos es tal que el popular número cuenta con su propio día en el calendario, así el mes de marzo se celebra el Día de Pi en todo el planeta.

Este evento internacional vino de la mano del físico estadounidense Larry Shaw, quien lanzó en 1988 la propuesta de celebrar esta efeméride. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática. (3-14 martxoaren 14 en euskara / 3-14 march, 14th en inglés) y además, la celebración coincide con la fecha del nacimiento de Albert Einstein. En 2009, el congreso de EEUU declaró oficialmente el 14 de marzo como el Día Nacional de Pi.

Actualmente, el Día de Pi es una celebración mundialmente conocida que sobrepasa el ámbito de las matemáticas. Este número irracional, que determina la relación entre la longitud de una circunferencia y su diámetro, concierne a múltiples disciplinas científicas como la física, la ingeniería y la geología, y tiene aplicaciones prácticas sorprendentes en nuestro día a día.

Este 2019 nos unimos de nuevo al festejo con el evento BCAMNAUKAS, que se desarrolló a lo largo del 13 de marzo en el Bizkaia Aretoa de UPV/EHU. BCAM-NAUKAS contó durante la mañana con talleres matemáticos para estudiantes de primaria y secundaria y durante la tarde con una serie de conferencias cortas dirigidas al público en general.

Este evento es una iniciativa del Basque Center for Applied Mathematics -BCAM, enmarcada en la celebración de su décimo aniversario, y de la Cátedra de Cultura Científica de la Universidad el País Vasco.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Pizza y terraplanistas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sigue al conejo blanco
  2. Matemáticas modernas
  3. Diagnóstico de enfermedades: una cuestión de probabilidades
Catégories: Zientzia

Barbacoas, ciencia y salud

ven, 2019/07/19 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

 

Foto: Victoria Shes / Unsplash

Que Bilbao fuera galardonada como la mejor ciudad gastronómica del mundo no sorprendería a muchos, máxime cuando ha sido elegida como la mejor ciudad europea en 2018. Y como las ciudades las hacemos los ciudadanos pues nos congratulamos por la parte que nos toca. Ciertamente es Bilbao cuna de la ‘fine cuisine’ vasca, europea y mundial, con grandes maestros de los fogones y una elevada concentración de restaurantes en la Guía Michelín.

Sin embargo, no todo en la cocina debería orientarse a la obtención de nuevos y sofisticados sabores para alegrarnos el paladar. Alimentos muy dorados, flambeados o incluso parcialmente quemados realzan su sabor y por ello se utilizan con frecuencia en las recetas más sofisticadas de los mejores restaurantes. Pero esta ganancia en sabor tiene su precio. Una gran parte de las propiedades nutritivas de los alimentos tratados de esta manera se pierden, al mismo tiempo que se generan moléculas no deseadas, a menudo tóxicas para el organismo.

Los alimentos muy cocinados (a temperaturas de 120 º C o superiores), sobre todo los que requieren contacto directo con la llama, a la brasa o cocinados sobre planchas metálicas cambian sus características químicas (organolépticas) convirtiéndose en serias amenazas para la salud. Vamos con algunos ejemplos…

Cada vez son más típicas las barbacoas entre amigos, o los asados de carne, o pescados a la plancha en nuestras mesas. Y uno podría pensar que si esto fuera acompañado de un buen arroz socarrado, formado por los granos de arroz caramelizados en el fondo de la paella, sería el acompañamiento perfecto de una comida ideal. Exquisito sabor sin duda alguna, pero con toda seguridad estaríamos introduciendo una cantidad muy elevada de moléculas perjudiciales para la salud.

Concretamente, el almidón del arroz y el de todos los alimentos ricos en este tipo de polisacárido vegetal (fécula de pata, pan simple…), está formado por unidades de glucosa enlazadas y son muy susceptibles de formar acrilamida cuando se calientan a temperaturas relativamente elevadas (120 °C o superiores). Lo mismo ocurriría con el polisacárido de reserva animal, el glucógeno, el cual también está formado por unidades de glucosa. Muchos estudios realizados con animales de laboratorio han demostrado que la acrilamida es altamente cancerígena. La acrilamida se forma al reaccionar las unidades de glucosa de los polisacáridos con el aminoácido asparragina, el cual está presente en las proteínas tanto vegetales como animales.

Sin duda alguna la manera de cocinar los alimentos tiene un impacto muy importante sobre los niveles de acrilamida que pueden generarse. Los alimentos poco cocinados (poco dorados) o sometidos a temperaturas más bajas que las indicadas anteriormente tendrán mucha menor concentración de acrilamida que los alimentos muy cocinados o sometidos a temperaturas elevadas. Dado que la acrilamida es altamente carcinogénica, los científicos no se atreven a establecer un nivel ‘tolerable’ de esta sustancia en nuestra dieta. Por otra parte, hay que tener en cuenta que los niños son más vulnerables a los efectos de la acrilamida debido a su menor peso corporal.

No obstante, a día de hoy, todos los estudios realizados sobre la toxicidad de la acrilamida se han llevado a cabo utilizando animales de laboratorio y no existen estudios epidemiológicos exhaustivos en humanos. A título simplemente orientativo la Figura 1 muestra cuatro niveles de tostado que van desde un nivel recomendable al no recomendable para el consumo. Nivel 1: recomendable; nivel 2: aceptable; nivel 3: poco recomendable; nivel 4: no recomendable.

Figura 1. Cuando cocines alimentos piensa siempre en blanco o en dorado, nunca en negro o marrón. Así se reducirá la formación de sustancias tóxicas para la salud.

Al igual que los alimentos ricos en hidratos de carbono, las carnes, los pescados y las verduras cocinadas a elevadas temperaturas también dan lugar a la formación de sustancias tóxicas para el organismo. Concretamente, la carne demasiado hecha puede contener dos tipos de sustancias químicas carcinogénicas: hidrocarburos aromáticos policíclicos (HAPs) y aminas aromáticas heterocíclicas (AAHs). Los HAPs se generan, por ejemplo, por contacto directo de la carne o el pescado con la llama o cuando la carne o el pescado a la parrilla gotean sobre el fuego o sobre el dispositivo de calentamiento. Muchas de estas toxinas son volátiles y pueden ser transportadas por el humo acabando de nuevo sobre la carne o el pescado que nos vamos a comer, agravando así el problema. Igualmente, los alimentos ahumados pueden poseer cantidades importantes de este tipo de moléculas tóxicas.

Tanto los HAPs como las AAHs son sustancias mutagénicas, es decir, que producen cambios químicos importantes en el ácido desoxirribonucleico (ADN) de las células contribuyendo así al desarrollo de diferentes tipos de cáncer. En cuanto a los vegetales, tampoco conviene cocinarlos a temperaturas altas, ya que esto daría lugar a la formación de benzopireno, otro potente agente carcinogénico perteneciente a la familia de los HAPs. Al igual que para la acrilamida, no se pueden establecer límites de tolerancia de estos compuestos en la dieta debido a su elevado potencial carcinogénico.

Algunos consejos para reducir la formación de sustancias nocivas cuando cocinamos

1. Cocinar los alimentos en presencia de diferentes tipos de especias (albahaca, ajo, jenjibre, pimienta, tomillo, romero, salvia, orégano) o marinados en vinagre, lima, limón, vino o cerveza. Las especias se conocen desde muy antiguo. Ya en el siglo I las utilizaban griegos y romanos en sus recetas culinarias, como se describe en el tratado de botánica ‘Dioscórides’. Las especias no solo realzan el sabor de los alimentos o se suman a sus características organolépticas sino que resultan indispensables para proteger a los alimentos contra la formación de moléculas tóxicas que afectan seriamente a nuestra salud.

2. Cocinar carne magra, evitando las carnes grasas para prevenir el goteo sobre la fuente de calor.

3. Cuando cocines piensa en dorado, nunca en negro ni en marrón. Asegúrate siempre de que los alimentos no sobrepasen los límites de color por la acción del calor. Y si te pasas, siempre puedes rascar o eliminar las partes más quemadas.

Sobre el autor: Antonio Gómez Muñoz es catedrático en el Departamento de Bioquímica y Biología Molecular de la Facultad de Ciencia y Tecnología de la UPV/EHU.

El artículo Barbacoas, ciencia y salud se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Salud: ciencia y comunicación (seminario)
  2. Curso de verano “Las dos culturas y más allá”: La ciencia al servicio de la salud humana, por Icíar Astiasarán
  3. Ciencia para todos a través del cine y la literatura de ciencia ficción
Catégories: Zientzia

El sonido del viento

jeu, 2019/07/18 - 11:59

Cuando se habla de los orígenes del arte, o de “Arte Prehistórico”, la primera imagen que se nos viene a la cabeza se suele parecerse mucho a una pintura: las Cuevas de Altamira por ejemplo, de 18 mil años de antigüedad, ocupan un lugar privilegiado en el imaginario colectivo. En algunos casos, habrá también quienes piensen en esculturas paleolíticas, como la Venus de Willendorf de 28 mil años de antigüedad. Es mucho menos habitual pensar en otras formas artísticas y, sin embargo, se han encontrado flautas de hueso de hace 43 mil años que sitúan a la música en los orígenes mismos del pensamiento simbólico humano en Europa.

La cifra resulta apabullante y aún así se piensa que la primera música que hicieron los humanos debe de ser todavía más antigua. Lo más probable es que los primeros músicos no fuesen flautistas, sino cantantes. Para producir melodías, los humanos comenzamos por controlar nuestra voz y luego, probablemente, añadimos algo de percusión (como palmadas, o golpes contra cualquier objeto). Pero estas voces y estas palmadas, evidentemente, no se ha conservado, así que hoy la primera evidencia que tenemos de la música son huesos perforados: huesos de buitre o de oso que, con toda probabilidad funcionaron como flautas.

Esto nos da una pista de por qué son precisamente los instrumentos de viento los más antiguos conservados. Para empezar, pueden fabricarse usando materiales rígidos, no perecederos (al contrario que las cuerdas, por ejemplo, que suelen estar hechas con tripas o pelo de animal). Pero además, son muy fáciles de construir. Para fabricar un instrumento de viento sólo se necesita viento (claro) y un tubo. El viento lo llevamos todos de serie en los pulmones y para conseguir un tubo, basta con encontrar un hueso de animal o alguna caña hueca y rígida. En realidad, la única función de este tubo es la de “contener” el aire, dando cabida a ciertas longitudes de onda, su material y forma exacta son poco cruciales. Toda la magia de los instrumentos de viento tiene lugar más allá del tubo, en uno de sus extremos: el lugar donde el aire se “excita” y comienza a vibrar.

Existen distintas maneras de poner en marcha esta vibración y cada una de ellas da lugar a un timbre característico. Por eso, la forma en que se excita el aire es el verdadero criterio que distingue a las familias de instrumentos de viento. Es muy probable que todos hayáis oído hablar de instrumentos de viento madera y viento metal. La paradoja de estas etiquetas es que poco tienen que ver con el material de que están hechos los instrumentos. Las flautas traveseras de las orquestas contemporáneas, por ejemplo, suelen estar hechas de plata u oro incluso y, sin embargo, la flauta pertenece a la familia del viento madera. Por su parte, dentro del viento metal, encontramos instrumentos tan poco dúctiles o brillantes como las caracolas o las vuvuzelas.

Steve Turre tocando un instrumento de viento metal… poco convencional.

Lo que caracteriza en realidad a los instrumentos de viento metal es que el sonido procede de la vibración de los labios del instrumentista. La presión procedente de la boca fuerza al aire a pasar por un mínimo hueco que se abre y cierra constantemente gracias a la elasticidad de los labios. Lo que viene siendo una pedorreta. O lo que sucede cuando dejamos escapar el aire de un globo mientras estiramos la goma junto a la salida: la membrana flexible lucha por recuperar su posición mientras el aire sale intermitentemente. Esa intermitencia puede ser más rápida o más lenta, según lo tensa que esté la goma. Por eso, cuanto más estiramos el globo, más agudo es el sonido resultante (mayor es la frecuencia de las oscilaciones de la presión). Del mismo modo: los trompetistas, trompistas y demás instrumentistas de viento metal, pueden modificar la tensión de sus labios para obtener distintas notas.

Dentro del viento madera, por su parte, encontramos distintas maneras de romper el aire. La flauta, por ejemplo, funciona mediante un bisel: una pieza rígida y afilada que fuerza al aire a desviarse en un sentido u otro, generando nuevamente una oscilación periódica de la presión más comúnmente conocida como sonido.


También son instrumentos de viento madera los que utilizan lengüetas para sonar. La lengüeta (o caña) es una pieza semirígida que interrumpe el paso del aire de manera intermitente gracias al principio de Bernoulli: cuando el aire fluye junto a ella, la presión disminuye y atrae a la lengüeta. Al ser esta flexible, se curva en la dirección del flujo e interrumpe su paso, la velocidad del aire disminuye y la presión vuelve a aumentar. Esto devuelve la lengüeta a su posición inicial y así el ciclo vuelve a empezar.

Existen distintos tipos de cañas y lengüetas, pero generalmente se clasifican como simples, dobles o libres, dependiendo de si se apoyan contra una superficie rígida, contra una segunda caña o si oscilan libremente obstruyendo por sí mismas el flujo del aire. Algunos instrumentos dentro de este grupo son el saxofón (lengüeta simple), la gaita (lengüeta doble) o la armónica (lengüeta libre). Los timbres, como puede verse, son enormemente diferentes pero si he de elegir uno, yo me quedo con la dulzura y la enorme versatilidad del clarinete.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El sonido del viento se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La física del sonido orquestal
  2. Máquinas inteligentes (I): Del molino de viento al test de Turing
  3. En Marte el viento crea montañas
Catégories: Zientzia

Kaisa-talo, geometría en la biblioteca

mer, 2019/07/17 - 11:59

 

Esa fuerza interior se transmite de forma brillante hacia fuera en las dos fachadas, especialmente en la que da a la calle Kaisaniemenkatu. Una trama de pequeñas ventanas cuadradas dan una luz muy tamizada interrumpida por unos grandes ventanales de formas parabólicas por la que se introduce la luz hacia el espacio central.

Alberto Corral

La biblioteca de la Universidad de Helsinki es la biblioteca universitaria multidisciplinaria más grande de Finlandia. Funciona como un instituto independiente e incluye la Biblioteca Central –llamada Kaisa-talo, es decir, casa Kaisa en finés– y las bibliotecas de los campus de Kumpula, de Meilahti y de Viikki.

Fachada principal (este) de Kaisa-talo. Fotografía: Inés Macho Stadler.

Kaisa-talo reúne las colecciones de libros y documentos de las facultades de arte, derecho, teología y ciencias sociales de la Universidad de Helsinki; está situada en el centro del campus. El solar que alberga esta biblioteca estaba antes ocupado por un centro comercial –construido en dos fases en 1973 y 1984 y posteriormente demolido– que era poco respetuoso con el paisaje urbano debido a su fachada de cemento. Los niveles subterráneos, antes ocupados por los aparcamientos, han sido conservados y forman parte de la biblioteca como zona de mantenimiento y almacenaje.

La firma de arquitectos Anttinen Oiva de Helsinki se presentó en 2007 a un concurso para diseñar el nuevo edificio que iba a alojar la biblioteca central de la universidad de esta ciudad, y lo ganó. En 2011 la propuesta de Anttinen Oiva comenzó a construirse como parte de La Capital de Diseño Mundial, un proyecto de promoción de ciudades patrocinado por el Consejo Internacional de Sociedades de Diseño Industrial (International Council of Societies of Industrial Design, World Design Organization) en el que la ciudad elegida – en el año 2012 fue Helsinki– tiene la oportunidad mostrar sus logros de innovación en diseño y sus estrategias urbanas. Kaisa-talo fue inaugurada el 3 de septiembre de 2012.

Fachada oeste de Kaisa-talo. Fotografía: Inés Macho Stadler

El exterior del edificio es de ladrillo rojo –caracteriza el modernismo finlandés– y respeta la altura de los edificios colindantes, lo que le ayuda a integrarse en su entorno. Situado en una cuesta, Kaisa-talo tiene forma de L y siete pisos. Su entrada principal está en el lado este, dos pisos por encima de los accesos a las tiendas situadas en la fachada opuesta. La fachada este posee un arco catenario que ocupa cuatro pisos y otro similar invertido aparece en la fachada oeste. Las paredes exteriores albergan grandes ventanales curvos y también numerosas ventanas pequeñas y cuadradas que forman una retícula uniforme que contrasta con la zona curvilínea.

Small Worlds (2012). Imagen: Wikimedia Commons.

Ya en el interior del edificio, en el hall de entrada se sitúa un mural de 18 metros, donado por el Consejo de Arte del Estado: Small Worlds realizado por las artistas Terhi Ekebom y Jenni Rope. Esos Pequeños mundos, algunos de ellos enlazados mediantes estrechos caminos, quizás aludan a los muchos espacios interconectados en la biblioteca.

Una impresionante escalera en forma de espiral comunica los pisos principales de la biblioteca, exceptuando el centro logístico y las instalaciones de mantenimiento bajo tierra a los que se accede fundamentalmente por ascensor.

Escalera interior en forma de espiral. Fotografía: Inés Macho Stadler

En la entrada principal, se observan dos grandes vacíos: unos en forma de elipse –que van disminuyendo su tamaño al subir de piso en piso– y otros en forma de parábola e hipérbola –que van aumentando a medida que se sube en el edificio–. Ambos proporcionan luz natural además de comunicar las diferentes alturas del edificio.

Vacío interior en forma de elipse. Fotografía: Inés Macho Stadler

En las referencias pueden verse numerosas fotografías en las que se aprecian los detalles descritos anteriormente. El siguiente video del arquitecto Alberto Corral realiza un buen recorrido por el interior del edificio.

Nota: Un especial agradecimiento a mi hermana Inés por hablarme de Kaisa-talo y cederme las fotografías utilizadas en esta anotación.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Kaisa-talo, geometría en la biblioteca se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La geometría de la obsesión
  2. El tamaño sí importa, que se lo pregunten a Colón (o de la geometría griega para medir el diámetro de la Tierra)
  3. Quad: pura geometría
Catégories: Zientzia

El descubrimiento de los rayos X

mar, 2019/07/16 - 11:59
Fuente: Wikimedia Commons.

En 1895, Wilhelm Konrad Röntgen hizo un descubrimiento que lo sorprendió primero a él y luego a todo el mundo. Al igual que el efecto fotoeléctrico, no encajaba con las ideas aceptadas sobre las ondas electromagnéticas y, finalmente, también requirió la introducción de los cuantos para una explicación completa. Las consecuencias del descubrimiento de los rayos X para la física atómica, la medicina y la tecnología fueron enormes.

El 8 de noviembre de 1895, Rontgen estaba experimentando con los nuevos rayos catódicos, al igual que muchos físicos de todo el mundo. Según un biógrafo [*]:

. . . había cubierto el tubo de cristal en forma de pera [un tubo de Crookes] con trozos de cartón negro, y había oscurecido la habitación para probar la opacidad de la cubierta de papel negro. De repente, a aproximadamente un metro del tubo, vio una débil luz que brillaba en un pequeño banco que sabía que estaba cerca. Muy emocionado, Rontgen encendió una cerilla y, para su sorpresa, descubrió que la fuente de la misteriosa luz era una pequeña pantalla de platino-cianuro de bario depositada en el banco.

El platino-cianuro de bario, un mineral, es uno de los muchos productos químicos que se sabe que producen fluorescencia (emiten luz visible cuando se ilumina con luz ultravioleta). Pero no había ninguna fuente de luz ultravioleta en el experimento de Röntgen. Se sabía además que los rayos catódicos viajan solo unos pocos centímetros en el aire. Por lo tanto, ni la luz ultravioleta ni los propios rayos catódicos podrían haber causado la fluorescencia. Röntgen dedujo que la fluorescencia involucraba la presencia de rayos de un nuevo tipo. Los llamó rayos X, ya que los rayos eran de naturaleza desconocida.

En una intensa serie de experimentos sistemáticos durante las siguientes 7 semanas Röntgen determinó las propiedades de esta nueva radiación. Informó de sus resultados el 28 de diciembre de 1895 en un artículo cuyo título (traducido) es «Sobre un nuevo tipo de rayos». El artículo de Röntgen describía casi todas las propiedades de los rayos X que se conocen.

Hand mit Ringen (mano con anillos). Impresión de la primera radiografía médica tomada por Wilhelm Röntgen usando rayos X. Corresponde a la mano de su mujer y fue tomada el 22 de diciembre de 1895. Röntgen se la regaló a Ludwig Zehnder del Physik Institut de la Freiburg Universität el 1 de enero de 1896.

Röntgen describió el método para producir los rayos y probó que se originan en la pared de vidrio del tubo, donde los rayos catódicos lo golpean. Demostró que los rayos X viajan en línea recta desde su lugar de origen y que oscurecen una placa fotográfica. Informó detalladamente de la capacidad variable de los rayos X para penetrar en diversas sustancias como el papel, la madera, el aluminio, el platino y el plomo. Su poder de penetración era mayor en los materiales “ligeros” (papel, madera, carne) que en los materiales “densos” (platino, plomo, hueso). Describió y exhibió fotografías que mostraban «las sombras de los huesos de la mano, de un conjunto de pesas dentro de una pequeña caja, y de un pedazo de metal cuya inhomogeneidad se hace evidente con los rayos X.» Dio una descripción clara de las sombras proyectadas por los huesos de la mano sobre la pantalla fluorescente. Röntgen también informó que los rayos X no se desviaban por la presencia de un campo magnético. Tampoco constató reflexión, refracción o interferencia usando aparatos ópticos ordinarios.

Experimentando con rayos X. Fuente: William J. Morton & Edwin W. Hammer (1896) «The X-ray, or Photography of the Invisible and its value in Surgery», American Technical Book Co., New York, fig. 54 / Wikimedia Commons

J.J. Thomson descubrió una de las propiedades más importantes de los rayos X uno o dos meses después de que los rayos se diesen a conocer. Encontró que cuando los rayos pasan a través de un gas, lo convierten en un conductor de electricidad. Thomson atribuyó este efecto a «una especie de electrólisis, la molécula se divide o casi se divide por los rayos de Röntgen». Hoy sabemos que los rayos X, al pasar a través del gas, liberan electrones de algunos de los átomos o moléculas del gas. Los átomos o moléculas que pierden estos electrones se cargan positivamente. Siguiendo con el símil electrolítico a estas moléculas cargadas se las llamó iones porque se parecen a los iones positivos de la electrólisis, y de ahí que se diga que el gas está “ionizado”. Además, los electrones liberados pueden unirse a átomos o moléculas previamente neutros, cargándolos negativamente.

Röntgen y Thomson descubrieron, independientemente que los cuerpos electrificados pierden sus cargas cuando el aire a su alrededor se ionizado por los rayos X. (Ahora es fácil ver por qué: el cuerpo electrificado atrae iones de la carga opuesta presentes en el aire ionizado). La velocidad de descarga depende de la intensidad de los rayos (ya que de ella depende la cantidad de ionización). Por lo tanto, esta propiedad se usó, y se sigue usando, como un medio cuantitativo conveniente para medir la intensidad de un haz de rayos X. Este descubrimiento implicaba, pues, que se podían realizar mediciones cuantitativas cuidadosas de las propiedades y efectos de los rayos X.

Nota:

* Hay varias versiones del descubrimiento. Incluso existe una de consenso que no es más válida que la que ofrecemos. Lo cierto es que la única persona presente era Röntgen, él no lo contó a nadie que tomase notas de ello de forma fidedigna y fiable y dejó dicho que sus notas de laboratorio, que podrían haber arrojado algo de luz [nótese el ingeniosísimo juego de palabras], se destruyesen a su muerte. La cuestión es que los elementos fundamentales de todas las narraciones (tubo de Crookes, cartón negro y pantalla de platino-cianuro de bario) están presentes.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El descubrimiento de los rayos X se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La luz se propaga en línea recta pero los rayos de luz no existen
  2. Rayos X y gamma
  3. El tubo de rayos catódicos, auge y caída de una pieza clave del siglo XX
Catégories: Zientzia

La certeza de la incertidumbre en los informes del IPCC

lun, 2019/07/15 - 11:59

El año 2018 fue el más caluroso de la historia moderna de la Tierra. Batió el récord de temperatura media global desbancando al año 2017, el cual había superado la espectacular marca del año 2016. El listón de temperaturas elevadas en nuestro planeta está llegando a límites, paradójicamente, escalofriantes. Los que seguimos – con preocupación – la evolución del clima global hemos observado cómo la Organización Meteorológica Mundial (OMM) ha ido informando que durante los últimos 22 años se han batido 20 récords de temperatura media. Y que esta tendencia va en aumento: la Tierra acumula 400 meses seguidos de temperaturas superiores a la media histórica, sumando más de 33 años consecutivos por encima de la referencia del siglo XX.

El cambio climático puede considerarse una certeza y ello supone una verdadera amenaza para el mundo que conocemos. Una amenaza que, además, todo indica que ha sido generada principalmente por la actividad industrial humana. El informe especial “Global Warming of 1,5 ºC” del IPCC, publicado a finales de 2018, no da lugar a dudas: estima que esta actividad ha aumentado la temperatura del planeta en aproximadamente 1ºC con respecto a los niveles preindustriales. En unos pocos decenios, la concentración de CO2 en la atmósfera ha aumentado más del 30%, superando los 400 ppm y batiendo el récord datado hace 3 millones de años. No se trata de una evolución natural del clima: la evidencia es abrumadora y el consenso de la comunidad científica es prácticamente unánime.

Sin embargo, así como el cambio climático pasado es avalado por el histórico de datos recogidos a lo largo del último siglo, para conocer el futuro de este no hay observación posible. Si queremos estimar los posibles escenarios a los que se enfrenta nuestro planeta, dependemos casi exclusivamente de modelos de simulación compleja, los cuales están compuestos por un conjunto de submodelos en continuo desarrollo por centros como la NASA, la UK Met Office, o el Beijing Climate Center.

Simulaciones empleando el modelo climático del Goddard Earth Observing System (GEOS-5) de la NASA. Fuente: William Putman, NASA/Goddard

Estas simulaciones se rigen por un corpus teórico introducido previamente. Por ejemplo, en el caso de las simulaciones atmosféricas este corpus es construido con (i) las leyes de movimiento de Newton aplicadas en elementos finitos de fluidos, (ii) la ley de la conservación de la masa, y (iii) ecuaciones termodinámicas que permiten calcular el efecto calorífico en cada parcela de aire a través de valores parametrizados de la radiación solar. Estas tres componentes se traducen en ecuaciones diferenciales parciales no-lineales de solución analítica irresoluble, por lo que se aplican métodos numéricos que discretizan las ecuaciones continuas y permiten determinar una aproximación a la solución de estas a través técnicas de modelización y simulación computacional.

En conjunto con otros submodelos, como la simulación del ciclo del carbono o el movimiento tectónico, estas simulaciones se utilizan para construir posibles escenarios futuros, que son una herramienta utilizada para la toma de decisiones en política de mitigación o de adaptación medioambiental, ya sea en forma de monetización del carbón o de aplicación de estrategias de geoingeniería, por ejemplo. Sin embargo, a pesar de que los mecanismos que gobiernan el cambio climático antropogénico son bien entendidos, estas proyecciones presentan incertidumbre en la precisión de sus resultados. Su cuantificación es, precisamente, la principal herramienta para comunicar el (des)conocimiento de expertos a políticos.

La literatura especializada establece hasta siete fuentes de inseguridad epistémica que determinan el grado de incertidumbre: (a) la estructura de los modelos que sólo permiten describir un subconjunto de componentes e interacciones existentes, (b) aproximaciones numéricas, (c) resolución limitada que implica que los procesos de microescala tengan que ser parametrizados y, por tanto, tengan que describir su efecto − sin resolver realmente el proceso− en términos de cuantificaciones disponibles a gran escala, (d) variabilidad natural interna, (e) observación de datos, (f) condiciones iniciales y de contorno, y (g) escenario económico futuro. Todas estas fuentes de incertidumbre se derivan de la existencia de diferentes representaciones del clima para cada uno de los distintos modelos.

Fuente: Policymaker Summary of The Phisical Science Basis (4th IPCC Report)

 

La primera impresión que genera esta incertidumbre en el público general es que el cambio climático es una hipótesis, de algún modo, incierta. Sin embargo, los modelos de incertidumbre presentados en los sucesivos informes del Grupo I del IPCC no se presentan para dilucidar si el cambio climático es incierto o no, sino para informar de la calidad de los modelos obtenidos y trasladar la toma de decisiones políticas fuera del proceso de obtención de resultados por parte de decenas de miles de científicos.

Parece claro que el futuro no podemos conocerlo a ciencia cierta y, como diría Zygmunt Bauman, la única certeza que tenemos es la incertidumbre. Ello no impide, sin embargo, que podamos estimar de forma más o menos robusta el futuro plausible que nos espera. Por ello, acompañar los resultados de las simulaciones con modelos probabilísticos de incertidumbre no es una muestra de debilidad, sino un instrumento que permite comunicar esas estimaciones de manera transparente, sin comprometer la investigación científica con cuestiones políticas, sociales o éticas. Se trata de una actividad que los científicos y el IPCC consideran como un ejemplo de rigor, a pesar de que haya mercaderes de la duda que la exploten como una debilidad. Y es que la certeza de la incertidumbre en los informes del IPCC consiste, paradójicamente, en que es la única forma disponible para hacer que las proyecciones del clima que nos espera sean lo más certeras posible.

Para saber más:

Winsberg, Eric (2018), Philosophy and Climate Science, New York: Cambridge University Press.

Sobre el autor: José Luis Granados Mateo es investigador predoctoral en Historia y Filosofía de la Ciencia en UPV/EHU.

El artículo La certeza de la incertidumbre en los informes del IPCC se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El clima, los informes y la política
  2. Migraciones…¿vegetales?
  3. ¿Una charla? ¿de ciencia?, prefiero el bar…
Catégories: Zientzia

La enfermedad del hígado graso no alcohólico, una gran desconocida

dim, 2019/07/14 - 11:59

Jenifer Trepiana, Saioa Gómez-Zorita, María P. Portillo, Maitane González-Arceo

La enfermedad del hígado graso no alcohólico (EHGNA) consiste en una acumulación excesiva de grasa en las células del hígado o hepatocitos (más del 5% del peso del hígado sería grasa) sin un consumo excesivo de alcohol, siendo en la actualidad la causa más frecuente de enfermedad hepática (Ahmed, 2015). Puede presentarse como esteatosis (acumulación de grasa) simple o como esteatohepatitis, situación de mayor gravedad que comporta ya inflamación y un inicio de fibrosis.

La prevalencia de la esteatosis simple oscila entre un 14% y un 30% en la sociedad occidental, aunque es probable que sea mayor ya que como muchos pacientes son asintomáticos, en ocasiones no son diagnosticados (Abd El-Kader SM y El-Den Ashmawy EM, 2015).

¿Cómo se desarrolla la EHGNA?

El hígado graso no alcohólico comprende numerosas lesiones hepáticas, comenzando con la esteatosis simple, que supone el 80-90% de los casos. Hay que destacar que el hígado graso no alcohólico se desarrolla de una manera progresiva y lenta, siendo la esteatosis simple reversible, y pudiendo dejar de progresar. Sin embargo, en el 10-20% de los pacientes avanza hasta la siguiente etapa llamada esteatohepatitis o inflamación del hígado. De la misma manera, la esteatohepatitis puede no seguir progresando o, por el contrario, puede evolucionar mediante la aparición de fibrosis a su etapa final, llamada cirrosis, con riesgo de desarrollar carcinoma de hígado en el peor de los casos (Hashimoto et al., 2013).

Lo que ocurre en la esteatosis simple, es que la excesiva acumulación de lípidos en el hígado lo hace vulnerable a otras agresiones como el estrés oxidativo, provocado por un desequilibrio entre los radicales libres y la disponibilidad de antioxidantes, además de promover la liberación de moléculas que producen inflamación provocando esteatohepatitis. En la esteatohepatitis, aparece inflamación y daño en las células de manera crónica que puede cursar con fibrosis (formación excesiva de un tejido llamado tejido conectivo para intentar reparar la víscera). Según estudios científicos, un 41% de los pacientes que sufren la EHGNA desarrollan fibrosis (Ekstedt et al., 2006). Por otra parte, el riesgo de padecer hepatocarcinoma en los pacientes con EHGNA que no sufren cirrosis es mínimo (de 0-3% en 20 años), mientras que en pacientes con cirrosis el riesgo asciende a 12,8% en 3 años (White et al., 2012).

Figura 1. Esquema de los estadios de la enfermedad del hígado graso. Modificado de: Non Alcoholic Fatty Liver Disease NAFLD. Preventicum (2016).

Al analizar la morfología del hígado de pacientes que sufren EHGNA tras una biopsia, se observa una acumulación de grasa en las células del hígado (hepatocitos) en forma de triglicéridos. Se ha aceptado que el criterio mínimo para diagnosticar la EHGNA mediante el estudio con microscopía de este órgano, es que el hígado contenga una cantidad mayor al 5% de hepatocitos esteatóticos (Neuschwander-Tetri y Caldwell, 2003), es decir que más de un 5% de las células del hígado contengan una gran cantidad de grasa en su interior. Así, mediante estas técnicas de imagen, se puede clasificar la EHGNA en diferentes tipos, desde una esteatosis simple, hasta esteatohepatitis con o sin fibrosis.

Centrándonos más en lo que le ocurre al hepatocito, podemos decir que normalmente, la esteatosis en el hígado graso no alcohólico, es de tipo macrovesicular. Esto es, que el hepatocito contiene una única gota grande de grasa, o varias gotas de grasa algo más pequeñas, lo que provoca el desplazamiento del núcleo de la célula a la periferia (extremos) del hepatocito. Sin embargo, en la esteatosis de tipo microvesicular, el núcleo se mantiene en el centro del hepatocito con diminutas gotículas de grasa presentes en la célula (Brunt y Tiniakos, 2010). Este último tipo, no suele ser la forma más típica de esteatosis, encontrándose sobre todo en los hepatocitos más pequeños o en los que no se encuentran en las zonas donde la esteatosis es más prominente. Cuando se da esta situación, el paciente suele tener peor pronóstico. En alguna ocasión, también puede ocurrir que se produzca una esteatosis mixta, donde se encuentran hepatocitos con una esteatosis macrovesicular, a la vez que encontramos grupos de hepatocitos con esteatosis microvesicular.

Figura 2. Esteatosis microvesicular y macrovesicular. Análisis mediante técnicas de imagen. Mofrad P, Sanyal, A. Nonalcoholic Fatty Liver Disease. Medscape (2003).

 

¿Qué factores influyen en el desarrollo de esta enfermedad?

El origen de la EHGNA no está claro, aunque probablemente sea la resistencia a la insulina la causa principal. Otros factores de riesgo asociados con el hígado graso son el sobrepeso y la obesidad, la dislipemia (altos niveles de colesterol y/o triglicéridos en sangre), y la diabetes mellitus tipo 2. Hay que tener en cuenta que la EHGNA afecta a todos los segmentos de la población, no solo a los adultos, y también a la mayoría de los grupos raciales. Se estima que entre el 74% y el 80% de los individuos obesos presentan hígado graso. Además de la obesidad, la presencia de diabetes mellitus tipo 2 incrementa no solo el riesgo, sino también la severidad de la EHGNA (Angulo, 2002). Esto quiere decir, que la diabetes mellitus tipo 2 constituye un perfil metabólicamente desfavorable para los pacientes que presentan EHGNA, aumentando el riesgo de sufrir enfermedades cardiovasculares.

¿Cómo se detecta la EHGNA?

Como hemos indicado al inicio, con mucha frecuencia, la EHGNA cursa de manera asintomática, y cuando produce síntomas estos son bastante inespecíficos. Por ello, muchas veces pasa desapercibida, tanto para los médicos como para los pacientes. El síntoma más frecuente es dolor en la zona abdominal derecha y fatiga.

Para la detección de la EHGNA, primeramente se suelen valorar las transaminasas hepáticas (AST, aspartatoaminotransferasa y ALT, alaninaaminotransferasa), que se suelen encontrar aumentadas. No obstante, aunque los niveles de transaminasas son lo primero que se analiza mediante una extracción de sangre del paciente, no son consideradas buenos marcadores ya que en algunos individuos con esteatosis los niveles de transaminasas en sangre no están elevados, incluso en algunos pacientes con cirrosis tampoco lo están. Además, solo pueden indicar daño hepático en general, no siempre teniendo que ir asociado a la EHGNA. Por otro lado, la AST aparece en otros tejidos como el corazón o el músculo esquelético, por lo que en caso de que se eleve, también puede deberse a una alteración en otros órganos o tejidos. También se recurre a técnicas de imagen para ayudar en el diagnóstico de la enfermedad o para la detección de hepatomegalia (hígado más grande de lo normal), como son la ecografía, TAC (Tomografía Axial Computarizada) o RMN (Resonancia Magnética), siendo esta última la más eficaz en su diagnóstico. Estas pruebas de imagen son útiles para saber si hay infiltración de grasa en el hígado, pero presentan la limitación de que no muestran si el hígado presenta inflamación o fibrosis.

Por ello, el mejor método de diagnóstico es la biopsia, que además permite conocer el grado de EHGNA del paciente. No obstante, dado que se trata de una técnica invasiva, únicamente se suele realizar en aquellos pacientes que muestran signos de estar en un estadio avanzado de enfermedad hepática (por ejemplo, cirrosis) o en aquellos pacientes que presentan mayor probabilidad de esteatohepatitis. Una limitación de esta técnica es que las lesiones hepáticas sufridas no son uniformes en todo el hígado, lo que dificulta el análisis de las biopsias. Es decir, según de qué zona del hígado se tome la muestra, el diagnóstico puede variar.

Ante la necesidad de detectar la EHGNA sin tener que recurrir a la biopsia hepática, se está profundizando en el estudio de biomarcadores para analizar la función hepática de una manera no agresiva para el organismo. Entre ellos encontramos marcadores específicos para la fibrosis, como la medición de concentraciones de proteínas implicadas en la fibrolisis o rotura del tejido fibrótico (colagenasas, α2-macoglobulina, MMPs, C3M) o de proteínas que participan en la fibrogénesis o generación del tejido fibrótico (colágeno tipo IV, pro-C3/C5). En la práctica clínica se suelen utilizar diversos test como el SteatoTest que calcula el grado de esteatosis hepática en pacientes con riesgo metabólico elevado, el FibroTest que valora los niveles de fibrosis y cirrosis, así como el grado de inflamación del hígado, y el NashTest que predice la presencia o ausencia de esteatohepatitis. Los marcadores que se analizan mediante estos tests son la α2-macroglobulina, haptoglobina, apolipoproteína A1, bilirrubina total, ALT, GGT, glucosa en ayunas, triglicéridos, y colesterol. Estos parámetros se ajustan a la edad, sexo, peso y tamaño del paciente. Estos índices y biomarcadores pueden ser útiles no solo para el diagnóstico de la enfermedad, sino también para estudiar la evolución de esta y los efectos del tratamiento.

¿Qué se puede hacer para prevenir la EHGNA?

Es importante remarcar que para la prevención de la EHGNA la principal medida es evitar los factores de riesgo asociados a la enfermedad (obesidad, dislipemia, resistencia a la insulina). Para ello son esenciales una rutina de ejercicio físico en nuestro día a día y llevar una dieta equilibrada.

Tratamientos en la actualidad

Actualmente, no existe un tratamiento específico para la EHGNA. Por ello, lo que se suele hacer es tratar los factores causales, es decir, la obesidad, y otros componentes del síndrome metabólico, como son la hipertensión (mediante el tratamiento farmacológico con estatinas), la diabetes mellitus y la dislipemia. Al igual que en el caso de la prevención, una dieta equilibrada y la actividad física serán los pilares básicos para tratar el hígado graso no alcohólico.

Además, se ha comprobado que seguir un patrón de alimentación mediterráneo se asocia con una menor probabilidad de presentar esteatosis y esteatohepatitis (Aller et al., 2015).

Recomendaciones en el estilo de vida

  • Pérdida de peso: 3-5% en la esteatosis simple y 7-10% en la esteatohepatitis (Jeznach-Steinhagen et al., 2019).

  • Reducción del consumo de hidratos de carbono simples (

  • Reducción de la grasa saturada de la dieta. Una dieta rica en grasas saturadas, intensifica el estrés oxidativo en el organismo, aumentando la inflamación en la zona afectada por la esteatosis. Sin embargo, el consumo de ácidos grasos poliinsaturados del grupo n-3 (omega 3) mejora la esteatosis hepática (Dasarathy et al., 2015).

  • Aumento del consumo de antioxidantes, presentes en altas cantidades en frutas y verduras.

  • Evitar la cantidad de alcohol ingerida. Dado que un abuso del alcohol provoca un desarrollo rápido de la enfermedad, se recomienda la abstinencia del alcohol.

Tratamientos farmacológicos

Como se ha mencionado anteriormente, algunos tratamientos farmacológicos están dirigidos a reducir las enfermedades asociadas al hígado graso, como son la diabetes, obesidad, y desordenes lipídicos.

  • Suplementación con vitaminas, especialmente aquellas que son antioxidantes como la vitamina E (precaución con las dosis elevadas ya que pueden tener efectos secundarios graves). Debido a la dosis empleada la vitamina E o α-tocoferol se incluye dentro de los tratamientos farmacológicos para tratar esta enfermedad.

  • Fármacos antidiabéticos: pioglitazone, rosiglitazona, liraglutide, metformina, etc. (al igual que en el caso anterior pueden tener efectos secundarios).

En la actualidad están siendo probados en diversos ensayos clínicos fármacos novedosos como el agonista del receptor Farnesoil X, o el agonista de PPARα y PPARδ (estudios en fase 2).

Referencias bibliográficas

Ahmed M. Non-alcoholic fatty liver disease in 2015. World J Hepatol. 18;7(11):1450-9 (2015).

Abd El-Kader SM, El-Den Ashmawy EM. Non-alcoholic fatty liver disease: The diagnosis and management. World J Hepatol. 28;7 (6):846-58 (2015).

Hashimoto E, Taniai M, Tokushige K. Characteristics and diagnosis of NAFLD/NASH. J Gastroenterol Hepatol. 28 Suppl 4:64-70 (2013).

Non Alcoholic Fatty Liver Disease NAFLD. Preventicum (2016).

Ekstedt M, Franzén LE, Mathiesen UL, Thorelius L, Holmqvist M, Bodemar G, Kechagias S. Long-term follow-up of patients with NAFLD and elevated liver enzymes. Hepatology. 44(4):865-73 (2006).

White DL, Kanwal F, El-Serag HB. Association between nonalcoholic fatty liver disease and risk for hepatocellular cancer, based on systematic review. Clin Gastroenterol Hepatol. 10(12):1342-1359 (2012).

Neuschwander-Tetri BA, Caldwell SH. Nonalcoholic steatohepatitis: summary of an AASLD Single Topic Conference. Hepatology. 37(5):1202-19 (2003).

Brunt EM, Tiniakos, DG. Histopathology of nonalcoholic fatty liver disease. World J Gastroenterol. 14;16(42):5286-96 (2010).

Mofrad P, Sanyal, A. Nonalcoholic Fatty Liver Disease. Medscape (2003).

Angulo P. Nonalcoholic fatty liver disease. New Engl. J. Med. 346:1221-1231 (2002).

Aller R, Izaola O, Luis DD. La dieta mediterránea se asocia con la histología hepática en pacientes con enfermedad del hígado graso no alcohólico. Nutrición Hospitalaria, 32: 2518-2524 (2015).

Jeznach-Steinhagen A, Ostrowska J, Czerwonogrodzka-Senczyna A, Boniecka I, Shahnazaryan U, Kuryłowicz A. Dietary and Pharmacological Treatment of Nonalcoholic Fatty Liver Disease. Medicina 55, 166 (2019).

Mager D, Iñiguez I, Gilmour S, Yap J, The effect of a low fructose and low glycemic index/load (FRAGILE) dietary intervention on indices of liver function, cardiometabolic risk factors, and body composition in children and adolescents with nonalcoholic fatty liver disease (NAFLD). J. Parenter. Enteral. Nutr. 39, 73–84 (2015).

Dasarathy S, Dasarathy J, Khiyami A, Yerian L, Hawkins C, Sargent R, McCullough A.J. Double-blind randomized placebo-controlled clinical trial of omega 3 fatty acids for the treatment of diabetic patients with nonalcoholic steatohepatitis. J. Clin. Gastroenterol. 49, 137–144 (2015).

Sobre las autoras:

Jenifer Trepiana1, Saioa Gómez-Zorita1,2, María P. Portillo1,2, Maitane González-Arceo1

1 Grupo de Nutrición y Obesidad. Departamento de Farmacia y Ciencias de los Alimentos. Facultad de Farmacia. Universidad del País Vasco (UPV/EHU)

2 Centro de Investigación Biomédica en Red de la Fisiopatología de la Obesidad y Nutrición (CiberObn)

El artículo La enfermedad del hígado graso no alcohólico, una gran desconocida se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Avances contra la enfermedad de hígado graso no alcohólica
  2. Una ecuación para determinar la grasa en el hígado a partir de una resonancia
  3. Consolider-Gran Telescopio Canarias: Cómo comunicar Astrofísica
Catégories: Zientzia

El problema de Josefo o cómo las matemáticas pueden salvarte la vida

sam, 2019/07/13 - 11:59

Imagina que sois 41 soldados, que estáis rodeados y que todo el mundo menos el jefe quiere suicidarse antes que rendirse. En esta tesitura se encontraba Josefo cuando se le ocurrió una forma matemática de salvar su vida. La Ikerbasque Research Fellow Luz Roncal, del BCAM, te lo explica usando magia.



Quizás sea el número más famoso de la historia. Lo cierto es que el número Pi, representado por la letra griega π, es una de las constantes matemáticas más importantes que existen en el mundo, estudiada por el ser humano desde hace más de 4.000 años. La fascinación que ha suscitado durante siglos es tal que el popular número cuenta con su propio día en el calendario, así el mes de marzo se celebra el Día de Pi en todo el planeta.

Este evento internacional vino de la mano del físico estadounidense Larry Shaw, quien lanzó en 1988 la propuesta de celebrar esta efeméride. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática. (3-14 martxoaren 14 en euskara / 3-14 march, 14th en inglés) y además, la celebración coincide con la fecha del nacimiento de Albert Einstein. En 2009, el congreso de EEUU declaró oficialmente el 14 de marzo como el Día Nacional de Pi.

Actualmente, el Día de Pi es una celebración mundialmente conocida que sobrepasa el ámbito de las matemáticas. Este número irracional, que determina la relación entre la longitud de una circunferencia y su diámetro, concierne a múltiples disciplinas científicas como la física, la ingeniería y la geología, y tiene aplicaciones prácticas sorprendentes en nuestro día a día.

Este 2019 nos unimos de nuevo al festejo con el evento BCAMNAUKAS, que se desarrolló a lo largo del 13 de marzo en el Bizkaia Aretoa de UPV/EHU. BCAM-NAUKAS contó durante la mañana con talleres matemáticos para estudiantes de primaria y secundaria y durante la tarde con una serie de conferencias cortas dirigidas al público en general.

Este evento es una iniciativa del Basque Center for Applied Mathematics -BCAM, enmarcada en la celebración de su décimo aniversario, y de la Cátedra de Cultura Científica de la Universidad el País Vasco.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo El problema de Josefo o cómo las matemáticas pueden salvarte la vida se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Andar puede salvarte la vida
  2. Matemáticas modernas
  3. Matemáticas a pesar de todo
Catégories: Zientzia

Dinosaurios

ven, 2019/07/12 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

Imagen: Pixabay

Los dinosaurios son un grupo natural de organismos ( o clado), lo que significa que todos ellos comparten un antecesor común. Poseen un conjunto de caracteres anatómicos que permite reconocerlos y diferenciarlos de otros grupos de vertebrados. Por ejemplo, los dinosaurios se caracterizan por presentar un acetábulo perforado, es decir, una cavidad en la pelvis donde se articula la cabeza del fémur (hueso del muslo).

A diferencia de los reptiles actuales, como cocodrilos y lagartos, los dinosaurios no reptaban. Sus miembros estaban dispuestos en posición vertical, de manera similar a los mamíferos. Esto les confería una locomoción más eficaz. Además, poseían un metabolismo elevado y eran animales adaptados a un modo de vida activo.

Gracias a los fósiles conservados en las rocas sabemos que los primeros dinosaurios aparecieron hace unos 230 millones de años, durante el Triásico. A inicios del Jurásico, los dinosaurios pasaron a ser los reptiles dominantes sobre la tierra firme. Se diversificaron durante el Jurásico y el Cretácico [Triásico, Jurásico y Cretácico son las tres divisiones o periodos geológicos que componen la Era Secundaria o Mesozoico]. A finales del Cretácico, hace 66 millones de años, los dinosaurios se extinguieron, junto con otros organismos tanto terrestres como marinos, durante una de las mayores crisis biológicas que ha sufrido la vida en la Tierra. Solo las aves sobrevivieron a la extinción en masa de finales del Cretácico.

Tyrannosaurus, Triceratops, Stegosaurus y Diplodocus son algunos de los dinosaurios más conocidos. Todos ellos eran terrestres. Ningún dinosaurio vivió en el mar. Sólo las aves, que son dinosaurios muy especializados, han adquirido la capacidad de volar. Los dinosaurios desarrollaron una sorprendente diversidad de tamaños, así como una gran disparidad morfológica. Los dinosaurios terrestres más pequeños eran del tamaño de una paloma, mientras que algunos de los saurópodos más grandes medían 30 metros de longitud y se estima que su masa corporal superaba las 50 toneladas, lo que los convierte en los mayores animales que han existido sobre la tierra firme. Había dinosaurios carnívoros, vegetarianos, omnívoros, e incluso insectívoros. Muchos de ellos eran bípedos, otros cuadrúpedos, y algunos podían incluso adoptar ambos tipos de locomoción.

Sin contar las aves, se han descrito más de mil especies de dinosaurios en el registro fósil (conjunto de evidencias conservadas en las rocas) del Mesozoico. Gracias a la labor que realizan los paleontólogos (trabajos de campo, laboratorio y gabinete), cada año se describen de 30 a 40 especies nuevas. Es probable que aún no conozcamos ni la mitad de las especies de dinosaurios que realmente existieron.

Desde que se definieron los primeros dinosaurios hace casi dos siglos hasta la actualidad, su imagen científica ha ido evolucionando con el tiempo. En un principio fueron considerados lagartos gigantescos, más tarde reptiles cuadrúpedos similares a grandes mamíferos, y a finales del siglo XIX se los imaginaba como reptiles-canguros saltadores. Este cambio conceptual en el conocimiento científico sobre los dinosaurios ha tenido reflejo en la iconografía paleontología, así como en la literatura y el cine. Durante mucho tiempo se pensó que eran animales lentos, torpes y estúpidos condenados a extinguirse. El renovado interés por los dinosaurios (“Dinosaur Rennaissance” en inglés), que se inició a finales de la década de 1960 y continúa en nuestros días, se ha materializado en profundos cambios en las ideas sobre su biología, léase anatomía, metabolismo, comportamiento, relaciones de parentesco y pseudoextinción a finales del Cretácico.

Jurassic Park, saga cinematográfica iniciada en 1993, supone el punto álgido de lo que se ha dado en llamar “dinomanía” o pasión popular por los dinosaurios. La película aumentó el interés por los dinosaurios y su investigación científica, despertando muchas vocaciones paleontológicas entre los niños que la vieron, por lo que cabe hablar de una generación “Parque Jurásico”. Hoy en día, la paleontología de los dinosaurios es una disciplina en pleno desarrollo, con muchos especialistas trabajando en el tema, y donde se aplican nuevas tecnologías (por ejemplo, escaneado y modelización en tres dimensiones) que permiten abordar aspectos novedosos de la biología de los dinosaurios. Cabe destacar el carácter multidisciplinar de la investigación actual y la presencia cada vez mayor de mujeres paleontólogas, particularmente en áreas que están experimentando un rápido crecimiento, como la paleohistología (estudio de la microestructura ósea de los organismos del pasado) o la paleontología molecular (estudio de restos orgánicos fósiles). Los resultados de la investigación paleontológica sobre los dinosaurios están a la orden del día. Los debates científicos sobre su origen, su apariencia, el color de su piel o sus plumas, su termofisiología, la causa o causas de su extinción (con excepción de las aves), el origen del vuelo, etc., son temas fascinantes que interesan al público y tienen amplio eco en los medios de comunicación.

Los dinosaurios no solo tuvieron un tremendo éxito evolutivo durante el Jurásico y el Cretácico, sino que algunas formas adaptadas al vuelo como las aves son, con algo más de 10.000 especies, el grupo más diversificado de tetrápodos en la naturaleza actual.

Reconstrucción de un paisaje de finales del Cretácico con la fauna de dinosaurios de Laño (Condado de Treviño). En primer plano, el anquilosaurio enano Struthiosaurus. Detrás, una pareja de Lirainosaurus, titanosaurio definido a partir de los fósiles hallados en este yacimiento. Al fondo, un terópodo persigue a dos ornitópodos. Esta asociación es típica de los yacimientos de dinosaurios del sur de Europa de hace unos 70 millones de años. Ilustración original del paleoartista Raúl Martín coloreada por Gonzalo De las Heras (Diario El Correo), usada con permiso.

Por último, solemos pensar que el descubrimiento de dinosaurios solo se da en tierras exóticas, cuando en nuestro entorno cercano hay yacimientos paleontológicos de gran relevancia, como es el caso de la cantera de Laño (Condado de Treviño). Este yacimiento es una ventana abierta al mundo de finales del Cretácico, cuando Europa era un archipiélago formado por islas de diferentes tamaños separadas por mares cálidos poco profundos. En Laño se han hallado fósiles pertenecientes a una decena de especies de dinosaurios (incluyendo un nuevo titanosaurio: Lirainosaurus astibiae), junto con otros vertebrados continentales, como peces óseos, anfibios, lagartos, serpientes, tortugas, cocodrilos, pterosaurios y mamíferos. El estudio del yacimiento ofrece información de primera mano sobre cómo eran las faunas de dinosaurios y otros vertebrados continentales hace aproximadamente 70 millones de años.

Para saber más:

S.L. Brusatte, “Dinosaur Paleobiology, Wiley-Blackwell (2012).

X. Pereda Suberbiola (2018) “Dinosaurios y otros vertebrados continentales del Cretácico final de la Región Vasco-Cantábrica: cambios faunísticos previos a la extinción finicretácica”, en A. Badiola, A, Gómez-Olivencia & X. Pereda Suberbiola, “Registro fósil de los Pirineos occidentales. Bienes de interés paleontológico y geológico. Proyección social”, Servicio Central de Publicaciones del Gobierno Vasco, Vitoria-Gasteiz, pp. 83-98.

Sobre el autor: Xabier Pereda Suberbiola es Doctor en Ciencias Geológicas e investigador del Departamento de Estratigrafía y Paleontología de la Facultad de Ciencia y Tecnología de la UPV/EHU.

El artículo Dinosaurios se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Dinosaurios quijotescos o con nombre de princesa
  2. Las plumas estaban en los dinosaurios desde el principio
  3. ¿Se podrían recuperar los dinosaurios como en Parque Jurásico?
Catégories: Zientzia

Ha llegado el final de la cosmética «sin»

jeu, 2019/07/11 - 11:59
Foto: Pixabay

Desde el 1 de julio de 2019 ha entrado en vigor una nueva normativa en cosmética que se ha propuesto acabar con la desafortunada estrategia del «sin».

Hay consumidores que no saben qué son los parabenos, pero no los quieren. Desconocen la historia que ha llevado a algunos laboratorios cosméticos a utilizar como reclamo el ‘sin parabenos’, y la consecuencia de esto es que estas sustancias cuyo uso está permitido y es seguro, se perciben como sustancias perjudiciales para la salud. Esto ocurre también con las sales de aluminio de los desodorantes, los sulfatos o con los conservantes, entre otros.

La estrategia publicitaria del «sin» se fundamenta en el miedo. Es lo que los científicos hemos convenido en denominar ‘quimiofobia’, miedo a la química. Funciona porque se sirve de grandes males de la sociedad: la desinformación y la incultura.

La libertad de elegir solo nos la garantiza el conocimiento. Pero cuando el conocimiento requerido es suficientemente profundo, y el caso que nos ocupa lo es, la mejor forma de afrontarlo es tomando medidas que faciliten las elecciones. O al menos, que garanticen que estas elecciones se basan en criterios acertados.

Esa es la razón por la que se ha decidido regular las reivindicaciones de los productos cosméticos. Una historia de reglamentos, informes y documentos técnicos que comenzó en 2009 y que ha llegado hasta nuestros días.

  • La historia de cómo se regulan las reivindicaciones de los productos cosméticos

En 2009 se publicó el Reglamento (CE) No 1223/2009. En el artículo 20 sobre «reivindicaciones de producto» es donde por primera vez figuran dos puntos referidos en exclusiva a este asunto:

En el primer punto se dice que en el etiquetado, en la comercialización y en la publicidad de los productos cosméticos no se utilizarán textos, denominaciones, marcas, imágenes o cualquier otro símbolo figurativo o no, con el fin de atribuir a estos productos características o funciones de las que carecen.

En el segundo punto se dice que la Comisión adoptará una lista de criterios comunes para las reivindicaciones que podrán utilizarse en los productos cosméticos. Como muy tarde, el 11 de julio de 2016 la Comisión presentaría al Parlamento Europeo y al Consejo un informe sobre el uso de las reivindicaciones con arreglo a los criterios comunes adoptados. En función de ese informe se crearía un grupo de trabajo para afrontar los problemas observados. Y ese fue el plan que seguimos.

En 2013 se publicó el Reglamento (UE) No 655/2013. Este reglamento tenía como objetivo desarrollar el artículo 20 del R 1223/2009. Aquí se estableció un marco legal con unos criterios comunes basados en la honradez, veracidad e imparcialidad, entre otros.

Finalmente en 2016 se publicó el Informe de la Comisión al Parlamento Europeo y al Consejo sobre las reivindicaciones relativas a los productos basadas en criterios comunes en el ámbito de los cosméticos. El resultado de este informe fue que el 10% de las reivindicaciones sobre productos cosméticos analizadas no se consideraron conformes con los criterios comunes establecidos en el R 655/2013.

Como consecuencia de esto, en 2017 el grupo de trabajo presentó un Documento técnico sobre reivindicaciones de productos cosméticos que incluye 4 anexos. El anexo III se refiere exclusivamente a los cosméticos «sin».

La aplicación de estos criterios sobre los cosméticos «sin» entró en vigor el 1 de julio de 2019. A partir de ese momento está prohibido introducir en el mercado nuevos productos y lotes antiguos que no cumplan con los criterios actuales. Aun así, los lotes de producto que ya estuviesen en el mercado antes del 1 de julio, no serán retirados. Por este motivo, durante un tiempo podremos encontrar productos comercializados que no cumplan la nueva norma. Serán de lotes distribuidos antes del 1 de julio.

Foto: Pixabay
  • Cuáles son los nuevos criterios sobre las reivindicaciones de cosméticos «sin»

Las reivindicaciones «sin» o reivindicaciones con significado similar no deberán de efectuarse en ingredientes cuyo uso está prohibido en productos cosméticos por el R 1223/2009. Por ejemplo, la reivindicación ‘sin corticosteroides’ no debe de estar permitida ya que la legislación de productos cosméticos de la UE prohíbe los corticosteroides.

En caso de reivindicaciones sobre la ausencia de grupos de ingredientes con funciones definidas en el R 1223/2009, como conservantes y colorantes, el producto no debe de contener ningún ingrediente que pertenezca a ese grupo. Si se sostiene como reivindicación que el producto no contiene un ingrediente específico, el ingrediente no debe de estar presente ni liberarse. Por ejemplo, la reivindicación ‘sin formaldehído’ no debe de estar permitida si el producto contiene un ingrediente que libera formaldehído, como por ejemplo la diazolidinil urea.

Las reivindicaciones «sin» no deberán de permitirse cuando se refieran a un ingrediente que no suele usarse en el tipo concreto de producto cosmético. Por ejemplo, ciertas fragancias suelen contener una cantidad de alcohol tan elevada que no es necesario usar conservantes adicionales. En este caso, sería deshonesto resaltar en publicidad el hecho de que cierta fragancia no contiene conservantes.

Las reivindicaciones «sin» tampoco deben de permitirse cuando impliquen propiedades garantizadas del producto, en función de la ausencia de ingredientes, que no pueden darse. Por ejemplo, no está permitida la reivindicación ‘sin sustancias alergénicas/sensibilizadoras’ porque no puede garantizarse la ausencia completa del riesgo de una reacción alérgica y el producto no debe de dar la impresión de que sí.

Las reivindicaciones «sin» dirigidas a grupos de ingredientes no deben de permitirse si el producto contiene ingredientes con funciones múltiples y entre ellas está la función mencionada en la reivindicación «sin». Por ejemplo, no puede usarse la reivindicación ‘sin perfume’ cuando un producto contenga un ingrediente que ejerza función aromatizante en el producto, sin importar sus otras posibles funciones en el producto.

Otro ejemplo de este punto es la reivindicación ‘sin conservantes’. Esta no debe de usarse cuando un producto contenga ingredientes con efecto protector frente a microorganismos, aunque estos no estén incluidos en el anexo V de la lista de conservantes del Reglamento 1223/2009. Este es el caso del alcohol, que puede tener actividad conservante aunque no esté contemplado como tal en la lista del anexo V. Así que, si el alcohol es el que actúa como conservante, está prohibida la reivindicación ‘sin conservantes’.

Con respecto al ‘sin conservantes’ hay alguna excepción demostrable. Si hay pruebas de que el ingrediente concreto o la combinación de dichos ingredientes no contribuye a la protección del producto, podría ser adecuado usar la reivindicación, como por ejemplo, resultados de un challenge test de la fórmula sin el ingrediente concreto.

Las reivindicaciones «sin» no deberán de permitirse cuando impliquen un mensaje denigrante, sobre todo cuando se basan principalmente en una presunta percepción negativa sobre la seguridad del ingrediente o grupo de ingredientes. Por ejemplo, el uso de parabenos es seguro y está permitido. Si se considera el hecho de que todos los productos cosméticos deben de ser seguros, la reivindicación ‘sin parabenos’ no debe de aceptarse, ya que es denigrante para el grupo total de parabenos. Otro ejemplo similar es el del fenoxietanol y el triclosán. Ambos son seguros y su uso está permitido. Por ello, la reivindicación ‘sin’ en dichas sustancias no debe de aceptarse ya que denigra sustancias autorizadas.

Las reivindicaciones «sin» solo deben de estar permitidas cuando facilitan una elección informada para un grupo específico de usuarios. Por ejemplo, está permitido el ‘sin alcohol’ en un enjuague bucal diseñado como producto para la familia. También puede usarse el ‘sin ingredientes de origen animal’ para productos diseñados para veganos. O ‘sin acetona’, por ejemplo en esmalte de uñas, para usuarios que quieren evitar este olor concreto porque les resulta molesto.

  • Conclusión

A partir del 1 de julio de 2019, que es cuando entró en vigor la aplicación de estos nuevos criterios, estará prohibido distribuir los clásicos cosméticos «sin», como el ‘sin parabenos’, el ‘sin sulfatos’, el ‘sin sales de aluminio’ o el ‘sin conservantes’. Ya no se podrá denigrar ingredientes de curso legal, insinuar que son perjudiciales o que hay productos inseguros en el mercado. Es cuestión de semanas que todos estos productos desaparezcan. Que por fin los lineales estén ocupados por productos que se vendan por lo que tienen, no por lo que no tienen.

Si esto pone fin a esa clase de publicidad, a algunos se les acabará el negocio. Quien no tiene nada mejor que vender, venderá miedo. A los que no necesitaban de esa publicidad, ha llegado el momento de vender virtudes.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Ha llegado el final de la cosmética «sin» se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los parabenos usados en cosmética son seguros
  2. Los cosméticos no se testan en animales
  3. Estimada OCU: recuerda que NO se pueden utilizar las cremas solares del año pasado
Catégories: Zientzia

Los ritmos primos de Anthony Hill

mer, 2019/07/10 - 11:59

El pasado mes de mayo, aprovechando la exposición de la artista Esther Ferrer en Tabakalera (Donostia), Esther Ferrer, 2, 3, 5, 7, 11, 13, 17, 19, 23…, dedicamos dos entradas del Cuaderno de Cultura Científica a su serie de obras Poema de los números primos, en la cual utiliza los números primos como herramienta en el proceso de creación artística:

i) Poema de los números primos

ii) Poema de los números primos (2)

En la entrada de hoy vamos a hablar de otro artista que también ha utilizado los números primos en la creación de una de sus obras de arte, es el artista británico Anthony Hill.

Relief construction (1960-62), de Anthony Hill, obra realizada en aluminio y plástico sobre un tablero de madera, de dimensiones 110 x 91 x 5 cm. Obra e imagen de la Tate Gallery 

Anthony Hill nació en Londres en 1930, formó parte del movimiento artístico de los constructivistas británicos y estuvo relacionado con el Grupo Sistemas. Heredero del arte concreto, Anthony Hill utiliza las matemáticas en el proceso creativo artístico. Tiene un profundo conocimiento de esta ciencia, publicando incluso algunos artículos de investigación matemática, como el artículo On the number of crossings in a complete graph (Proceedings of the Edinburgh Mathematical Society 13, n. 4, p. 333-338, 1963), junto al matemático Frank Harary, o siendo elegido Honorary Research Fellow en el Departamento de Matemáticas del University College de Londres.

La obra que vamos a analizar en esta entrada es Prime Rhythms / Ritmos primos (1959 -1962).

Rhythms / Ritmos primos (1959 -1962), de Anthony Hill, realizada en plástico laminado y de unas dimensiones de 91.5 x 91.5 x 1.9 cm. Imagen del artículo del artista A View of Non-Figurative Art and Mathematics and an Analysis of a Structural Relief

Esta obra está inspirada en los números primos y, más concretamente, en los números primos gemelos. Recordemos que los números primos son aquellos números que solamente se pueden dividir por 1 y por ellos mismos. Así, por ejemplo, el número 30 no es un número primo ya que se puede dividir por 2, 3, 5, 6, 10 y 15, además de por 1 y 30, o tampoco el 33, divisible por 3 y 11, mientras que el número 13 sí es primo, ya que solamente es divisible por el 1 y él mismo, al igual que los números 2, 3, 5, 7, 11, 17 o 19. Por motivos formales el número 1 es considerado no primo en matemáticas, aunque en esta obra Anthony Hill lo va a incluir el en grupo de los números primos.

Lo primero que hace el artista británico es considerar todos los números impares menores que 100 (tengamos en cuenta que los números pares, con la excepción del 2, son siempre compuestos, es decir, no primos) y dividir este grupo en dos subgrupos, los primos y los compuestos. Resulta que hay exactamente la misma cantidad de elementos en cada subgrupo, en concreto, veinticinco.

Números primos impares menores que 100:

1, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89, 97.

Números compuestos impares menores que 100:

9, 15, 21, 25, 27, 33, 35, 39, 45, 49, 51, 55, 57, 63, 65, 69, 75, 77, 81, 85, 87, 91, 93, 95.

A continuación, Anthony Hill toma un cuadrado, considera la línea intermedia y marca 50 líneas horizontales, igualmente espaciadas, de forma que cada una de ellas es un número impar menor que 100, desde el 1 hasta el 99. Aunque cada línea es un número impar, los números impares primos los considera a la izquierda y los números impares no primos a la derecha, como se muestra en la siguiente imagen esquemática de los primeros números.

El siguiente paso fue considerar los números primos gemelos, que son aquellos números primos que están lo más cerca posible (con la excepción del 2 y el 3), es decir, con tan solo un número par entre ellos, como las parejas 11 y 13, 17 y 19, 41 y 43, 59 y 61, 71 y 73. Anthony Hill considera los números primos (impares) gemelos, que además son menores de 100, como se ve en la siguiente imagen, en la parte de la izquierda. Observemos que, al considerar solo números impares, los números primos gemelos son números consecutivos, 1 y 3, 3 y 5, 5 y 7, 11 y 13, 17 y 19, y 29 y 31, en la siguiente imagen.

Por otra parte, Anthony Hill considera los números no primos impares consecutivos, que podríamos denominar ahora “números compuestos impares gemelos”. Como por ejemplo el par 25 y 27, que se puede ver en la parte de la derecha de la imagen, aunque hay más, como 33 y 35.

La siguiente acción es pintar de negro las zonas, o bandas entre líneas paralelas, que se corresponden a números gemelos, para los números primos, a la izquierda, y para los números impares no primos, a la derecha, y las demás bandas de color blanco. Podemos apreciar la construcción en la siguiente imagen.

Por lo tanto, sin marcar la separación entre las zonas que hemos realizado en el anterior esquema explicativo, podemos realizar la siguiente recreación de la obra Prime Rhythms / Ritmos primos de Anthony Hill.

Recreación de la obra Prime Rhythms / Ritmos primos (1959 – 1962), de Anthony Hill, realizada por mí mismo, Raúl Ibáñez

Terminamos la entrada mostrando una obra de Anthony Hill relacionada con los grafos, The Nine – Hommage à Khlebnikov / El nueve, homenaje a Khlebnikov (1976).

The Nine – Hommage à Khlebnikov / El nueve, homenaje a Khlebnikov (1976), de Anthony Hill, realizada en plástico laminado, con un tamaño de 91.5 x 91.5 x 1.9 cm. Imagen del artículo del artista A View of Non-Figurative Art and Mathematics and an Analysis of a Structural Relief

Bibliografía

1.- Anthony Hill, A View of Non-Figurative Art and Mathematics and an Analysis of a Structural Relief, Leonardo, Vol. 10, No. 1, pp. 7-12, 1977.

2.- Alan Fowler, A Rational Aesthetic. The Systems group and associated artists, Southampton City Art Gallery, 2008.

3.- Michael Holt, Mathematics in Art, Littlehampton Book Services, 1971.

4.- Raúl Ibáñez, Las Matemáticas como herramienta en la creación artística (conferencia), Curso de verano de la UPV/EHU, “Cultura con M de matemáticas, una visión matemática del arte y la cultura”, 2019.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Los ritmos primos de Anthony Hill se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Buscando lagunas de números no primos
  2. Criptografía con matrices, el cifrado de Hill
  3. El poema de los números primos (2)
Catégories: Zientzia

El dilema del efecto fotoeléctrico

mar, 2019/07/09 - 11:59
¿Clásica o moderna? He ahí la cuestión. Imagen: Wikimedia Commons

Hemos visto que la explicación de Einstein del efecto fotoeléctrico cuadra muy bien con las observaciones experimentales. Pero cuadra muy bien cualitativamente, es decir, explica lo que ocurre de forma genérica. Otra cosa muy distinta es que el modelo fotónico de Einstein explique cuantitativamente la observaciones. Solo entonces cabe hablar de un modelo realmente bueno.

Era necesario pues comprobar experimental y cuantitativamente el modelo de Einstein, en concreto dos afirmaciones claves:

a) La energía cinética máxima de los electrones es directamente proporcional a la frecuencia de la luz incidente; y

b) El factor de proporcionalidad h que relaciona la energía del fotón E con la frecuencia f (E = hf )es realmente el mismo para todas las sustancias.

Millikan y Einstein en 1932. Fuente: Wikimedia Commons

Durante 10 años, los físicos experimentales intentaron realizar las pruebas cuantitativas necesarias. Una dificultad experimental era que el valor de la función de trabajo W para un metal cambia mucho si hay impurezas (por ejemplo, una capa de óxido del metal) en la superficie. Finalmente, en 1916, Robert A. Millikan estableció que existe una relación en forma de línea recta entre la frecuencia de la luz absorbida y la energía cinética máxima de los fotoelectrones, como lo exige la ecuación de Einstein.

Si Ecmax se representa en el eje y y f a lo largo del eje x, entonces la ecuación de Einstein (Ecmax = hf W) tiene la forma familiar de la ecuación para una línea recta y = mx + b. En una gráfica de la ecuación de Einstein, la pendiente debe ser igual a h, y la intersección con el eje y (f = 0) debe ser igual a -W. Esto es exactamente lo que encontró Millikan. Vemos en la imagen los datos para el zinc. La imagen es de Wikimedia Commons.

Para obtener sus datos, Millikan diseñó un aparato en el que la superficie fotoeléctrica del metal se obtenía por un corte en vacío. Un electroimán situado fuera de la cámara de vacío manipulaba una cuchilla dentro de la cámara para realizar los cortes. Este dispositivo, bastante complejo, era imprescindible para garantizar que se obtenía una superficie reproducible de metal puro.

Las líneas rectas que obtuvo Millikan para diferentes metales tenían la misma pendiente, h, aunque las frecuencias umbral (relacionadas con W) fuesen diferentes.

El valor de h obtenido a partir de los experimentos de Millikan eran, como hemos dicho, igual para distintos metales. De hecho también era el mismo encontrado por otros experimentos independientes. Este resultado sorprendió antes que ha nadie al propio Millikan, firme partidario de la teoría clásica de la luz. Su experimento demostró convincentemente que el modelo fotónico de la luz era correcto hasta donde se podía comprobar. El efecto fotoeléctrico dio como fruto dos premios Nobel, uno para Einstein por la teoría y otro para Millikan, por el experimento.

Albert Einstein recibe la Medalla Max Planck de manos de…Max Planck (1929). Era la primera vez que se entregaba la distinción creada por la Sociedad Alemana de Física; se otorgó en esta primera edición a los dos teóricos. El primero en recibirla fue Max Planck, quien, a continuación hizo entrega de la suya a Einstein. Fuente: Institute for Advanced Study.

Pero, ¿qué era esta h?

Históricamente, la primera sugerencia de que la energía en la radiación electromagnética está «cuantificada» (viene en cantidades, cuantos, definidas) no aparece en el modelo fotónico del efecto fotoeléctrico. Lo hizo en estudios sobre el calor y la luz irradiados por los sólidos calientes. Max Planck introdujo el concepto de cuanto de energía (aunque en un contexto diferente) a finales de 1899, 5 años antes de la teoría de Einstein. Es por esto que a la constante h se la conoce como constante de Planck.

Planck trataba de explicar cómo la energía térmica (y la luz) irradiada por un cuerpo caliente está relacionada con la frecuencia de la radiación. La física clásica (termodinámica y electromagnetismo del siglo XIX) no podía explicar los hechos experimentales. Planck descubrió que los hechos solo podían interpretarse suponiendo que los átomos, al irradiar, cambian su energía no en cantidades variables continuas, sino en cantidades discretas, en paquetes. El modelo fotónico del efecto fotoeléctrico de Einstein puede considerarse como una extensión y aplicación de la teoría cuántica de Planck de la radiación térmica. La gran diferencia y punto esencial es que Einstein postuló que el cambio en la energía del átomo E que se transporta está localizada en un fotón de energía E = hf, donde f es la frecuencia de la luz emitida por el átomo, como si el fotón fuese una partícula, en lugar de estar repartida por toda la onda de luz.

El éxito del modelo fotónico del efecto fotoelectrico ponía a toda la comunidad científica ante un verdadero dilema. Según la teoría ondulatoria clásica, la luz consiste en ondas electromagnéticas que se extienden continuamente a lo largo del espacio. Esta teoría tuvo mucho éxito en la explicación de los fenómenos ópticos (reflexión, refracción, polarización, interferencia). La luz se comporta como una onda experimentalmente, y la teoría de Maxwell da buena cuenta de este comportamiento ondulatorio. Pero la teoría de Maxwell no puede explicar el efecto fotoeléctrico. La teoría de Einstein, que postula la existencia de cantidades discretas de energía luminosa, sí explica el efecto fotoeléctrico, pero no otras propiedades de la luz, como la interferencia.

O sea, que había dos modelos de luz cuyos conceptos básicos parecían contradecirse entre sí. Según uno la luz es un fenómeno ondulatorio; según el otro la luz tiene propiedades similares a las partículas. Cada modelo tenía sus éxitos y sus limitaciones. La solución de este problema tendría consecuencias enormes para toda la física y tecnologías modernas en general y para nuestra comprensión de los átomos en concreto.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El dilema del efecto fotoeléctrico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La explicación de Einstein del efecto fotoeléctrico
  2. La incompatibilidad del efecto fotoeléctrico con la física clásica
  3. El desconcertante efecto fotoeléctrico
Catégories: Zientzia

Por qué a veces confesamos cosas que, en realidad, nunca hicimos

lun, 2019/07/08 - 11:59

 

Los que tenemos la suerte de no haber tenido un encontronazo serio con la justicia (y que así siga muchos años…) solo conocemos una sala de interrogatorios por haberla visto en las películas así que nuestro conocimiento sobre el tema debería ser puesto en cuarentena. Sin embargo, gracias a la abundante oferta de documentales sobre crímenes reales que incluyen escenas reales de interrogatorios, confesiones y juicios, no es difícil hacerse una idea, al menos aproximada, de cómo funciona el asunto.

Un sospechoso, más o menos atolondrado por el impacto del crimen sucedido, responde a una serie de preguntas más o menos amables o agresivas según avanza la investigación y, como resultado de la astucia del que pregunta y la suya propia, termina confesando el crimen. Y ante la confesión, ¡ajá, crimen resuelto!

¿Verdad? ¿Acaso no es una confesión la prueba definitiva? Solamente evidencias físicas muy contundentes pueden revertir una confesión, rastros de ADN que inequívocamente sitúen a otro sospechoso en el lugar de los hechos o al dueño de la confesión en otro lugar diferente. Excepto eso, una confesión es todo lo que parecería necesario para resolver un delito. Al fin y al cabo, ¿quién reconocería haber hecho algo grave, un asesinato, una violación, si no lo hubiese hecho? ¿Y por qué?

 

¿Son fiables todas las confesiones?

Saul Kassin es psicólogo en la universidad de justicia criminal John Jay de Nueva York y uno de los principales expertos mundiales en interrogatorios y falsas confesiones. La revista Science ha dedicado recientemente un reportaje a su trabajo, en el que cuenta por qué algo aparentemente tan contraintuitivo como que un sospechoso se autoinculpe de un crimen que no cometió no solo es algo más común de lo que podríamos pensar, sino que tiene una causa que la psicología puede explicar.

Las confesiones siempre se han considerado el indicador máximo de la culpabilidad, incluso aunque se conocen casos históricos de falsas autoacusaciones. Científicamente la primera alerta al respecto está fechada en 1908, cuando Hugo Müsterberg, reputado psicólogo de la Universidad de Harvard de la fecha ya alertó de “confesiones inciertas bajo el efecto de poderosas influencias”. Sin embargo, fue a finales de los años 80 con la introducción en los juzgados de las evidencias basadas en técnicas de reconocimiento de ADN para exonerar a condenados que en realidad eran inocentes cuando se empezó a vislumbrar cómo de frecuente podía ser el problema.

Kassin ha dedicado su carrera a este tema. Estudió y se doctoró en psicología, y cómo investigador postdoctoral, analizando la forma en que los jurados toman decisiones, quedó sorprendido con el poder que tiene una confesión para prácticamente garantizar un veredicto de culpabilidad.

Al mismo tiempo empezó a preguntarse si era posible analizar cuántas de esas confesiones eran reales. Comenzó a estudiar una técnica de interrogatorio llamada Reid, por uno de sus autores, John Reid, basada en un método publicado en 1962 y que es una forma habitual de entrenar a los agentes que se dedican a este área del trabajo policial. “Me quedé horrorizado. Era como los estudios sobre la obediencia de Milgram, pero peor”.

Bajo presión de la autoridad, hacemos lo que no haríamos

Echemos un paso atrás. Stanley Milgram, psicólogo de la Universidad de Yale, llevó a cabo una serie de estudios sobre la conducta en la década de los 60 en los que se animaba a los participantes a aplicar descargas eléctricas sobre otros sujetos si consideraban que éstos no estaban aprendiendo lo suficientemente deprisa. Los voluntarios, que no sabían que esas descargas en realidad eran falsas y creían estar causando dolor real a sus compañeros, resultaron estar sorprendentemente dispuestos a hacerlo si una persona a la que consideraban con autoridad sobre ellos se lo pedía.

El manual para interrogar de Reid parece diferente al principio. La técnica comienza con una evaluación previa en la que el interrogador hace una serie de preguntas, algunas irrelevantes y otras más sustanciosas, mientras busca en el interrogado determinadas señales de que esté mintiendo, como evitar el contacto visual o cruzarse de bazos. Después va la fase dos, considerada el interrogatorio formal. Aquí el que pregunta sube el tono, acusando al sospechoso repetidamente, pidiendo detalles concretos e ignorando los momentos en que niega su implicación. Al mismo tiempo ofrece su simpatía y comprensión, minimizando las implicaciones morales del crimen, pero no las legales, facilitando el momento de la confesión. “Esto no habría pasado si ella no te hubiese faltado al respeto” y cosas así.

Foto: nihon graphy / Unsplash

¿He pulsado yo esa tecla?”

Esta es la fase que Kassim relacionaba con el experimento de Milgram: una figura de autoridad presionando para causar un daño, solo que en vez de a un tercero, aquí sería a uno mismo al admitir una culpabilidad que no es propia. Kassim sospechaba que esa presión autoritaria podía llevar a veces a realizar confesiones falsas.

Para averiguarlo, en los años 90 decidió modelar en el laboratorio la técnica Reid con estudiantes voluntarios, creando lo que llamó el experimento del bloqueo informático: hacía a los estudiantes seguir órdenes rápidas ante un ordenador, avisándoles de que tenía un fallo y que si pulsaban la tecla Alt, el ordenador se bloquearía. Esto era falso en parte: el ordenador estaba programado para bloquearse en todas las pruebas. Cuando ocurría, el investigador acusaba al estudiante que estuviese haciendo la prueba en ese momento de haber apretado la tecla Alt.

Al principio, ninguno de los estudiantes confesaba. Luego fue introduciendo distintas variaciones basadas en esas técnicas de interrogatorios policiales. A veces, por ejemplo, un policía le decía falsamente a un sospechoso que tenían un testigo del crimen, haciéndole dudar de su versión de los hechos. Funcionó en el caso de Marty Tankleff, adolescente estadounidense que en 1988 llegó a casa y se encontró a sus padres apuñalados en la cocina, su madre muerta y su padre en coma. La policía le consideró el principal sospechoso y tras horas interrogándole sin éxito le dijeron que su padre había despertado en el hospital y había dicho que fue él quién lo hizo (aunque no era verdad, su padre murió sin despertar del coma). Completamente en shock y dudando de sus propios recuerdos, Tankleff confesó y pasó 20 años en la cárcel antes de que nuevas evidencias sirviesen para exonerarle.

Ante un testigo o en espera de más pruebas

Un impacto de ese tipo no se podía generar en el laboratorio, pero Kassin sí podía aliarse con un “testigo” que asegurase haber visto al estudiante apretar la tecla en cuestión, y resultó que esos estudiantes confesaban el doble de veces que aquellos que hacían la prueba en presencia de un testigo que aseguraba no haber visto nada. En determinadas circunstancias, prácticamente todos los estudiantes que trabajaban ante un testigo acusatorio falso terminaban confesando.

Algunos estudiantes terminaban tan convencidos de haber causado el bloque que sin querer inventaban explicaciones y justificaciones, y algunos internalizaban tanto su fallo que se negaban a creer al investigador cuando este les contaba la verdad sobre la prueba.

Otro truco policial puede ser, no mentir sobre las evidencias disponibles, pero si advertir de que se están esperando más pruebas, por ejemplo, un análisis de rastros de ADN encontrados en la escena del crimen. Ante esa situación, que intuitivamente daría al acusado inocente más razones para defenderse y resistir, muchos se derrumban y confiesan, precisamente para liberarse de la presión en ese momento y confiando en que la posterior llegada de nuevas pruebas servirá para exonerarles.

Kassin creó una variante de la prueba del ordenador para testar estas situaciones: además de acusar al estudiante de haber apretado la tecla Alt, les decía que el registro de las teclas pulsadas estaba grabado y que podrían consultarlo muy pronto. El número de estudiantes que confesaba se disparó, precisamente porque querían salir de allí en ese momento y esperaban que la posterior consulta del registro les liberase de culpa. En ese sentido, la confianza en el correcto funcionamiento del sistema y en la propia inocencia pueden ser factores de riesgo de terminar realizando una confesión falsa.

Otros experimentos: jóvenes, adictos o enfermos mentales, los más vulnerables

Existen algunas críticas obvias a estos experimentos. Por ejemplo, que en este contexto de pruebas universitarias difícilmente se temen las mismas consecuencias, o estas son tan obvias ante una falsa confesión que en el entorno de una investigación criminal, o que pulsar una tecla sin querer es relativamente común y eso puede hacer que alguien dude de su propia versión de los hechos, algo que no parece igual de probable cuando hablamos de cometer el asesinato, por ejemplo, de tus propios padres.

Por eso otros investigadores han buscado cómo complementarlos. Es el caso de Melissa Russano, psicóloga social en la Universidad Roger Williams en Rhode Island. Ella diseñó un experimento en el que se pedía a una serie de voluntarios que resolviesen un conjunto de problemas de lógica, algunos en grupo y otro de manera individual. Ante de empezar se dejó bien claro que bajo ningún concepto era aceptable ayudar a los estudiantes que debían trabajar solos, a algunos de los cuales se les había instruido previamente para mostrar muchas dificultades y disgusto ante las pruebas. Esto llevó a algunos de sus compañeros a echarles una mano, lo cuál suponía una clara violación de las reglas.

En esos experimentos los que ayudaban sabían que estaban saltándose las reglas, y confesar conllevaba ciertas consecuencias ya que se había roto el código de conducta de las sesiones. Pero, igual que Kassin, Russano observó que un interrogatorio acusatorio podía provocar falsas confesiones. Ella y sus colegas probaron otro truco habitual en los interrogatorios policiales: el de la minimización de la carga emocional o moral de la falta cometida, diciendo cosas como que “seguro que no te has dado cuenta de cómo de serio era lo que estabas haciendo”, y con eso consiguieron que la tasa de falsas confesiones subiese un 35%.

Otros investigadores, como Gísli Gudjónsson, detective islandés y psicólogo en el King’s College de Londres, han explicado que determinados factores hacen a algunos individuos más susceptibles que a otros a este tipo de presión. Por ejemplo, enfermedades mentales, ser muy jóvenes o la adicción a sustancias hacen que algunas personas estén más dispuestas a dudar de su propia memoria y a confesar bajo presión cosas que no han cometido.

Richard Leo, profesor de derecho de la Universidad de San Francisco en California, y Rochard Ofshe, por entonces en la Universidad de California Berkeley, describieron en varios informes una “persuasión” hacia la confesión: confesiones que eran resultado de situaciones en las que un sospechoso, destrozado tras horas de interrogatorio, entra en un camino mental en el que empieza a creer en su propia culpa aunque sea falsa. Es un fenómeno especialmente pronunciado entre adolescentes que son impresionables y fácilmente intimidables por una figura autoritaria.

Las confesiones quizá no sean lo más importante

Entre todos consiguieron crear un cuerpo de evidencias suficientes que hicieron que en torno al año 2010 Kassin y varios colegas americanos y británicos escribieron un documento para la Asociación Americana de Psicología advirtiendo del riesgo de coacción en estos interrogatorios y sugiriendo algunas reformas, como por ejemplo prohibiendo las mentiras por parte de los investigadores, limitando el tiempo que podían durar esos interrogatorios y exigiendo la grabación de éstos de principio a fin.

De hecho, cuestionaban el valor de las confesiones como tal y ponían en duda lo idóneo de que eso sea lo que busquen principalmente los investigadores, señalando que ante el peso de otro tipo de pruebas forenses o de otro tipo, quizá seguir utilizando las confesiones como la principal medida de la culpabilidad no solo sea un riesgo, sino que además no sea lo más inteligente.

Para la espectacularidad de un asesino que por fin confiesa siempre nos quedarán las series policiales.

Referencias

This psychologist explains why people confess to crimes they didn’t commit – Science

Migram Experiment – Simple Psychology

Inside interrogation: The lie, the bluff, and false confessions – American Psychology Association

Marty Tankleff – Wikipedia

Investigating True and False Confessions Within a Novel Experimental Paradigm – Psychological Science

The Psychology of False Confessions: Forty Years of Science and Practice – Wiley Online Library

The Social Psychology of Police Interrogation: The Theory and Classification of True and False Confessions – Studies in Law, Politics, and Society

Police-Induced Confessions: Risk Factors and Recommendations – Law and Human Behaviour

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Por qué a veces confesamos cosas que, en realidad, nunca hicimos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Por qué si nunca hemos vivido mejor que ahora el mundo nos parece cada vez peor?
  2. Realidad conexa, porque todo está conectado.
  3. Nunca es tarde
Catégories: Zientzia

Los dioses moralizantes no crearon los grandes estados

dim, 2019/07/07 - 11:59

Los grandes dioses, propios de religiones moralizantes, aparecieron mucho después de que se desarrollasen entidades políticas de gran complejidad social. Esta es la principal conclusión de un estudio publicado hace unos meses en la revista Nature por un amplio equipo de investigadores. Sus resultados refutan la conocida tesis de que fue la adopción de divinidades moralizantes lo que facilitó el desarrollo de grandes entidades políticas. La tesis rechazada sostenía que los códigos morales de inspiración religiosa habían servido para promover la convivencia y cooperación dentro de sociedades heterogéneas y que sin ellos, esas sociedades habrían sido inviables.

El Juicio de Osiris representado en el Papiro de Hunefer (ca. 1275 a. C.). Anubis, con cabeza de chacal, compara el peso del corazón del escriba Hunefer con el de la pluma de la verdad en la balanza de Ma’at. Tot, con cabeza de ibis, escriba de los dioses, anota el resultado. Si el corazón es más ligero que la pluma, a Hunefer se le permitirá pasar a la otra vida. Si no es así, será devorado por la quimera Ammyt, compuesta por partes de cocodrilo, león e hipopótamo, que espera expectante. Fuente British Musem / Wikimedia Commons

La primera aparición de deidades moralizantes se produjo en Egipto, alrededor de 2.800 aC (II Dinastía), donde Ma’at era venerada como la diosa de la verdad, la justicia, la moralidad y el equilibrio. A esta siguieron apariciones esporádicas de cultos locales a lo largo y ancho de Eurasia (Mesopotamia, 2.200 aC; Anatolia, 1500 aC; China, 1000 aC), antes de que comenzase la expansión de importantes religiones durante el primer milenio aC con el Zoroastrismo y el Budismo, seguidos más tarde por el Cristianismo y el Islam. Aunque estos dos credos acabarían siendo adoptados por numerosas sociedades, ya existían en muchas de ellas dioses moralizantes como es el caso de los romanos desde 500 aC.

Utilizaron información sobre 414 unidades políticas independientes de 30 regiones geográficas, para un periodo que va del comienzo del Neolítico a la época industrial o colonial. Caracterizaron cada una de las sociedades mediante un índice de complejidad social (establecido a partir del registro arqueológico y escrito) y en virtud de la existencia (o no) de divinidades moralizantes (como el Dios de Abraham) o de sistemas equivalentes de creencias que inspiraron alguna forma de castigo, de origen sobrenatural, de las transgresiones morales (como el karma en el Budismo). Esta segunda posibilidad la basaron en la existencia de normas, basadas en la creencia en entes sobrenaturales, que promovían la reciprocidad, la justicia y la lealtad intragrupal.

Encontraron que la complejidad social antecedía a las divinidades moralizantes y que predecía su adopción. De hecho, la complejidad crecía mucho más rápido antes de la aparición de los dioses que después. Observaron también que la deidad moralizante era adoptada dentro del siglo siguiente a la superación de un cierto umbral de complejidad social (60% del máximo), que corresponde a lo que los autores denominan una megasociedad (aproximadamente un millón de habitantes). Y de entre las sociedades de las 10 regiones que no adoptaron dioses moralizantes solo el imperio Inca (61% de la complejidad máxima) superó el umbral de megasociedad.

La adopción de deidades moralizantes tampoco fue –como a veces se ha propuesto- consecuencia de la bonanza económica que trajeron una agricultura y ganadería cada vez más eficientes durante la llamada Era Axial (primer milenio aC), ya que en Egipto, Mesopotamia y Anatolia fueron adoptados antes de 1500 aC.

Los autores del estudio conceden mucha importancia a los rituales. Su celebración frecuente, así como la vigilancia institucionalizada de su cumplimiento, propia de religiones con varios niveles jerárquicos, antecedió a las grandes religiones unos 1.100 años en promedio. Creen que fueron esos rituales y su reforzamiento por las autoridades religiosas el elemento que permitió unificar numerosas poblaciones por primera vez en la Historia, al favorecer la aparición de identidades comunes en el interior de grandes estados. Los dioses moralizantes llegaron después y aunque no fuesen ellos la causa de la evolución de megasociedades, fueron una adaptación cultural clave para favorecer la cooperación en su seno, algo de especial importancia en sociedades multiétnicas.

Fuente: H. Whitehouse et al (2019): Complex societies precede moralizing gods throughout world history. Nature 568: 226-229.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

 

 

 

 

El artículo Los dioses moralizantes no crearon los grandes estados se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Cinco o seis grandes?
  2. Retrospectiva de un cuadro: El festín de los dioses
  3. ¿Por qué son tan grandes las ballenas?
Catégories: Zientzia

Metamateriales, invisibilidad y la capa de Harry Potter

sam, 2019/07/06 - 11:59

La invisibilidad, los metamateriales y la capa de Harry Potter tienen en común… exacto, las matemáticas. El Ikerbasque Research Fellow Pedro Caro, del BCAM, lo explica.



Quizás sea el número más famoso de la historia. Lo cierto es que el número Pi, representado por la letra griega π, es una de las constantes matemáticas más importantes que existen en el mundo, estudiada por el ser humano desde hace más de 4.000 años. La fascinación que ha suscitado durante siglos es tal que el popular número cuenta con su propio día en el calendario, así el mes de marzo se celebra el Día de Pi en todo el planeta.

Este evento internacional vino de la mano del físico estadounidense Larry Shaw, quien lanzó en 1988 la propuesta de celebrar esta efeméride. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática. (3-14 martxoaren 14 en euskara / 3-14 march, 14th en inglés) y además, la celebración coincide con la fecha del nacimiento de Albert Einstein. En 2009, el congreso de EEUU declaró oficialmente el 14 de marzo como el Día Nacional de Pi.

Actualmente, el Día de Pi es una celebración mundialmente conocida que sobrepasa el ámbito de las matemáticas. Este número irracional, que determina la relación entre la longitud de una circunferencia y su diámetro, concierne a múltiples disciplinas científicas como la física, la ingeniería y la geología, y tiene aplicaciones prácticas sorprendentes en nuestro día a día.

Este 2019 nos unimos de nuevo al festejo con el evento BCAMNAUKAS, que se desarrolló a lo largo del 13 de marzo en el Bizkaia Aretoa de UPV/EHU. BCAM-NAUKAS contó durante la mañana con talleres matemáticos para estudiantes de primaria y secundaria y durante la tarde con una serie de conferencias cortas dirigidas al público en general.

Este evento es una iniciativa del Basque Center for Applied Mathematics -BCAM, enmarcada en la celebración de su décimo aniversario, y de la Cátedra de Cultura Científica de la Universidad el País Vasco.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Metamateriales, invisibilidad y la capa de Harry Potter se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Palo seco
  2. E-pi-logo (después de esto, mi carrera ha muerto)
  3. Matemáticas modernas
Catégories: Zientzia

Pages