S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 1 heure 7 min

¿Quién se encuentra en el lado oculto del iceberg?

ven, 2019/02/08 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebrará dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Durante las próximas semanas en el Cuaderno de Cultura Científica y en Zientzia Kaiera se publicarán regularmente artículos que narren algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas. Comenzamos con la serie “Espectrometría de masas”, técnica analítica que supone el ejemplo perfecto del incesante avance de la Ciencia y la Tecnología.

El desarrollo de la actividad humana y el aumento de la contaminación van de la mano, ya que el ser humano ha contaminado el medioambiente desde sus inicios. El punto de inflexión en el nivel de contaminación lo marca la revolución industrial, pero los seres humanos como sociedad no le han dado importancia a este trascendental problema hasta alcanzar su bienestar social y económico. “El ser humano es parte de la naturaleza y la lucha contra ésta es una lucha contra sí mismo”. Así reflexionaba Rachel Carson entorno a este problema en 1962 en su libro “Primavera Silenciosa”, que se puede considerar la primera obra del ecologismo.

De la misma época (1960-1980) son las primeras legislaciones sobre la contaminación medioambiental y también durante el siglo XX se instalaron las primeras depuradoras para tratar las aguas residuales industriales y urbanas. Si bien las primeras normativas y legislaciones se centraron en el control de patógenos y metales, no fue hasta más tarde cuando el control de los compuestos orgánicos adquirió importancia. En un principio, se impuso el control prioritario de los contaminantes orgánicos persistentes o POPs (persistent organic pollutants) debido a su capacidad de acumularse y su toxicidad. En la convención de Estocolmo se recopiló un listado de 12 compuestos, entre los que se encontraban 9 pesticidas clorados, los bifenilos policlorados, las dioxinas y los furanos. Si bien el listado se ha ampliado a 28 compuestos en años sucesivos, existen aún otros en lista de espera. Además de la convención de Estocolmo, la europea Directiva Marco de Aguas o WFD (Water Framework Directive) y la Agencia para la Protección del Medioambiente estadounidense (Environmental Protection Agency, EPA) tienen sus propios listados de contaminantes prioritarios, que incluyen hasta 129 compuestos. Todos ellos conocidos, todos controlados, todos esperables. Pero, ¿son esos los únicos compuestos preocupantes o perjudiciales para el medioambiente? Los contaminantes conocidos y regulados son solo la punta del iceberg. Muchos de los contaminantes que llegan al medioambiente surgen de la actividad diaria del ser humano; sin embargo, es poco lo que conocemos sobre la presencia o efectos nocivos que pueden causar en el medioambiente los más de 70 millones de compuestos que podemos encontrar en bases de datos como Pubchem o Chemspider.

Por tanto, ¿merece la pena husmear en el lado oculto del iceberg? ¿Nos deben preocupar esos compuestos no legislados? Durante los últimos años, la curiosidad de la comunidad científica se ha dirigido a ese lado oculto del iceberg con el objetivo de detectar en el medioambiente compuestos farmacéuticos y de higiene personal, pesticidas no clorados y/o químicos industriales emergentes, entre otros. Así, en lugar de realizar el seguimiento exclusivo de los cientos de compuestos en la punta del iceberg, el reto es ahora monitorizar los miles de compuestos desconocidos que aún están en el lado oculto. ¡Y vaya reto el de las y los “submarinistas” que se dedican a desarrollar métodos analíticos para detectar esos compuestos!

Figura 1. Si bien hasta ahora hemos monitorizado los contaminantes prioritarios, éstos son solo la punta del iceberg. Fuente: Uwe Kils.

El reto de estos submarinistas lo hacemos nuestro en la química analítica, separando, identificando y cuantificando los compuestos desconocidos de la materia mediante el uso de técnicas instrumentales. De hecho, los retos analíticos y el avance de los métodos de análisis instrumentales van de la mano. Así, hasta hace no mucho, los métodos de análisis desarrollados en los laboratorios de química analítica eran métodos dirigidos; es decir, lejos de ser magos, hemos desarrollado métodos para analizar unos pocos compuestos conocidos. El reto anteriormente mencionado, sin embargo, plantea un nuevo paradigma que supone dar el salto del análisis dirigido al análisis no dirigido para poder abordar el análisis de miles de compuestos emergentes y desconocidos. En el análisis dirigido, debemos elegir previamente qué queremos analizar; en el análisis no dirigido, sin embargo, lo analizamos todo y, posteriormente decidimos qué es lo que nos interesa de toda esa información. De ese modo, el análisis no dirigido, es una herramienta que permite identificar compuestos desconocidos sin tener un conocimiento previo de la composición de la muestra. Como la cantidad de información que se logra en el análisis no dirigido es gigantesca, su tratamiento de datos puede llevar meses. Más aún, en un futuro se puede regresar a esa información y buscar nuevos compuestos interesantes. Entre las herramientas más importantes para la identificación de contaminantes emergentes y desconocidos encontramos la espectrometría de masas de alta resolución o HRMS (high resolution mass spectrometry).

Figura 2 – El objetivo del análisis no dirigido es adquirir el máximo de información que luego se irá desgranando poco a poco en el tiempo. Fuente: Slane.co.nz.

La espectrometría de masas es una técnica analítica que nos ayuda a identificar la huella dactilar de los átomos y las moléculas. Para obtener esa huella dactilar, la espectrometría de masas mide las relaciones masa/carga (m/z) de los átomos/moléculas ionizados en fase gaseosa. De los espectros de masas se puede conocer la masa exacta de átomos y moléculas, determinar la presencia de isótopos y, en los casos en los que ocurra la fragmentación de las moléculas, disponer de la información estructural sobre ellas.

Los espectros de masas se consideran la huella dactilar de los compuestos y se pueden obtener en alta o baja resolución. Pero, ¿para qué necesitamos espectros de masas de alta resolución? Estos últimos, frente a los espectros de masas de baja resolución, miden la relación m/z con mayor exactitud y precisión, permitiendo la diferenciación de moléculas con masas muy próximas. Así, en el ejemplo de la Figura 3, encontramos los insecticidas thiamethoxam y parathion, cuya diferencia de masa es muy pequeña (0,01375 Da), mientras que su fórmula molecular y estructura química es totalmente distinta. Si bien mediante espectrometría de masas de baja resolución somos incapaces de distinguir ambos compuestos (ver Figura 3 arriba), sí lo somos mediante espectrometría de masas de alta resolución (ver Figura 3 abajo).

Figura 3. Espectros de masas de baja (arriba) y alta (abajo) resolución de los insecticidas thiamethoxam y parathion. Fuente: Las autoras.

Nuestro submarinista puede dedicar meses a identificar los compuestos en la zona oculta del iceberg. Es común acoplar la espectrometría de masas a técnicas cromatográficas para separar e identificar los compuestos en el lado oculto del iceberg. Para identificar esos compuestos hay que buscar y entender las huellas dactilares, paso a paso, como si de un puzle se tratara, buscando y uniendo de manera sistemática todas las piezas, hasta completar el puzle. Hasta identificar el compuesto. Veamos un ejemplo.

Supongamos que hemos realizado el análisis no dirigido del agua residual de una depuradora. La cromatografía líquida acoplada a la espectrometría de masas de alta resolución nos ha proporcionado 1000 picos cromatográficos, 1000 posibles compuestos de interés. Disponemos de su masa exacta y perfil isotópico (las masas y relaciones relativas de los isótopos correspondientes a una fórmula química dada). De entre esos 1000 compuestos uno de ellos corresponde a la masa exacta de 345,11443 Da. Con esa masa exacta y gracias al perfil isotópico podemos deducir que algunas de las fórmulas moleculares posibles son: C17H19N3O3S, C11H20N7O2PS, C19H16N5P y C15H24NO4PS. Si comparamos la masa exacta teórica de esas fórmulas moleculares y la masa exacta experimental, el error más pequeño (de -0,000028 Da) corresponde a la fórmula molecular de C17H19N3O3S. Pero, ¿qué es C17H19N3O3S? De acuerdo a las bases de datos que contienen millones de compuestos, existen 14 compuestos con esa fórmula molecular. Entre ellos, es posible que nuestro compuesto desconocido sea el antiácido omeprazol. Sigamos. Ahora nos fijaremos en la fragmentación (los fragmentos significativos de masa exacta obtenidos tras aplicar energía a los compuestos). La fragmentación del compuesto y la del omeprazol coinciden en un 97 %; por tanto, parece que nuestra sospecha es certera, pero, ¿cómo podemos asegurar que el compuesto desconocido corresponde al omeprazol? En una etapa final nuestro submarinista comparará el tiempo de retención (el tiempo que un compuesto de interés requiere para atravesar la columna cromatográfica utilizada para separar los compuestos presentes en una mezcla) obtenido para el compuesto desconocido con el correspondiente al reactivo puro de omeprazol y, ¡voilá!, como coinciden, sin saber que había omeprazol en la muestra, el submarinista ha podido identificarlo entre otros 1000 picos cromatográficos. Y, ¿ahora? Llevar a cabo el mismo proceso con los otros 999 picos cromatográficos aún sin identificar…Ooops, pobre submarinista, ¡aún le resta un largo viaje a nuestro amigo identificando todos los compuestos en el lado oscuro del iceberg!

En el viaje realizado hasta ahora, nuestro submarinista ha centrado su atención en millones de compuestos recopilados en bases de datos debido a su uso y/o toxicidad. Sin embargo, existen otros compuestos de interés que no están recogidos en las bases de datos, como pueden ser los productos de transformación, entre otros. Los productos de transformación pueden surgir de diversas fuentes, tanto de los tratamientos que se dan en las plantas depuradoras como de las reacciones químicas y biológicas que pueden ocurrir al llegar al medioambiente. El examen de los productos de transformación tiene también su importancia, ya que en algunos casos la toxicidad del producto de degradación es superior a la del contaminante de partida. Por ejemplo, según estudios realizados en animales, el filtro UV habitualmente utilizado en cremas solares benzofenona-3 (BP3) se degrada al compuesto desmetilado benzofenona-1 o dihidroxibenzofenona (DHB), cuya actividad estrogénica es mayor que la del producto de partida.

La identificación de los productos de transformación se puede realizar mediante espectrometría de masas. En estos casos, sin embargo, no podremos hacer uso de las bases de datos, ya que en la mayor parte de los casos son desconocidos. En este caso, para poder dirigir la identificación, debemos centrarnos en las transformaciones que puede sufrir un contaminante en concreto. Así, como hemos visto en el ejemplo anterior, de la masa exacta y del perfil isotópico podemos deducir la fórmula molecular. De todas las fórmulas posibles, las candidatas corresponderán a transformaciones (reacciones de fase I o II como oxidación, metilación, glucuronización…) posibles del contaminante estudiado. Una vez identificada la transformación ocurrida, deberemos identificar en qué posición de la molécula ha ocurrido esa transformación. Y, ¿dónde puede encontrar el submarinista esa información? Descifrar la huella dactilar del espectro de masas puede proporcionarle información relevante, concretamente el espectro de masas correspondiente a la fragmentación. Intentemos entenderlo con un ejemplo una vez más.

El filtro UV BP3 que hemos mencionado anteriormente tiene una masa exacta de 229,0859 Da, una fórmula molecular C14H12O3 y en su estructura dos anillos aromáticos (A y B), además de un grupo hidroxilo (-OH) y un grupo metoxi (CH3O-) en el anillo A (ver Figura 4). El espectro de masas correspondiente a la fragmentación de BP3 se puede observar en la Figura 4. Pero, ¿qué le puede ocurrir al BP3 en agua de mar y en presencia de peces, como por ejemplo doradas? La respuesta no es simple ya que, además de acumularse en los distintos tejidos y fluidos biológicos de la dorada, se puede transformar debido a distintas reacciones. Por ejemplo, la masa exacta de uno de los subproductos observados corresponde a 215,0703 Da y, según el perfil isotópico, corresponde a una fórmula molecular de C13H10O3. Si tenemos en cuenta la fórmula molecular de BP3 (C14H12O3 ) original y la del subproducto (C13H10O3) podemos deducir la pérdida de un metilo (–CH3). El lugar más probable para perder ese grupo metilo es el grupo metoxi anteriormente mencionado y, por tanto, el subproducto propuesto (ver Figura 4) corresponde, concretamente, a la dihidroxibenzofenona o DHB anteriormente mencionada.

Figura 4. Espectros de fragmentación del filtro UV (BP3) y del subproducto dihidroxibenzofenona (DHB). Fuente: Las autoras.

Y repitiendo este procedimiento, se pueden determinar hasta 18 subproductos diferentes de BP3 en distintos tejidos de dorada y en el agua de mar que es su hábitat (ver Figura 5). De todos ellos caben destacar la dihidroxibenzofenona (DHB) y la dihidroximetoxibenzofenona (DHMB) que dada la estrogenicidad y androgenicidad que presentan pueden ser incluso más tóxicas que BP3. Por tanto, es imprescindible identificar los subproductos nuevos para poder posteriormente estudiar su toxicidad y evaluar el riesgo medioambiental que suponen.

Figura 5 . Secuencia de transformación del filtro UV Benzofenona-3 en presencia de doradas. Fuente: Las autoras.

Tal y como hemos visto, con la espectrometría de masas como compañera de viaje, el submarinista tiene la oportunidad de obtener una foto más completa de lo que se ve y de lo que está oculto. El avance de la química, y de la ciencia en general, nos permite sumergirnos en retos mayores para obtener una foto más definida de lo que nos rodea, pasando de la identificación de cientos o miles de compuestos a la de millones.

Para saber más:

Kepner, W. 2016. EPA and a Brief History of Environmental Law in the United States. International Visitor Leadership Program (IVLP), Las Vegas, NV.

Kim S, Choi K. 2014. Occurrences, toxicities, and ecological risks of benzophenone-3, a common component of organic sunscreen products: A mini-review. Environ. Int. 70:143–157.

Ziarrusta H, Mijangos L, Montes R, Rodil R, Anakabe E, Izagirre U, Prieto A, Etxebarria N, Olivares M, Zuloaga O. 2018. Study of bioconcentration of oxybenzone in gilt-head bream and characterization of its by-products. Chemosphere. 208:399-407.

Milman B.L, Zhurkovich I.K. 2017. The chemical space for non-target analysis. Tr. Anal. Chem. 97: 179-187.

Milman B. 2015. General principles of identification by mass spectrometry. Tr. Anal Chem. 69: 24-33.

Sobre las autoras: Haizea Ziarrusta, Maitane Olivares y Olatz Zuloaga. Departamento de Química Analítica Facultad de Ciencia y Tecnología de la UPV/EHU y Estación Marina de Plentzia (UPV/EHU).

El artículo ¿Quién se encuentra en el lado oculto del iceberg? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. A new hero is born: La espectrometría de masas al servicio de la justicia
  2. Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
  3. El lado oscuro del bosón de Higgs
Catégories: Zientzia

Los cosméticos no se testan en animales

jeu, 2019/02/07 - 11:59

Hace diez años se prohibió la experimentación animal para testar cosméticos. A pesar de ello, sigue habiendo dudas constantes sobre el tema. Ni se testan en China para luego venderlos en Europa, ni se importan cosméticos fruto del testado animal. En este artículo aclaramos estas y otras dudas frecuentes.

  • ¿Cómo se regula el testado de los cosméticos?

Todo lo que atañe a la formulación, fabricación, ensayo y distribución de productos cosméticos está recogido en el REGLAMENTO (CE) No 1223/2009 DEL PARLAMENTO EUROPEO Y DEL CONSEJO de 30 de noviembre de 2009 sobre los productos cosméticos. El capítulo V está dedicado a la experimentación animal.

El reglamento prohíbe «la introducción en el mercado de productos cosméticos cuya formulación final haya sido objeto de ensayos en animales (…) y la introducción en el mercado de productos cosméticos que contengan ingredientes o combinaciones de ingredientes que hayan sido objeto de ensayos en animales». También prohíbe «la realización de ensayos en animales de productos cosméticos acabados y (…) la realización de ensayos en animales con ingredientes o combinaciones de ingredientes». Dichos ensayos fueron sustituidos por otros métodos alternativos propuestos en el reglamento que no involucran a animales. El periodo de aplicación fue limitado al 11 de marzo de 2009. Para los ensayos toxicológicos por exposición repetida, debido a su mayor complejidad, el período de aplicación tuvo como fecha límite el 11 de marzo de 2013.

Desde ese momento está totalmente prohibido testar en animales ni ingredientes ni productos acabados. También está prohibido comercializar productos cuya fórmula o cuyos ingredientes hayan sido fruto de la experimentación animal. Tanto es así que el fabricante ha de cubrir un documento que garantiza que su producto no ha sido fruto de la experimentación animal.

Desde entonces, para que un producto cosmético pueda salir al mercado, ha de pasar una evaluación de seguridad ingrediente por ingrediente y del producto terminado. Para evaluar la seguridad de cada uno de los ingredientes existen diferentes bases de datos que ofrecen las medidas toxicológicas, las opiniones de los paneles de expertos (como el SCCS), las restricciones y las incompatibilidades. Para los ingredientes cosméticos tradicionales y de uso habitual se suele recurrir tanto al CosIng como a la ECHA. En productos más complejos, de origen natural o de menor usabilidad hay que recurrir a la bibliografía u otras bases de datos como la del CIR.

En los anexos del reglamento aparece la lista de ingredientes permitidos en cosmética, así como sus usos, su concentración permitida, restricciones y posibles incompatibilidades.

  • Fuera de la Unión Europea, ¿se testa en animales?

Estados Unidos y Europa no permiten la comercialización de cosméticos que se hayan ensayado en animales. Latinoamérica aplica el Reglamento Europeo, por lo que tampoco. En los países asiáticos este tema no está consensuado y depende de cada país. Por ejemplo en China los ensayos con animales son obligatorios en algunos casos. No es necesario testar todos los cosméticos ni todos los ingredientes, pero sí es obligatorio en el caso de nuevos principios activos.

  • ¿Se puede testar en China para luego vender en la Unión Europea?

No se puede. Además de estar prohibido, es absurdo. No se pueden utilizar los datos de los ensayos en animales para verificar la seguridad de un producto. Esto es así porque para vender en la Unión Europea (o en los países que se ajustan al mismo reglamento) está prohibido comercializar productos e ingredientes fruto de la experimentación animal.

Así que para un fabricante de cosméticos sería contraproducente ir a China a hacer ensayos en animales, primero porque no podría usar los resultados de esos análisis, y segundo porque los ingredientes que solo se hayan ensayado en China no podrán venderse en Europa.

  • ¿Se pueden importar cosméticos chinos?

Se pueden importar cosméticos chinos siempre y cuando se adapten al reglamento europeo. Ni sus ingredientes ni el producto terminado ha podido ser fruto de la experimentación animal. Por lo tanto, fabricar en China únicamente significa que se fabrica en suelo chino. Esto ha de hacerse con los métodos e ingredientes que se permiten en el reglamento europeo, por lo que tienen que cumplir los mismos requisitos que los cosméticos fabricados en cualquier otro país que se quieran vender en Europa.

  • Si un laboratorio europeo quiere comercializar sus cosméticos en China, ¿tienen que testarlos con animales allí?

No, al menos no siempre. Se estudia caso a caso. Son las autoridades de China quienes deciden qué cosméticos requieren el ensayo en animales para poder ser vendidos en su país. El laboratorio es quien decide si quiere venderlos a pesar del ensayo en animales que le exijan o no. Por lo tanto, que un laboratorio cosmético venda productos en el mercado chino, no implica que estos hayan tenido que pasar por un ensayo en animales.

  • ¿Cómo se testan los cosméticos?

El SCCS (Scientific Committee on Consumer Safety), la CEVMA (European Centre for the Validation of Alternative Methods) y otras asociaciones trabajan conjuntamente para generar guías como esta y bases de datos actualizadas sobre la situación de métodos y modelos disponibles, que permiten ensayar sustancias individualmente y productos acabados: pieles sintéticas, cultivos de células humanas, sistemas bacterianos, membranas que son similares a la conjuntiva del ojo, etc. Y obviamente ensayos clínicos en personas.

Estos métodos permiten verificar tanto la seguridad como la eficacia de los cosméticos. Para que un producto pueda comercializarse es obligatorio demostrar que su uso es completamente seguro. También ha de acreditar con estudios de eficacia que su producto sirve para lo que dice que sirve. Por ejemplo, una crema hidratante ha de tener una formulación que se corresponda con la de un producto hidratante. También deben demostrarse todos los reclamos que se le adjudiquen al producto. Esto se hace principalmente por medio de ensayos clínicos, es decir, con personas que testan el producto. También para esto existen diferentes métodos.

  • Los sellos que certifican que el producto no ha sido testado en animales son una farsa

Ninguno de los certificados del tipo not tested on animals o cruelty free son oficiales. Es decir, no sirven para acreditar nada diferente a lo que ya de por sí tiene que acreditar cualquier producto para salir al mercado europeo. Todos los cosméticos son por definición cruelty free. Solo que algunos fabricantes deciden pagar para usar alguno de estos sellos a las empresas que los han inventado, principalmente porque estiman que estos sellos mejoran su imagen de marca.

Cualquier cosmético vendido en Europa podría tener el sello cruelty free si así lo desease, sin demostrar absolutamente nada. Por eso es una farsa.

Este tipo de sellos han hecho mucho daño al sector de la cosmética. Principalmente porque muchos consumidores asumen que los productos que llevan este sello son los únicos que no experimentan en animales y que por tanto el resto sí lo hacen, de una manera u otra. Es una deducción lógica, aunque incorrecta. Por esa razón el uso de este tipo de sellos debería prohibirse, principalmente porque confunde al consumidor y pone en duda el cumplimiento del reglamento por parte de la competencia.

Algunas de las compañías que venden este tipo de sellos (las cuales no voy a enlazar en este artículo) facilitan una lista de laboratorios cosméticos y marcas a las que acusan de hacer experimentación animal. Es decir, difaman.

Estos sellos se aprovechan de los consumidores que pretenden ser más responsables, que escogen productos cruelty free por cuestiones éticas muy legítimas y que invierten su tiempo en investigar qué productos se adaptan a su sistema de valores. Estos sellos les hacen sentir que su compra es juiciosa y que responde a un bien mayor. Cuando lo que ocurre en realidad es que estos sellos están convirtiendo a estos compradores en cómplices de la treta.

  • Reflexiones finales

Desde 2009 está totalmente prohibido testar cosméticos en animales. Diez años después de la publicación del reglamento sigue habiendo dudas sobre esto. Esto quiere decir que no se ha divulgado como es debido, o al menos no con el impacto necesario. Algunos lo han aprovechado para hacer negocio con la desinformación, como los sellos tipo cruelty free. Otros lo han aprovechado para atacar al sector cosmético o a laboratorios concretos, cada cual según su animadversión particular.

A pesar de los esfuerzos por compartir información veraz, siguen existiendo dudas y mitos acerca de este tema. La desconfianza está inundando sectores enteros. El negocio no ha sido el engaño en sí. El verdadero negocio de algunos está siendo el hacernos creer que estamos siendo engañados.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Los cosméticos no se testan en animales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Adiós a las microesferas de plástico en los cosméticos
  2. Estimada OCU: recuerda que NO se pueden utilizar las cremas solares del año pasado
  3. La función respiratoria depende del tamaño de los animales
Catégories: Zientzia

El teorema de Pitágoras en el arte

mer, 2019/02/06 - 11:59

No es la primera vez que hablamos del famoso Teorema de Pitágoras en el Cuaderno de Cultura Científica y seguramente no será la última. Esto se debe a que este teorema es, sin lugar a dudas, el resultado matemático más conocido por todo el mundo. Además, se ha convertido en un símbolo de las propias matemáticas. El enorme interés que ha despertado este teorema geométrico en la sociedad ha sido tal que ha trascendido el ámbito de la investigación científica y la enseñanza de las matemáticas, para convertirse en fuente de inspiración en las artes, desde las artes plásticas hasta las artes escénicas, pasando por la literatura, la música o el cine.

Entre las entradas que hemos dedicado al teorema de Pitágoras en el Cuaderno de Cultura Científica, estaban Pitágoras sin palabras, Sin Noticias de Pitágoras (Pitágoras en la Literatura), en la cual presentamos algunas novelas con referencias al Teorema de Pitágoras, y más aún, un primer acercamiento a la pintura y la escultura que se han inspirado en este resultado matemático dentro del arte contemporáneo,Cultura pitagórica: arte.

Empecemos, como de costumbre, recordando el enunciado de este famoso teorema, que hemos aprendido en la escuela y que resuena en nuestra cabeza como si fuera el estribillo de una canción: “dado un triángulo rectángulo, entonces el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos”. De hecho, existen algunas canciones que hablan del mismo, como la canción Pitágoras del grupo Seguridad Social (que podéis escuchar aquí), que es una versión del tema de 1961 del grupo de rock español Los Milos.

Ese familiar estribillo del Teorema de Pitágoras “el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos” también lo hemos aprendido a través de su expresión algebraica, es decir, dado un triángulo rectángulo con catetos a y b, e hipotenusa c, entonces a2 + b2 = c2.

El teorema de Pitágoras, “el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos”

La entrada Cultura pitagórica: arte se iniciaba con una serie de obras del artista conceptual estadounidense Mel Bochner (nacido en Pittsburgh, Pensilvania, en 1940). Una parte importante de la obra de este artista está relacionada con los números y las matemáticas. Entre sus obras destacan algunas que reflexionan sobre el Teorema de Pitágoras, como puede verse en esa entrada. En particular, en ella mencionábamos una serie de obras titulada Meditación sobre el Teorema de Pitágoras, en la cual empezó a trabajar a principios de los años 1970 y sobre la que ha continuado trabajando hasta la actualidad.

En esta serie de obras aborda la representación gráfica de la terna pitagórica (3, 4, 5), que satisface la ecuación 32 + 42 = 52 (9 + 16 = 25), y su conexión con el asociado triángulo rectángulo, pero dando mayor importancia a los valores numéricos de la terna pitagórica, 3, 4 y 5, y el valor de sus cuadrados, que representa en sus esculturas con diferentes objetos, desde avellanas, guijarros o cristales, hasta fichas del juego Go.

Versión de libro de artista de la obra Meditación sobre el Teorema de Pitágoras (1993), en la Galería de arte 360º, Tokio (Japón), realizada con fichas del juego Go, 8 copias con fichas blancas, salvo las tres negras de los vértices del triángulo (imagen de abajo), y 4 copias con fichas negras, salvo los vértices (imagen de arriba). Tamaño 60 x 55 x 19 cm. Imágenes de la página web de la Gallery 360º

El diagrama del triángulo de Pitágoras (véase la primera imagen de arriba) con los tres cuadrados adyacentes cuyas áreas simbolizan los cuadrados de los lados correspondientes del triángulo rectángulo y, por lo tanto, el área del cuadrado adyacente a la hipotenusa (c2) es igual a la suma de las áreas de los cuadrados adyacentes a los catetos (a2 + b2), es un diagrama que nos encontramos en muchas obras. Un ejemplo es la obra Pythagoras (1989) del compositor y artista coreano-americano Nam June Paik (Seúl, Corea del Sur, 1932 – Miami, EE.UU., 2006), uno de los creadores del videoarte.

La obra está formada por 16 televisores, que representan el triángulo rectángulo, con 1, 3, 5 y 7 televisores por fila, 5 tubos de neón azul, para el cuadrado de la hipotenusa, 3 tubos de neón rojo, para el cuadrado del cateto lateral, y 5 tubos de neón verde, para el cuadrado del cateto de la base. Además, las imágenes que se emitían en las televisiones procedían de tres lectores de dvd.

Instalación Pythagoras (1989), del artista Nam June Paik. La obra pertenece a la colección sobre Fluxus de Dino di Maggio, cedida a la Fondation du doute, a cuya página web pertenece la anterior imagen

El artista plástico y matemático francés Pierre Gallais realizó dos instalaciones relacionadas con este diagrama del Teorema de Pitágoras en el año 1990, en el Centro de Arte Contemporáneo de Fleurs (Francia), Pythagore e Intersections.

Pythagore (1990), del artista y matemático francés Pierre Gallais, en el Centro de Arte Comtemporáneo de Fleurs (Francia). Imagen de ARTactif, Digital Art GalleryIntersections (1990), del artista y matemático francés Pierre Gallais, en el Centro de Arte Comtemporáneo de Fleurs (Francia). Imagen de ARTactif, Digital Art Gallery

Otro de los grandes artistas del siglo XX, el multifacético suizo Max Bill (Winterthur, Suiza, 1908 – Berlín, Alemania, 1994), artista, arquitecto, diseñador gráfico, diseñador industrial y tipógrafo, que estudió en la Bauhaus y fue uno de los máximos exponentes del arte concreto, también se interesó por el Teorema de Pitágoras. Este artista, que muchas personas del ámbito de las matemáticas relacionan con la banda de Moebius, por las hermosas esculturas que realizó con esta superficie, desarrolló una abstracción geométrica en la que las formas básicas, como el triángulo, tomaron un papel protagonista.

Poster de la exposición sobre la obra de Max Bill, pintura y escultura, que organizó el Museo de Arte Contemporáneo de Madrid, en febrero de 1980, junto a la Fundación Joan Miró de Barcelona, cuya exposición tendría lugar en marzo y abril de 1980. Imagen de la página web El marco verde

En este poster de la exposición organizada por el Museo de Arte Contemporáneo de Madrid (febrero de 1980), junto a la Fundación Joan Miró (marzo y abril de 1980), podemos observar una obra de Max Bill con el esquema del Teorema de Pitágoras para la terna pitagórica (3, 4, 5). El cuadrado superior es un cuadrado 5 x 5, correspondiente a la hipotenusa, mientras que los cuadrados de abajo son cuadrados 3 x 3 y 4 x 4, correspondientes a los catetos. La terna pitagórica (3, 4, 5) es la más sencilla de todas, por lo que es la más conocida y la que se suele utilizar de forma explícita en el arte.

Sobre el mismo tema Max Bill realiza también la obra Konstruktion um das thema 3-4-5 (1980), “Construcción sobre el tema 3-4-5”, en la cual nos encontramos de nuevo el triángulo rectángulo de la terna pitagórica (3, 4, 5), así como los tres cuadrados de lados 3, 4 y 5, cuyos lados están formados también por cuadraditos de cuatro colores distintos, como en el poster anterior, cuyos colores se van distribuyendo sobre el perímetro de los cuadrados de forma cíclica, y el centro es blanco. El número de cuadraditos del perímetro de los tres cuadrados es 8, 12 y 16, todos divisibles por 4, por lo cual cada color aparece el mismo número de veces en cada uno de ellos, 2, 3 y 4, respectivamente.

Konstruktion um das thema 3-4-5 (1980), “Construcción sobre el tema 3-4-5”, de Max Bill. Imagen de WikiArt

De esa misma serie de obras de la década de 1980 sobre el teorema de Pitágoras es la obra Pythagoräisches dreieck in quadrat II, “Triángulo pitagórico en el cuadrado II”.

Pythagoräisches dreieck in quadrat II (1980), “Triángulo pitagórico en el cuadrado II”, de Max Will. Imagen de WikiArt

Además, tiene toda una serie de obras sobre lo que denomina en los títulos de las mismas, triángulos pitagóricos, que suelen ser distintos triángulos rectángulos dispuestos de diferentes formas en un cuadrado, por ejemplo, Triángulos pitagóricos sobre un cuadrado rojo (1982).

Triángulos pitagóricos sobre un cuadrado rojo (1982), de Max Bill

Aunque ya trabajó con el teorema de Pitágoras y el esquema del triángulo rectángulos con los tres cuadrados cuatro décadas antes, hacia 1940. De esa época es la obra Konstruktion mit drei Quadratgrößen, Denkmal für Pythagoras (1939-1941), “Construcción con tres tamaños de cuadrados, homenaje a Pitágoras”.

Konstruktion mit drei Quadratgrößen, Denkmal für Pythagoras (1939-1941), “Construcción con tres tamaños de cuadrados, homenaje a Pitágoras”, de Max Bill

La unión de diferentes copias de este diagrama para generar una estructura mucho mayor también ha sido utilizada en el arte por otros artistas. El artista holandés Herman van de Poll, que describe su trabajo como basado “en las formas matemáticas de la teoría del caos” y la “geometría fractal”, también ha utilizado este diagrama en sus obras para generar estructuras fractales. Como la serie Puzzle boom van Pythagoras, algo así como “Árbol con el rompecabezas de Pitágoras”.

Puzzle boom van Pythagoras n. 10, “Árbol con el rompecabezas de Pitágoras, n. 10”, del artista Herman van de Poll. Imagen de la página de art olive

O también la serie Fractalgeneratie, algo así como “Generación fractal”.

Fractalgeneratie n. 31, “Generación fractal n. 31”, del artista Herman van de Poll. Imagen de la página de art olive

Esta misma idea de generar un fractal ha sido utilizada por otros artistas, como el austriaco Hartmut Skerbisch (Ramsau am Dachstein, Austria, 1942 – Schloss Kalsdorf, Austria, 2009), que genera un árbol fractal de Pitágoras tridimensional, es decir, formado por cubos en lugar de triángulos.

Fractal árbol de Pitágoras, del artista Hartmut Skerbisch, en el jardín de la iniciativa cultural kunstgarten, en Graz, Austria. Imagen de la página de kunstgarten

Crockett Johnson (Nueva York, 1906 – 1975) era el seudónimo del ilustrador de libros infantiles y humorista gráfico David Johnson Leisk, quien dedicó los diez últimos años de su vida a pintar cuadros relacionados con las matemáticas y la física matemática. Ochenta de estos cuadros pertenecen a la colección de The National Museum of American History (El Museo Nacional de Historia Americana), de la Institución Smithsonian.

Entre las obras matemáticas de Crockett Johnson podemos disfrutar de, al menos, dos de ellas relacionadas con el Teorema de Pitágoras. La primera es la obra Squares of a 3-4-5 Triangle in Scalene Perspective (Dürer), “Cuadrados de un triángulo 3-4-5 en perspectiva escalena (Durero)”, de 1965. Esta pintura es una versión con perspectiva del esquema del teorema de Pitágoras para el triángulo rectángulo (3, 4, 5). Los tres cuadrados asociados a los lados del triángulo (3, 4, 5) están pintados con un diseño ajedrezado, el primero con 9 cuadraditos, el siguiente con 16 y el tercero con 25, como se observa en la imagen del cuadro que mostramos más abajo. Además, los cuadrados no están colocados en el mismo plano que el triángulo rectángulo, sino perpendiculares al mismo, de forma que están en la dirección de la persona que observa el cuadro, y están pintados en perspectiva.

Ilustración de la construcción de un suelo ajedrezado perteneciente al libro The Life and Art of Albrecht Dürer (1955), de Erwin Panofsky. Imagen de la página web de The National Museum of American HistoryPintura Squares of a 3-4-5 Triangle in Scalene Perspective (Dürer), “Cuadrados de un triángulo 3-4-5 en perspectiva escalena (Durero)”, de 1965, de Crockett Johnson. Imagen de la página web de The National Museum of American History

La otra obra es Proof of the Pythagorean Theorem (Euclid), “Demostración del Teorema de Pitágoras (Euclides)”, de 1965, y que fue la segunda obra que pintó de esta serie matemática. Como se menciona en el título de esta pintura se utiliza el diagrama de la demostración del Teorema de Pitágoras que aparece en Los Elementos de Euclides (aprox. 325-265 a.n.e.). Como se menciona en la entrada Pitágoras sin palabras, “los árabes llamaban al esquema de la demostración del Teorema de Pitágoras dado por Euclides, la silla de la novia, ya que al parecer se parece a la silla que en algunos países orientales llevaba un esclavo a la espalda para transportar a la novia a la ceremonia. También ha sido llamada calesa de la mujer recién casada, capucha de franciscano, cola de pavo real y figura del molino de viento. El filósofo Schopenhauer llamaba a la demostración de Euclides una prueba paseando en zancos y también prueba de la ratonera”.

Ilustración con el esquema de la demostración de Euclides del Teorema de Pitágoras de la revista Mathematical Gazette (n. 11, 1922-23), en el contexto de la primera guerra mundial

Crockett Johnson pintó el esquema de la demostración de Euclides que había visto en el artículo Greek Mathematics, “La matemática griega”, de Ivor Thomas, perteneciente a la publicación The World of Mathematics (1956), editado por James R. Newman. Este esquema es el mismo que el de la ilustración anterior.

Proof of the Pythagorean Theorem (Euclid), “Demostración del Teorema de Pitágoras (Euclides)”, de 1965, de Crockett Johnson. Imagen de la página web de The National Museum of American History

Las propias demostraciones del Teorema de Pitágoras también han tenido mucho interés para las personas que se han interesado por el resultado geométrico y algunas de ellas poseen una gran fuerza estética.

La siguiente obra del conservador, historiador del arte y artista Kesler Woodward (AIken, Carolina del Sur, EE UU, 1951), cuya obra está compuesta principalmente por paisajes, se basa en la conocida demostración del matemático indio Bhaskara (siglo XII).

Esquema de la demostración sin palabras basada en la demostración del matemático indio Bhaskara (siglo XII) del Teorema de Pitágoras. Imagen del blog de Jan Marthedal

Teniendo en mente esta demostración Kesler Woodward pinta la obra Bhaskara’s Birchbark, “El abedul de Bhaskara” (2018).

Bhaskara’s Birchbark, “El abedul de Bhaskara” (2018), de Kesler Woodward

Pero no es la primera vez que nos encontramos la demostración de Bhaskara en una obra de arte. El propio artista Max Bill la utiliza en varias de sus obras, como por ejemplo, la pintura 12 vierergruppen in weissem feld, “12 grupos de cuatro en un campo blanco” (1982).

12 vierergruppen in weissem feld, “12 grupos de cuatro en un campo blanco” (1982), del artista Max Bill

O la obra Rotation um sich ausdehnendes weiss “Rotación alrededor de un blanco expansivo” (1978-1981), que está por cuatro copias de la estructura de la demostración de Bhaskara.

Rotation um sich ausdehnendes weiss, “Rotación alrededor de un blanco expansivo” (1978-1981), de Max Bill

Esta obra está compuesta por cuatro copias de la estructura de la demostración de Bhaskara, en las cuales el cuadrado central es cada vez más grande, en el sentido de las agujas del reloj, izquierda-arriba-derecha-abajo, como se puede observar mejor en la siguiente imagen en la que hemos separado las cuatro estructuras. Además, esos cuadrados centrales no están blancos, sino que a su vez contienen cuatro copias de una de las demostraciones clásicas, que es una adaptación de la que aparece en el texto clásico de la matemática china Zhoubi Suanjing (aprox. 200 a.c.) del teorema de Pitágoras.

Esquema de la demostración sin palabras basada en la demostración del texto clásico de la matemática china Zhoubi Suanjing (aprox. 200 a.c.) del Teorema de Pitágoras. Imagen del blog de Jan Marthedal

En la siguiente imagen hemos trazado unas líneas en negro para distinguir las cuatro demostraciones de tipo Bhaskara y las cuatro de tipo Zhoubi Suanjing, en la obra de Max Bill.

Pero las demostraciones que utiliza el máximo exponente del arte concreto, Max Bill, en su trabajo no terminan ahí. En la serigrafía Vier sich durchdringende farben, “Cuatro colores que se interconectan”, de 1967, utiliza de nuevo dos demostraciones distintas del teorema de Pitágoras. El esquema de la parte interior, el cuadrado inclinado partido en cuatro trozos, se corresponde con la demostración visual atribuida al matemático recreativo estadounidense Henry E. Dudeney (1857-1930) del teorema de Pitágonas, mientras que en la parte exterior está la demostración visual que ya hemos visto basada en el Zhoubi Suanjing.

Vier sich durchdringende farben, “Cuatro colores que se interconectan”, de 1967, de Max Bill

A continuación, mostramos el esquema de la demostración visual de H. E. Dudeney del Teorema de Pitágoras, del año 1917. Aunque como se apunta en el libro Dissections: plane and fancy la demostración fue publicada con anterioridad, en 1873, por el inglés Henry Perigal (1801-1898).

Esquema de la demostración visual de H. E. Dudeney y H. Perigal del Teorema de Pitágoras. Imagen de Blue Math Software

Vamos a finalizar esta entrada con un poema visual sobre el Teorema de Pitágoras, del ingeniero químico retirado estadounidense Li C. Tien, titulado Right Triangle.

Poema visual Right Triangle, de Li C. Tien. Imagen del blog Poetry with Mathematics

Bibliografía

1.- Página web del artista conceptual estadounidense Mel Bochner

2.- Institut de Mathologie Pierre Gallais

3.- Página web del artista Herman van de Poll

4.- Página web de The National Museum of American History

5.- James R. Newman (editor), The World of Mathematics, editorial Simon and Schuster, 1956.

6.- Roger B. Nelsen, Demostraciones sin palabras (ejercicios de pensamiento visual), Proyecto Sur, 2001.

7.- Manuel Fontán del Junco, María Toledo (editores), catálogo de la exposición Max Bill, Fundación Juan March, Madrid(octubre 2015 – enero 2016), Fundación Juan March y Editorial de Arte y Ciencia, 2015.

8.- JoAnne Growney, Poetry with Mathematics

9.- Greg N. Frederickson, Dissections: plane and fancy, Cambridge Universuty Press, 1997.

10.- Catálogo de la exposición Max Bill, obras de arte multiplicadas como originales (1938-1994), Museu Fundación Juan March, Palma (febrero-mayo 2015) y Museo de Arte Abstracto Español, Cuenca (junio-septiembre, 2015). Fundación Juan March y Editorial de Arte y Ciencia, Madrid, 2015.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El teorema de Pitágoras en el arte se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El teorema de la ikurriña
  2. Pitágoras sin palabras
  3. Cultura pitagórica: arte
Catégories: Zientzia

Sonido (1)

mar, 2019/02/05 - 11:59
Imagen: Pixabay

Las ondas sonoras son perturbaciones mecánicas que se propagan a través de un medio, como el aire. Típicamente, las ondas de sonido son ondas longitudinales, que producen cambios de densidad y presión en el medio en el que se propagan. El medio puede ser un sólido, un líquido o un gas. Si las ondas sonoras llegan al oído hacen que el tímpano vibre, lo que produce una señal en el nervio acústico que es lo que produce la sensación de audición. La biología y la psicología de la audición, así como la física del sonido, son igualmente importantes para la ciencia de la acústica. Nosotros nos concentraremos en el sonido como un ejemplo de movimiento ondulatorio.

El sonido tiene todas las propiedades del movimiento de las ondas que hemos visto hasta ahora. Presenta reflexión, refracción, difracción y las mismas relaciones entre frecuencia, longitud de onda y velocidad e interferencia de propagación. Solo falta la propiedad de la polarización, porque las ondas de sonido son longitudinales, no transversales. Además, las ondas sonoras viajan más rápido en el aire frío que en el aire caliente debido a la mayor densidad del medio, el aire, cuando hace frío.

Diapasón montado en una caja de resonancia. Imagen: Wikimedia Commons

Las fuentes de vibración para ondas de sonido pueden ser tan simples como un diapasón o tan complejas como la laringe humana y sus cuerdas vocales. Los diapasones y algunos dispositivos electrónicos producen un “tono puro” constante. La mayor parte de la energía en un tono de este tipo se encuentra en un movimiento armónico simple a una sola frecuencia. La frecuencia se mide en hertz (Hz), donde 1 Hz es un ciclo (u oscilación) por segundo; 1 Hz = 1 / s (no hay una unidad para el “ciclo”).

El oído humano normal puede escuchar ondas de sonido con frecuencias entre aproximadamente 20 Hz y 15.000 Hz. Los perros pueden escuchar en un rango mucho más amplio (15 Hz – 50.000 Hz). Los murciélagos, marsopas y ballenas generan y responden a frecuencias de hasta 120.000 Hz.

La sonoridad (o “volumen”) del sonido es, como el tono, una variable psicológica. La sonoridad está fuertemente relacionada con la intensidad del sonido. La intensidad del sonido sí es una variable física. Se define en términos de la energía transportada por la onda y generalmente se mide en el número de vatios por centímetro cuadrado transmitidos a través de una superficie perpendicular a la dirección del movimiento de un frente de onda.

Tabla 1. Fuente: Modificado de Wikipedia

El oído humano puede percibir una amplia gama de intensidades de sonido. Comienza a un nivel de 10-16 W / cm2. Por debajo de este nivel de “umbral”, el oído normal no percibe el sonido. Es costumbre medir la sonoridad en decibelios (dB) que es 10 veces el logaritmo de la intensidad relativa. Así, si al umbral de audición le asignamos una intensidad relativa de 1, le corresponde en decibelios un valor de 0 (Tabla 1), ya que 100 = 1 y 10×0=0. Si un avión al despegar decimos que produce un sonido de 130 dB, eso quiere decir que la intensidad es de 1013.

Los niveles de intensidad de ruido de aproximadamente 1012 veces la intensidad del umbral se pueden sentir como una sensación incómoda en el oído humano normal. A partir de ahí la sensación cambia a dolor y puede dañar el oído si no está protegido. Dado que muchos conciertos de música pop y rock producen niveles de sonido constantes a esta intensidad (y por encima de ellos para los intérpretes), hay muchos casos de discapacidad auditiva entre las personas expuestas habitualmente a esos niveles.

Interior tapizado del Teatro arriaga de Bilbao. Fuente: Teatro Arriaga

La forma más sencilla de reducir el ruido es absorbiéndolo después de que se produzca, pero antes de que llegue a tus oídos. Como todo sonido, el ruido es la energía del movimiento hacia adelante y hacia atrás del medio a través del cual viaja el ruido. La maquinaria ruidosa se puede amortiguar encerrándola en recintos acolchados en los que la energía del ruido se transforma en energía térmica, que luego se disipa. En una habitación, una alfombra gruesa puede absorber el 90% del ruido que se genera en la habitación. 30 centímetros de nieve fresca y esponjosa es un absorbente casi perfecto de los ruidos al aire libre.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Sonido (1) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ecolocalización, la capacidad de ver a través del sonido
  2. Aplicaciones de la reflexión de ondas: el sonar
  3. Patrón de interferencia en ondas periódicas
Catégories: Zientzia

¿Puede China salvar a los elefantes africanos? Pronto lo descubriremos

lun, 2019/02/04 - 11:59
Fuente; Unplash

Los elefantes, enormes y majestuosos, llevan en sus colmillos uno de sus principales escollos para su propia supervivencia: el marfil, que unido a la avaricia y el desdén humano hacia el bienestar de otras especies ha provocado que durante décadas, cientos de elefantes fuesen asesinados cada año para proveer los mercados legales e ilegales de este material en todo el mundo.

China ha sido durante años el principal consumidor de marfil africano, en mercados tanto legales como ilegales. Pero algo está cambiando. En el año 2015, el presidente chino XiJinping firmó junto con el entonces presidente estadounidense Barack Obama un acuerdo por el que los dos se comprometían a implementar medidas que terminasen con el comercio no solo ilegal, sino también legal.

Esa firma se tradujo en el anuncio a finales de 2016 de que el país asiático cerraría el mercado legal de marfil, el mayor de todo el mundo. Tras años negando ser parte del problema de la progresiva desaparición de los elefantes africanos, China tomaba la iniciativa. La medida entraba en marcha el 31 de diciembre de 2017.

El cierre del mercado legal está teniendo también repercusión en el mercado ilegal, y cada vez más ciudadanos chinos aseguran no estar dispuestos a comprar marfil. Según una encuesta realizada en septiembre de 2018, el 72% de los encuestados aseguraba que no quiere comprar marfil ahora que está prohibido, en comparación con el 50% que decía lo mismo el año anterior, antes de que entrase en vigor la medida.

No solo hay menos gente dispuesta a comprarlo. También hay menos gente comprándolo. Según ese mismo sondeo, antes de la prohibición más de uno de cada cuatro encuestados había comprado algún producto con marfil en los seis meses anteriores a esas preguntas, mientras que en septiembre de 2018, solo un 12% lo había hecho.

A pesar de que esto parecen ser buenas noticias para los pobres elefantes, eso no está del todo claro todavía ya que hay predicciones contrapuestas sobre el efecto que puede tener la prohibición o legalización del comercio de marfil sobre el destino de los elefantes.

Fuente: Wikimedia Commons

En contra de la prohibición

Erico Di Minin es investigador en ciencia de la conservación en la Universidad de Helsinki y profesor de economía de la biodiversidad en el Instituto Durrell de Conservación y Ecología en la Universidad de Kent. En su opinión, la prohibición del comercio con marfil que introdujo la ONU en 1989, con el objeto de proteger a los elefantes, ha resultado ser una medida completamente contraproducente, ya que reducir la oferta en unas décadas de aumento de la riqueza en Asia solo ha servido para disparar los precios, aumentando de forma drástica los incentivos para que los traficantes se salten esa prohibición.

“Desde 2008, la caza ilegal de elefantes se ha reactivado a gran escala, impulsada por los altos precios del marfil en Asia”, aseguraba Di Minin en 2016.

En su opinión, en términos puramente económicos, limitar la oferta de marfil puede tener repercusiones negativas para la conservación de los elefantes. “Al reducir la oferta mientras la demanda se mantiene puede subir los precios y disparar la caza ilegal. Y si el mercado está controlado por criminales e inversores que no tienen ningún interés en la conservación y se mueven básicamente por los beneficios, podemos esperar que la caza ilegal aumente”.

Por otro lado aunque la demanda desde países como China se reduzca, es poco probable que llegue a desaparecer del todo en el breve periodo de tiempo que hace falta para tomar medidas con el objetivo de recuperar una especie.

Por eso, Di Minin defiende que un enfoque más práctico sería combinar las campañas de reducción de la demanda, como la que está poniendo en marcha China, con una oferta legal y muy regulada de marfil que evite que los precios suban y así se reduzcan los incentivos para las bandas de cazadores ilegales de elefantes.

Fuente: Wikimedia Commons

A favor de la prohibición

Otras posturas no coinciden con estos argumentos y se refieren a los ejemplos de la marihuana o la prostitución para señalar que a veces legalizar con bien o un servicio que antes era ilegal no conduce necesariamente a una reducción en su consumo, ni siquiera a su consumo ilegal.

Nitin Sekar, investigador en ciencia política de la Asociación Americana para el Avance de la Ciencia, y Solomon Hsiang, profesor asociado de políticas públicas de la Universidad de California Berkeley lo argumentan de la siguiente manera.

En el modelo económico estándar, la mejor manera de evitar la caza ilegal sería, efectivamente, establecer un mercado legal para el marfil recolectado de elefantes que hayan muerto de forma natural. Sin embargo, en un modelo económico dinámico, en el que la demanda y la oferta pueden cambiar como respuesta a cambios legislativos, la caza ilegal puede empeorar por la legalización del comercio de marfil.

Esto puede ocurrir de dos formas, explican Sekar y Hsiang. Por un lado, el mercado legal puede atraer a nuevos consumidores que vean publicidad de productos de marfil en los medios de comunicación o que vean a sus familiares, amigos o conocidos adquirirlos con normalidad. Eso podría hacer que hubiese más gente interesada en comprar marfil, y podría causar que el mercado legal no pueda satisfacer ese aumento de la demanda, impulsando la caz ilegal.

Por otro lado, si hay más marfil legal en el mercado se hace más difícil para las autoridades distinguir el legal del ilegal, reduciendo el riesgo para los traficantes y cazadores y facilitando la introducción de más marfil ilegal en el mercado.

Fuente: Unsplash

¿Quién tiene razón?

Ambas posturas reconocen que están basadas en ideas teóricas y que no es fácil determinar quién tiene razón en este debate, pero sí hay algunas evidencias de que legalizar el comercio de marfil no le haría un gran favor a los elefantes.

En el año 2008 la prohibición de comerciar con marfil fue temporalmente suspendida para sacar a la venta de forma legal 102 toneladas de marfil almacenado, en gran parte confiscado del tráfico ilegal, principalmente a compradores de China y Japón. El resultado fueron unos beneficios de 15 millones de dólares que fueron destinados a la conservación de los elefantes en África.

Pero un análisis global de los mercados de marfil alrededor de esa venta sugiere que tuvo un efecto llamada que provocó un aumento del 65% en la caza ilegal de elefantes a nivel global y que se mantuvo en el tiempo. De pronto aparecieron anuncios y promociones para animal a los inversores a invertir en marfil, y ese impulso no se limitó a los lotes vendidos legalmente.

Fuente: Sekar y Siang via The Guardian

Otro estudio publicado en 2016 daba otro motivo para mantener prohibido el comercio de marfil: los elefantes no generan sus colmillos ni se reproducen a la velocidad suficiente como para poder satisfacer la demanda de marfil. “La demanda de marfil es simplemente demasiado grande; sobrepasa lo que los elefantes pueden producir”, explicaba el biólogo David Lusseau, de la Universidad de Aberdeen, autor principal del estudio. Según el científico, intentar criar a los elefantes como si fuesen ganado para explotar legalmente sus colmillos sería empujarlos a la extinción.

Fuente: Wikimedia Commons

Marfil para sacar a África de la pobreza

Existe otro argumento en este debate, y es el de que la única forma de salvar a los elefantes es mejorar el nivel social y económico de los ciudadanos de los países africanos en los que viven esos animales, de forma que su conservación se convierta en una prioridad para ellos. Y que en ese proceso, el marfil sería un recurso a su alcance.

No deja de ser irónico, señalan algunas voces desde el continente, que los mismos países que durante siglos colonizaron, saquearon y fueron a la guerra precisamente por los recursos materiales de África, entre ellos el marfil, sean los que ahora imponen la prohibición de comerciar con ellos a sus actuales dueños. ¿Cómo podrán los países africanos negociar y competir en igualdad de condiciones con los países más desarrollados si se les niega utilizar los recursos de los que se han lucrado y todavía lo hacen) esos otros países?

Otras voces disienten, asegurando que el mercado de marfil, ni ahora cuando es ilegal ni cuando ha sido legal, ha supuesto una fuente de beneficios ni para los elefantes ni para los ciudadanos locales, ya que se ha mantenido en manos de inversores, grandes comerciantes y criminales. “No hay evidencias de que la venta de marfil proporcione ningún beneficio ni a las comunidades locales ni a la conservación de los elefantes”, asegura Andrew Seguya, director ejecutivo de la Autoridad Ugandesa para la Vida Salvaje.

Referencias:

Legalizing ivory trade won’t save elephants, study concludes – Science Magazine

Can We Sustainably Harvest Ivory? – Current Biology

Evidence Should be Used in Global Management of Endangered Species: reply to the CITES Technical Advisory Group – G-FEED

Debate: Would a legal ivory trade save elephants or speed up the massacre? – The Guardian

Should ivory trade be legalised? – Down to Earth

Closing China’s Ivory Market: Will It Save Elephants? – The New York Times

In China, Ivory Seems to Be Losing Appeal – National Geographic

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo ¿Puede China salvar a los elefantes africanos? Pronto lo descubriremos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Contra el furtivismo, genética molecular
  2. Colonialismo científico: los investigadores africanos se rebelan contra el expolio de datos genéticos
  3. Lo que la ciencia puede enseñarnos a los dueños de perros y gatos
Catégories: Zientzia

El desajuste adolescente

dim, 2019/02/03 - 11:59
Corteza prefrontal del hemisferio izquierdo.

La zona más exterior del cerebro humano, la corteza, ocupa dos terceras partes del volumen del encéfalo. Tiene del orden de dieciséis mil millones de neuronas. Que sepamos, ningún otro animal tiene un número equivalente. En la corteza se produce la percepción, se hacen los juicios morales, se toman las decisiones, se genera el pensamiento, se articula el lenguaje y se elaboran los actos conscientes, entre otras diversas tareas consideradas de orden superior.

El cerebelo, por su parte, sin ser muy grande, es la parte del encéfalo más densamente poblada: aunque de tamaño relativamente pequeño, contiene sesenta y nueve mil millones de neuronas. De su concurso depende nuestra capacidad para ejecutar con precisión los movimientos que hemos ido aprendiendo y convirtiendo en automáticos a lo largo de nuestra vida, sin que debamos ser conscientes de todos y cada uno de ellos.

En el resto del encéfalo –en las estructuras ubicadas bajo la corteza- tan solo hay unas setecientas mil neuronas, aunque las tareas en que están implicadas son fundamentales para que el organismo funcione correctamente. Esas estructuras, llamadas subcorticales por su posición, se ocupan de regular diversas funciones vitales; e intervienen en fenómenos tales como el deseo, la motivación o las adicciones, entre otros. Son las estructuras que generan las emociones y tienen, por ello, una importancia fundamental.

La región encefálica que más tarda en madurar de forma completa es un área de la corteza cerebral ubicada en su parte más anterior que se denomina corteza prefrontal; su maduración no se completa hasta los 25 años de edad, aproximadamente. Desempeña las que se denominan funciones ejecutivas, que son las relativas a la valoración de las consecuencias de los actos, los juicios morales y de otra índole, la planificación de acciones, la generación de expectativas y, lo que es de gran importancia, el control y, en su caso, inhibición de comportamientos impulsivos. Por lo tanto, dado que la corteza prefrontal no completa su desarrollo hasta mediada la tercera década de la vida, esas funciones no son desempeñadas con la eficiencia propia de los adultos. Sin embargo, las zonas subcorticales antes mencionadas, implicadas en la generación de emociones y, de forma especial, las que producen las expectativas y sensaciones de recompensa, son ya muy activas desde el final de la niñez y la pubertad.

Que las áreas responsables de la valoración de las consecuencias de los actos y del autocontrol maduren mucho más tarde que las encargadas de generar las sensaciones de placer y promover su búsqueda tiene, como es lógico, consecuencias de mucho calado. Las tiene, lógicamente, para los individuos que se encuentran en el periodo vital al que denominamos adolescencia. Entre ellas, es bien conocida la tendencia de los adolescentes a buscar nuevas sensaciones y vivir nuevas experiencias sin evaluar las posibles consecuencias de esa búsqueda. En otras palabras, la tendencia a adoptar comportamientos de riesgo. Y no son las únicas.

Como dice Robert Sapolsky en Behave (2017), la adolescencia y la juventud temprana es cuando es más probable que una persona mate, sea asesinada, abandone su hogar, invente una forma de arte, ayude a derribar un dictador, participe en un genocidio, dedique su vida a los necesitados, se haga drogadicto, transforme la física, se rompa el cuello en una actividad recreativa, dedique su vida a Dios, o se convenza a sí mismo de que toda la historia ha convergido para hacer de este momento el más importante, el más plagado de peligros y promesas, el más exigente, el momento más singular. Y todo por culpa de un desajuste en la maduración de diferentes áreas del encéfalo.

——————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El desajuste adolescente se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La neurociencia está desentrañando los misterios del encéfalo adolescente
  2. Mitología, educación y violencia adolescente
  3. Tamaño del encéfalo e inteligencia
Catégories: Zientzia

Patrimonio geológico: la otra mitad del ambiente

sam, 2019/02/02 - 11:59

Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.

Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.

La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.

Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.

Luis Carcavilla, Científico Titular en el Instituto Geológico y Minero de España (IGME) reivindica el papel fundamental de la geología, y su desatención, en la mayoría de los lugares de Patrimonio de la Humanidad Natural.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Patrimonio geológico: la otra mitad del ambiente se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Geología: la clave para saber de dónde venimos y hacia dónde vamos
  2. El (Paleo)Clima y ¿el frío que vendrá?
  3. Los riesgos dormidos: lo que usted debería saber
Catégories: Zientzia

A new hero is born: La espectrometría de masas al servicio de la justicia

ven, 2019/02/01 - 11:59

Hace unos pocos años, apareció en algunos medios locales gallegos una noticia sobre la lucha judicial entre los herederos de un abuelo acaudalado. Este hombre falleció un año después de haber perdido su capacidad legal debido a un diagnóstico de alzhéimer. Uno de los nietos que había cuidado de él en sus últimos años alegaba ser el único heredero y, para ello, presentaba un testamento ológrafo (testamento que el testador formaliza por sí mismo, escribiéndolo y firmándolo de su puño y letra sin intervención de testigo alguno) a su favor fechado 3 años antes de su muerte. El resto de los herederos potenciales alegaban que este testamento era falso y se remitían al oficial realizado ante notario décadas antes en el que el abuelo repartía su fortuna de forma equitativa entre todos ellos. No cuestionaban el hecho que de que el testamento estuviera hecho por otra persona (había sido corroborado por peritos calígrafos), sino que cuestionaban la fecha de realización. Si se demostraba que el testamento ológrafo estaba realizado en la fecha descrita, le otorgaría vigencia y validez, ya que era posterior al realizado ante notario y anterior a que el abuelo perdiera sus facultades.

Hechos como este o algunos de naturaleza parecida, se repiten de forma recurrente en la sociedad en la que vivimos. Aunque avanzamos sin remedio hacia la sociedad del formato electrónico, la mayor parte de tratados o acuerdos con importantes consecuencias individuales, sociales y/o económicas aún siguen siendo certificados de forma manuscrita mediante útiles de escritura tipo bolígrafo. Por esa razón, el estudio forense documental sigue manteniendo aun vigencia. Por ejemplo, los datos recogidos por la policía científica en Finlandia en el año 2015 demuestran que el estudio forense fue determinante para llegar a una sentencia firme en el 40% de los casos judiciales relacionados con documentos.

Imagen 1. Carta de amor de Matilde Corcho convertida en el primer testamento ológrafo después de la sentencia dictada por el Tribunal Supremo en 1918. Fuente: Archivo Histórico Provincial de Valladolid (vía cadena SER)

Desde los años 90 existen distintas metodologías analíticas que posibilitan la datación de documentos. Para empezar por el principio debemos responder a estas preguntas: ¿En qué están basadas la mayor parte de las metodologías de datación de documentos? ¿Cómo podemos afirmar que un documento ha sido escrito en el momento en el que está fechado? Básicamente la mayor parte de las metodologías de datación directa tratan de observar los cambios ocurridos en la tinta con el tiempo. Como es fácil de imaginar, esto no es una tarea fácil ya que existen una gran variedad de tintas en el mercado internacional. Además, no sólo podemos asignar una única tinta a una marca de bolígrafo. La misma marca puede variar la composición de la tinta entre sus diferentes plantas de producción a lo largo del mundo o incluso entre lotes temporales con el propósito de ofertar útiles de escritura con distintas propiedades. Este hecho hace que nos encontremos ante una cantidad innumerable de tintas con diferentes componentes que haría imposible su estudio individual. En el ejemplo que nos concierne, nunca se supo qué bolígrafo utilizó el abuelo para realizar su testamento y mucho menos la marca o el lote. Para intentar solventar este problema, la mayor parte de las metodologías de datación se basan en el estudio de una familia de compuestos habituales en tinta de bolígrafo: los disolventes orgánicos. Estos compuestos, añadidos como vehículo para colorantes y resinas, sufren un proceso de evaporación desde el primer momento en el que se depositan en el trazo. Aunque hay algunas clases de bolígrafos que usan el agua como disolvente (bolígrafos tipo gel), el resto de útiles de escritura de uso común utilizan compuestos orgánicos volátiles como alcoholes, aldehídos o cetonas, siendo el 2-fenoxyetanol el compuesto más habitual (más del 80% de los bolígrafos de tinta viscosa lo contienen) y el más estudiado en su comportamiento cinético.

Y en este punto podemos preguntarnos, ¿En qué puede ayudar la espectrometría de masas en la datación de documentos? ¿Por qué se ha convertido en uno de los detectores más utilizados en las distintas metodologías de datación desarrolladas hasta el momento? La espectrometría de masas es una técnica relativamente reciente y ampliamente utilizada en distintas áreas de aplicación como análisis alimentario, industrial, farmacéutico y también forense. Su alta aplicabilidad reside, entre otras cosas, en la posibilidad de identificación de compuestos desconocidos a través de su contraste con una librería de espectros. El funcionamiento es relativamente sencillo: las moléculas orgánicas que llegan al espectrómetro de masas (MS) son “bombardeadas” por una gran cantidad de electrones al pasar bajo una diferencia de potencial controlada (70 eV). Este impacto electrónico provoca que el compuesto se rompa en fragmentos que serán siempre los mismos si no se cambia el potencial al que han sido sometidos (Imagen 2). Gracias a ello, la fragmentación controlada de sustancias puras nos permite poseer librerías de espectros de una gran cantidad de compuestos orgánicos (306 622 compuestos en la última versión del año 2017) con la que poder contrastar los espectros de moléculas que nos son desconocidas y así poder identificarlas. El contraste entre los espectros de compuestos puros y nuestros compuestos no identificados en la base de datos, nos devuelve una identificación con un porcentaje asociado de confianza. En este punto es donde la espectrometría de masas se convierte en una herramienta fundamental dentro de las distintas metodologías de datación de documentos. Y aún más si cabe si se combina previamente con una técnica de separación de sustancias orgánicas volátiles como es la Cromatografía de Gases (GC). Como cualquier otro detector químico de funcionamiento universal, el MS nos permite cuantificar la cantidad de compuesto que tenemos en nuestra muestra analizada (a niveles de pocos nanogramos) pero, además, es una herramienta fenomenal para determinar e identificar compuestos desconocidos.

Volviendo al ejemplo con el que hemos comenzado podríamos decir que, mediante un análisis de cromatografía de gases acoplado a espectrometría de masas (GC/MS), no sólo descubrimos la cantidad de disolvente remanente en los trazos de tinta de nuestro testamento ológrafo cuestionado, sino también qué tipo de compuestos la conforman. El conjunto de toda esta información es muy importante en la datación del documento: podemos identificar si ese trazo de escritura posee un disolvente orgánico cuya cinética esta estudiada y por otra parte podemos saber cuánto compuesto hay a partir de su medida cuantitativa. La combinación de estos dos datos puede servirnos para estimar la fecha en el que esta tinta fue depositada. Además, esa capacidad de identificar compuestos también nos permitiría datar de forma indirecta al encontrar algún tipo de anacronismo en la composición. Esto querría decir que, si logramos identificar algún compuesto que ha comenzado a formar parte de las composiciones comerciales en la actualidad, en ningún caso ese texto podía haber sido escrito con anterioridad.

Imagen 2. Espectro de masa de la molécula 2-fenoxyetanol. En verde, su ion molecular y en naranja y azul distintos iones fragmento. Fuente: Luis Bartolomé.

A día de hoy, los métodos de datación todavía suscitan reparos en la comunidad científica y en la sociedad civil (peritos y jueces) debido a la gran cantidad de problemas e inconvenientes que los rodean. Algunos de los problemas más recurrentes son la influencia del soporte papel (densidad, composición…) sobre la evolución cinética de las tintas, la dependencia de la masa en la determinación de la edad de una tinta (hay que recordar que no todo el mundo deposita la misma cantidad de tinta en un trazo realizado en el mismo momento) o la influencia de la distinta conservación de los documentos (no es lo mismo la conservación de un documento en un cajón de un escritorio en condiciones controladas que en un coche en la playa). Además de estos problemas con solución compleja, existen otras problemáticas habituales como son la cantidad de muestra disponible (en algunos casos pocos milímetros de trazo escrito para analizar) o la incapacidad de poder datar documentos de más de 2 años de antigüedad. La Universidad del País Vasco (UPV/EHU) ha participado activamente en el desarrollo y evolución de nuevas metodologías de datación intentando minimizar estos problemas descritos. Desde el año 2015 un grupo de investigación del departamento de Química Analítica de la Facultad de Ciencia y Tecnología (FCT/ZTF) junto con el apoyo de los Servicios Generales de Investigación (SGIker) ha desarrollado un método de datación innovador denominado DATINK. Esta metodología que combina la potencialidad antes descrita de la espectrometría de masas junto con un proceso de micro-extracción en etapas sucesivas (Imagen 3) del 2-fenoxyetanol y un original modelado matemático, ha logrado rebajar la cantidad de muestra necesaria para poder realizar la datación (únicamente es necesario muestrear un trazo de 1.2 mm), así como aumentar el rango temporal de aplicación hasta los 5 años de antigüedad. Además, de forma completamente innovadora con respecto a las metodologías actuales, estima una fecha concreta (con un intervalo de error temporal del 20% aproximadamente). En el caso del testamento descrito como ejemplo, este hecho fue algo fundamental. Debía demostrarse que el documento cuestionado había sido realizado después del testamento ante notario pero antes de la incapacidad por enfermedad. Si habíais apostado por la ecuanimidad del abuelo con respecto a sus herederos, os diré que no habéis acertado.

Imagen 3. Señales cromatográficas en los que se basa el método DATINK. En cada extracción la cantidad de fenoxyetanol es menor. Fuente: Luis Bartolomé.

¿Es por tanto la espectrometría de masas la solución a nuestros problemas en el ámbito del estudio documental? ¿Ha nacido un héroe? Habría que ser un necio para afirmar que este tipo de herramientas no facilitan el desarrollo y la consecución de nuevos objetivos en la resolución de problemas analíticos. En el caso del estudio forense, la espectrometría de masas se ha convertido en una herramienta básica, no sólo en el desarrollo de nuevas metodologías para la datación de documentos, sino también en otras áreas de aplicación. De la misma manera, por otro lado, también se puede afirmar con rotundidad que este detector no es la panacea ni será la solución a todos nuestros males si no la ponemos al servicio de investigadores innovadores y creativos. Habitualmente, los investigadores caemos en la tentación de ceder la responsabilidad del desarrollo I+D+i a las capacidades de estos detectores y a sus continuos márgenes de mejora, olvidándonos que somos nosotros los que estamos al volante y que es la justa combinación de ambas facetas la que nos ofrece los mejores resultados. Ni que decir tiene que la UPV/EHU y la FCT/ZTF, como parte del entramado de formación de alta capacidad, ha tenido, tiene y debe seguir teniendo una responsabilidad muy alta en el hecho de obtener el máximo rendimiento en esta combinación.

Sobre el autor: Luis Bartolomé es técnico del Servicio Central de Análisis – SGIker en la Facultad de Ciencia y Tecnología de la UPV/EHU.

El artículo A new hero is born: La espectrometría de masas al servicio de la justicia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
  2. Curso de verano “Las dos culturas y más allá”: La ciencia al servicio de la salud humana, por Icíar Astiasarán
  3. Así en la Tierra como en Marte: espectrógrafos y espectrómetros de masas
Catégories: Zientzia

Ritmo, expectativas y Des… pa… cito.

jeu, 2019/01/31 - 11:59

Shave and a Haircut” es un patrón rítmico tan conocido que es imposible empezar a oírlo sin esperar su final. Pero además, es especialmente efectivo porque juega con nuestras expectativas rítmicas. En este caso, la gracia no está en qué notas van a sonar sino en el cuándo.

Lo normal sería que las dos últimas notas sonasen a tempo, dando continuidad al primer grupo de notas y cayendo sobre la parte fuerte del compás. Algo como esto:

Pero en lugar de esto, hay un “hueco”: como si, al ir a dar el siguiente paso, la música dejase el pie en el aire, por sorpresa. Nosotros ya sabemos que acaba sonando, no hay de qué preocuparse: la penúltima nota entra en una parte débil del compás y la última culmina, ya sí, a tempo. (Esto es lo que, en música, se conoce como síncopa). El pie acaba apoyándose en el suelo. Pero lo que consigue ese silencio previo es, justamente, aumentar la tensión de la caída, hacernos desearla con más fuerza.

Hace no tanto tiempo, un tema quizás aún más conocido, utilizó un recurso parecido (siento devolver este gusano a vuestros oídos):

Hay una ligerísima dilatación del tiempo en las dos primeras sílabas, una mínima pausa sobre la “c” justo antes de que suene la “i”, en la parte fuerte del siguiente compás. (Esto es lo que, en música, se conoce como fermata). Pero es justo esa pausa, el pie manteniéndose un instante más en el aire, la que hace el comienzo del estribillo aún más inevitable.

Pero volviendo a la premisa: ¿qué es eso de las expectativas rítmicas?, ¿qué nos esperamos, exactamente, de las duraciones de las notas en una canción?

Pues, para empezar, una obviedad, aunque no por ello poco interesante: de la música esperamos que haya cierto “pulso”, una repetición subyacente de duraciones de tiempo regulares. De hecho esto es uno de los rasgos universales de la música1 y es uno de los rasgos que, al menos a cierto nivel, la separan del lenguaje. Pero no cualquier duración regular vale y pongo un ejemplo: los semáforos de la calle se encienden y apagan a intervalos regulares y eso no basta para percibirlos como “rítmicos”. Tampoco nos sirve el batido de las alas de un colibrí. Existe un rango limitado de pulsos que somos capaces de apreciar como rítmicos y un rango aún más pequeño que podemos seguir con especial precisión: ese rango se sitúa, aproximadamente, entre 80 pulsos por minuto y 100 pulsos por minuto2. En ese intervalo, si nos piden anticipar las notas de una canción, ni nos aceleramos ni nos quedamos detrás, damos la palmada justo a tiempo y nuestras expectativas son especialmente precisas. Es nuestro “tempo ideal” por así decirlo. ¿Y qué hay del tempo de Despacito?: 89 pulsos por minuto. Bastante ajustadito, de hecho.

Además, dentro de una canción, no todos los pulsos (no todos los cuándos) son iguales, existe una jerarquía a varios niveles que suele ser binaria, especialmente en el caso de la música occidental. Es decir: las duraciones de las notas se suelen subdividir (un pulso de negra en dos corcheas, en 4 semicorcheas, etc. ) y agrupar (compases de 2/4 o de 4/4, semifrases de 4 compases, frases de 8, temas enteros de 32…) de dos en dos y esta agrupación está asociada, además, a que ciertos momentos se perciban como más importantes. En estos momentos es donde se producen los cambios armónicos, donde la música introduce nuevos materiales y donde es más probable que suene una nota que, además, será un poquito más fuerte que sus vecinas. El pie se apoya en el suelo y gracias a eso la música puede seguir avanzando.

Pero no se trata sólo de una construcción musical o de un capricho del lenguaje: la atención misma de los oyentes se focalizada de acuerdo con estas jerarquías. La profesora Mari Riess Jones ha estudiado especialmente este fenómeno: cuando escuchamos música, la atención se distribuye de forma desigual, dirigiéndose hacia los momentos donde es más probable que aparezca una nueva nota, lo cual nos permite percibirla mejor. De este modo, la jerarquía rítmica de la música se convierte, de hecho, en la estructura misma de nuestra atención.

¿Y Despacito? Una base rítmica del reggaetón en 2 pulsos que se repite 2 veces dentro de cada compás de 4/4, un estribillo de 4 compases que se repite 2 veces cada vez que suena, una estructura armónica de 4 acordes que se ha utilizado en otros cuatro cuatrillones de canciones antes… estábamos perdidos desde el principio.

Referencias:

1 Patrick E. Savage et al (2015) Statistical universals reveal the structures and functions of human music. 2015. . PNAS doi: 10.1073/pnas.1414495112

2 Dirk-Jan Povel and Peter Essens (1985) Perception of Temporal Patterns [PDF] (1985) Music Perception: An Interdisciplinary Journal Vol. 2, No. 4

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Ritmo, expectativas y Des… pa… cito. se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué son las expectativas musicales?
  2. Lo que tienen en común una red inalámbrica, el ritmo del corazón y la consciencia
  3. Formas ritmo-espacio
Catégories: Zientzia

Gaston Julia y su ‘Grand Prix des sciences mathématiques’

mer, 2019/01/30 - 11:59

En 1913, el gobierno francés aprobó la llamada loi des Trois ans por la que se aumentaba la duración del servicio militar de dos a tres años y se rebajaba a 19 años la edad la incorporación a ese servicio. Francia estaba preparando a su ejército para una eventual guerra con Alemania que comenzaría al año siguiente: la Primera Guerra Mundial.

Muchos alumnos de las Grandes Escuelas francesas fueron movilizados al estallar la guerra. Habitualmente se unían a la infantería como subtenientes, un grado que les colocaba delante de sus hombres en el momento del combate y les exponía especialmente. Si casi el 17% de los soldados franceses murieron en la Primera Guerra Mundial, ese porcentaje aumentaba al 30% en el caso de los oficiales de infantería y a un 41% para aquellos que procedían de la École normale supérieure. Se estima que un 40% de estudiantes universitarios franceses fallecieron o sufrieron mutilaciones en esa guerra: supuso el sacrificio de una generación de intelectuales, entre ellos muchos científicos.

Gaston Julia. Imagen: MacTutor History of Mathematics archive. University of St Andrews.

Tras una brillante carrera en la École normale supérieure, el joven Gaston Julia (1893-1978) fue llamado a filas en agosto de 1914. Se incorporó al 57 regimiento de infantería. Tras cinco meses de formación, fue enviado como subteniente al campo de batalla, al Chemin des Dames. Allí, en enero de 1915, fue gravemente herido en la cara: perdió la nariz, tuvo que someterse a diferentes operaciones y llevar durante toda su vida una máscara de cuero. Recordemos que Louis Antoine (1888-1971) fue un gran amigo de Julia. Durante la ofensiva de Nivelle, en abril de 1917, una bala le alcanzó la cara, perdió los dos ojos y el sentido del olfato. Julia y Antoine compartían habitación en el sanatorio en el que permanecieron para recuperarse de sus heridas.

Tras su largo periodo de convalecencia, Julia se dedicó a la investigación en matemáticas y a la docencia en diferentes centros superiores.

Anuncio del Grand Prix de 1918. Imagen: Repositorio Gallica.

El 29 diciembre de 1915 la Académie des sciences anunció que atribuiría un Grand Prix des sciences mathématiques en 1918 con el estudio de la iteración de funciones como tema propuesto.

Desde 1906, Pierre Fatou (1878-1929) investigaba sobre el problema de iteración de fracciones racionales. Animado por el premio de la Académie retomó con fuerza el tema en 1917. En mayo de 1917 publicó un primer artículo titulado Sur les substitutions rationnelles en el que decía que sabía resolver completamente el problema de la iteración (que calificaba de “muy difícil” en general) en el caso de fracciones racionales enviando un disco sobre sí mismo.

Simultáneamente, Gaston Julia comenzó a depositar en la Académie unos documentos confidenciales conteniendo resultados análogos.

El matemático, Paul Montel (1876-1975) publicó ese mismo año una nota titulada Sur la représentation conforme que inspiró a Fatou y Julia en sus trabajos de iteración. De hecho, les dio la clave para llegar a una solución satisfactoria del problema planteado en el Grand Prix en el caso de funciones racionales.

El 24 diciembre de 1917, la Académie des sciences recibió una carta de Gaston Julia en la que afirmaba que los resultados anunciados por Fatou en Sur les substitutions rationnelles estaban contenidos en sus documentos confidenciales y solicitó su apertura. Ese mismo día depositó su candidatura para el Grand Prix. Los expedientes se abrieron en la sesión de la Académie del 24 de diciembre de 1917: eran unas notas desordenadas, escritas sin demasiado cuidado, seguramente para adelantar a Fatou en una posible nueva publicación.

En la sesión del 2 diciembre 1918 la Académie des sciences concedió a Gaston Julia el Grand Prix anunciado en 1915.Fatou no se había presentado al premio. Pero el informe de la comisión que decidía el galardón prácticamente daba a entender la Académie tendría que haber dividido el premio en caso de que Fatou se hubiera postulado. Ambos matemáticos realizaron trabajos prácticamente equivalentes que publicaron posteriormente de manera extendida. No es extraño que diferentes personas lleguen a resultados similares trabajando de manera independiente.

El estudio de funciones iteradas se ralentizó en Francia tras la concesión del Grand Prix. Por un lado, aunque Julia era un matemático brillante y muy prolífico y tenía muchos estudiantes, parece que ninguno se interesó por el tema. Por otro lado, el trabajo como astrónomo de Fatou le impidió invertir mucho tiempo en las matemáticas, no tenía gente joven cerca que pudiera continuar con su trabajo y murió con solo 51 años.

El conjunto de Julia (en blaco) para la función f(z)=z²+c cuando la constante c cambia. Imagen: Wikimedia Commons.

Hasta la década de los años 1980, el tema no se retomó con fuerza… pero esa es otra historia. Actualmente, en dinámica compleja, los conjuntos de Julia y de Fatou son dos conjuntos complementarios obtenidos al estudiar el comportamiento de números complejos al ser iterados por una función holomorfa. El conjunto de Julia J(f) de una función holomorfa f está formado por los puntos que bajo la iteración de f tienen un comportamiento ‘caótico’ (perturbaciones arbitrariamente pequeñas provocan cambios drásticos en la sucesión de funciones iteradas) y el conjunto de Fatou F(f) es el complementario, es decir, aquella familia de puntos que tiene un comportamiento ‘estable’ bajo iteración (bajo pequeñas iteraciones tiene pequeños cambios). Un pequeño homenaje que recuerda las aportaciones al tema de ambos matemáticos.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Gaston Julia y su ‘Grand Prix des sciences mathématiques’ se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Pierre Fatou, un matemático poco (re)conocido
  2. Louis Antoine: el destello en medio de una larga noche
  3. Homenaje de Google a Euler
Catégories: Zientzia

Refracción de ondas

mar, 2019/01/29 - 11:59
Imagen: Pixabay

¿Qué sucede cuando una onda se propaga de un medio a otro en el que su velocidad de propagación es diferente? Fijémonos en la Figura 1(a). Dos pulsos unidimensionales se aproximan a un límite que separa dos medios. La velocidad de la propagación en el medio 1 es mayor que en el medio 2. Esta situación correspondería en el mundo real a pulsos en una cuerda ligera (medio 1) atada a una cuerda relativamente muy pesada (medio 2). Ya sabemos que podemos esperar que una parte de cada pulso se refleja en el límite. Esta componente reflejada se pone del revés en relación con el pulso original. ¿Pero qué pasa con esa parte de la onda que continúa en el segundo medio?

Figura 1. Fuente: Cassidy Physics Library

Como vemos en la figura, los pulsos transmitidos están más juntos en el medio 2 que en el medio 1. La razón es que la velocidad de los pulsos es menor en la cuerda más pesada. Así que el segundo pulso, mientras todavía está en la cuerda ligera, está alcanzando al que ya está en la cuerda pesada. Por la misma razón, cada pulso se comprime en una forma más estrecha; es decir, cuando la parte frontal de un pulso ha entrado en la región de menor velocidad, la parte posterior sigue avanzando con mayor velocidad.

Con las ondas periódicas ocurre algo parecido. Lo tenemos en la Figura 1(b). Para simplificar suponemos que toda la onda se transmite y nada se refleja. Al igual que los dos pulsos se acercaron y cada pulso se apretó y se estrechó, el patrón de onda periódico también se comprime. Por lo tanto, la longitud de onda λ2 de la onda transmitida es más corta que la longitud de onda λ1 de la onda entrante o incidente.

Aunque la longitud de onda cambia cuando la onda pasa a través del límite, la frecuencia de la onda no puede cambiar. Si la cuerda no está rota, las trocitos de cuerda inmediatamente a ambos lados del límite deben subir y bajar juntos. Las frecuencias de las ondas incidentes y transmitidas deben, entonces, ser iguales. Podemos simplemente etiquetar ambas como f.

La relación entre longitud de onda, frecuencia y velocidad para las ondas incidentes y transmitidas se puede escribir por separado como λ1 f = v1 y λ2f = v2. Dividiendo una ecuación por la otra, eliminado f, obtenemos que

λ1 / λ2 = v1 / v2.

Esta ecuación nos dice que la razón entre las longitudes de onda en dos medios es igual a la razón entre las velocidades de propagación de las ondas en esos medios.

Figura 2. Fuente: Cassidy Physics Library

Lo mismo sucede cuando las ondulaciones del agua atraviesan un límite. Los experimentos muestran que las ondas se mueven más lentamente en aguas menos profundas. Si colocamos una pieza de vidrio en la parte inferior de un tanque de ondulación para hacer que el agua sea menos profunda estamos, de hecho, creando un límite entre la parte más profunda y la menos profunda (medio 1 y medio 2). La Figura 2 muestra el caso en que este límite es paralelo a las líneas de cresta de la onda incidente. Al igual que con las ondas en la cuerda, la longitud de onda de las ondas en el agua en un medio es proporcional a la velocidad en ese medio.

Figura 3. Fuente: Wikimedia Commons

Las ondas en el agua ofrecen una posibilidad no presente en las ondas en la cuerda. El frente de onda puede acercarse al límite en cualquier ángulo, no solo de frente. La Figura 3 ilustra este caso. La longitud de onda y la velocidad, por supuesto, cambian a medida que la onda pasa a través del límite. La dirección de la propagación de la onda también cambia al pasar de un medio a otro con diferente velocidad de transmisión. A medida que cada parte de un frente de onda en el medio 1 entra en el medio 2, su velocidad disminuye y comienza a quedarse atrás. Con el tiempo, las direcciones de todo el conjunto de frentes de onda en el medio 2 tienen direcciones diferentes a las del medio 1. Este fenómeno se llama refracción. Los frentes de onda “giran” para hacerse más paralelos al límite entre los medios.

Figura 4. Un frente de onda muy estrecho llegando con un ángulo de 60º al límite; una parte es reflejada (también con un ángulo de 60º) y otra pasa al medio 2 con un cambio de dirección. Fuente: Wikimedia Commons

Combinando todo lo que hemos visto encontramos una explicación a un fenómeno que habrás observado en las playas de arena, esas en las que la profundidad del agua aumenta lentamente conforme te alejas de la orilla. Da igual la dirección de las olas mar adentro: cerca de la orilla son prácticamente paralelas a la orilla.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Refracción de ondas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cuando las ondas se encuentran
  2. Física de las ondas estacionarias: frecuencia fundamental y sobretonos
  3. Reflexión de ondas: rayos
Catégories: Zientzia

Digestión estomacal (y II): regulación

lun, 2019/01/28 - 11:59

Además de las células propias de las glándulas de la mucosa oxíntica que se presentaron en la anotación anterior, en la mucosa gástrica hay otras que no liberan productos exocrinos, sino factores endocrinos (hormonas) o paracrinos con función reguladora. Son las siguientes:

(1) Las células enterocromafines se encuentran entre las células parietales y las células principales en las glándulas gástricas de la mucosa oxíntica. Secretan histamina.

(2) Las células G se encuentran en las glándulas del área de glándulas pilóricas. Son células endocrinas, que liberan la hormona gastrointestinal gastrina a la sangre.

(3) Las células D (o delta) se encuentran en número escaso en las glándulas de la zona pilórica pero son muy abundantes en el duodeno. Secretan somatostatina.

Imagen: Wikimedia Commons

La secreción de los jugos gástricos que vimos en la anotación anterior se produce mediante la intermediación de cuatro mensajeros químicos, para los que las células parietales cuentan con sus correspondientes receptores. Acetilcolina, gastrina e histamina ejercen efectos estimulantes al promover la inserción de las unidades de ATPasa de H+/K+ -que se encuentran almacenadas en vesículas intracelulares- en la membrana de las células parietales, elevando así la secreción de HCl a la luz gástrica. La somatostatina, sin embargo, tiene efectos inhibitorios. La gastrina y la acetilcolina estimulan también la secreción de pepsinógeno por las células principales. Veamos estos mensajeros con algún detalle.

La acetilcolina es un conocido neurotransmisor. Se libera en el plexo nervioso intrínseco en respuesta a la estimulación por el nervio vago, y estimula las células parietales, principales, células G y las enterocromafines.

Las células G secretan gastrina al torrente sanguíneo, en respuesta a la presencia de proteínas en el interior del estómago y por efecto de la acetilcolina. Cuando vuelve al cuerpo y al fundus del estómago, las células parietales y principales elevan la secreción de jugos gástricos. Además, promueve la liberación de histamina por parte de las células enterocromafines.

La histamina es un agente paracrino liberado por las células enterocromafines en respuesta a la gastrina y la acetilcolina. Ejerce efectos locales (por eso es paracrina) en las células parietales de su entorno, potenciando la acción, precisamente, de las sustancias que han estimulado su liberación.

La somatostatina es liberada por las células delta (o células D) en respuesta a la acidez y su efecto es inhibitorio dando lugar a una retroalimentación negativa. Actúa como agente paracrino también, sobre las células de su entorno, inhibiendo la secreción de células parietales, células G y células enterocromafines.

La regulación de la digestión estomacal se produce mediante un conjunto de actuaciones complementarias. Son varios los estímulos capaces de provocar un aumento de la secreción de jugos gástricos. Unos son anteriores a la llegada del alimento a estómago, otros actúan cuando el alimento ya se encuentra en su interior, y otros proceden del duodeno una vez el quimo ha abandonado el estómago. Por esa razón la secreción gástrica sigue una secuencia en tres fases:

Fase cefálica. Antes de que el estómago reciba el alimento, determinados estímulos sensoriales (visuales, olfativos o el acto de masticar) anticipan su llegada. En ese caso la secreción gástrica se eleva por la acción del nervio vago en respuesta a los citados estímulos, acción que surte dos efectos: (1) promueve el aumento en la secreción de acetilcolina por los plexos nerviosos intrínsecos, lo que, a su vez, eleva la secreción de HCl y de pepsinógeno; (2) estimula la secreción de gastrina por las células G, lo que a su vez promueve la secreción de HCl y pepsinógeno; además, la secreción de clorhídrico también se eleva debido a que la gastrina induce la liberación de histamina.

Fase gástrica. Esta comienza al llegar el alimento al estómago. Los estímulos que actúan a este nivel (proteínas y péptidos, por un lado, y distensión estomacal por el otro) elevan la secreción gástrica debido a la acción superpuesta de diferentes vías. La acción más potente se debe a la presencia de proteínas en el estómago, que estimulan los quimiorreceptores que activan los plexos nerviosos intrínsecos, con la consiguiente estimulación por estos (mediante la acetilcolina) de la células secretoras. La presencia de proteínas en el estómago también actúa a través de la vía vagal, reforzando la fase cefálica. La consecuencia de estas acciones es la elevación de la secreción de ácido clorhídrico y de pepsinógeno, acentuándose así la digestión ya iniciada.

Fase intestinal. Hay factores intestinales que inciden en la secreción de jugos gástricos, aunque en este caso pueden ser estimuladores o inhibidores. La presencia en el duodeno de los productos de la digestión parcial de las proteínas estimula la liberación de gastrina intestinal, que es transportada al estómago por la sangre, actuando de la misma forma que la gastrina estomacal. Ahora bien, cuando el quimo llega las zonas iniciales del intestino delgado la secreción gástrica se reduce debido a tres factores:

(1) Por un lado, al vaciarse el estómago, disminuye la presencia de proteínas en su interior, desapareciendo de esa forma el principal factor que había provocado la elevación de la secreción de jugos.

(2) Conforme se vacía el estómago, su pH se reduce mucho, pues el HCl ya no es neutralizado por las sustancias del quimo; esa reducción estimula la liberación de somatostatina que, como hemos visto, ejerce efecto inhibidor sobre la secreción gástrica.

(3) Los mismos estímulos que inhiben la motilidad estomacal, inhiben también la secreción gástrica. El reflejo enterogástrico y las enterogastronas suprimen la actividad de las células secretoras gástricas, a la vez que reducen la excitabilidad de las células musculares lisas.

Llegados a este punto, la digestión estomacal ha terminado y sus productos han ido pasando del antro estomacal al duodeno e intestino delgado, donde se completará la digestión de los péptidos, lípidos y carbohidratos que no han sido hidrolizados en las fases anteriores.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Digestión estomacal (y II): regulación se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Digestión estomacal (I): el papel de las glándulas gástricas
  2. La motilidad estomacal
  3. Actividades digestivas y su regulación
Catégories: Zientzia

Desmitificando: La barriga cervecera

dim, 2019/01/27 - 11:59
Una de las imágenes que la agencia Jung von Matt creó para Bergedorfer Bier en 2016

Para empezar aquí van algunos ejemplos, de aquí y de allá, del consumo de cerveza. En Alemania y en 2006, era, por persona, de 112 litros al año y, también en Alemania y en 2011, más del 70% de los adolescentes y del 50% de las adolescentes había consumido cerveza en los 30 días anteriores a la encuesta. Cerca de Alemania, también en Europa central, en Chequia, el 79% de los hombres y el 55% de las mujeres consumen cerveza habitualmente. En España y en 2017, según el informe de Cerveceros de España, el consumo de esta bebida fue de 48.3 litros al año. Ese año, el consumo en Alemania fue de 104 litros al año.

Este consumo ha llevado a la extendida creencia popular de que el consumo de cerveza es la causa de la llamada barriga cervecera o, en términos más técnicos, la obesidad abdominal, tal como cuentan Schütze y sus colegas, del Instituto Alemán de Nutrición Humana de Nuthetal. Pero ya veremos como hay estudios que apoyan esta relación y otros que la niegan e, incluso, hay algunos que concluyen, y es sorprendente, que la relación es negativa, es decir, que la cerveza adelgaza.

En el trabajo de Schütze, con el método epidemiológico, participan 7876 hombres y 12749 mujeres, de 35 a 65 años, y con un seguimiento del peso, circunferencia en las caderas y consumo de cerveza en mililitros por día al inicio del estudio y a los seis años y a los ocho años y medio.

Los resultados muestran que en el 57% de los hombres y el 67% de las mujeres aumenta el peso durante los años que dura el estudio. En cuanto al consumo de cerveza, en el 57% de los hombres y el 69% de las mujeres se mantiene estable, y en el 30% de los hombres y el 22% de las mujeres, disminuye. Por tanto, en el 13% de los hombres y el 9% de las mujeres, el consumo de cerveza crece.

En los hombres con consumo alto, el peso y la circunferencia de las caderas crecen. El resultado es una curva en U: con el consumo moderado, de menos de medio litro al día, no cambian peso y circunferencia; y en los que más aumentan ambos parámetros es en los abstemios y en los que consumen más de un litro al día. En las mujeres, hay aumento de peso y circunferencia en consumidoras de poca cerveza y, en cambio, disminuyen con un consumo moderado, de unos 250 mililitros al día.

Los autores concluyen que hay relación entre el consumo de cerveza, si es elevado, y el peso, aunque dudan si el cambio detectado se debe más a los cambios en la distribución de grasas en el cuerpo habituales con la edad. Por tanto, la creencia popular de la relación entre la cerveza y la barriga cervecera no queda probada con este estudio.

En el estudio epidemiológico de Chequia, con 891 hombres y 1098 mujeres y edades de 25 a 64 años, la media semanal de toma de cerveza es de 3.1 litros en los hombres y de 0.31 litros en mujeres. Es en este estudio donde los autores detectan, en mujeres, una pequeña relación negativa entre el consumo de cerveza y el Índice de Masa Corporal, es decir, que la cerveza adelgaza, poco pero lo hace. En conclusión, en Chequia no existe relación entre la obesidad abdominal y la ingestión de cerveza.

Por el contrario, en Brasil, el estudio de Paula Aballo Nunes Machado y Rosery Sichieri, de la Universidad del Estado de Rio de Janeiro, encuentra relación entre la obesidad abdominal y la toma de cuatro o más copas al día, o sea, de casi litro y medio de cerveza. El estudio, epidemiológico, se hizo con 2441 voluntarios, el 57% mujeres, y edades de 20 a 60 años.

En un trabajo experimental, no epidemiológico, Javier Romeo y su grupo, del Instituto del Frío del CSIC, en Madrid, planificaron un experimento con 58 voluntarios, de ellos 27 mujeres, con una edad media de 36 años. Después de un mes de abstinencia alcohólica, los voluntarios consumieron, en el mes siguiente, 330 mililitros de cerveza al día las mujeres (lo que se llama un tercio o el contenido de una lata de cerveza) y 660 mililitros (dos latas) al día los hombres. Tras estudiar los datos, el grupo concluye que no hay relación entre el consumo de cerveza y cambios, ni positivos ni negativos, en el peso corporal, la circunferencia de las caderas o el Índice de Masa Corporal. Después de todo, una lata de cerveza supone unas 145 kilocalorías, algo más que un yogur con azúcar (o tres veces menos que una piña colada). No hay relación, en este estudio, entre cerveza y barriga cervecera.

En un meta-análisis sobre cerveza y obesidad publicado en 2013, Bendsen y sus colegas, de la Universidad de Copenhague, revisaron 35 estudios epidemiológicos con datos de peso y consumo de cerveza tomados de la población en general, con grupos de entre 317 y 44080 voluntarios y seguimientos de 3.7 a 10 años. También utilizaron doce estudios experimentales, con toma de cerveza y variaciones de peso. Consideraron que la ración estándar de cerveza es el tercio, o 330 mililitros, al día, y con 4.6 grados de alcohol.

Llegaron a varias conclusiones y, en primer lugar, los estudios epidemiológicos indican que consumir más de medio litro de cerveza al día está positivamente relacionado con la obesidad abdominal o, si se quiere decir así, con la barriga cervecera. En cambio, los estudios experimentales dan resultados diferentes. Seis de ellos indican que el consumo de cerveza por 21-126 días aumenta el peso una media de 0.73 kilogramos pero, sin embargo, otros cuatro estudios no demuestran aumentos de peso.

Según los autores y en general, aunque los datos publicados son de baja calidad, la conclusión final es que no hay evidencias de que el consumo moderado de cerveza, hasta medio litro al día, esté asociado a la obesidad abdominal. Pero el consumo por encima de estas cantidades parece que provoca la aparición de la barriga cervecera.

Por tanto, hay dudas sobre la existencia de la barriga cervecera, sobre todo para consumos moderados de cerveza, aunque, también es indiscutible, que la cerveza se bebe, a veces demasiada, y que la barriga, para muchos, existe, aunque, repito la relación entre ambas está en debate.

Referencias:

Bendsen, N.T. et al. 2013. Is beer consumption related to measures of abdominal and general obesity? A systematic review and meta-analysis. Nutrition Reviews 71: 67-87.

Bobak, M. et al. 2003. Beer and obesity: a cross-sectional study. European Journal of Clinical Nutrition 57: 1250-1253.

Cerveceros de España. 2018. Informe socioeconómico del sector de la cerveza en España. Ministerio de Agricultura, Pesca y Alimentación. Madrid. 56 pp.

Gaetano, C. de, et al. 2016. Effects of moderate beer consumption on health and disease: A consensus document. Nutrition, Metabolism & Cardiovascular Diseases doi: 10.1016/j.numecd.2016.03.007

Machado, P.A.N. & R. Sichieri. 2002. Relaçao cintura-quadril e fatores de dieta em adultos. Revista de Saùde Pública 36: 198-204.

Romeo, J. et al. 2007. ¿Influye la cerveza en el aumento de peso? Efectos de un consumo moderado de cerveza sobre la composición corporal. Nutrición Hospitalaria 22: 223-228.

Schütze, H. et al. 2009. Beer consumption and the “beer belly”: scientific basis or common belief? European Journal of Clinical Nutrition 63: 1143-1149.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Desmitificando: La barriga cervecera se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Desmitificando: Las rubias son “tontas”
  2. Desmitificando: Alguien me está mirando…
  3. Desmitificando: La vitamina C y el resfriado
Catégories: Zientzia

Los riesgos dormidos: lo que usted debería saber

sam, 2019/01/26 - 11:59

Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.

Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.

La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.

Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.

Virginia Ormaetxea de Harrilur Geotecnia y portavoz del Colegio de Geólogos de Euskadi (EGEO) expone dos de los riesgos geológicos que actualmente pueden afectarnos a cualquiera, cualquier día, debidos a la presión urbanística: los desprendimientos/deslizamientos de tierra y los riesgos asociados a las rocas ácido-sulfatadas.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Los riesgos dormidos: lo que usted debería saber se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Geología: la clave para saber de dónde venimos y hacia dónde vamos
  2. El (Paleo)Clima y ¿el frío que vendrá?
  3. #Naukas16 ¿Cómo saber si tu funeraria te estafa?
Catégories: Zientzia

Espectrometría de masas: de un isótopo de neón a elefantes que vuelan

ven, 2019/01/25 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebrará dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Durante las próximas semanas en el Cuaderno de Cultura Científica y en Zientzia Kaiera se publicarán regularmente artículos que narren algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas. Comenzamos con la serie “Espectrometría de masas”, técnica analítica que supone el ejemplo perfecto del incesante avance de la Ciencia y la Tecnología.

A principios del siglo XX J. J. Thomson estudiaba el cambio de trayectoria de los iones de ciertos gases sometidos a campos eléctricos y magnéticos. Estos experimentos derivaban del estudio de rayos catódicos que le habían valido el premio Nobel en 1906 y que habían esclarecido la naturaleza del electrón, entonces una partícula subatómica desconocida. Sir Thomson observó que los gases con carga positiva se podían separar en función de su relación masa/carga y que, conociendo el valor del campo eléctrico y magnético aplicado, podría determinar esta relación. En otras palabras, podía saber cuánto pesaban átomos o moléculas. Había nacido la espectrometría de masas.

Imagen 1. Espectro del monóxido de carbono (CO), uno de los primeros espectros de masas de la historia. Extraído de Rays of positive electricty and their applications to chemical Analysis de J.J. Thomson (1921). Fuente: Archive.org

La espectrometría de masas es hoy en día la técnica analítica más versátil y potente que disponemos. En campos como el análisis forense, el análisis de alimentos o el estudio de contaminantes nos permite determinar la concentración de compuestos a niveles extremadamente bajos. Además, también sirve para identificar nuevas moléculas, algo que resulta de gran ayuda en el desarrollo de fármacos. Por si esto fuera poco, en el ámbito de la Medicina y la Fisiología está propiciando grandes avances médicos, porque permite estudiar cómo se distribuyen ciertas moléculas en órganos vitales. A lo largo de los artículos que componen esta serie nos adentraremos en este fascinante abanico de aplicaciones. Pero antes, veamos cómo hemos podido llegar a este punto en apenas cien años.

Los primeros pasos

Viajemos hasta la Universidad de Cambridge, donde hemos dejado a Thomson trabajando con su protegido Francis William Aston. A él le debemos el siguiente gran hito en el campo que nos ocupa. En la Imagen 2 podéis observar el tipo de resultados que obtenían con aquellos primitivos espectrómetros de masas, entonces llamados espectrógrafos de parábola. En la placa fotográfica se pueden ver diferentes marcas ordenadas según las diferentes relaciones masa/carga. Aclararemos este concepto diciendo que no es otra cosa que la masa del átomo (o molécula) dividido entre el número de cargas. Por ejemplo, para el ion CO+ es 28 (la suma de la masa atómica* del carbono-12 y la del oxígeno-16 dividida entre uno), para el Hg+ es 200 y para el Hg2+ es 100 (dado que la masa atómica se divide entre dos por la doble carga). Como curiosidad añadiremos que a este parámetro se le asignó la unidad Th (Thomson) en honor al gran científico inglés, pero no ha sido reconocida internacionalmente y los resultados se presentan con el menos poético m/z.

Imagen 2. Parábolas de diferentes iones capturados en una placa fotográfica. Modificado de Rays of positive electricty and their applications to chemical Analysis de J.J. Thomson (1921). Fuente: Archive.org

Aston observó que junto a la señal que correspondía al ion de neón (20 m/z) aparecía otra pequeña señal (22 m/z) cuyo origen era desconocido. ¿Qué demonios hacía eso ahí? Como bueno científicos, realizaron varios experimentos y fueron descartando hipótesis: no se trataba de moléculas de CO2 con doble carga (44/2) ni de hidruro de neón (NeH2). La misteriosa señal aparecía siempre que se analizaba este gas noble y era nueve veces más pequeña. No había otra explicación: también era neón. En 1913 propusieron que el neón era una mezcla de dos tipos de átomos con diferente masa (20 y 22) en proporción 9 a 1. De ahí la diferencia de intensidad en las señales obtenidas. Y de ahí que el peso atómico logrado para este elemento mediante la medida de la densidad fuese 20,2 (el promedio de las masas teniendo en cuenta su abundancia). Aston había descubierto un nuevo isótopo, término que había acuñado hacía poco Frederick Soddy por sugerencia de Margarett Todd para describir los átomos con propiedades idénticas, pero de diferente masa. Hoy en día nos puede parecer un asunto trivial y cualquiera que tenga unas nociones mínimas de química sabrá que esto se debe al diferente número de neutrones. ¡Pero tened en cuenta que todavía no se había descubierto esa partícula subatómica!

Tras la Gran Guerra, Aston mejoró su instrumento y desarrolló los primeros “espectrógrafos de masas” (Imagen 3) que le permitieron descubrir 212 isótopos naturales. Como premio ganó el Nobel de Química en 1922 (Soddy lo había ganado el año anterior). En esta tierna infancia de la espectrometría de masas no nos podemos olvidar de Arthur Dempster que en la Universidad de Chicago diseñó los primeros espectrómetros de sector magnético en los que se basan muchos de los instrumentos actuales y con los que descubrió el uranio-235.

Imagen 3. Réplica del tercer espectrómetro de masas desarrollado por Aston: Fuente: Jeff Dahl /Wikimedia Commons.

Guerras, avances y difusión

Es, precisamente, el uranio-235 el protagonista de una de las primeras aplicaciones prácticas de la espectrometría de masas. Desgraciadamente. Durante el Proyecto Manhattan, el físico Alfred Nier revolucionó la espectrometría de masas con nuevos instrumentos de sector que permitieron aislar y conocer mejor el isótopo empleado en Little Boy. Pero sería injusto juzgar a Nier por la aplicación que se hizo de sus avances. Este científico fue un visionario que comprendió la importancia de la espectrometría de masas y extendió, en muchas ocasiones de forma altruista, sus usos a campos como la Biología (enriquecimiento de carbono-13) o la Geología (datación isotópica de la corteza terrestre).

Durante los años 40 y los años 50 se realizaron importantes mejoras y aparecieron instrumentos basados en nuevos principios para separar iones. Por su relevancia destacaremos los instrumentos de tiempo de vuelo (Time of Flight) propuestos por W.E. Stephens, en los que la separación se logra por la diferente velocidad a la que se mueven las moléculas al someterlas a un impulso (Imagen 4). Este es el sistema de separación más fácil de visualizar: cuanto más pesada sea la molécula más tiempo tardará en llegar al detector. El otro gran avance fue la creación de los instrumentos tipo cuadrupolo en los que los iones se pueden separar gracias al uso de cilindros que permiten realizar variaciones de corriente continua y radiofrecuencias. Prueba de su importancia es que Wolfgang Paul y Hans Georg Dehmelt obtuvieron el premio Nobel de Física en 1989 por el desarrollo de la trampa iónica, en la que extendieron estos principios en tres dimensiones.

Imagen 4. Patente del espectrómetro tipo tiempo de vuelo de Stephens (1952) y un instrumento actual en el que se observa el “tubo de vuelo”. Fuente: Adaptado de Kkmurray/Wikimedia Commons.

Pero no avancemos tan rápido. Los primeros espectrómetros comerciales no recibieron una calurosa acogida. En gran medida por el desconocimiento de la técnica, la mayoría de las aplicaciones eran meramente cuantitativas, como por ejemplo el análisis de hidrocarburos en refinerías de petróleo. Es decir, se usaban para determinar la concentración de algún compuesto conocido en diferentes muestras (tengamos en cuenta que la señal del compuesto es proporcional a su concentración). De ese modo no se explotaba una de las grandes ventajas que ofrece la espectrometría de masas: la identificación de moléculas desconocidas. Conocer la masa molecular de un compuesto es un gran paso para esclarecer su identidad. Y se puede ir más allá. La molécula se puede fragmentar en el instrumento, por lo que también podemos conocer la masa de los fragmentos y elucidar la estructura original como si de un puzle se tratase. Hubo tres científicos que supieron ver esta gran ventaja: Fred McLafferty (conocido por su reordenamiento), Klaus Biemann y Carl Djerassi (aunque lo más fascinante es que Thomson ya había predicho su aplicabilidad para 1913). Gracias a ellos se extendió el uso de la espectrometría de masas en el campo de la química orgánica, aplicándose inicialmente al descubrimiento de alcaloides y esteroides (Djerassi fue uno de los padres de la píldora anticonceptiva). Así posibilitaron, en gran medida, que la espectrometría de masas se convirtiese, junto a la resonancia magnética nuclear, en la herramienta indispensable para conocer la estructura de nuevas moléculas.

El despegue definitivo

La espectrometría de masas empezaba a despuntar, pero todavía existía un enorme problema: ¿Cómo se convierten las moléculas en iones gaseosos? Hasta ahora nos hemos centrado en cómo medir la masa, dejando de lado este importante aspecto. Recordemos que esta técnica mide la relación masa/carga, así que si las moléculas no están ionizadas de poco nos puede servir. Los métodos empleados hasta finales de los 60 no eran aptos para moléculas no volátiles o provocaban la fragmentación total de la molécula causando la pérdida de información sobre la masa molecular. En esas condiciones la mayoría de biomoléculas no podían ser analizadas, especialmente las proteínas de gran tamaño. Hacía falta ir un paso más allá. Y entonces surgieron la Ionización por Electrospray (ESI) y la Ionización/Desorción Laser Asistida por Matriz (MALDI). Así se les puso alas a las “moléculas elefante” como dijo John B. Fenn en su conferencia por el premio Nobel de Química de 2002.

Imagen 5. Dibujo inspirado por el título de la conferencia por el premio Nobel de John Fenn. Fuente: Realizado por Marianne Steinberg para la National Science Academy [PDF].Fenn compartió una parte del premio Nobel de 2002 con el japonés Koichi Tanaka por el “Desarrollo de métodos de ionización blandos para el análisis mediante espectrometría de masas de macromoléculas biológicas”. El primero fue galardonado por desarrollar la técnica ESI, aunque la invención se la debemos a Malcom Dole en 1968. El principio sobre el que se sustenta este modo de ionización es relativamente sencillo. El disolvente que contiene la muestra atraviesa un capilar al que se le aplica un voltaje para ionizar las moléculas (es decir, ponerles carga positiva o negativa). Al salir, el líquido formará un aerosol (de ahí lo de spray) con la ayuda de un gas de nebulización y, según se vaya evaporando el disolvente, las gotitas serán cada vez más pequeñas. Llega un punto en que las gotas reducen tanto su tamaño que la fuerza de repulsión entre las moléculas cargadas es superior a la tensión superficial y “explotan” (Imagen 6). De este modo se logran iones en forma gaseosa que pueden pasar al analizador de masas. Este tipo de ionización permite analizar multitud de moléculas, incluso con masas moleculares que superan los 100 000 Da. Además, tiene la gran ventaja de emplear disolventes líquidos, lo que hace que sea compatible con una de las técnicas de separación más comunes: la cromatografía líquida.

Por su parte, Tanaka logró ionizar proteínas con un método radicalmente diferente: empleando un láser. Pese a que su mérito como pionero en el uso de la ionización laser es incuestionable, hubo cierta polémica cuando le otorgaron el Premio Nobel. Hay quien piensa que el galardón debería haber recaído en Hillenkamp y Karas, ya que la técnica que actualmente conocemos como MALDI (del inglés Matrix Assisted Laser Desportion/Ionization) fue desarrollada por ellos y difiere en ciertos aspectos de la propuesta por Tanaka. Dejando estos conflictos de lado, sólo queda decir que la técnica MALDI se basa en un sistema de ionización indirecta. A la muestra se le añade una matriz que se ioniza fácilmente con un láser y es esta matriz la que transfiere su carga a las moléculas. Este método de ionización es de un gran interés, especialmente porque permite hacer imágenes de superficies como puede ser un tejido animal.

Imagen 6. Esquemas de ionización ESI (arriba) y MALDI (abajo). Fuente: Eva Mason y Mikayé

Durante el siglo XXI han continuado los avances en espectrometría de masas y los equipos de alta resolución (capaces de discernir entra moléculas con una relación masa/carga muy parecida) van ganado espacio. En este aspecto, puede que el mayor avance de los últimos años haya sido la aparición del Orbitrap, un espectrómetro de masas tipo trampa iónica con transformada de Fourier.

Pero del presente de la espectrometría de masas nos ocuparemos durante las próximas entregas de esta serie en la que iremos descubriendo diferentes casos en los que esta técnica ha sido de gran utilidad.

*N. del A. La forma de definir la masa atómica y el peso atómico ha variado a lo largo de los años. Diremos que la masa atómica es la masa de un isótopo específico y el peso atómico es el promedio de todos los isótopos de un elemento teniendo en cuenta su abundancia.

Para saber más:

Simon Maher et al. (2015) “Colloquium: 100 years of mass spectrometry: Perspectives and future trends” Reviews of Modern Physics, 87, 113-135.

Jennifer Griffiths et al. (2008) “A Brief History of Mass Spectrometry” Analytical Chemistry, 80, 5678-5683.

Stu Borman et al. (2003) “A Mass Spec Timeline” Today’s Chemist at Work, September, 47-49.

Sobre el autor: Oskar González es profesor en la Facultad de Ciencia y Tecnología y en la Facultad de Bellas Artes de la UPV/EHU.

El artículo Espectrometría de masas: de un isótopo de neón a elefantes que vuelan se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Así en la Tierra como en Marte: espectrógrafos y espectrómetros de masas
  2. Constantes durante al menos 12 mil millones de años
  3. En este núcleo sobra masa
Catégories: Zientzia

La dieta saludable es cuestión de química

jeu, 2019/01/24 - 11:59

Mejor el pan y la pasta si son integrales. Mejor prescindir del azúcar. Mejor comer una fruta que beberse un zumo. Los cereales, las galletas y los cacaos de desayuno contienen mucho azúcar y harinas refinadas, por eso es mejor evitarlos. Más legumbres y menos pastas. Esto lo sabemos todos los que nos preocupamos por llevar una dieta saludable. La razón de todas estas decisiones tiene su origen en dos conceptos: el índice glucémico y la carga glucémica. Y todo esto puede explicarse de forma sencilla gracias a una rama de la química llamada bioquímica.

Tanto el índice glucémico como la carga glucémica tienen que ver con el contenido y tipo de hidratos de carbono que contienen los alimentos.

  • ¿Qué son los hidratos de carbono y qué alimentos son ricos en ellos?

Hay una serie de alimentos que son ricos en hidratos de carbono, como por ejemplo el pan, la pasta, el arroz, en general todo aquello que se convierte en harinas o que se haga con harinas. También es un hidrato de carbono el azúcar y, en general, cualquier alimento dulce, desde pasteles a frutas son ricos en hidratos de carbono. De hecho, en bioquímica solemos denominar “azúcares” a todos los hidratos de carbono.

  • ¿Cómo se metabolizan los hidratos de carbono?

Los hidratos de carbono de estos alimentos se acaban convirtiendo en moléculas más simples como la glucosa. La glucosa pasa a la sangre y las células la captan gracias a la insulina. La insulina es una hormona que se sintetiza en el páncreas y que actúa como llave de paso, permitiendo la entrada de la glucosa en las células.

Cuando comemos hidratos de carbono, lo primero que hace el organismo es almacenar la glucosa en forma de glucógeno, tanto en el músculo como en el hígado. Es una forma de almacenar energía. Pero una vez que estas reservas están llenas, el exceso de glucosa se transforma en grasa en los adipocitos.

  • ¿Qué es el índice glucémico?

La índice glucémico (IG) nos dice con qué velocidad los hidratos de carbono se convierten en glucosa y pasan a la sangre. Los hay que lo hacen más rápido (alto IG) y más despacio (bajo IG).

Hay alimentos que van liberando poco a poco esa glucosa en la sangre, de modo que las células van gestionando sin problema esa glucosa que les llega progresivamente. Los alimentos que liberan su glucosa así, poco a poco, se denominan alimentos de bajo índice glucémico. En general son alimentos que contienen fibra, como los integrales, las frutas y las legumbres. Tampoco producen aumentos repentinos de insulina, sino que la insulina se libera también de forma progresiva. Estos alimentos tienen un IG por debajo de 55.

Alimentos de bajo IG

Hay alimentos que, por el contrario, liberan la glucosa en sangre rápidamente, de modo que las células son incapaces de gestionar tanta glucosa en tan poco tiempo y se disparan los niveles de insulina. Los alimentos que liberan glucosa así, de golpe, son los alimentos de alto índice glucémico. Son alimentos hechos con harinas refinadas, que no contienen suficiente fibra y, sobre todo, alimentos con azúcar añadido y azúcar libre. Estos alimentos tienen un IG entre 70 y 100.

  • Otros factores que afectan al índice glucémico

Al procesar y cocinar los alimentos podemos cambiar la estructura y la disponibilidad de sus hidratos de carbono. Por ejemplo, las harinas refinadas no contienen la fibra original del cereal, por lo que sus hidratos de carbono están más disponibles. Por eso las harinas, panes y pastas refinadas tienen un IG más alto que sus respectivos integrales.

Al cocinar los alimentos también alteramos su IG. Por ejemplo, al cocer la pasta alteramos la estructura interna del almidón, con lo que se liberan más hidratos de carbono simples. Así, cuanto más cocida esté una pasta, mayor será su IG.

El IG también se ve afectado por el resto de los alimentos que ingerimos a la vez. Por ejemplo, las proteínas y las grasas hacen que los alimentos estén durante más tiempo en el estómago y lleguen más lentamente al intestino, de modo que pueden reducir su IG.

No todos los azúcares se absorben igual. Por ejemplo, la fructosa, que es el azúcar de la fruta, se absorbe más lentamente y se metaboliza en el hígado, así que el índice glucémico de casi todas las frutas suele ser bajo. Como excepción tenemos el melón, la sandía, los dátiles y las frutas deshidratadas como higos o pasas. Pero no hay que preocuparse por ellos porque, aunque su IG sea alto, habría que consumir una cantidad muy elevada de ellos, ya que no contienen tantos hidratos de carbono.

  • ¿Qué es la carga glucémica?

El IG tiene sus limitaciones. Hay que tener en cuenta que los valores de IG se calculan para una cantidad de alimento tal que proporcione 50 gramos de hidratos de carbono disponibles biológicamente. En algunos alimentos esto se corresponde con una ración normal, pero en otros habría que consumir una ración extremadamente alta. Por ejemplo, la sandía es un alimento con alto IG, pero para que la sandía proporcione 50 g de hidratos de carbono tendríamos que comernos una sandía entera. De media, en 100 g de sandía hay solo 8 g de hidratos de carbono.

En cambio, en 100 g de pasta hay unos 80 de hidratos de carbono. Así, una ración de pasta, que tiene un IG medio, nos proporciona más hidratos de carbono que una porción del mismo peso de sandía. Para salvar esta limitación en el IG se emplea el término carga glucémica (CG), que tiene en cuenta tanto el IG del alimento como su contenido en hidratos de carbono.

La carga glucémica se calcula directamente a partir del IG, dividiéndolo por 100 y multiplicándolo por la cantidad de carbohidratos que aporta la ración de alimento. Así, la carga glucémica de la sandía es 4, y la de la pasta ronda el 70.

  • Consecuencias de consumir alimentos de alto índice glucémico y/o alta carga glucémica

El consumo de estos alimentos está relacionado con el sobrepeso, la obesidad, la diabetes tipo II y la percepción atrofiada del apetito.

El sobrepeso, la obesidad y sus enfermedades asociadas, como las cardiopatías [1], guardan cierta relación con el índice glucémico y la carga glucémica [2]. La razón principal estriba en el metabolismo de los hidratos de carbono. Parte de los hidratos de carbono de estos alimentos se transforman en grasas en lugar de almacenarse como glucógeno en el hígado y en el músculo, especialmente en personas que no hacen actividad física. Nuestras células no son capaces de gestionar tan rápido tanta cantidad de glucosa, con lo que los adipocitos terminan almacenando el exceso en forma de grasa. Así que, si sumamos la vida sedentaria a una dieta de alto índice y carga glucémica, estaremos aumentando el riesgo de padecer obesidad.

Los aumentos y descensos de insulina tan pronunciados que produce el consumo de estos alimentos está relacionado con una mayor incidencia de diabetes tipo II [3]. La diabetes tipo II es la resistencia a la insulina, es decir, que las células dejan de reconocer a la insulina y por tanto no permiten la entrada a la glucosa, con lo que ésta se queda en la sangre. De ahí expresiones del tipo “no tomo dulces porque me suben el azúcar”, ese azúcar es la glucosa en sangre incapaz de entrar en las células. La glucosa campando a sus anchas por nuestra sangre puede llegar a armar destrozos en nuestro organismo, dañando la retina, los riñones, las arterias o el corazón.

Las dietas con alimentos de bajo índice y carga glucémica, así como los alimentos ricos en fibra, son útiles para prevenir la diabetes tipo II [4].

Los alimentos de bajo índice y carga glucémica nos producen mayor saciedad. Cuando consumimos esta clase de alimentos, los niveles de glucosa en sangre se mantienen en el tiempo, y esto está relacionado con la percepción del apetito. Sin embargo, los alimentos de alto índice y carga glucémica producen aumentos repentinos de glucosa en sangre y su respectivo aumento en la secreción de insulina. Estos vaivenes en periodos cortos de tiempo rompen el equilibrio de saciedad/apetito provocando una falsa sensación de hambre al poco tiempo de haber comido.

Estas subidas y bajadas repentinas de glucosa e insulina repercuten en las hormonas que regulan el apetito, como la ghrelina y la leptina. En los casos en lo que ya hay sobrepeso y obesidad, el sistema hormonal que regula el apetito también pierde funcionalidad [5], con lo que seguir una dieta con alimentos de alto índice y carga glucémica, empeoran la situación y atrofian más si cabe la percepción de apetito.

  • Conclusión

Cuando decidimos consumir alimentos integrales, o dejamos de consumir azúcar, o alimentos con azúcar añadido, u optamos por comer fruta en lugar de beber zumo, lo hacemos por salud. Son decisiones que nos ayudan a prevenir la diabetes tipo II, la obesidad, el sobrepeso y nos ayudan a gestionar mejor el apetito. Todo esto puede entenderse desde un punto de vista metabólico, es decir, la química está detrás de las dietas saludables. Y dos de los conceptos clave para entender por qué esto es así son el índice glucémico y la carga glucémica de los alimentos.

Referencias:

[1] https://www.ncbi.nlm.nih.gov/pubmed/26480969

[2] https://www.ncbi.nlm.nih.gov/pubmed/23786819

[3] https://www.ncbi.nlm.nih.gov/pubmed/25547339

[4] https://www.ncbi.nlm.nih.gov/pubmed/12081851

[5] https://www.ncbi.nlm.nih.gov/pubmed/27376422

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo La dieta saludable es cuestión de química se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ni dieta equilibrada ni nutrientes. Es cosa de adherencia
  2. Vida saludable contra la diabetes
  3. Los vegetales de la dieta neandertal
Catégories: Zientzia

Un dulce problema de Paul Erdös

mer, 2019/01/23 - 11:59

En mi anterior entrada del Cuaderno de Cultura Científica, Las dos culturas de las matemáticas: construir teorías o resolver problemas, estuvimos hablando precisamente de eso, de lo que se conoce como las dos culturas de las matemáticas, construir teorías o resolver problemas.

Dentro del grupo de personas que hacen matemáticas “cuyo objetivo central es resolver problemas” se citaba al matemático húngaro Paul Erdös (1913-1996), considerado “el príncipe de los que resuelven problemas y el monarca absoluto de quienes saben proponer problemas”.

Fotografía de Paul Erdös durante una conferencia en Trinity College (Universidad de Cambridge), en 1991, perteneciente al documental N is a number. A portrait of Paul Erdös (1993), del cineasta George P. Csicsery

Este brillante y extravagante matemático, en la introducción del artículo Some of My Favourite Problems and Results (Algunos de mis problemas y resultados favoritos), escribe lo siguiente.

Los problemas han sido siempre una parte fundamental de mi vida matemática. Un problema bien elegido puede aislar una dificultad esencial en un área particular de las matemáticas, de forma que el mismo sirva de marca que hay que superar para que se produzca el progreso de esa área. Un problema de apariencia inocente a menudo no da ninguna pista de su verdadera naturaleza. Puede ser como un “malvavisco”, que sirve de delicioso bocado de cardenal proporcionando unos instantes de efímero placer. O puede ser como una “bellota”, que necesite agudos y profundos nuevos conocimientos a partir de los cuales pueda crecer un poderoso roble.

Leyendo estos días sobre algunos de los problemas que planteó y resolvió Paul Erdös, descubrí en el libro Mathematical Diamonds, del matemático canadiense Ross Honsberger (1929-2016), un curioso problema, con una sorprendente y hermosa demostración, que me ha parecido interesante comentaros en esta entrada del Cuaderno de Cultura Científica. Espero que disfrutéis de este problema “malvavisco”, tanto como yo disfruté cuando lo leí.

En la década de 1940, el matemático Paul Erdös estaba estudiando y planteando problemas relacionados con diferentes propiedades y estructuras de conjuntos de puntos del plano. Así, por ejemplo, en 1943 planteó en la revista American Mathematical Monthly el problema “Demostrar que, si un conjunto finito de puntos del plano no están todos sobre la misma recta, entonces existe una recta con exactamente dos de esos puntos”. Sin ser consciente de ello, Erdös reformuló el problema de la línea de Sylvester, que en su momento comentamos en la entrada El problema de la plantación de árboles en filas.

Pero vayamos al problema que nos interesa hoy. En el año 1945, Erdös planteó lo siguiente.

Problema (Paul Erdös): Si dado un conjunto infinito de puntos del plano, las distancias entre ellos son todas números enteros (podemos entender naturales), entonces todos los puntos están en una misma línea recta.

Claramente, si tomamos una recta cualquiera del plano podemos considerar una colección infinita de puntos tal que la distancia entre cualquier par de puntos sea un número natural, sin más que partir de un punto inicial e ir tomando hacia izquierda y derecha los puntos que están a una distancia unidad del inmediatamente anterior (como los puntos rojos que están sobre la recta roja del plano en la siguiente imagen). Lo sorprendente de la afirmación de Erdös en el enunciado del problema es que esa es la única forma de obtener una colección infinita de puntos tal que las distancias entre cualesquiera dos de ellos es siempre un número natural.

La demostración del problema es sencilla, sorprendente e ingeniosa, yo diría más, es una bella demostración. El argumento de la misma se centra en una curva de la familia de curvas cónicas, la hipérbola.

Las secciones cónicas son las curvas planas, que no son rectas, que se obtienen al intersecar un cono con un plano. Las curvas cónicas son la circunferencia, la elipse, la parábola y la hipérbola. Imagen: Wikimedia Commons

El argumento de la demostración de Erdös es por “reducción al absurdo”. Supongamos que el resultado no fuese cierto, es decir, que existe un conjunto infinito de puntos del plano S, tal que la distancia entre cualesquiera dos de ellos es un número natural y que existen tres puntos A, B y C, del conjunto S, que no son colineales, no están en la misma recta. En ese caso, esos tres puntos determinan un triángulo del plano. Denotemos por a, b y c las longitudes de los lados del mismo, opuestas a los vértices A, B y C, respectivamente, que sabemos, por hipótesis, que son números naturales.

Ahora, consideremos otro punto cualquiera D del conjunto S (recordemos que este conjunto tiene infinitos puntos). Teniendo en cuenta que las distancias de D a los tres puntos A, B y C son también enteras, por estar todos en S, el matemático húngaro demostró que solamente puede haber un número finito de puntos del plano candidatos a ser D. En conclusión, S no puede ser infinito. Veámoslo.

El punto D no es uno de los vértices del triángulo, que son los puntos A, B y C, por lo que como mucho puede estar en una de las rectas que contienen a los lados del triángulo, AB, AC y BC. Es decir, podemos afirmar que existen (al menos) dos rectas, de las tres que contienen los vértices del triángulo, en los cuales no está el punto D. Supongamos que esas rectas, en las que no está el punto D, son las que contienen a los lados AC y BC.

Las distancias del punto D a los puntos B y C son números naturales, ya que los tres están en S, por lo tanto, la diferencia entre ellas |BDCD| es también un número natural o cero. Como el punto D no está en la recta de BC, la desigualdad triangular (“la suma de las longitudes de dos lados cualesquiera de un triángulo es siempre mayor que la longitud del otro lado”) nos dice que |BDCD| &lt BC = a.

Juntando todo lo anterior, tenemos que |BDCD| = k, donde k es uno de los números enteros 0, 1, 2, …, a – 1. Por lo tanto, D es un punto que pertenece a la hipérbola con focos B y C, y tal que la diferencia de la distancia de sus puntos a los focos es k. Es decir, D está en una de las a hipérbolas que forman la familia de hipérbolas de focos B y C, y diferencias constantes k = 0, 1, 2, …, a – 1.

Representación intuitiva de algunas de las hipérbolas de la familia de hipérbolas con focos B y C y diferencia k un número entero entre 0 y a – 1. Imagen del libro Mathematical Diamonds, de Ross Honsberger

Antes de continuar, recordemos brevemente la propiedad métrica, que estamos mencionando, de las hipérbolas. En general, todas las curvas cónicas se pueden caracterizar mediante una propiedad métrica. Por ejemplo, la circunferencia está formada por los puntos del plano que equidistan, es decir, que están a la misma distancia, de un punto fijo, el centro de la misma.

En el caso de la hipérbola, existen dos puntos destacados, los focos (F1 y F2 en la siguiente imagen), y cada hipérbola está caracterizada por estar formada por los puntos P del plano tales que la diferencia de las distancias a los focos |PF1 – PF2| es una constante k, para cada hipérbola. Luego, dados dos focos F1 y F2, para cada constante k se obtiene una hipérbola como la de la siguiente imagen (con dos ramas). Para k = 0 se obtendría una hipérbola degenerada, que es la recta mediatriz del segmento F1F2, es decir, los puntos que están a la misma distancia de cada uno de los focos.

Dibujo de una hipérbola (en rojo) con focos F1 y F2. Imagen: Wikimedia Commons

Regresemos a la demostración. Hemos probado que como el punto D no está en la recta de BC, D está en alguna de las a (que es un número natural) hipérbolas que forman la familia de hipérbolas de focos B y C, y diferencias constantes k = 0, 1, 2, …, a – 1. De la misma forma, tendrá que ser cierto que, como el punto D no está en la recta que contiene a AC, D está en alguna de las b (que también es un número natural) hipérbolas que forman la familia de hipérbolas de focos A y C, y diferencias constantes m = 0, 1, 2, …, b – 1.

Como dos hipérbolas cualesquiera se intersecarán, como mucho, en 4 puntos distintos, entonces las a hipérbolas de la primera familia y las b hipérbolas de la segunda, se intersecarán a lo sumo en 4ab puntos del plano. Es decir, solo existe un número finito de posibles puntos del plano, (como mucho) 4ab, candidatos a ser D. Esto nos lleva a una contradicción con el hecho de que S es un conjunto infinito, y D es un punto del conjunto, también infinito, S – {A, B, C}, ya que hemos probado que solo hay un número finito de posibles puntos D. Por lo tanto, cualesquiera tres puntos A, B y C, de S, deberán estar alineados, luego los puntos de S están sobre la misma recta.

Q.E.D. (Quod erat demonstrandum)

Página del texto original de la obra Ethica more geometrico demonstrata (Ética demostrada a la manera geomérica) del filósofo Spinoza (1632-1677), en la que vemos la abreviatura Q.E.D. al final de la demostración de la tercera proposición. Q.E.D. es una abreviatura de la expresión latina quod erat demonstrandum, que significa “lo que se quería demostrar” y se coloca al final de una demostración matemática para indicar el final de la misma

Pero, como suele ocurrir en matemáticas, no nos paramos aquí. Una vez demostrado el problema de Erdös (Si dado un conjunto infinito de puntos del plano, las distancias entre ellos son todas números enteros, entonces todos los puntos están en una misma línea recta), podemos preguntarnos qué ocurre con un número finito de puntos. ¿Será posible disponer de un número finito n de puntos, para cualquier n, de forma que las distancias entre cualesquiera dos puntos sean números enteros y no estén todos en una recta?

Empecemos planteando el problema para tres puntos. Si consideramos tres vértices de un cuadrado de lado 1, estos no nos valdrán ya que mientras que los lados sí son distancias enteras, en concreto, 1, no lo es la diagonal, cuyo valor es la raíz de 2, sencillamente por el teorema de Pitágoras. Pero este resultado de la geometría clásica nos da una idea para construir un triángulo cuyos tres lados sí sean números enteros. Tomemos una terna pitagórica cualquiera (a, b, c), es decir, a2 + b2 = c2, y construyamos el triángulo rectángulo que tiene por lados esa terna. Por ejemplo, en el plano coordenado los puntos (0, a), (0, 0) y (b, 0). En la imagen siguiente hemos dibujado (en azul) el correspondiente a la terna (3, 4, 5).

Precisamente, el matemático David Silverman, en 1963, utilizó las ternas pitagóricas irreducibles para demostrar que podía construirse un conjunto cualquiera de puntos del plano con distancias enteras entre ellos y que no fuesen colineales. Para empezar, recordemos que una terna pitagórica (a, b, c), es decir, a2 + b2 = c2, se dice que es irreducible si los tres números a, b y c no tienen, dos a dos, divisores comunes. Por ejemplo, la terna (3, 4, 5) es irreducible, pero no (6, 8, 10).

Sean m ternas pitagóricas irreducibles distintas, (ai, bi, ci), para i = 1, 2, …, m. Tomamos el producto P = a1 x a2 x … x am, David Silverman consideró los m + 1 puntos del plano coordenado siguientes:

(0, P) y ((bi / ai) P, 0), para i = 1, 2, …, m.

Como ai divide a P, cada uno de los puntos anteriores tienen coordenadas enteras, el primero está en el eje de ordenadas (eje y) y los demás en el eje de abscisas (eje x). Y, además, los puntos que están en el eje x distan entre ellos un número entero. Para concluir faltaría ver que la distancia entre el punto (0, P) y cualquiera de los otros ((bi / ai) P, 0) es entera. Esa distancia es

que claramente es entera, ya que ai divide a P.

Además, por ser los triples pitagóricos irreducibles cada punto ((bi / ai) P, 0) es distinto a los demás. Supongamos que existen i y j tales que ((bi / ai) P, 0) = ((bj / aj) P, 0), entonces bi / ai = bj / aj. Luego ai x bj = aj x bi. Como ai y bi no tienen divisores comunes, entonces ai divide a aj y como aj y bj no tienen divisores comunes, entonces aj divide a ai. En conclusión, ai = aj, y de forma equivalente se prueba que bi = bj, lo que implicaría que son el mismo triple pitagórico, lo cual no es cierto.

Por lo tanto, (0,0), (0, P) y ((bi / ai) P, 0), para i = 1, 2, …, m, son m + 2 puntos del plano, no colineales, y que distan entre ellos un número entero.

Efectivamente, el anterior es un ejemplo de un número finito de puntos no colineales que distan entre sí distancias enteras. Sin embargo, podríamos decir que dejan de ser colineales por la mínima ya que todos están en la misma recta, el eje x, salvo el punto (0, P).

En el libro Combinatorial Geometry in the plane, de Hugo Hadwiger y Hans Debrunner se obtiene un resultado más general. Se demuestra que, para cada n, existe un conjunto finito de n puntos del plano, de forma que las distancias entre cualesquiera dos puntos son números enteros y no solo no están todos en una misma recta, sino que, además, no hay tres puntos que sean colineales. Pero esa demostración la dejamos solo para las personas que estén interesadas en ir un poco más allá. Se puede leer en cualquiera de los libros mencionados, Mathematical Diamonds y Combinatorial Geometry in the plane.

El gol de Pitágoras (década 1990), 22 x 45 x 7,5 cm, obra del artista colombiano Bernardo Salcedo (1939-2007). Imagen de la galería El Museo

Bibliografía

1.- William Timothy Gowers, Las dos culturas de las matemáticas, La GACETA de la RSME, vol. 7.2, pag. 371–386, 2004 (publicado originalmente como The Two Cultures of Mathematics, en Mathematics: Frontiers and Perspectives, V.I. Arnold, M. Atiyah, P. Lax y B. Mazur (eds.), AMS, 1999).

2.- Raúl Ibáñez, La cultura científica o la misteriosa identidad del señor Gauss, CIC-Network, n. 8, pag. 14-17, 2010. (versión online en el Cuaderno de Cultura Científica)

3.- Paul Erdös, Some of My Favourite Problems and Results, perteneciente al libro The Mathematics of Paul Erdös I, editado por Ronald L. Graham y Jaroslav Nesetril, Springer-Verlag, 1997.

4.- Ross Honsberger, Mathematical Diamonds, MAA, 2003.

5.- Hugo Hadwiger, Hans Debrunner, Combinatorial Geometry in the Plane, Dover, 1964.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Un dulce problema de Paul Erdös se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El problema de la plantación de árboles en filas (2)
  2. El problema de la plantación de árboles en filas
  3. El problema de Malfatti
Catégories: Zientzia

Aplicaciones de la reflexión de ondas: el sonar

mar, 2019/01/22 - 11:59
Imagen sonar del fondo marino en la que destaca con increíble detalle el pecio del dragaminas de la marina soviética T-297, hundido en aguas de la actual República de Estonia. Imagen: Wikimedia Commons

Hemos visto que los principios básicos de la reflexión de ondas son muy sencillos. No solo eso, con el concepto de rayo son incluso fáciles de ilustrar. Vamos a usar este conocimiento para intentar entender la base de las tecnologías que empleamos diariamente, aunque no seamos conscientes de ello, y consolidarlo. Estas tecnologías se basan en el uso de reflectores de ondas. Podemos encontrar reflectores en los radares de tráfico o en los calefactores infrarrojos, por ejemplo.

Un poco de geometría elemental nos será muy útil. La Figura 1 (a) y (b) muestra cómo los rayos se reflejan en dos reflectores circulares. Recordemos que en estos esquemas solo se muestran algunos rayos incidentes y reflejados. (Las líneas de puntos son perpendiculares a la superficie de la barrera, para recordarlos que el ángulo incidente es igual al ángulo del rayo reflejado, Θi = Θr .) Los rayos reflejados desde el semicírculo (a) se alejan en todas direcciones. Sin embargo, los rayos reflejados desde un pequeño segmento del círculo (b) se acercan hasta casi juntarse en un solo punto. Los reflectores en forma de semicírculo no son muy útiles.

Figura 1. Fuente: Cassidy Physics Library

Una barrera con la forma de una parábola (c) enfoca los rayos con bastante precisión en un punto, el foco de la parábola. En otras palabras, una superficie parabólica refleja ondas planas y las concentra en un punto. Un ejemplo impresionante es un radiotelescopio. Su enorme superficie parabólica refleja ondas de radio muy débiles del espacio exterior para enfocarlas en un detector. El mismo principio lo emplean las antenas parabólicas para la recepción de señales de satélites, para ver la televisión, por ejemplo.

Radiotelescopio de Parkes (NSW, Australia), de 64 metros de tamaño, durante la puesta de Sol. La antena tiene forma parabólica y el detector está en su foco. Crédito: Ángel R. López-Sánchez (AAO/MQU).

Nada impide que las trayectorias de de los rayos indicadas en los diagramas se inviertan. Por ejemplo, si producimos ondas esféricas producidas en el foco las convertimos en ondas planas cuando se reflejan desde una superficie parabólica. La linterna y o el faro delantero de un coche son aplicaciones familiares de este principio. En estos casos una fuente de luz, ya sea una filamento incandescente, una bombilla halógena o un LED, colocados en el foco de un reflector parabólico producen rayos de luz casi paralelos.

En este punto es posible que sea necesario recordar que todas las afirmaciones que hemos hecho a lo largo de la serie se refieren a ondas mecánicas, auqnue estemos empleando la parte común con las ondas electromagnéticas en estos ejemplos.

Una aplicación con ondas sonoras es el sonar (del acrónimo inglés que se traduce como navegación y localización por sonido), empleado en la navegación y localización de objetos en el mar: desde barcos de pesca buscando bancos de peces, pasando por buques oceanográficos cartografiando el fondo marino o cazatesoros buscando barcos hundidos, a submarinos buscando su ruta o enemigos. Su desarrollo fue una cuestión de supervivencia durante la Primera Guerra Mundial, y para 1918 ya existían instrumento SONAR tanto activos (emiten sonido) como pasivos (solo “escuchan”). La Segunda Guerra Mundial llevó al desarrollo de su equivalente electromagnético, también como una cuestión de supervivencia para la bombardeada Inglaterra, el radar. Ambos sistemas se basan en dos principios básicos de la reflexión de ondas: el efecto eco y el desplazamiento Doppler.

El eco es un fenómeno muy familiar: grita tu nombre en una gran sala vacía y las paredes parecen gritarte a ti. Este tipo de eco es el resultado de la reflexión de las ondas de sonido en una superficie. Un pulso de ondas de sonido enviadas desde una antena se reflejará desde cualquier objeto que golpee, y parte de la onda volverá a donde se originó. El tiempo que transcurre entre la emisión del pulso y la recepción de la parte reflejada del pulso se puede usar para determinar la distancia entre el punto y la superficie reflectante. Esta es la descripción de un sonar activo.

El desplazamiento Doppler, también muy común en la vida diaria, ocurre cuando las ondas de cualquier tipo son emitidas o reflejadas por un cuerpo en movimiento. (Todo el mundo lo ha experimentado como el cambio en la frecuencia del ruido de un coche o el silbato de un tren mientras está en movimiento). Si las ondas enviadas desde un punto se reflejan en un cuerpo en movimiento, las ondas que regresan parecerán tener una mayor frecuencia si el objeto se mueve hacia el punto de emisión y una frecuencia más baja a medida que el objeto se aleja de él. Por lo tanto, la medición del desplazamiento Doppler de las ondas reflejadas se puede utilizar para determinar rápidamente la velocidad y la dirección de la superficie reflectante.

El sonar funciona muy bien en el agua y lo utilizan con gran éxito los submarinos para “ver” sin ver, tanto el entorno como a las amenazas. Pero el sonar no es práctico para su uso en el aire, porque en éste las ondas de sonido ordinarias no viajan lo suficientemente lejos, y su eco es demasiado débil para ser útil en detecciones precisas.

En este fragmento de “La caza del Octubre Rojo” vemos (y oímos) el uso del SONAR en todo su esplendor:

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Aplicaciones de la reflexión de ondas: el sonar se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Reflexión de ondas: rayos
  2. Las ondas están por todas partes
  3. Patrón de interferencia en ondas periódicas
Catégories: Zientzia

Estamos perdiendo el norte pero que no cunda el pánico porque lo vamos a recuperar

lun, 2019/01/21 - 11:59

Hay pocas cosas inmutables en esta vida, e incluso aquellas que creemos que lo son a veces nos sorprenden mutando. El Polo Norte es una de ellas. Me refiero al polo norte magnético en esta ocasión, no al continente que llamamos Ártico o Polo Norte (de la deriva continental ya hablaremos otro día).

El caso es que el polo norte magnético, el punto hacia el que apuntan siempre nuestras brújulas y que utilizan los más sofisticados sistemas de posicionamiento como nuestros GPS y otros sistemas de satélites, ya no está donde estaba antes porque su posición está variando de forma constante y, sabemos ahora, más rápida de lo que los geólogos se esperaban.

Variación de la posición del polo norte magnético en periodos de 5 años, la última en 2015, y proyección de su posición en 2020. Fuente: World Data Center for Geomagnetism/Universidad de Kyoto

Que el polo norte magnético de la Tierra se está desplazando no es una novedad, lo ha hecho desde siempre y siempre lo hemos sabido. Si en torno a 1900 se encontraba en algún punto bajo Canadá, desde entonces ha ido alejándose de Norteamérica y acercándose a Siberia.

Un modelo que se desactualiza por momentos

Conscientes de esta situación y de la necesidad que la tecnología tiene hoy en día de tener el campo magnético terrestre perfectamente ubicado, geólogos de distintas instituciones científicas crearon y mantienen el llamado Modelo Magnético Mundial, una representación detallada de los campos magnéticos de la Tierra que sirve como estándar para el trabajo y las observaciones, entre otros, de la OTAN, la OMS o el Departamento de Defensa Estadounidense. Es de donde sacan la referencia también los sistemas de GPS que utilizan servicios como Google Maps.

Este modelo iba ser actualizado este mes de enero (aunque con el cerrojazo al gobierno estadounidense no está claro si finalmente podrá ser así) y eso no estaba previsto. Los equipos encargados de esta tarea están un poco desconcertados. Porque la última actualización se produjo en 2015 y debía ser suficiente hasta 2020, pero acaba de empezar 2019 y el desplazamiento del polo norte se ha acelerado tanto en los últimos meses que la diferencia entre el modelo y la realidad no para de aumentar. A principios de 2018 esa diferencia estaba a punto de superar los márgenes de error aceptables para los sistemas de navegación, así que el nuevo cambio no puede esperar más.

¿Por qué este acelerón inesperado en un proceso, el de la deriva del polo norte magnético, que si bien todavía no comprendemos perfectamente sí hemos sabido predecir hasta ahora? Hay varios motivos que lo explican.

El inesperado meneo de 2016

El primero es que en 2016, justo después de la última actualización del Modelo Magnético Mundial, cuando lo teníamos todo perfectamente colocadito para los próximos cinco años, al campo magnético de la Tierra le dio por hacer cosas raras de repente: se aceleró temporalmente bajo la zona norte de Sudamérica y la zona este del Pacífico. Este fenómeno, que no se había previsto, ya descolocó de partida el modelo recién actualizado, provocando que el cambio sí previsto ocurriese a mayor velocidad.

Por otro lado, el propio movimiento del polo magnético que, como decimos, fascina a los geólogos desde que se documentó por primera vez en 1831 pero todavía no lo comprendemos del todo. Sí sabemos que ha ido cogiendo velocidad en las últimas décadas: si hasta los 90 se movía unos 15 kilómetros al año, en ese momento aceleró y comenzó a moverse unos 55 kilómetros anuales. En el año 2001 entró oficialmente en el Océano Ártico, y lo está cruzando desde entonces, desde Canadá hacia Siberia.

Las consecuencias de este movimiento y del error existente respecto al modelo establecido son relativas. No es lo mismo el uso de una brújula para orientarse si salimos de excursión a la montaña en España, por ejemplo, que si somos una expedición en el Ártico. Allí no solo hay muchas menos referencias orientativas, sino que además por la geografía del lugar y su cercanía al Polo, el error se magnifica y puede convertirse en un riesgo para barcos y equipos que se desorienten en el lugar.

Por eso se decidió adelantar la siguiente actualización del modelo. Equipos del NOAA (National Oceanic and Atmosferic Administration) y del British Geological Survey, en Edimburgo, han actualizado el sistema con datos exhaustivos de los últimos tres años, incluido el impulso magnético inesperado de 2016 para corregir los errores actuales y mantener el modelo hasta su siguiente actualización que debería hacerse, si todo sigue según lo previsto, en 2020.

¿Por qué está pasando esto?

También intentan entender por qué el desplazamiento magnético se ha acelerado tanto en las últimas décadas y a qué se deben los acelerones ocasionales para poder preverlos y adelantarse a ellos.

Lo ocurrido en 2016 no tiene aun una explicación clara, pero hay varias hipótesis. Una de ellas es que estuviese provocado el movimiento en forma de olas de los metales y otros materiales en estado líquido que se encuentran en el núcleo terrestre y que pueden alterar el campo magnético de la superficie.

En cuanto al desplazamiento habitual pero cada vez más rápido del polo norte desde Canadá hacia Siberia, se cree que el motivo podría ser también el movimiento de materiales líquidos en el núcleo de la Tierra. En concreto, se ha detectado y medido una corriente de hierro líquido que circula a gran velocidad precisamente debajo de Canadá, y ese parece ser el motivo. La corriente, que mide 420 kilómetros de ancho, ha ido creciendo a un ritmo de 40 kilómetros al año entre los años 2000 y 2016, explicando así la aceleración que los científicos han observado.

Referencias:

Earth’s magnetic field is acting up and geologists don’t know why – Nature.com

World Magnetic Model – British Geological Survey

Geomagnetic acceleration and rapid hydromagnetic wave dynamics in advanced numerical simulations of the geodynamo – Geophysical Journal International

An accelerating high-latitude jet in Earth’s core – Nature Geoscience

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Estamos perdiendo el norte pero que no cunda el pánico porque lo vamos a recuperar se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las tres conquistas del Polo Norte
  2. Geología: la clave para saber de dónde venimos y hacia dónde vamos
  3. El Antropoceno: ¿estamos en un nuevo tiempo geológico?
Catégories: Zientzia

El ocre rojo de la antigüedad y los porqués de sus propiedades

dim, 2019/01/20 - 11:59
Diferentes muestras de miltos. La muestra ‘e’ es una pieza otomana del siglo XVI, la ‘b’ es una muestra control de óxido amarillo. Fuente: E. Photos-Jones et al (2018)

A la variedad de ocre rojo a la que los griegos llamaban miltos se le atribuían en la antigüedad clásica propiedades notables, razón por la que era muy valorado. Se utilizaba como pigmento para el mantenimiento de embarcaciones, en agricultura, como cosmético, y en medicina. El miltos es una mezcla de goethita (forma mineral del oxihidróxido de hierro), hematita (forma mineral del óxido férrico) y calcita (forma mineral del carbonato cálcico), y está formado por partículas muy finas. El que se usaba en la época clásica procedía de enclaves muy concretos, como la isla de Kea, en las Cíclades; la isla de Lemnos, en el mar Egeo; y Sinope, Capadocia, aunque muy probablemente, su composición variaba dependiendo de su procedencia.

Además de su composición química y estructura, las propiedades de los minerales pueden depender de los microorganismos adheridos a su superficie. Cuanto más pequeño es un objeto, mayor es la superficie con relación al volumen. Dado el pequeñísimo tamaño de las partículas que lo conforman -entre 30 y 700 nm de diámetro-, un mineral como el miltos tiene, por unidad de masa, una gran superficie y sobre ella puede crecer una rica película microbiana. Por otro lado, la composición de la comunidad microbiana depende de las propiedades químicas del mineral y muy en especial de su contenido en ciertos metales que pueden resultar tóxicos. Por ello, también sus posibles efectos sobre otros seres vivos variarán en función de esos rasgos.

Partiendo de ese tipo de consideraciones, un grupo formado por arqueólogos, ingenieros y geólogos ha analizado muestras de miltos de diferentes orígenes, al objeto de identificar las características que confieren al mineral las propiedades que se le atribuían en el mundo clásico.

El alto contenido en plomo de alguna de las muestras explica, por ejemplo, que el ocre rojo procedente de Kea se destinara a los barcos. Aunque se había atribuido una función meramente decorativa a su uso, lo más probable es que su utilidad real se debiese a que, al ser aplicado sobre la superficie externa de los cascos de las embarcaciones, impedía que microorganismos, algas y ciertos invertebrados se les adhiriesen, dificultando así la navegación. El plomo, así como otros metales presentes en el miltos, es tóxico para muchos seres vivos y, por esa razón, en las muestras cuyo contenido en ese metal resultó ser alto, había poca diversidad de bacterias.

Se utilizaba, por otro lado, para prevenir enfermedades en las plantas cultivadas, debido a la acción biocida de algunos metales y sustancias orgánicas adheridas a la superficie. También fue de utilidad como fertilizante, función vinculada seguramente a la presencia en el ocre rojo de bacterias fijadoras de nitrógeno; la fijación de nitrógeno consiste en la conversión de un gas que es biológicamente inútil en sustancias nitrogenadas que pueden ser absorbidas por las plantas y utilizadas para su crecimiento. Se da la circunstancia de que el hierro del mineral es un componente importante de las enzimas y compuestos orgánicos implicados en esa fijación bacteriana. Por último, también cabe atribuir el efecto antibiótico del miltos de algunas procedencias a la presencia de ciertos metales minoritarios en la composición del mineral, así como a la proliferación en la superficie de las partículas de determinados microorganismos.

Hay referencias de miltos en tabletas micénicas de arcilla escritas en Lineal B hace unos 4000 años y autores clásicos como Teofastro, Dioscórides o Plinio se refirieron a él. Ahora hemos sabido que las propiedades que se le atribuían no eran milagrosas. Eso sí, ha habido que esperar miles de años para ello.

Fuente: E. Photos-Jones, C. W. Knapp, D. Vernieri, G. E. Christidis, C. Elgy, E. Valsami-Jones, I. Gounaki y N. C. Andriopoulo (2018): Greco-Roman mineral (litho)therapeutics and their relationship to their microbiome: The case of the red pigment miltos. Journal of Archaelogical Science: Reports 22: 179-192.

——————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

Una versión anterior de este artículo fue publicada en el diario Deia el 4 de noviembre de 2018.

El artículo El ocre rojo de la antigüedad y los porqués de sus propiedades se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Reduccionismo vs. emergencia (II): las propiedades emergentes
  2. Algunas observaciones someras relativas a las propiedades aerodinámicas de la suma
  3. Rediles para ganado de unos 5.000 años de antigüedad en Álava
Catégories: Zientzia

Pages