S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 30 min 44 sec

Experimentación y evidencia: dos visiones opuestas

jeu, 2019/02/14 - 11:59
La aproximación que tuvo éxito a la hora de descifrar las comunicaciones alemanas durante la Segunda Guerra Mundial se basaba en el teorema de Bayes no en la frecuencia pura de las señales. En la imagen, reproducción de “la bomba”, la máquina que permitía descifrar los mensajes de Enigma, el sistema de codificación alemán. Fuente: Ted Coles/Wikimedia

Anteriormente, hablábamos de estándares de evidencia científica y del problema filosófico de la inferencia inductiva; de cómo Ronald Fisher, hace un siglo, promovió métodos —como los contrastes de hipótesis— que evaden el problema, y adelantábamos que dichos métodos suponen una aproximación frecuentista a la realidad. A continuación abundaremos en el problema metodológico que plantean la medida y la estimación estadística de la (in)certidumbre, y que tiene su raíz en el concepto mismo de probabilidad. Esto da lugar a dos visiones opuestas aunque, como veremos, estrechamente relacionadas, lo que en estadística se denomina frecuentismo vs. bayesianismo.

La probabilidad, en su definición más básica, es una medida de la certidumbre asociada a un suceso futuro. Aquí por suceso entendemos eventos que bien pueden ser simples, como la probabilidad de obtener “cara” al lanzar una moneda, o complejos, como la probabilidad de que un jugador de fútbol marque un penalti. Esta es la única definición operativa para la aproximación frecuentista, en la que la probabilidad de un suceso es simplemente la frecuencia relativa de dicho suceso cuando el experimento se repite infinitas veces. Es decir, si tirásemos infinitas veces una moneda ideal, obtendríamos “cara” la mitad de las veces, por lo que decimos que la probabilidad de “cara” (dada una moneda ideal) es de 0.5.

Por tanto, la aproximación frecuentista se dedica a responder a Pr(D | H), esto es, la probabilidad de ciertos datos asumiendo cierta hipótesis: ¿es normal obtener 58 caras y 42 cruces en 100 lanzamientos si la moneda no está trucada? Las limitaciones saltan a la vista: ¿qué me dice esto respecto a asumir que la moneda está trucada?, ¿cómo de trucada?, ¿cómo cambia mi conocimiento sobre esta cuestión si hago otros 100 lanzamientos y obtengo, por ejemplo, 47 caras y 53 cruces? Como vimos al hablar de p-valores, lo más a lo que podemos aspirar es a rechazar que no esté trucada, y si no lo logramos, no obtenemos ninguna información.

¿Podemos hacerlo mejor? Así lo afirma la aproximación bayesiana. Para ello, necesitamos extender la definición de probabilidad, que ahora pasa a ser la certidumbre asociada a una hipótesis dada cierta evidencia disponible: ¿qué certidumbre tengo de que la moneda (no) está trucada si obtengo 58 caras y 42 cruces en 100 lanzamientos? Dicho de otra manera, el enfoque bayesiano se ocupa de Pr(H | D), de las preguntas de la ciencia. No obstante, resulta paradójico que ambas corrientes —deductiva vs. inductiva— se encuentren irreconciliablemente unidas mediante un resultado fundamental de teoría de la probabilidad: el teorema de Bayes.

La probabilidad frecuentista se transforma en la probabilidad bayesiana, o a posteriori, simplemente multiplicando por Pr(H), que no es otra cosa que la información a priori que disponemos del problema en cuestión. La inclusión de este factor, que no está exento de sutilezas, pone muy nerviosos a los frecuentistas, ya que lo ven como una fuente de subjetividad y de sesgos que no tiene lugar en un análisis estadístico. A esto, los bayesianos replican que el frecuentismo no soluciona este problema, sino que simplemente evita la pregunta.

Así pues, el enfoque frecuentista puede verse como un caso particular del bayesiano con un conjunto de suposiciones implícitas que no son necesariamente buenas. Por el contrario, a través del teorema de Bayes se hace explícita esta elección, lo que da enormes ventajas tanto filosóficas (se responde directamente a la pregunta que nos interesa) como metodológicas (por ejemplo, es sencillo y directo actualizar mi grado certidumbre sobre la hipótesis cuando obtengo nuevos datos o nueva información), ventajas que se hacen más evidentes cuando las preguntas que nos hacemos y los modelos que planteamos son más y más complejos.

Entonces, ¿cuál es la moraleja? ¿Es el frecuentismo erróneo? No necesariamente. Pero sí es cierto que sus métodos, numerosos y diversos, se prestan con más facilidad a una elección, uso o interpretación incorrectos, incluso entre expertos, y en determinados contextos esto lleva a conclusiones erróneas. Es por ello que muchos de sus detractores lo consideran perjudicial para la ciencia y promueven el bayesianismo como solución. No obstante, hoy en día, todavía los cursos introductorios a la estadística de cualquier carrera universitaria siguen siendo superficialmente frecuentistas.

Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute

El artículo Experimentación y evidencia: dos visiones opuestas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Prohibir los herbicidas con glifosato es anteponer la ideología a la evidencia científica
  2. Galileo vs. Iglesia Católica redux (VI): Visiones
  3. Algunas visiones en filosofía de la ciencia sobre sus valores
Catégories: Zientzia

La notación polaca, la de Jan Łukasiewicz

mer, 2019/02/13 - 11:59

La notaciones de prefijo (o polaca, en homenaje a Jan Łukasiewicz), de infijo y de postfijo (o polaca inversa) son formas de escritura de expresiones algebraicas que se diferencian por la posición relativa que toman los operadores y los operandos. En la notación de prefijo, el operador se escribe delante de los operandos (+ 3 4), entre los operandos en la notación de infijo (3 + 4) y tras los operandos en la de posfijo (3 4 +).

La notación de prefijo fue propuesta en 1924 por el matemático, lógico y filósofo polaco Jan Łukasiewicz (1878-1956), de allí el nombre alternativo por la que se conoce.

Jan Łukasiewicz. Imagen: Wikimedia Commons.

Al igual que la de postfijo, la notación polaca permite prescindir de los paréntesis en el caso de operadores de aridad fija conocida. Por ejemplo, la operación 5 * (12 + 4).puede escribirse en prefijo como: * 5 (+ 12 4); o sencillamente: * 5 + 12 4 (y como 5 12 4 + *en postfijo).

Łukasiewicz introdujo esta notación con la intención de simplificar la lógica proposicional. El matemático y lógico Alonzo Church la mencionaba en su libro clásico Introduction to Mathematical Logic (1956) como una notación digna de observación. Aunque dejó pronto de utilizarse en lógica, encontró su lugar en las ciencias de la computación. Por ejemplo, el lenguaje de programación LISP basa precisamente su sintaxis en la notación polaca.

Las calculadoras Hewlett-Packard usan la notación polaca inversa, económica en número de entradas, pero que requiere un esfuerzo adicional para la interpretación del resultado. Esta empresa utilizó este sistema por primera vez en 1968, en la calculadora de sobremesa HP-9100A. Y fue también ésta la notación de la primera calculadora científica de bolsillo, la HP-35, usada entre 1972 y 1975.

La HP9100A y la HP-35. Creada con imágenes de Wikimedia Commons.

En ciencias de la computación, la notación de postfijo se usa en lenguajes de programación orientados a pila y en sistemas basados en tuberías.

Pero volvamos, para finalizar, a Jan Łukasiewicz, al que rendimos hoy homenaje porque falleció un 13 de febrero, en Dublin, donde emigró tras la Segunda Guerra Mundial.

Como ya hemos comentado, trabajó fundamentalmente en lógica proposicional, sistema formal en el que pensaba realizar innovaciones. Estudió los sistemas axiomáticos de la lógica e impulsó las lógicas multivaluadas, dando una interpretación de la lógica modal.

Hoc est falsum (Esto es falso).

No, no, lo que he comentado arriba no es falso. Esta sentencia es la versión de Girolamo Savonarola de la famosa paradoja del mentiroso. Jan Łukasiewicz dio una solución de esta paradoja en los siguientes términos:

Todo principio lógico contiene variables. Estas variables, como las variables en matemáticas, pueden tener varios valores. Existe una ley lógica que dice que todos los principios lógicos se refieren solo a aquellos objetos que pueden ser valores de variables. Se puede demostrar que la frase anterior que contiene la contradicción no puede ser el valor de una variable. Por lo tanto, los principios lógicos no se aplican a esta oración. Esta construcción está fuera de la lógica.

Más información:

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo La notación polaca, la de Jan Łukasiewicz se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Matemáticos y sin embargo criminales
  2. El teorema de Morcom
  3. Compartiendo un rumor
Catégories: Zientzia

Sonido (y 2)

mar, 2019/02/12 - 11:59
Un oficial y un soldado de un regimento de Feldartillerie alemán en 1917. Su equipamiento les permitía detectar la llegada de aviones por el sonido, e identificarlos visualmente gracias a los prismáticos incorporados. Fuente: Rare Historical Photos

Siempre ha sido bastante obvio que el sonido emplea un tiempo para viajar desde la fuente hasta el receptor. Cronometrando los ecos en una distancia conocida, el matemático Marin Mersenne calculó por primera vez en 1640 la velocidad del sonido en el aire. Pasaron otros 70 años antes de que William Derham, comparando el flash y el ruido de los cañones a 20 km de distancia, se acercara a las mediciones modernas. El sonido en el aire al nivel del mar a 20 ° C se mueve a unos 344 m/s. Al igual que para todas las ondas, la velocidad de las ondas de sonido depende de las propiedades del medio: la temperatura, la densidad y la elasticidad. Las ondas de sonido generalmente viajan más rápido en líquidos que en gases, y más rápido todavía en sólidos. En el agua de mar su velocidad es de unos 1500 m/s; en el acero unos 5000 m/s; en el cuarzo unos 5500 m/s.

La interferencia de las ondas de sonido se puede mostrar de varias maneras. Una de las consecuencias de las características de las interferencias es que, en una sala grande con superficies duras que reflejen el sonido, habrá puntos “muertos”. En estos puntos, las ondas de sonido interfieren con las reflejadas, con lo que tienden a cancelarse entre sí. Los ingenieros acústicos deben considerar esto al diseñar la forma, la posición y los materiales de un auditorio.

Otro ejemplo interesante y bastante diferente de la interferencia de sonido es el fenómeno conocido como batimento. Cuando dos notas de frecuencia ligeramente diferente se escuchan juntas, interfieren. Esta interferencia produce batimentos, una pulsión rítmica de la intensidad del sonido (trémolos). Los afinadores de piano y los músicos de instrumentos de cuerda utilizan este hecho para afinar dos cuerdas al mismo tono. Simplemente ajustan una cuerda u otra hasta que los batimentos desaparecen.

La refracción del sonido por diferentes capas de aire explica por qué a veces no se puede escuchar el trueno después de ver un rayo. Una refracción similar del sonido ocurre en capas de agua de diferentes temperaturas. Los geólogos utilizan la refracción de las ondas de sonido para estudiar la estructura profunda de la Tierra y para localizar combustibles fósiles y minerales. Por ejemplo, se crean ondas de sonido muy intensas en el suelo (explosiones de dinamita, por ejemplo). Las ondas de sonido viajan a través de la Tierra y son recibidas por dispositivos de detección en diferentes ubicaciones. La trayectoria de las ondas, al ser refractadas por las capas del terreno, se puede calcular a partir de las intensidades de sonido relativas y los tiempos alas que son recibidas. A partir del conocimiento de las trayectorias se pueden hacer estimaciones de la composición de las capas.

Como exlicamos en su momento, la difracción es una propiedad de las ondas sonoras. Las ondas de sonido doblan las esquinas y barreras para llegar al oyente.

Las ondas sonoras se reflejan, al igual que las ondas en una cuerda o en el agua, cada vez que se encuentran con un límite entre diferentes medios. Las características arquitectónicas llamadas “galerías o gabinetes de secretos” muestran vívidamente cómo se puede enfocar el sonido mediante el reflejo en superficies curvas. Un uso inteligente de la sala de los secretos se atribuye a Juan de Herrera mientras se construía el Real Monasterio y Sitio de San Lorenzo de El Escorial, como puede leerse aquí. Pero ya eran conocidas siglos antes: la de la Alhambra, por ejemplo, data de 1358.

Todos estos efectos son de interés en el estudio de la acústica. Además, el buen diseño acústico de los edificios públicos se reconoce actualmente como una factor importante para distinguir un buen diseño arquitectónico.

Hasta ahora hemos visto los fenómenos básicos de las ondas mecánicas, que terminan con la teoría de la propagación del sonido. Las explicaciones de estos fenómenos se consideraron el triunfo final de la mecánica newtoniana aplicada a la transferencia de energía de las partículas en movimiento. La mayoría de los principios generales de la acústica se descubrieron en la década de 1870. Desde ese momento tal vez su influencia más importante en la física moderna fue su efecto en la mentalidad de las personas de ciencia. Los éxitos de la acústica las alentaron a tomarse en serio el poder del punto de vista ondulatorio, incluso en campos alejados del original: el movimiento mecánico de las partículas que se mueven adelante y atrás o arriba y abajo en un medio. Pero en nada tuvo más importancia que en el estudio de un fenómeno importantísimo: la luz.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Sonido (y 2) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sonido (1)
  2. Difracción de ondas: el principio de Huygens
  3. Patrón de interferencia en ondas periódicas
Catégories: Zientzia

Mi hija quiere ser ingeniera

lun, 2019/02/11 - 09:00

La UNESCO publicó en 2017 el informe Cracking the Code: Girls’ and women’s education in science, technology, engineering and mathematics (STEM), en el que se analizan los factores que dificultan o facilitan la participación, logros y progreso de las mujeres en las disciplinas científicas y tecnológicas, así como las medidas que pueden promover el interés de las chicas en los correspondientes estudios.

Según el informe, la decisión de muchas de ellas de no cursarlos es la consecuencia de un sesgo de auto-selección derivado de las circunstancias en que se han socializado. En la elección de la carrera incidirían estereotipos transmitidos a las niñas consciente o inconscientemente, principalmente en el entorno familiar pero también en contextos sociales más amplios.

Las características del ámbito escolar también parecen ser importantes pues la elección por las chicas de carreras del campo científico y tecnológico se ve favorecida por la presencia en el personal docente de profesoras en esas materias. Porque la profesoras -las buenas sobre todo- constituyen modelos de referencia que promueven la elección por las chicas de esos estudios.

Como hemos señalado en una ocasión anterior, la función de la Cátedra de Cultura Científica de la UPV/EHU no se limita a la promoción del conocimiento científico entre la ciudadanía como si esta tarea se desarrollase en el vacío y se justificase por sí misma. Desempeña esa labor al servicio de un interés superior, porque una mayor extensión de la cultura científica favorece la existencia de una ciudadanía más libre y capacitada para incidir en su propio destino y en el devenir de la sociedad a la que pertenece. En ese sentido, la promoción de la igualdad de oportunidades entre hombres y mujeres en el ámbito científico ayuda a que hombres y mujeres disfruten de los mismos ámbitos de libertad y misma capacidad de decisión.

En ese contexto ha de enmarcarse nuestro interés por remover los obstáculos que dificultan el acceso de las mujeres a entornos culturales y profesionales científico-tecnológicos. Con ese objetivo en mente publicamos Mujeres con Ciencia; lo hacemos con el propósito, entre otros, de dar a conocer el trabajo de las mujeres en los ámbitos científico y tecnológico, y poner así a disposición de las jóvenes estudiantes, de sus familias y del público en general modelos que puedan servir de referencia. En eso consiste nuestra tarea de todos los días.

Y por lo mismo, cada 11 de febrero nos sumamos a la celebración del Día Internacional de la Mujer y la Niña en la Ciencia. En 2017 lo hicimos poniendo el foco en las científicas del futuro, en 2018 recordamos a las que no han tenido el reconocimiento que merecían. Y este año nos hemos querido fijar en la gran diferencia que hay entre chicos y chicas en el acceso a carreras de ingeniería y en la incidencia de los estereotipos en esa brecha.

Los datos son contundentes: tan solo un 25% de quienes se matriculan en estudios tecnológicos en la UPV/EHU -ingenierías, principalmente- son chicas. Ese porcentaje contrasta sobremanera con el de quienes lo hacen en ciencias de la salud (75%). Y también se diferencia, aunque no en una medida similar, de quienes cursan estudios de letras y artes (60%), ciencias sociales y jurídicas (57%) y ciencias experimentales y naturales (50%). Aunque seguramente esos porcentajes son diferentes de los de otras universidades en España o en otros países occidentales, lo más probable es que en todos ellos se produzcan diferencias de ese tipo y similar magnitud. Porque el fenómeno que describe es de carácter muy general.

Como en años anteriores, celebraremos el “Día Internacional de la Mujer y la Niña en la Ciencia” con la publicación de un vídeo de corta duración: Mi hija quiere ser ingeniera. Este vídeo ha contado con la colaboración de Iberdrola y ha sido producido por K2000 y dirigido por Aitor Gutiérrez, sobre un guion de José A. Pérez Ledo.

—————————————————————–

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

El artículo Mi hija quiere ser ingeniera se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¡Salvad a la hija!
  2. ¿Quién quiere vivir para siempre?
  3. Amelia quiere explorar el desierto
Catégories: Zientzia

El alma de plantas, las esencias de las aromáticas

dim, 2019/02/10 - 11:59

Emilio Lizarraga

Las plantas aromáticas fueron empleadas desde tiempos remotos con el fin de mejorar el sabor de los alimentos, obtener perfumes y curar enfermedades. Estos vegetales poseen estructuras especializadas que producen y vierten al exterior sustancias conocidas como esencias o aceites esenciales. En la naturaleza cumplen un rol importante en la defensa de los vegetales como constituyentes antibacterianos, antivirales, antifúngicos e insecticidas, además de jugar un rol ecológico como agentes para evitar el ataque de herbívoros y como atrayentes de insectos para favorecer la dispersión de polen.

Una trágica historia de amor…

Las esencias ó aceites esenciales, son sustancias producidas por las plantas aromáticas en determinadas estructuras celulares. Las aromáticas como se las conoce habitualmente, son plantas que estuvieron prácticamente presentes en la vida de los humanos desde la noche de los tiempos.

La mitología griega por ejemplo, relata a su modo, como surge la primera planta de menta (Mentha sp.), quien tiene de protagonista a la ninfa Menthe quien vivía un ilícito romance con Hades “el Dios del Inframundo”. Como ya es conocido, muchas de estas historias suelen tener un trágico final, y, este romance no es la excepción. Démeter (suegra de Hades) descubre este amorío y le comunicó a Perséfone (esposa de Hades) la desafortunada novedad. Y, aún hasta hoy no se tiene la certeza, si Démeter o su hija es quien golpea a Menthe hasta matarla. El cuerpo desintegrado de la ninfa fue descubierto por Hades y este haciendo uso de sus poderes, logró que a partir de los restos de su amada brotaran plantas de menta.

Es sumamente representativa esta historia y su relación con la planta de menta, ya que es sin lugar a dudas la especie aromática más conocida y ampliamente usada desde tiempos remotos.

Hojas de Menta x piperita (peperina). El género Mentha, incluye aproximadamente unas treinta especies además de contar con algunas especies híbridas.

Algo huele bien

Las plantas aromáticas están definidas por sus caracteres organolépticos, es decir, impresionan los sentidos del olfato y el gusto. Esta caracterización, que se ajusta a la percepción humana tiene origen en componentes propios de las plantas: diferentes sustancias que les confieren aroma y sabor.

Las especies aromáticas, poseen en sus tejidos, o vierten al exterior sustancias líquidas volátiles denominadas aceites esenciales, esencias o aceites volátiles. Y, de acuerdo al uso que se les dé, se las puede agrupar en: perfumíferas, terapéuticas y condimenticias.

Se estima que el interés por los aceites esenciales tuvo su origen en Oriente, concretamente, en Egipto, Persia e India, donde se desarrolló la destilación simple como el método para su extracción del material vegetal. Mas tarde, a principios de la Edad Media, se comercializaban aceites perfumados y ungüentos naturales que no eran exactamente aceites esenciales. Estas mezclas se guardaban en recipientes traslúcidos y se sometían a la acción de luz del sol o a calentamiento, logrando finalmente la separación de los aceites esenciales y de los constituyentes sólidos de la mezcla.

Por otra parte, ciertas flores se maceraban con vino antes de adicionarle grasas, y el producto de esa extracción conocida como digestión, se filtraba y calentaba con el fin de obtener las esencias (Jirovetz y Buchbaver, 2005). También se recurrió a exprimir los órganos vegetales mediante el uso de telas o lienzos y mas tarde se perfeccionaron prensas para obtener mayor cantidad de esencia pura.

El alma de las plantas

Se cree que el término aceite esencial fue propuesto en el siglo XVI por Theophrastus Phillippus Aureolus Bombastus von Hohenheim, el alquimista conocido como Paracelso (Figura 2). Este es quien denominó a las esencias como el alma de las plantas, denominación algo romántica, quizás por el carácter etéreo de estas sustancias.

Figura 2. El alquimista Paracelso. Imagen: Wikimedia Commons

Los primeros estudios detallados de las esencias son los realizados por J.J. Houton de Labillardière, quien en 1818 realizó el análisis elemental del aceite de trementina. Mas tarde, J. Berzelius, J.B. Dumas, J. von Liebig y F. Wöhler estudiaron las esencias aplicando diversos métodos a los fines de separar y analizar individualmente sus constituyentes (Pearce, 1997).

Hay muchas definiciones para caracterizar una esencia ya que puede conceptualizarse de acuerdo al punto de vista físico, químico y/o biológico. Un amplio y complejo concepto dice que: “un aceite esencial es parte del metabolismo de un vegetal, compuesto generalmente por terpenos, que están asociados o no a otros componentes, la mayoría de ellos volátiles, y generan en conjunto el aroma de dicho vegetal” (Bandoni, 2000). Se trata de sustancias límpidas, raramente coloreadas, liposolubles, aromáticas, volátiles y con una densidad menor que el agua. Se sintetizan en diferentes órganos de las plantas: yemas, flores, hojas, tallos, ramas pequeñas, semillas frutos, raíces y/o corteza. Se almacenan en células secretoras, cavidades, canales, células epidérmicas o tricomas glandulares.

Se conoce actualmente la composición de unos 3000 aceites esenciales, de los cuales un poco mas de 300 poseen importancia comercial como saborizantes y en la industria de la perfumería.

Están ampliamente distribuidos en aproximadamente unas 60 familias de plantas, que incluyen principalmente a Lamiaceae, Apiaceae, Asteraceae, Mirtaceae, Rosaceae, Lauraceae y Rutaceae (Stashenko, 1996).

La síntesis y almacenamiento de una esencia es llevada a cabo por células epidérmicas modificadas, que dependiendo de la familia o género pueden ser cualquier órgano de una planta.

El contenido total de aceite esencial en una planta es igual o menor al 1%. La composición es por lo general muy compleja, llegando a estar constituida por una mezcla de hasta cien o más constituyentes. En su composición, la gran proporción corresponde a hidrocarburos terpénicos, acompañados o no por compuestos aromáticos, alifáticos de cadena recta y ocasionalmente compuestos sulfurados y/o nitrogenados.

Los monoterpenos (Figura 3) representan la fracción “liviana” o más volátil, son por lo general los componentes mejor representados y los que percibimos inmediatamente ante el contacto con una esencia. Conforman lo que se conoce como las notas de entrada de una esencia.

Figura 3. Algunos ejemplos de estructuras de monoterpenos, los constituyentes con mayor volatilidad de un aceite esencial.

Los sesquiterpenos, representan la fracción de mayor peso molecular y por supuesto los componentes con menos volátiles (Figura 4). Se tratan de las aromas de una esencia que se perciben luego de estar un tiempo en contacto con ella, a menudo se los define como las notas de salida o de fondo. A modo de ejemplo se pueden mencionar:

Figura 4. Ejemplos de estructuras de sesquiterpenos.

Otros compuestos presentes en algunas esencias son los aromáticos que se caracterizan por tener un anillo aromático unido a una cadena lateral de diferente tamaño y cantidad de sustituyentes (Figura 5). Su presencia en un aceite esencial es más restringida, limitándose a algunas especies de aromáticas. Por ejemplo el perfume que nos recuerda al clavo de olor o al anís estrellado se debe a la existencia de este tipo de compuestos.

Figura 5. Algunos ejemplos de estructuras de fenilpropanoides.

En menor medida, los compuestos alifáticos de cadena recta pueden estar presentes en un aceite esencial (Figura 6). Se destacan hidrocarburos lineales, de número variable de átomos de carbono y con diferente grado de oxidación.

Figura 6. Algunos ejemplos de hidrocarburos.

Por último, un grupo de compuestos no terpenoides muy característicos incluye a sustancias alifáticas o aromáticas con azufre y/o nitrógeno. No son tan importantes como los terpenoides en cuanto a sus usos y aplicaciones, además su presencia está restringida a escasas familias botánicas, tal es el caso del ajo o el brócolis.

La proporción de los constituyentes es variable ya que en determinadas circunstancias, ciertos componentes experimentan transformaciones en la planta ya sea, en el momento de desarrollo de la misma o bien en el momento del día de la recolección. Otros cambios estructurales se deben a la acción de microorganismos, lo que al igual que otros factores (ambiente, tipo de cultivo, modo de almacenamiento, época de recolección, modo de obtención de la esencia, edad y fenología del vegetal) genera esencias con una marcada variación su composición y por ende con distintacalidad, bioactividad e importancia comercial.

Una manera de clasificarlas

Las esencias se clasifican en esencias fluidas, resinas y oleorresinas. Las esencias fluidas son líquidos volátiles a temperatura ambiente como por ejemplo el aceite de limón. Las resinas son de consistencia más espesa, volátiles y propensas a experimentar reacciones de polimerización, ejemplos: el bálsamo de copaiba que se extrae de Copaifera officinalis (especie que crece en las Antillas y Brasil) o el benjuí que se extrae de especies del género Styrax. Las oleorresinas se definen como líquidos muy viscosos o sustancias semisólidas que poseen el aroma del vegetal en forma concentrada, es decir una combinación más o menos fluida de una resina y un aceite esencial. La trementina es un ejemplo y se obtiene a partir de diversas especies de coníferas.

Finalmente, de acuerdo a su origen un aceite volátil puede ser natural, artificial y/o sintético. Una mezcla natural se obtiene mediante métodos industriales o de laboratorio a partir de material vegetal fresco. El enriquecimiento de la esencia en uno a algunos de sus componentes genera un aceite artificial, dicho enriquecimiento se logra mediante diversos métodos de fraccionamiento. La esencia de anís por ejemplo, esta enriquecida con anetol.

Productos obtenidos mediante síntesis o semi-síntesis genera un aceite sinético, el cual en algunos casos suele tener mayor interés comercial debido a los bajos costos para obtenerlos. Por lo tanto son más económicos y poseen un amplio uso como aromatizantes de ambientes y saborizantes de alimentos.

Sólo mediante el análisis con la tecnología adecuada permite observar las diferencias en cuanto al origen de las esencias.

Referencias Bibliográficas

Bandoni, A. (Ed). 2000. Los recursos vegetales aromáticos en Latinoamérica, su aprovechamiento industrial para la producción de aromas y sabores. Argentina: Red de Editoriales Universitarias.

Jirovetz, L.; Buchbacer, G. 2005. Processing, analysis and application of essential oils. Recent Res. Devel. Agron. Horticulture 21: 22 -28.

Pearce, S. 1997. What are essential oils and how do they work? in: Milchard M. (Ed.). Essential Oils World. Editorial Cotswold Publishing Company: Sevilla, p. 212.

Stashenko, E.; 1996. Memorias del IV Congreso Nacional de Fitoquímica, Universidad Industrial de Santander, Escuela de Química, Bucaramanga, p. 29-53

Sobre el autor: Emilio Lizarraga es doctor en Bioquímica, profesor adjunto de Química Orgánica y Biológica, Facultad de Ciencias Naturales e Instituto Miguel Lillo, Universidad Nacional de Tucumán (Argentina).

El artículo El alma de plantas, las esencias de las aromáticas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las plantas como aislantes acústicos
  2. ¿Y si convertimos a las plantas en fábricas de plásticos?
  3. Sistemas antena artificiales inspirados en el de las plantas
Catégories: Zientzia

Arquitectura y geología: materialidad y emplazamiento

sam, 2019/02/09 - 11:59

Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.

Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.

La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.

Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.

La profesora del departamento de Arquitectura de la Escuela de Ingeniería de Gipuzkoa de la UPV/EHU, Maialen Sagarna, explica la estrecha relación que existe entre la arquitectura y la geología, y de la importancia que el emplazamiento geológico de las construcciones tiene desde el punto de vista de la durabilidad, seguridad y la eficiencia energética.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Arquitectura y geología: materialidad y emplazamiento se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Geología: la clave para saber de dónde venimos y hacia dónde vamos
  2. Patrimonio geológico: la otra mitad del ambiente
  3. El (Paleo)Clima y ¿el frío que vendrá?
Catégories: Zientzia

¿Quién se encuentra en el lado oculto del iceberg?

ven, 2019/02/08 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebrará dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Durante las próximas semanas en el Cuaderno de Cultura Científica y en Zientzia Kaiera se publicarán regularmente artículos que narren algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas. Comenzamos con la serie “Espectrometría de masas”, técnica analítica que supone el ejemplo perfecto del incesante avance de la Ciencia y la Tecnología.

El desarrollo de la actividad humana y el aumento de la contaminación van de la mano, ya que el ser humano ha contaminado el medioambiente desde sus inicios. El punto de inflexión en el nivel de contaminación lo marca la revolución industrial, pero los seres humanos como sociedad no le han dado importancia a este trascendental problema hasta alcanzar su bienestar social y económico. “El ser humano es parte de la naturaleza y la lucha contra ésta es una lucha contra sí mismo”. Así reflexionaba Rachel Carson entorno a este problema en 1962 en su libro “Primavera Silenciosa”, que se puede considerar la primera obra del ecologismo.

De la misma época (1960-1980) son las primeras legislaciones sobre la contaminación medioambiental y también durante el siglo XX se instalaron las primeras depuradoras para tratar las aguas residuales industriales y urbanas. Si bien las primeras normativas y legislaciones se centraron en el control de patógenos y metales, no fue hasta más tarde cuando el control de los compuestos orgánicos adquirió importancia. En un principio, se impuso el control prioritario de los contaminantes orgánicos persistentes o POPs (persistent organic pollutants) debido a su capacidad de acumularse y su toxicidad. En la convención de Estocolmo se recopiló un listado de 12 compuestos, entre los que se encontraban 9 pesticidas clorados, los bifenilos policlorados, las dioxinas y los furanos. Si bien el listado se ha ampliado a 28 compuestos en años sucesivos, existen aún otros en lista de espera. Además de la convención de Estocolmo, la europea Directiva Marco de Aguas o WFD (Water Framework Directive) y la Agencia para la Protección del Medioambiente estadounidense (Environmental Protection Agency, EPA) tienen sus propios listados de contaminantes prioritarios, que incluyen hasta 129 compuestos. Todos ellos conocidos, todos controlados, todos esperables. Pero, ¿son esos los únicos compuestos preocupantes o perjudiciales para el medioambiente? Los contaminantes conocidos y regulados son solo la punta del iceberg. Muchos de los contaminantes que llegan al medioambiente surgen de la actividad diaria del ser humano; sin embargo, es poco lo que conocemos sobre la presencia o efectos nocivos que pueden causar en el medioambiente los más de 70 millones de compuestos que podemos encontrar en bases de datos como Pubchem o Chemspider.

Por tanto, ¿merece la pena husmear en el lado oculto del iceberg? ¿Nos deben preocupar esos compuestos no legislados? Durante los últimos años, la curiosidad de la comunidad científica se ha dirigido a ese lado oculto del iceberg con el objetivo de detectar en el medioambiente compuestos farmacéuticos y de higiene personal, pesticidas no clorados y/o químicos industriales emergentes, entre otros. Así, en lugar de realizar el seguimiento exclusivo de los cientos de compuestos en la punta del iceberg, el reto es ahora monitorizar los miles de compuestos desconocidos que aún están en el lado oculto. ¡Y vaya reto el de las y los “submarinistas” que se dedican a desarrollar métodos analíticos para detectar esos compuestos!

Figura 1. Si bien hasta ahora hemos monitorizado los contaminantes prioritarios, éstos son solo la punta del iceberg. Fuente: Uwe Kils.

El reto de estos submarinistas lo hacemos nuestro en la química analítica, separando, identificando y cuantificando los compuestos desconocidos de la materia mediante el uso de técnicas instrumentales. De hecho, los retos analíticos y el avance de los métodos de análisis instrumentales van de la mano. Así, hasta hace no mucho, los métodos de análisis desarrollados en los laboratorios de química analítica eran métodos dirigidos; es decir, lejos de ser magos, hemos desarrollado métodos para analizar unos pocos compuestos conocidos. El reto anteriormente mencionado, sin embargo, plantea un nuevo paradigma que supone dar el salto del análisis dirigido al análisis no dirigido para poder abordar el análisis de miles de compuestos emergentes y desconocidos. En el análisis dirigido, debemos elegir previamente qué queremos analizar; en el análisis no dirigido, sin embargo, lo analizamos todo y, posteriormente decidimos qué es lo que nos interesa de toda esa información. De ese modo, el análisis no dirigido, es una herramienta que permite identificar compuestos desconocidos sin tener un conocimiento previo de la composición de la muestra. Como la cantidad de información que se logra en el análisis no dirigido es gigantesca, su tratamiento de datos puede llevar meses. Más aún, en un futuro se puede regresar a esa información y buscar nuevos compuestos interesantes. Entre las herramientas más importantes para la identificación de contaminantes emergentes y desconocidos encontramos la espectrometría de masas de alta resolución o HRMS (high resolution mass spectrometry).

Figura 2 – El objetivo del análisis no dirigido es adquirir el máximo de información que luego se irá desgranando poco a poco en el tiempo. Fuente: Slane.co.nz.

La espectrometría de masas es una técnica analítica que nos ayuda a identificar la huella dactilar de los átomos y las moléculas. Para obtener esa huella dactilar, la espectrometría de masas mide las relaciones masa/carga (m/z) de los átomos/moléculas ionizados en fase gaseosa. De los espectros de masas se puede conocer la masa exacta de átomos y moléculas, determinar la presencia de isótopos y, en los casos en los que ocurra la fragmentación de las moléculas, disponer de la información estructural sobre ellas.

Los espectros de masas se consideran la huella dactilar de los compuestos y se pueden obtener en alta o baja resolución. Pero, ¿para qué necesitamos espectros de masas de alta resolución? Estos últimos, frente a los espectros de masas de baja resolución, miden la relación m/z con mayor exactitud y precisión, permitiendo la diferenciación de moléculas con masas muy próximas. Así, en el ejemplo de la Figura 3, encontramos los insecticidas thiamethoxam y parathion, cuya diferencia de masa es muy pequeña (0,01375 Da), mientras que su fórmula molecular y estructura química es totalmente distinta. Si bien mediante espectrometría de masas de baja resolución somos incapaces de distinguir ambos compuestos (ver Figura 3 arriba), sí lo somos mediante espectrometría de masas de alta resolución (ver Figura 3 abajo).

Figura 3. Espectros de masas de baja (arriba) y alta (abajo) resolución de los insecticidas thiamethoxam y parathion. Fuente: Las autoras.

Nuestro submarinista puede dedicar meses a identificar los compuestos en la zona oculta del iceberg. Es común acoplar la espectrometría de masas a técnicas cromatográficas para separar e identificar los compuestos en el lado oculto del iceberg. Para identificar esos compuestos hay que buscar y entender las huellas dactilares, paso a paso, como si de un puzle se tratara, buscando y uniendo de manera sistemática todas las piezas, hasta completar el puzle. Hasta identificar el compuesto. Veamos un ejemplo.

Supongamos que hemos realizado el análisis no dirigido del agua residual de una depuradora. La cromatografía líquida acoplada a la espectrometría de masas de alta resolución nos ha proporcionado 1000 picos cromatográficos, 1000 posibles compuestos de interés. Disponemos de su masa exacta y perfil isotópico (las masas y relaciones relativas de los isótopos correspondientes a una fórmula química dada). De entre esos 1000 compuestos uno de ellos corresponde a la masa exacta de 345,11443 Da. Con esa masa exacta y gracias al perfil isotópico podemos deducir que algunas de las fórmulas moleculares posibles son: C17H19N3O3S, C11H20N7O2PS, C19H16N5P y C15H24NO4PS. Si comparamos la masa exacta teórica de esas fórmulas moleculares y la masa exacta experimental, el error más pequeño (de -0,000028 Da) corresponde a la fórmula molecular de C17H19N3O3S. Pero, ¿qué es C17H19N3O3S? De acuerdo a las bases de datos que contienen millones de compuestos, existen 14 compuestos con esa fórmula molecular. Entre ellos, es posible que nuestro compuesto desconocido sea el antiácido omeprazol. Sigamos. Ahora nos fijaremos en la fragmentación (los fragmentos significativos de masa exacta obtenidos tras aplicar energía a los compuestos). La fragmentación del compuesto y la del omeprazol coinciden en un 97 %; por tanto, parece que nuestra sospecha es certera, pero, ¿cómo podemos asegurar que el compuesto desconocido corresponde al omeprazol? En una etapa final nuestro submarinista comparará el tiempo de retención (el tiempo que un compuesto de interés requiere para atravesar la columna cromatográfica utilizada para separar los compuestos presentes en una mezcla) obtenido para el compuesto desconocido con el correspondiente al reactivo puro de omeprazol y, ¡voilá!, como coinciden, sin saber que había omeprazol en la muestra, el submarinista ha podido identificarlo entre otros 1000 picos cromatográficos. Y, ¿ahora? Llevar a cabo el mismo proceso con los otros 999 picos cromatográficos aún sin identificar…Ooops, pobre submarinista, ¡aún le resta un largo viaje a nuestro amigo identificando todos los compuestos en el lado oscuro del iceberg!

En el viaje realizado hasta ahora, nuestro submarinista ha centrado su atención en millones de compuestos recopilados en bases de datos debido a su uso y/o toxicidad. Sin embargo, existen otros compuestos de interés que no están recogidos en las bases de datos, como pueden ser los productos de transformación, entre otros. Los productos de transformación pueden surgir de diversas fuentes, tanto de los tratamientos que se dan en las plantas depuradoras como de las reacciones químicas y biológicas que pueden ocurrir al llegar al medioambiente. El examen de los productos de transformación tiene también su importancia, ya que en algunos casos la toxicidad del producto de degradación es superior a la del contaminante de partida. Por ejemplo, según estudios realizados en animales, el filtro UV habitualmente utilizado en cremas solares benzofenona-3 (BP3) se degrada al compuesto desmetilado benzofenona-1 o dihidroxibenzofenona (DHB), cuya actividad estrogénica es mayor que la del producto de partida.

La identificación de los productos de transformación se puede realizar mediante espectrometría de masas. En estos casos, sin embargo, no podremos hacer uso de las bases de datos, ya que en la mayor parte de los casos son desconocidos. En este caso, para poder dirigir la identificación, debemos centrarnos en las transformaciones que puede sufrir un contaminante en concreto. Así, como hemos visto en el ejemplo anterior, de la masa exacta y del perfil isotópico podemos deducir la fórmula molecular. De todas las fórmulas posibles, las candidatas corresponderán a transformaciones (reacciones de fase I o II como oxidación, metilación, glucuronización…) posibles del contaminante estudiado. Una vez identificada la transformación ocurrida, deberemos identificar en qué posición de la molécula ha ocurrido esa transformación. Y, ¿dónde puede encontrar el submarinista esa información? Descifrar la huella dactilar del espectro de masas puede proporcionarle información relevante, concretamente el espectro de masas correspondiente a la fragmentación. Intentemos entenderlo con un ejemplo una vez más.

El filtro UV BP3 que hemos mencionado anteriormente tiene una masa exacta de 229,0859 Da, una fórmula molecular C14H12O3 y en su estructura dos anillos aromáticos (A y B), además de un grupo hidroxilo (-OH) y un grupo metoxi (CH3O-) en el anillo A (ver Figura 4). El espectro de masas correspondiente a la fragmentación de BP3 se puede observar en la Figura 4. Pero, ¿qué le puede ocurrir al BP3 en agua de mar y en presencia de peces, como por ejemplo doradas? La respuesta no es simple ya que, además de acumularse en los distintos tejidos y fluidos biológicos de la dorada, se puede transformar debido a distintas reacciones. Por ejemplo, la masa exacta de uno de los subproductos observados corresponde a 215,0703 Da y, según el perfil isotópico, corresponde a una fórmula molecular de C13H10O3. Si tenemos en cuenta la fórmula molecular de BP3 (C14H12O3 ) original y la del subproducto (C13H10O3) podemos deducir la pérdida de un metilo (–CH3). El lugar más probable para perder ese grupo metilo es el grupo metoxi anteriormente mencionado y, por tanto, el subproducto propuesto (ver Figura 4) corresponde, concretamente, a la dihidroxibenzofenona o DHB anteriormente mencionada.

Figura 4. Espectros de fragmentación del filtro UV (BP3) y del subproducto dihidroxibenzofenona (DHB). Fuente: Las autoras.

Y repitiendo este procedimiento, se pueden determinar hasta 18 subproductos diferentes de BP3 en distintos tejidos de dorada y en el agua de mar que es su hábitat (ver Figura 5). De todos ellos caben destacar la dihidroxibenzofenona (DHB) y la dihidroximetoxibenzofenona (DHMB) que dada la estrogenicidad y androgenicidad que presentan pueden ser incluso más tóxicas que BP3. Por tanto, es imprescindible identificar los subproductos nuevos para poder posteriormente estudiar su toxicidad y evaluar el riesgo medioambiental que suponen.

Figura 5 . Secuencia de transformación del filtro UV Benzofenona-3 en presencia de doradas. Fuente: Las autoras.

Tal y como hemos visto, con la espectrometría de masas como compañera de viaje, el submarinista tiene la oportunidad de obtener una foto más completa de lo que se ve y de lo que está oculto. El avance de la química, y de la ciencia en general, nos permite sumergirnos en retos mayores para obtener una foto más definida de lo que nos rodea, pasando de la identificación de cientos o miles de compuestos a la de millones.

Para saber más:

Kepner, W. 2016. EPA and a Brief History of Environmental Law in the United States. International Visitor Leadership Program (IVLP), Las Vegas, NV.

Kim S, Choi K. 2014. Occurrences, toxicities, and ecological risks of benzophenone-3, a common component of organic sunscreen products: A mini-review. Environ. Int. 70:143–157.

Ziarrusta H, Mijangos L, Montes R, Rodil R, Anakabe E, Izagirre U, Prieto A, Etxebarria N, Olivares M, Zuloaga O. 2018. Study of bioconcentration of oxybenzone in gilt-head bream and characterization of its by-products. Chemosphere. 208:399-407.

Milman B.L, Zhurkovich I.K. 2017. The chemical space for non-target analysis. Tr. Anal. Chem. 97: 179-187.

Milman B. 2015. General principles of identification by mass spectrometry. Tr. Anal Chem. 69: 24-33.

Sobre las autoras: Haizea Ziarrusta, Maitane Olivares y Olatz Zuloaga. Departamento de Química Analítica Facultad de Ciencia y Tecnología de la UPV/EHU y Estación Marina de Plentzia (UPV/EHU).

El artículo ¿Quién se encuentra en el lado oculto del iceberg? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. A new hero is born: La espectrometría de masas al servicio de la justicia
  2. Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
  3. El lado oscuro del bosón de Higgs
Catégories: Zientzia

Los cosméticos no se testan en animales

jeu, 2019/02/07 - 11:59

Hace diez años se prohibió la experimentación animal para testar cosméticos. A pesar de ello, sigue habiendo dudas constantes sobre el tema. Ni se testan en China para luego venderlos en Europa, ni se importan cosméticos fruto del testado animal. En este artículo aclaramos estas y otras dudas frecuentes.

  • ¿Cómo se regula el testado de los cosméticos?

Todo lo que atañe a la formulación, fabricación, ensayo y distribución de productos cosméticos está recogido en el REGLAMENTO (CE) No 1223/2009 DEL PARLAMENTO EUROPEO Y DEL CONSEJO de 30 de noviembre de 2009 sobre los productos cosméticos. El capítulo V está dedicado a la experimentación animal.

El reglamento prohíbe «la introducción en el mercado de productos cosméticos cuya formulación final haya sido objeto de ensayos en animales (…) y la introducción en el mercado de productos cosméticos que contengan ingredientes o combinaciones de ingredientes que hayan sido objeto de ensayos en animales». También prohíbe «la realización de ensayos en animales de productos cosméticos acabados y (…) la realización de ensayos en animales con ingredientes o combinaciones de ingredientes». Dichos ensayos fueron sustituidos por otros métodos alternativos propuestos en el reglamento que no involucran a animales. El periodo de aplicación fue limitado al 11 de marzo de 2009. Para los ensayos toxicológicos por exposición repetida, debido a su mayor complejidad, el período de aplicación tuvo como fecha límite el 11 de marzo de 2013.

Desde ese momento está totalmente prohibido testar en animales ni ingredientes ni productos acabados. También está prohibido comercializar productos cuya fórmula o cuyos ingredientes hayan sido fruto de la experimentación animal. Tanto es así que el fabricante ha de cubrir un documento que garantiza que su producto no ha sido fruto de la experimentación animal.

Desde entonces, para que un producto cosmético pueda salir al mercado, ha de pasar una evaluación de seguridad ingrediente por ingrediente y del producto terminado. Para evaluar la seguridad de cada uno de los ingredientes existen diferentes bases de datos que ofrecen las medidas toxicológicas, las opiniones de los paneles de expertos (como el SCCS), las restricciones y las incompatibilidades. Para los ingredientes cosméticos tradicionales y de uso habitual se suele recurrir tanto al CosIng como a la ECHA. En productos más complejos, de origen natural o de menor usabilidad hay que recurrir a la bibliografía u otras bases de datos como la del CIR.

En los anexos del reglamento aparece la lista de ingredientes permitidos en cosmética, así como sus usos, su concentración permitida, restricciones y posibles incompatibilidades.

  • Fuera de la Unión Europea, ¿se testa en animales?

Estados Unidos y Europa no permiten la comercialización de cosméticos que se hayan ensayado en animales. Latinoamérica aplica el Reglamento Europeo, por lo que tampoco. En los países asiáticos este tema no está consensuado y depende de cada país. Por ejemplo en China los ensayos con animales son obligatorios en algunos casos. No es necesario testar todos los cosméticos ni todos los ingredientes, pero sí es obligatorio en el caso de nuevos principios activos.

  • ¿Se puede testar en China para luego vender en la Unión Europea?

No se puede. Además de estar prohibido, es absurdo. No se pueden utilizar los datos de los ensayos en animales para verificar la seguridad de un producto. Esto es así porque para vender en la Unión Europea (o en los países que se ajustan al mismo reglamento) está prohibido comercializar productos e ingredientes fruto de la experimentación animal.

Así que para un fabricante de cosméticos sería contraproducente ir a China a hacer ensayos en animales, primero porque no podría usar los resultados de esos análisis, y segundo porque los ingredientes que solo se hayan ensayado en China no podrán venderse en Europa.

  • ¿Se pueden importar cosméticos chinos?

Se pueden importar cosméticos chinos siempre y cuando se adapten al reglamento europeo. Ni sus ingredientes ni el producto terminado ha podido ser fruto de la experimentación animal. Por lo tanto, fabricar en China únicamente significa que se fabrica en suelo chino. Esto ha de hacerse con los métodos e ingredientes que se permiten en el reglamento europeo, por lo que tienen que cumplir los mismos requisitos que los cosméticos fabricados en cualquier otro país que se quieran vender en Europa.

  • Si un laboratorio europeo quiere comercializar sus cosméticos en China, ¿tienen que testarlos con animales allí?

No, al menos no siempre. Se estudia caso a caso. Son las autoridades de China quienes deciden qué cosméticos requieren el ensayo en animales para poder ser vendidos en su país. El laboratorio es quien decide si quiere venderlos a pesar del ensayo en animales que le exijan o no. Por lo tanto, que un laboratorio cosmético venda productos en el mercado chino, no implica que estos hayan tenido que pasar por un ensayo en animales.

  • ¿Cómo se testan los cosméticos?

El SCCS (Scientific Committee on Consumer Safety), la CEVMA (European Centre for the Validation of Alternative Methods) y otras asociaciones trabajan conjuntamente para generar guías como esta y bases de datos actualizadas sobre la situación de métodos y modelos disponibles, que permiten ensayar sustancias individualmente y productos acabados: pieles sintéticas, cultivos de células humanas, sistemas bacterianos, membranas que son similares a la conjuntiva del ojo, etc. Y obviamente ensayos clínicos en personas.

Estos métodos permiten verificar tanto la seguridad como la eficacia de los cosméticos. Para que un producto pueda comercializarse es obligatorio demostrar que su uso es completamente seguro. También ha de acreditar con estudios de eficacia que su producto sirve para lo que dice que sirve. Por ejemplo, una crema hidratante ha de tener una formulación que se corresponda con la de un producto hidratante. También deben demostrarse todos los reclamos que se le adjudiquen al producto. Esto se hace principalmente por medio de ensayos clínicos, es decir, con personas que testan el producto. También para esto existen diferentes métodos.

  • Los sellos que certifican que el producto no ha sido testado en animales son una farsa

Ninguno de los certificados del tipo not tested on animals o cruelty free son oficiales. Es decir, no sirven para acreditar nada diferente a lo que ya de por sí tiene que acreditar cualquier producto para salir al mercado europeo. Todos los cosméticos son por definición cruelty free. Solo que algunos fabricantes deciden pagar para usar alguno de estos sellos a las empresas que los han inventado, principalmente porque estiman que estos sellos mejoran su imagen de marca.

Cualquier cosmético vendido en Europa podría tener el sello cruelty free si así lo desease, sin demostrar absolutamente nada. Por eso es una farsa.

Este tipo de sellos han hecho mucho daño al sector de la cosmética. Principalmente porque muchos consumidores asumen que los productos que llevan este sello son los únicos que no experimentan en animales y que por tanto el resto sí lo hacen, de una manera u otra. Es una deducción lógica, aunque incorrecta. Por esa razón el uso de este tipo de sellos debería prohibirse, principalmente porque confunde al consumidor y pone en duda el cumplimiento del reglamento por parte de la competencia.

Algunas de las compañías que venden este tipo de sellos (las cuales no voy a enlazar en este artículo) facilitan una lista de laboratorios cosméticos y marcas a las que acusan de hacer experimentación animal. Es decir, difaman.

Estos sellos se aprovechan de los consumidores que pretenden ser más responsables, que escogen productos cruelty free por cuestiones éticas muy legítimas y que invierten su tiempo en investigar qué productos se adaptan a su sistema de valores. Estos sellos les hacen sentir que su compra es juiciosa y que responde a un bien mayor. Cuando lo que ocurre en realidad es que estos sellos están convirtiendo a estos compradores en cómplices de la treta.

  • Reflexiones finales

Desde 2009 está totalmente prohibido testar cosméticos en animales. Diez años después de la publicación del reglamento sigue habiendo dudas sobre esto. Esto quiere decir que no se ha divulgado como es debido, o al menos no con el impacto necesario. Algunos lo han aprovechado para hacer negocio con la desinformación, como los sellos tipo cruelty free. Otros lo han aprovechado para atacar al sector cosmético o a laboratorios concretos, cada cual según su animadversión particular.

A pesar de los esfuerzos por compartir información veraz, siguen existiendo dudas y mitos acerca de este tema. La desconfianza está inundando sectores enteros. El negocio no ha sido el engaño en sí. El verdadero negocio de algunos está siendo el hacernos creer que estamos siendo engañados.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Los cosméticos no se testan en animales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Adiós a las microesferas de plástico en los cosméticos
  2. Estimada OCU: recuerda que NO se pueden utilizar las cremas solares del año pasado
  3. La función respiratoria depende del tamaño de los animales
Catégories: Zientzia

El teorema de Pitágoras en el arte

mer, 2019/02/06 - 11:59

No es la primera vez que hablamos del famoso Teorema de Pitágoras en el Cuaderno de Cultura Científica y seguramente no será la última. Esto se debe a que este teorema es, sin lugar a dudas, el resultado matemático más conocido por todo el mundo. Además, se ha convertido en un símbolo de las propias matemáticas. El enorme interés que ha despertado este teorema geométrico en la sociedad ha sido tal que ha trascendido el ámbito de la investigación científica y la enseñanza de las matemáticas, para convertirse en fuente de inspiración en las artes, desde las artes plásticas hasta las artes escénicas, pasando por la literatura, la música o el cine.

Entre las entradas que hemos dedicado al teorema de Pitágoras en el Cuaderno de Cultura Científica, estaban Pitágoras sin palabras, Sin Noticias de Pitágoras (Pitágoras en la Literatura), en la cual presentamos algunas novelas con referencias al Teorema de Pitágoras, y más aún, un primer acercamiento a la pintura y la escultura que se han inspirado en este resultado matemático dentro del arte contemporáneo,Cultura pitagórica: arte.

Empecemos, como de costumbre, recordando el enunciado de este famoso teorema, que hemos aprendido en la escuela y que resuena en nuestra cabeza como si fuera el estribillo de una canción: “dado un triángulo rectángulo, entonces el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos”. De hecho, existen algunas canciones que hablan del mismo, como la canción Pitágoras del grupo Seguridad Social (que podéis escuchar aquí), que es una versión del tema de 1961 del grupo de rock español Los Milos.

Ese familiar estribillo del Teorema de Pitágoras “el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos” también lo hemos aprendido a través de su expresión algebraica, es decir, dado un triángulo rectángulo con catetos a y b, e hipotenusa c, entonces a2 + b2 = c2.

El teorema de Pitágoras, “el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos”

La entrada Cultura pitagórica: arte se iniciaba con una serie de obras del artista conceptual estadounidense Mel Bochner (nacido en Pittsburgh, Pensilvania, en 1940). Una parte importante de la obra de este artista está relacionada con los números y las matemáticas. Entre sus obras destacan algunas que reflexionan sobre el Teorema de Pitágoras, como puede verse en esa entrada. En particular, en ella mencionábamos una serie de obras titulada Meditación sobre el Teorema de Pitágoras, en la cual empezó a trabajar a principios de los años 1970 y sobre la que ha continuado trabajando hasta la actualidad.

En esta serie de obras aborda la representación gráfica de la terna pitagórica (3, 4, 5), que satisface la ecuación 32 + 42 = 52 (9 + 16 = 25), y su conexión con el asociado triángulo rectángulo, pero dando mayor importancia a los valores numéricos de la terna pitagórica, 3, 4 y 5, y el valor de sus cuadrados, que representa en sus esculturas con diferentes objetos, desde avellanas, guijarros o cristales, hasta fichas del juego Go.

Versión de libro de artista de la obra Meditación sobre el Teorema de Pitágoras (1993), en la Galería de arte 360º, Tokio (Japón), realizada con fichas del juego Go, 8 copias con fichas blancas, salvo las tres negras de los vértices del triángulo (imagen de abajo), y 4 copias con fichas negras, salvo los vértices (imagen de arriba). Tamaño 60 x 55 x 19 cm. Imágenes de la página web de la Gallery 360º

El diagrama del triángulo de Pitágoras (véase la primera imagen de arriba) con los tres cuadrados adyacentes cuyas áreas simbolizan los cuadrados de los lados correspondientes del triángulo rectángulo y, por lo tanto, el área del cuadrado adyacente a la hipotenusa (c2) es igual a la suma de las áreas de los cuadrados adyacentes a los catetos (a2 + b2), es un diagrama que nos encontramos en muchas obras. Un ejemplo es la obra Pythagoras (1989) del compositor y artista coreano-americano Nam June Paik (Seúl, Corea del Sur, 1932 – Miami, EE.UU., 2006), uno de los creadores del videoarte.

La obra está formada por 16 televisores, que representan el triángulo rectángulo, con 1, 3, 5 y 7 televisores por fila, 5 tubos de neón azul, para el cuadrado de la hipotenusa, 3 tubos de neón rojo, para el cuadrado del cateto lateral, y 5 tubos de neón verde, para el cuadrado del cateto de la base. Además, las imágenes que se emitían en las televisiones procedían de tres lectores de dvd.

Instalación Pythagoras (1989), del artista Nam June Paik. La obra pertenece a la colección sobre Fluxus de Dino di Maggio, cedida a la Fondation du doute, a cuya página web pertenece la anterior imagen

El artista plástico y matemático francés Pierre Gallais realizó dos instalaciones relacionadas con este diagrama del Teorema de Pitágoras en el año 1990, en el Centro de Arte Contemporáneo de Fleurs (Francia), Pythagore e Intersections.

Pythagore (1990), del artista y matemático francés Pierre Gallais, en el Centro de Arte Comtemporáneo de Fleurs (Francia). Imagen de ARTactif, Digital Art GalleryIntersections (1990), del artista y matemático francés Pierre Gallais, en el Centro de Arte Comtemporáneo de Fleurs (Francia). Imagen de ARTactif, Digital Art Gallery

Otro de los grandes artistas del siglo XX, el multifacético suizo Max Bill (Winterthur, Suiza, 1908 – Berlín, Alemania, 1994), artista, arquitecto, diseñador gráfico, diseñador industrial y tipógrafo, que estudió en la Bauhaus y fue uno de los máximos exponentes del arte concreto, también se interesó por el Teorema de Pitágoras. Este artista, que muchas personas del ámbito de las matemáticas relacionan con la banda de Moebius, por las hermosas esculturas que realizó con esta superficie, desarrolló una abstracción geométrica en la que las formas básicas, como el triángulo, tomaron un papel protagonista.

Poster de la exposición sobre la obra de Max Bill, pintura y escultura, que organizó el Museo de Arte Contemporáneo de Madrid, en febrero de 1980, junto a la Fundación Joan Miró de Barcelona, cuya exposición tendría lugar en marzo y abril de 1980. Imagen de la página web El marco verde

En este poster de la exposición organizada por el Museo de Arte Contemporáneo de Madrid (febrero de 1980), junto a la Fundación Joan Miró (marzo y abril de 1980), podemos observar una obra de Max Bill con el esquema del Teorema de Pitágoras para la terna pitagórica (3, 4, 5). El cuadrado superior es un cuadrado 5 x 5, correspondiente a la hipotenusa, mientras que los cuadrados de abajo son cuadrados 3 x 3 y 4 x 4, correspondientes a los catetos. La terna pitagórica (3, 4, 5) es la más sencilla de todas, por lo que es la más conocida y la que se suele utilizar de forma explícita en el arte.

Sobre el mismo tema Max Bill realiza también la obra Konstruktion um das thema 3-4-5 (1980), “Construcción sobre el tema 3-4-5”, en la cual nos encontramos de nuevo el triángulo rectángulo de la terna pitagórica (3, 4, 5), así como los tres cuadrados de lados 3, 4 y 5, cuyos lados están formados también por cuadraditos de cuatro colores distintos, como en el poster anterior, cuyos colores se van distribuyendo sobre el perímetro de los cuadrados de forma cíclica, y el centro es blanco. El número de cuadraditos del perímetro de los tres cuadrados es 8, 12 y 16, todos divisibles por 4, por lo cual cada color aparece el mismo número de veces en cada uno de ellos, 2, 3 y 4, respectivamente.

Konstruktion um das thema 3-4-5 (1980), “Construcción sobre el tema 3-4-5”, de Max Bill. Imagen de WikiArt

De esa misma serie de obras de la década de 1980 sobre el teorema de Pitágoras es la obra Pythagoräisches dreieck in quadrat II, “Triángulo pitagórico en el cuadrado II”.

Pythagoräisches dreieck in quadrat II (1980), “Triángulo pitagórico en el cuadrado II”, de Max Will. Imagen de WikiArt

Además, tiene toda una serie de obras sobre lo que denomina en los títulos de las mismas, triángulos pitagóricos, que suelen ser distintos triángulos rectángulos dispuestos de diferentes formas en un cuadrado, por ejemplo, Triángulos pitagóricos sobre un cuadrado rojo (1982).

Triángulos pitagóricos sobre un cuadrado rojo (1982), de Max Bill

Aunque ya trabajó con el teorema de Pitágoras y el esquema del triángulo rectángulos con los tres cuadrados cuatro décadas antes, hacia 1940. De esa época es la obra Konstruktion mit drei Quadratgrößen, Denkmal für Pythagoras (1939-1941), “Construcción con tres tamaños de cuadrados, homenaje a Pitágoras”.

Konstruktion mit drei Quadratgrößen, Denkmal für Pythagoras (1939-1941), “Construcción con tres tamaños de cuadrados, homenaje a Pitágoras”, de Max Bill

La unión de diferentes copias de este diagrama para generar una estructura mucho mayor también ha sido utilizada en el arte por otros artistas. El artista holandés Herman van de Poll, que describe su trabajo como basado “en las formas matemáticas de la teoría del caos” y la “geometría fractal”, también ha utilizado este diagrama en sus obras para generar estructuras fractales. Como la serie Puzzle boom van Pythagoras, algo así como “Árbol con el rompecabezas de Pitágoras”.

Puzzle boom van Pythagoras n. 10, “Árbol con el rompecabezas de Pitágoras, n. 10”, del artista Herman van de Poll. Imagen de la página de art olive

O también la serie Fractalgeneratie, algo así como “Generación fractal”.

Fractalgeneratie n. 31, “Generación fractal n. 31”, del artista Herman van de Poll. Imagen de la página de art olive

Esta misma idea de generar un fractal ha sido utilizada por otros artistas, como el austriaco Hartmut Skerbisch (Ramsau am Dachstein, Austria, 1942 – Schloss Kalsdorf, Austria, 2009), que genera un árbol fractal de Pitágoras tridimensional, es decir, formado por cubos en lugar de triángulos.

Fractal árbol de Pitágoras, del artista Hartmut Skerbisch, en el jardín de la iniciativa cultural kunstgarten, en Graz, Austria. Imagen de la página de kunstgarten

Crockett Johnson (Nueva York, 1906 – 1975) era el seudónimo del ilustrador de libros infantiles y humorista gráfico David Johnson Leisk, quien dedicó los diez últimos años de su vida a pintar cuadros relacionados con las matemáticas y la física matemática. Ochenta de estos cuadros pertenecen a la colección de The National Museum of American History (El Museo Nacional de Historia Americana), de la Institución Smithsonian.

Entre las obras matemáticas de Crockett Johnson podemos disfrutar de, al menos, dos de ellas relacionadas con el Teorema de Pitágoras. La primera es la obra Squares of a 3-4-5 Triangle in Scalene Perspective (Dürer), “Cuadrados de un triángulo 3-4-5 en perspectiva escalena (Durero)”, de 1965. Esta pintura es una versión con perspectiva del esquema del teorema de Pitágoras para el triángulo rectángulo (3, 4, 5). Los tres cuadrados asociados a los lados del triángulo (3, 4, 5) están pintados con un diseño ajedrezado, el primero con 9 cuadraditos, el siguiente con 16 y el tercero con 25, como se observa en la imagen del cuadro que mostramos más abajo. Además, los cuadrados no están colocados en el mismo plano que el triángulo rectángulo, sino perpendiculares al mismo, de forma que están en la dirección de la persona que observa el cuadro, y están pintados en perspectiva.

Ilustración de la construcción de un suelo ajedrezado perteneciente al libro The Life and Art of Albrecht Dürer (1955), de Erwin Panofsky. Imagen de la página web de The National Museum of American HistoryPintura Squares of a 3-4-5 Triangle in Scalene Perspective (Dürer), “Cuadrados de un triángulo 3-4-5 en perspectiva escalena (Durero)”, de 1965, de Crockett Johnson. Imagen de la página web de The National Museum of American History

La otra obra es Proof of the Pythagorean Theorem (Euclid), “Demostración del Teorema de Pitágoras (Euclides)”, de 1965, y que fue la segunda obra que pintó de esta serie matemática. Como se menciona en el título de esta pintura se utiliza el diagrama de la demostración del Teorema de Pitágoras que aparece en Los Elementos de Euclides (aprox. 325-265 a.n.e.). Como se menciona en la entrada Pitágoras sin palabras, “los árabes llamaban al esquema de la demostración del Teorema de Pitágoras dado por Euclides, la silla de la novia, ya que al parecer se parece a la silla que en algunos países orientales llevaba un esclavo a la espalda para transportar a la novia a la ceremonia. También ha sido llamada calesa de la mujer recién casada, capucha de franciscano, cola de pavo real y figura del molino de viento. El filósofo Schopenhauer llamaba a la demostración de Euclides una prueba paseando en zancos y también prueba de la ratonera”.

Ilustración con el esquema de la demostración de Euclides del Teorema de Pitágoras de la revista Mathematical Gazette (n. 11, 1922-23), en el contexto de la primera guerra mundial

Crockett Johnson pintó el esquema de la demostración de Euclides que había visto en el artículo Greek Mathematics, “La matemática griega”, de Ivor Thomas, perteneciente a la publicación The World of Mathematics (1956), editado por James R. Newman. Este esquema es el mismo que el de la ilustración anterior.

Proof of the Pythagorean Theorem (Euclid), “Demostración del Teorema de Pitágoras (Euclides)”, de 1965, de Crockett Johnson. Imagen de la página web de The National Museum of American History

Las propias demostraciones del Teorema de Pitágoras también han tenido mucho interés para las personas que se han interesado por el resultado geométrico y algunas de ellas poseen una gran fuerza estética.

La siguiente obra del conservador, historiador del arte y artista Kesler Woodward (AIken, Carolina del Sur, EE UU, 1951), cuya obra está compuesta principalmente por paisajes, se basa en la conocida demostración del matemático indio Bhaskara (siglo XII).

Esquema de la demostración sin palabras basada en la demostración del matemático indio Bhaskara (siglo XII) del Teorema de Pitágoras. Imagen del blog de Jan Marthedal

Teniendo en mente esta demostración Kesler Woodward pinta la obra Bhaskara’s Birchbark, “El abedul de Bhaskara” (2018).

Bhaskara’s Birchbark, “El abedul de Bhaskara” (2018), de Kesler Woodward

Pero no es la primera vez que nos encontramos la demostración de Bhaskara en una obra de arte. El propio artista Max Bill la utiliza en varias de sus obras, como por ejemplo, la pintura 12 vierergruppen in weissem feld, “12 grupos de cuatro en un campo blanco” (1982).

12 vierergruppen in weissem feld, “12 grupos de cuatro en un campo blanco” (1982), del artista Max Bill

O la obra Rotation um sich ausdehnendes weiss “Rotación alrededor de un blanco expansivo” (1978-1981), que está por cuatro copias de la estructura de la demostración de Bhaskara.

Rotation um sich ausdehnendes weiss, “Rotación alrededor de un blanco expansivo” (1978-1981), de Max Bill

Esta obra está compuesta por cuatro copias de la estructura de la demostración de Bhaskara, en las cuales el cuadrado central es cada vez más grande, en el sentido de las agujas del reloj, izquierda-arriba-derecha-abajo, como se puede observar mejor en la siguiente imagen en la que hemos separado las cuatro estructuras. Además, esos cuadrados centrales no están blancos, sino que a su vez contienen cuatro copias de una de las demostraciones clásicas, que es una adaptación de la que aparece en el texto clásico de la matemática china Zhoubi Suanjing (aprox. 200 a.c.) del teorema de Pitágoras.

Esquema de la demostración sin palabras basada en la demostración del texto clásico de la matemática china Zhoubi Suanjing (aprox. 200 a.c.) del Teorema de Pitágoras. Imagen del blog de Jan Marthedal

En la siguiente imagen hemos trazado unas líneas en negro para distinguir las cuatro demostraciones de tipo Bhaskara y las cuatro de tipo Zhoubi Suanjing, en la obra de Max Bill.

Pero las demostraciones que utiliza el máximo exponente del arte concreto, Max Bill, en su trabajo no terminan ahí. En la serigrafía Vier sich durchdringende farben, “Cuatro colores que se interconectan”, de 1967, utiliza de nuevo dos demostraciones distintas del teorema de Pitágoras. El esquema de la parte interior, el cuadrado inclinado partido en cuatro trozos, se corresponde con la demostración visual atribuida al matemático recreativo estadounidense Henry E. Dudeney (1857-1930) del teorema de Pitágonas, mientras que en la parte exterior está la demostración visual que ya hemos visto basada en el Zhoubi Suanjing.

Vier sich durchdringende farben, “Cuatro colores que se interconectan”, de 1967, de Max Bill

A continuación, mostramos el esquema de la demostración visual de H. E. Dudeney del Teorema de Pitágoras, del año 1917. Aunque como se apunta en el libro Dissections: plane and fancy la demostración fue publicada con anterioridad, en 1873, por el inglés Henry Perigal (1801-1898).

Esquema de la demostración visual de H. E. Dudeney y H. Perigal del Teorema de Pitágoras. Imagen de Blue Math Software

Vamos a finalizar esta entrada con un poema visual sobre el Teorema de Pitágoras, del ingeniero químico retirado estadounidense Li C. Tien, titulado Right Triangle.

Poema visual Right Triangle, de Li C. Tien. Imagen del blog Poetry with Mathematics

Bibliografía

1.- Página web del artista conceptual estadounidense Mel Bochner

2.- Institut de Mathologie Pierre Gallais

3.- Página web del artista Herman van de Poll

4.- Página web de The National Museum of American History

5.- James R. Newman (editor), The World of Mathematics, editorial Simon and Schuster, 1956.

6.- Roger B. Nelsen, Demostraciones sin palabras (ejercicios de pensamiento visual), Proyecto Sur, 2001.

7.- Manuel Fontán del Junco, María Toledo (editores), catálogo de la exposición Max Bill, Fundación Juan March, Madrid(octubre 2015 – enero 2016), Fundación Juan March y Editorial de Arte y Ciencia, 2015.

8.- JoAnne Growney, Poetry with Mathematics

9.- Greg N. Frederickson, Dissections: plane and fancy, Cambridge Universuty Press, 1997.

10.- Catálogo de la exposición Max Bill, obras de arte multiplicadas como originales (1938-1994), Museu Fundación Juan March, Palma (febrero-mayo 2015) y Museo de Arte Abstracto Español, Cuenca (junio-septiembre, 2015). Fundación Juan March y Editorial de Arte y Ciencia, Madrid, 2015.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El teorema de Pitágoras en el arte se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El teorema de la ikurriña
  2. Pitágoras sin palabras
  3. Cultura pitagórica: arte
Catégories: Zientzia

Sonido (1)

mar, 2019/02/05 - 11:59
Imagen: Pixabay

Las ondas sonoras son perturbaciones mecánicas que se propagan a través de un medio, como el aire. Típicamente, las ondas de sonido son ondas longitudinales, que producen cambios de densidad y presión en el medio en el que se propagan. El medio puede ser un sólido, un líquido o un gas. Si las ondas sonoras llegan al oído hacen que el tímpano vibre, lo que produce una señal en el nervio acústico que es lo que produce la sensación de audición. La biología y la psicología de la audición, así como la física del sonido, son igualmente importantes para la ciencia de la acústica. Nosotros nos concentraremos en el sonido como un ejemplo de movimiento ondulatorio.

El sonido tiene todas las propiedades del movimiento de las ondas que hemos visto hasta ahora. Presenta reflexión, refracción, difracción y las mismas relaciones entre frecuencia, longitud de onda y velocidad e interferencia de propagación. Solo falta la propiedad de la polarización, porque las ondas de sonido son longitudinales, no transversales. Además, las ondas sonoras viajan más rápido en el aire frío que en el aire caliente debido a la mayor densidad del medio, el aire, cuando hace frío.

Diapasón montado en una caja de resonancia. Imagen: Wikimedia Commons

Las fuentes de vibración para ondas de sonido pueden ser tan simples como un diapasón o tan complejas como la laringe humana y sus cuerdas vocales. Los diapasones y algunos dispositivos electrónicos producen un “tono puro” constante. La mayor parte de la energía en un tono de este tipo se encuentra en un movimiento armónico simple a una sola frecuencia. La frecuencia se mide en hertz (Hz), donde 1 Hz es un ciclo (u oscilación) por segundo; 1 Hz = 1 / s (no hay una unidad para el “ciclo”).

El oído humano normal puede escuchar ondas de sonido con frecuencias entre aproximadamente 20 Hz y 15.000 Hz. Los perros pueden escuchar en un rango mucho más amplio (15 Hz – 50.000 Hz). Los murciélagos, marsopas y ballenas generan y responden a frecuencias de hasta 120.000 Hz.

La sonoridad (o “volumen”) del sonido es, como el tono, una variable psicológica. La sonoridad está fuertemente relacionada con la intensidad del sonido. La intensidad del sonido sí es una variable física. Se define en términos de la energía transportada por la onda y generalmente se mide en el número de vatios por centímetro cuadrado transmitidos a través de una superficie perpendicular a la dirección del movimiento de un frente de onda.

Tabla 1. Fuente: Modificado de Wikipedia

El oído humano puede percibir una amplia gama de intensidades de sonido. Comienza a un nivel de 10-16 W / cm2. Por debajo de este nivel de “umbral”, el oído normal no percibe el sonido. Es costumbre medir la sonoridad en decibelios (dB) que es 10 veces el logaritmo de la intensidad relativa. Así, si al umbral de audición le asignamos una intensidad relativa de 1, le corresponde en decibelios un valor de 0 (Tabla 1), ya que 100 = 1 y 10×0=0. Si un avión al despegar decimos que produce un sonido de 130 dB, eso quiere decir que la intensidad es de 1013.

Los niveles de intensidad de ruido de aproximadamente 1012 veces la intensidad del umbral se pueden sentir como una sensación incómoda en el oído humano normal. A partir de ahí la sensación cambia a dolor y puede dañar el oído si no está protegido. Dado que muchos conciertos de música pop y rock producen niveles de sonido constantes a esta intensidad (y por encima de ellos para los intérpretes), hay muchos casos de discapacidad auditiva entre las personas expuestas habitualmente a esos niveles.

Interior tapizado del Teatro arriaga de Bilbao. Fuente: Teatro Arriaga

La forma más sencilla de reducir el ruido es absorbiéndolo después de que se produzca, pero antes de que llegue a tus oídos. Como todo sonido, el ruido es la energía del movimiento hacia adelante y hacia atrás del medio a través del cual viaja el ruido. La maquinaria ruidosa se puede amortiguar encerrándola en recintos acolchados en los que la energía del ruido se transforma en energía térmica, que luego se disipa. En una habitación, una alfombra gruesa puede absorber el 90% del ruido que se genera en la habitación. 30 centímetros de nieve fresca y esponjosa es un absorbente casi perfecto de los ruidos al aire libre.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Sonido (1) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ecolocalización, la capacidad de ver a través del sonido
  2. Aplicaciones de la reflexión de ondas: el sonar
  3. Patrón de interferencia en ondas periódicas
Catégories: Zientzia

¿Puede China salvar a los elefantes africanos? Pronto lo descubriremos

lun, 2019/02/04 - 11:59
Fuente; Unplash

Los elefantes, enormes y majestuosos, llevan en sus colmillos uno de sus principales escollos para su propia supervivencia: el marfil, que unido a la avaricia y el desdén humano hacia el bienestar de otras especies ha provocado que durante décadas, cientos de elefantes fuesen asesinados cada año para proveer los mercados legales e ilegales de este material en todo el mundo.

China ha sido durante años el principal consumidor de marfil africano, en mercados tanto legales como ilegales. Pero algo está cambiando. En el año 2015, el presidente chino XiJinping firmó junto con el entonces presidente estadounidense Barack Obama un acuerdo por el que los dos se comprometían a implementar medidas que terminasen con el comercio no solo ilegal, sino también legal.

Esa firma se tradujo en el anuncio a finales de 2016 de que el país asiático cerraría el mercado legal de marfil, el mayor de todo el mundo. Tras años negando ser parte del problema de la progresiva desaparición de los elefantes africanos, China tomaba la iniciativa. La medida entraba en marcha el 31 de diciembre de 2017.

El cierre del mercado legal está teniendo también repercusión en el mercado ilegal, y cada vez más ciudadanos chinos aseguran no estar dispuestos a comprar marfil. Según una encuesta realizada en septiembre de 2018, el 72% de los encuestados aseguraba que no quiere comprar marfil ahora que está prohibido, en comparación con el 50% que decía lo mismo el año anterior, antes de que entrase en vigor la medida.

No solo hay menos gente dispuesta a comprarlo. También hay menos gente comprándolo. Según ese mismo sondeo, antes de la prohibición más de uno de cada cuatro encuestados había comprado algún producto con marfil en los seis meses anteriores a esas preguntas, mientras que en septiembre de 2018, solo un 12% lo había hecho.

A pesar de que esto parecen ser buenas noticias para los pobres elefantes, eso no está del todo claro todavía ya que hay predicciones contrapuestas sobre el efecto que puede tener la prohibición o legalización del comercio de marfil sobre el destino de los elefantes.

Fuente: Wikimedia Commons

En contra de la prohibición

Erico Di Minin es investigador en ciencia de la conservación en la Universidad de Helsinki y profesor de economía de la biodiversidad en el Instituto Durrell de Conservación y Ecología en la Universidad de Kent. En su opinión, la prohibición del comercio con marfil que introdujo la ONU en 1989, con el objeto de proteger a los elefantes, ha resultado ser una medida completamente contraproducente, ya que reducir la oferta en unas décadas de aumento de la riqueza en Asia solo ha servido para disparar los precios, aumentando de forma drástica los incentivos para que los traficantes se salten esa prohibición.

“Desde 2008, la caza ilegal de elefantes se ha reactivado a gran escala, impulsada por los altos precios del marfil en Asia”, aseguraba Di Minin en 2016.

En su opinión, en términos puramente económicos, limitar la oferta de marfil puede tener repercusiones negativas para la conservación de los elefantes. “Al reducir la oferta mientras la demanda se mantiene puede subir los precios y disparar la caza ilegal. Y si el mercado está controlado por criminales e inversores que no tienen ningún interés en la conservación y se mueven básicamente por los beneficios, podemos esperar que la caza ilegal aumente”.

Por otro lado aunque la demanda desde países como China se reduzca, es poco probable que llegue a desaparecer del todo en el breve periodo de tiempo que hace falta para tomar medidas con el objetivo de recuperar una especie.

Por eso, Di Minin defiende que un enfoque más práctico sería combinar las campañas de reducción de la demanda, como la que está poniendo en marcha China, con una oferta legal y muy regulada de marfil que evite que los precios suban y así se reduzcan los incentivos para las bandas de cazadores ilegales de elefantes.

Fuente: Wikimedia Commons

A favor de la prohibición

Otras posturas no coinciden con estos argumentos y se refieren a los ejemplos de la marihuana o la prostitución para señalar que a veces legalizar con bien o un servicio que antes era ilegal no conduce necesariamente a una reducción en su consumo, ni siquiera a su consumo ilegal.

Nitin Sekar, investigador en ciencia política de la Asociación Americana para el Avance de la Ciencia, y Solomon Hsiang, profesor asociado de políticas públicas de la Universidad de California Berkeley lo argumentan de la siguiente manera.

En el modelo económico estándar, la mejor manera de evitar la caza ilegal sería, efectivamente, establecer un mercado legal para el marfil recolectado de elefantes que hayan muerto de forma natural. Sin embargo, en un modelo económico dinámico, en el que la demanda y la oferta pueden cambiar como respuesta a cambios legislativos, la caza ilegal puede empeorar por la legalización del comercio de marfil.

Esto puede ocurrir de dos formas, explican Sekar y Hsiang. Por un lado, el mercado legal puede atraer a nuevos consumidores que vean publicidad de productos de marfil en los medios de comunicación o que vean a sus familiares, amigos o conocidos adquirirlos con normalidad. Eso podría hacer que hubiese más gente interesada en comprar marfil, y podría causar que el mercado legal no pueda satisfacer ese aumento de la demanda, impulsando la caz ilegal.

Por otro lado, si hay más marfil legal en el mercado se hace más difícil para las autoridades distinguir el legal del ilegal, reduciendo el riesgo para los traficantes y cazadores y facilitando la introducción de más marfil ilegal en el mercado.

Fuente: Unsplash

¿Quién tiene razón?

Ambas posturas reconocen que están basadas en ideas teóricas y que no es fácil determinar quién tiene razón en este debate, pero sí hay algunas evidencias de que legalizar el comercio de marfil no le haría un gran favor a los elefantes.

En el año 2008 la prohibición de comerciar con marfil fue temporalmente suspendida para sacar a la venta de forma legal 102 toneladas de marfil almacenado, en gran parte confiscado del tráfico ilegal, principalmente a compradores de China y Japón. El resultado fueron unos beneficios de 15 millones de dólares que fueron destinados a la conservación de los elefantes en África.

Pero un análisis global de los mercados de marfil alrededor de esa venta sugiere que tuvo un efecto llamada que provocó un aumento del 65% en la caza ilegal de elefantes a nivel global y que se mantuvo en el tiempo. De pronto aparecieron anuncios y promociones para animal a los inversores a invertir en marfil, y ese impulso no se limitó a los lotes vendidos legalmente.

Fuente: Sekar y Siang via The Guardian

Otro estudio publicado en 2016 daba otro motivo para mantener prohibido el comercio de marfil: los elefantes no generan sus colmillos ni se reproducen a la velocidad suficiente como para poder satisfacer la demanda de marfil. “La demanda de marfil es simplemente demasiado grande; sobrepasa lo que los elefantes pueden producir”, explicaba el biólogo David Lusseau, de la Universidad de Aberdeen, autor principal del estudio. Según el científico, intentar criar a los elefantes como si fuesen ganado para explotar legalmente sus colmillos sería empujarlos a la extinción.

Fuente: Wikimedia Commons

Marfil para sacar a África de la pobreza

Existe otro argumento en este debate, y es el de que la única forma de salvar a los elefantes es mejorar el nivel social y económico de los ciudadanos de los países africanos en los que viven esos animales, de forma que su conservación se convierta en una prioridad para ellos. Y que en ese proceso, el marfil sería un recurso a su alcance.

No deja de ser irónico, señalan algunas voces desde el continente, que los mismos países que durante siglos colonizaron, saquearon y fueron a la guerra precisamente por los recursos materiales de África, entre ellos el marfil, sean los que ahora imponen la prohibición de comerciar con ellos a sus actuales dueños. ¿Cómo podrán los países africanos negociar y competir en igualdad de condiciones con los países más desarrollados si se les niega utilizar los recursos de los que se han lucrado y todavía lo hacen) esos otros países?

Otras voces disienten, asegurando que el mercado de marfil, ni ahora cuando es ilegal ni cuando ha sido legal, ha supuesto una fuente de beneficios ni para los elefantes ni para los ciudadanos locales, ya que se ha mantenido en manos de inversores, grandes comerciantes y criminales. “No hay evidencias de que la venta de marfil proporcione ningún beneficio ni a las comunidades locales ni a la conservación de los elefantes”, asegura Andrew Seguya, director ejecutivo de la Autoridad Ugandesa para la Vida Salvaje.

Referencias:

Legalizing ivory trade won’t save elephants, study concludes – Science Magazine

Can We Sustainably Harvest Ivory? – Current Biology

Evidence Should be Used in Global Management of Endangered Species: reply to the CITES Technical Advisory Group – G-FEED

Debate: Would a legal ivory trade save elephants or speed up the massacre? – The Guardian

Should ivory trade be legalised? – Down to Earth

Closing China’s Ivory Market: Will It Save Elephants? – The New York Times

In China, Ivory Seems to Be Losing Appeal – National Geographic

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo ¿Puede China salvar a los elefantes africanos? Pronto lo descubriremos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Contra el furtivismo, genética molecular
  2. Colonialismo científico: los investigadores africanos se rebelan contra el expolio de datos genéticos
  3. Lo que la ciencia puede enseñarnos a los dueños de perros y gatos
Catégories: Zientzia

El desajuste adolescente

dim, 2019/02/03 - 11:59
Corteza prefrontal del hemisferio izquierdo.

La zona más exterior del cerebro humano, la corteza, ocupa dos terceras partes del volumen del encéfalo. Tiene del orden de dieciséis mil millones de neuronas. Que sepamos, ningún otro animal tiene un número equivalente. En la corteza se produce la percepción, se hacen los juicios morales, se toman las decisiones, se genera el pensamiento, se articula el lenguaje y se elaboran los actos conscientes, entre otras diversas tareas consideradas de orden superior.

El cerebelo, por su parte, sin ser muy grande, es la parte del encéfalo más densamente poblada: aunque de tamaño relativamente pequeño, contiene sesenta y nueve mil millones de neuronas. De su concurso depende nuestra capacidad para ejecutar con precisión los movimientos que hemos ido aprendiendo y convirtiendo en automáticos a lo largo de nuestra vida, sin que debamos ser conscientes de todos y cada uno de ellos.

En el resto del encéfalo –en las estructuras ubicadas bajo la corteza- tan solo hay unas setecientas mil neuronas, aunque las tareas en que están implicadas son fundamentales para que el organismo funcione correctamente. Esas estructuras, llamadas subcorticales por su posición, se ocupan de regular diversas funciones vitales; e intervienen en fenómenos tales como el deseo, la motivación o las adicciones, entre otros. Son las estructuras que generan las emociones y tienen, por ello, una importancia fundamental.

La región encefálica que más tarda en madurar de forma completa es un área de la corteza cerebral ubicada en su parte más anterior que se denomina corteza prefrontal; su maduración no se completa hasta los 25 años de edad, aproximadamente. Desempeña las que se denominan funciones ejecutivas, que son las relativas a la valoración de las consecuencias de los actos, los juicios morales y de otra índole, la planificación de acciones, la generación de expectativas y, lo que es de gran importancia, el control y, en su caso, inhibición de comportamientos impulsivos. Por lo tanto, dado que la corteza prefrontal no completa su desarrollo hasta mediada la tercera década de la vida, esas funciones no son desempeñadas con la eficiencia propia de los adultos. Sin embargo, las zonas subcorticales antes mencionadas, implicadas en la generación de emociones y, de forma especial, las que producen las expectativas y sensaciones de recompensa, son ya muy activas desde el final de la niñez y la pubertad.

Que las áreas responsables de la valoración de las consecuencias de los actos y del autocontrol maduren mucho más tarde que las encargadas de generar las sensaciones de placer y promover su búsqueda tiene, como es lógico, consecuencias de mucho calado. Las tiene, lógicamente, para los individuos que se encuentran en el periodo vital al que denominamos adolescencia. Entre ellas, es bien conocida la tendencia de los adolescentes a buscar nuevas sensaciones y vivir nuevas experiencias sin evaluar las posibles consecuencias de esa búsqueda. En otras palabras, la tendencia a adoptar comportamientos de riesgo. Y no son las únicas.

Como dice Robert Sapolsky en Behave (2017), la adolescencia y la juventud temprana es cuando es más probable que una persona mate, sea asesinada, abandone su hogar, invente una forma de arte, ayude a derribar un dictador, participe en un genocidio, dedique su vida a los necesitados, se haga drogadicto, transforme la física, se rompa el cuello en una actividad recreativa, dedique su vida a Dios, o se convenza a sí mismo de que toda la historia ha convergido para hacer de este momento el más importante, el más plagado de peligros y promesas, el más exigente, el momento más singular. Y todo por culpa de un desajuste en la maduración de diferentes áreas del encéfalo.

——————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El desajuste adolescente se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La neurociencia está desentrañando los misterios del encéfalo adolescente
  2. Mitología, educación y violencia adolescente
  3. Tamaño del encéfalo e inteligencia
Catégories: Zientzia

Patrimonio geológico: la otra mitad del ambiente

sam, 2019/02/02 - 11:59

Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.

Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.

La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.

Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.

Luis Carcavilla, Científico Titular en el Instituto Geológico y Minero de España (IGME) reivindica el papel fundamental de la geología, y su desatención, en la mayoría de los lugares de Patrimonio de la Humanidad Natural.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Patrimonio geológico: la otra mitad del ambiente se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Geología: la clave para saber de dónde venimos y hacia dónde vamos
  2. El (Paleo)Clima y ¿el frío que vendrá?
  3. Los riesgos dormidos: lo que usted debería saber
Catégories: Zientzia

A new hero is born: La espectrometría de masas al servicio de la justicia

ven, 2019/02/01 - 11:59

Hace unos pocos años, apareció en algunos medios locales gallegos una noticia sobre la lucha judicial entre los herederos de un abuelo acaudalado. Este hombre falleció un año después de haber perdido su capacidad legal debido a un diagnóstico de alzhéimer. Uno de los nietos que había cuidado de él en sus últimos años alegaba ser el único heredero y, para ello, presentaba un testamento ológrafo (testamento que el testador formaliza por sí mismo, escribiéndolo y firmándolo de su puño y letra sin intervención de testigo alguno) a su favor fechado 3 años antes de su muerte. El resto de los herederos potenciales alegaban que este testamento era falso y se remitían al oficial realizado ante notario décadas antes en el que el abuelo repartía su fortuna de forma equitativa entre todos ellos. No cuestionaban el hecho que de que el testamento estuviera hecho por otra persona (había sido corroborado por peritos calígrafos), sino que cuestionaban la fecha de realización. Si se demostraba que el testamento ológrafo estaba realizado en la fecha descrita, le otorgaría vigencia y validez, ya que era posterior al realizado ante notario y anterior a que el abuelo perdiera sus facultades.

Hechos como este o algunos de naturaleza parecida, se repiten de forma recurrente en la sociedad en la que vivimos. Aunque avanzamos sin remedio hacia la sociedad del formato electrónico, la mayor parte de tratados o acuerdos con importantes consecuencias individuales, sociales y/o económicas aún siguen siendo certificados de forma manuscrita mediante útiles de escritura tipo bolígrafo. Por esa razón, el estudio forense documental sigue manteniendo aun vigencia. Por ejemplo, los datos recogidos por la policía científica en Finlandia en el año 2015 demuestran que el estudio forense fue determinante para llegar a una sentencia firme en el 40% de los casos judiciales relacionados con documentos.

Imagen 1. Carta de amor de Matilde Corcho convertida en el primer testamento ológrafo después de la sentencia dictada por el Tribunal Supremo en 1918. Fuente: Archivo Histórico Provincial de Valladolid (vía cadena SER)

Desde los años 90 existen distintas metodologías analíticas que posibilitan la datación de documentos. Para empezar por el principio debemos responder a estas preguntas: ¿En qué están basadas la mayor parte de las metodologías de datación de documentos? ¿Cómo podemos afirmar que un documento ha sido escrito en el momento en el que está fechado? Básicamente la mayor parte de las metodologías de datación directa tratan de observar los cambios ocurridos en la tinta con el tiempo. Como es fácil de imaginar, esto no es una tarea fácil ya que existen una gran variedad de tintas en el mercado internacional. Además, no sólo podemos asignar una única tinta a una marca de bolígrafo. La misma marca puede variar la composición de la tinta entre sus diferentes plantas de producción a lo largo del mundo o incluso entre lotes temporales con el propósito de ofertar útiles de escritura con distintas propiedades. Este hecho hace que nos encontremos ante una cantidad innumerable de tintas con diferentes componentes que haría imposible su estudio individual. En el ejemplo que nos concierne, nunca se supo qué bolígrafo utilizó el abuelo para realizar su testamento y mucho menos la marca o el lote. Para intentar solventar este problema, la mayor parte de las metodologías de datación se basan en el estudio de una familia de compuestos habituales en tinta de bolígrafo: los disolventes orgánicos. Estos compuestos, añadidos como vehículo para colorantes y resinas, sufren un proceso de evaporación desde el primer momento en el que se depositan en el trazo. Aunque hay algunas clases de bolígrafos que usan el agua como disolvente (bolígrafos tipo gel), el resto de útiles de escritura de uso común utilizan compuestos orgánicos volátiles como alcoholes, aldehídos o cetonas, siendo el 2-fenoxyetanol el compuesto más habitual (más del 80% de los bolígrafos de tinta viscosa lo contienen) y el más estudiado en su comportamiento cinético.

Y en este punto podemos preguntarnos, ¿En qué puede ayudar la espectrometría de masas en la datación de documentos? ¿Por qué se ha convertido en uno de los detectores más utilizados en las distintas metodologías de datación desarrolladas hasta el momento? La espectrometría de masas es una técnica relativamente reciente y ampliamente utilizada en distintas áreas de aplicación como análisis alimentario, industrial, farmacéutico y también forense. Su alta aplicabilidad reside, entre otras cosas, en la posibilidad de identificación de compuestos desconocidos a través de su contraste con una librería de espectros. El funcionamiento es relativamente sencillo: las moléculas orgánicas que llegan al espectrómetro de masas (MS) son “bombardeadas” por una gran cantidad de electrones al pasar bajo una diferencia de potencial controlada (70 eV). Este impacto electrónico provoca que el compuesto se rompa en fragmentos que serán siempre los mismos si no se cambia el potencial al que han sido sometidos (Imagen 2). Gracias a ello, la fragmentación controlada de sustancias puras nos permite poseer librerías de espectros de una gran cantidad de compuestos orgánicos (306 622 compuestos en la última versión del año 2017) con la que poder contrastar los espectros de moléculas que nos son desconocidas y así poder identificarlas. El contraste entre los espectros de compuestos puros y nuestros compuestos no identificados en la base de datos, nos devuelve una identificación con un porcentaje asociado de confianza. En este punto es donde la espectrometría de masas se convierte en una herramienta fundamental dentro de las distintas metodologías de datación de documentos. Y aún más si cabe si se combina previamente con una técnica de separación de sustancias orgánicas volátiles como es la Cromatografía de Gases (GC). Como cualquier otro detector químico de funcionamiento universal, el MS nos permite cuantificar la cantidad de compuesto que tenemos en nuestra muestra analizada (a niveles de pocos nanogramos) pero, además, es una herramienta fenomenal para determinar e identificar compuestos desconocidos.

Volviendo al ejemplo con el que hemos comenzado podríamos decir que, mediante un análisis de cromatografía de gases acoplado a espectrometría de masas (GC/MS), no sólo descubrimos la cantidad de disolvente remanente en los trazos de tinta de nuestro testamento ológrafo cuestionado, sino también qué tipo de compuestos la conforman. El conjunto de toda esta información es muy importante en la datación del documento: podemos identificar si ese trazo de escritura posee un disolvente orgánico cuya cinética esta estudiada y por otra parte podemos saber cuánto compuesto hay a partir de su medida cuantitativa. La combinación de estos dos datos puede servirnos para estimar la fecha en el que esta tinta fue depositada. Además, esa capacidad de identificar compuestos también nos permitiría datar de forma indirecta al encontrar algún tipo de anacronismo en la composición. Esto querría decir que, si logramos identificar algún compuesto que ha comenzado a formar parte de las composiciones comerciales en la actualidad, en ningún caso ese texto podía haber sido escrito con anterioridad.

Imagen 2. Espectro de masa de la molécula 2-fenoxyetanol. En verde, su ion molecular y en naranja y azul distintos iones fragmento. Fuente: Luis Bartolomé.

A día de hoy, los métodos de datación todavía suscitan reparos en la comunidad científica y en la sociedad civil (peritos y jueces) debido a la gran cantidad de problemas e inconvenientes que los rodean. Algunos de los problemas más recurrentes son la influencia del soporte papel (densidad, composición…) sobre la evolución cinética de las tintas, la dependencia de la masa en la determinación de la edad de una tinta (hay que recordar que no todo el mundo deposita la misma cantidad de tinta en un trazo realizado en el mismo momento) o la influencia de la distinta conservación de los documentos (no es lo mismo la conservación de un documento en un cajón de un escritorio en condiciones controladas que en un coche en la playa). Además de estos problemas con solución compleja, existen otras problemáticas habituales como son la cantidad de muestra disponible (en algunos casos pocos milímetros de trazo escrito para analizar) o la incapacidad de poder datar documentos de más de 2 años de antigüedad. La Universidad del País Vasco (UPV/EHU) ha participado activamente en el desarrollo y evolución de nuevas metodologías de datación intentando minimizar estos problemas descritos. Desde el año 2015 un grupo de investigación del departamento de Química Analítica de la Facultad de Ciencia y Tecnología (FCT/ZTF) junto con el apoyo de los Servicios Generales de Investigación (SGIker) ha desarrollado un método de datación innovador denominado DATINK. Esta metodología que combina la potencialidad antes descrita de la espectrometría de masas junto con un proceso de micro-extracción en etapas sucesivas (Imagen 3) del 2-fenoxyetanol y un original modelado matemático, ha logrado rebajar la cantidad de muestra necesaria para poder realizar la datación (únicamente es necesario muestrear un trazo de 1.2 mm), así como aumentar el rango temporal de aplicación hasta los 5 años de antigüedad. Además, de forma completamente innovadora con respecto a las metodologías actuales, estima una fecha concreta (con un intervalo de error temporal del 20% aproximadamente). En el caso del testamento descrito como ejemplo, este hecho fue algo fundamental. Debía demostrarse que el documento cuestionado había sido realizado después del testamento ante notario pero antes de la incapacidad por enfermedad. Si habíais apostado por la ecuanimidad del abuelo con respecto a sus herederos, os diré que no habéis acertado.

Imagen 3. Señales cromatográficas en los que se basa el método DATINK. En cada extracción la cantidad de fenoxyetanol es menor. Fuente: Luis Bartolomé.

¿Es por tanto la espectrometría de masas la solución a nuestros problemas en el ámbito del estudio documental? ¿Ha nacido un héroe? Habría que ser un necio para afirmar que este tipo de herramientas no facilitan el desarrollo y la consecución de nuevos objetivos en la resolución de problemas analíticos. En el caso del estudio forense, la espectrometría de masas se ha convertido en una herramienta básica, no sólo en el desarrollo de nuevas metodologías para la datación de documentos, sino también en otras áreas de aplicación. De la misma manera, por otro lado, también se puede afirmar con rotundidad que este detector no es la panacea ni será la solución a todos nuestros males si no la ponemos al servicio de investigadores innovadores y creativos. Habitualmente, los investigadores caemos en la tentación de ceder la responsabilidad del desarrollo I+D+i a las capacidades de estos detectores y a sus continuos márgenes de mejora, olvidándonos que somos nosotros los que estamos al volante y que es la justa combinación de ambas facetas la que nos ofrece los mejores resultados. Ni que decir tiene que la UPV/EHU y la FCT/ZTF, como parte del entramado de formación de alta capacidad, ha tenido, tiene y debe seguir teniendo una responsabilidad muy alta en el hecho de obtener el máximo rendimiento en esta combinación.

Sobre el autor: Luis Bartolomé es técnico del Servicio Central de Análisis – SGIker en la Facultad de Ciencia y Tecnología de la UPV/EHU.

El artículo A new hero is born: La espectrometría de masas al servicio de la justicia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
  2. Curso de verano “Las dos culturas y más allá”: La ciencia al servicio de la salud humana, por Icíar Astiasarán
  3. Así en la Tierra como en Marte: espectrógrafos y espectrómetros de masas
Catégories: Zientzia

Ritmo, expectativas y Des… pa… cito.

jeu, 2019/01/31 - 11:59

Shave and a Haircut” es un patrón rítmico tan conocido que es imposible empezar a oírlo sin esperar su final. Pero además, es especialmente efectivo porque juega con nuestras expectativas rítmicas. En este caso, la gracia no está en qué notas van a sonar sino en el cuándo.

Lo normal sería que las dos últimas notas sonasen a tempo, dando continuidad al primer grupo de notas y cayendo sobre la parte fuerte del compás. Algo como esto:

Pero en lugar de esto, hay un “hueco”: como si, al ir a dar el siguiente paso, la música dejase el pie en el aire, por sorpresa. Nosotros ya sabemos que acaba sonando, no hay de qué preocuparse: la penúltima nota entra en una parte débil del compás y la última culmina, ya sí, a tempo. (Esto es lo que, en música, se conoce como síncopa). El pie acaba apoyándose en el suelo. Pero lo que consigue ese silencio previo es, justamente, aumentar la tensión de la caída, hacernos desearla con más fuerza.

Hace no tanto tiempo, un tema quizás aún más conocido, utilizó un recurso parecido (siento devolver este gusano a vuestros oídos):

Hay una ligerísima dilatación del tiempo en las dos primeras sílabas, una mínima pausa sobre la “c” justo antes de que suene la “i”, en la parte fuerte del siguiente compás. (Esto es lo que, en música, se conoce como fermata). Pero es justo esa pausa, el pie manteniéndose un instante más en el aire, la que hace el comienzo del estribillo aún más inevitable.

Pero volviendo a la premisa: ¿qué es eso de las expectativas rítmicas?, ¿qué nos esperamos, exactamente, de las duraciones de las notas en una canción?

Pues, para empezar, una obviedad, aunque no por ello poco interesante: de la música esperamos que haya cierto “pulso”, una repetición subyacente de duraciones de tiempo regulares. De hecho esto es uno de los rasgos universales de la música1 y es uno de los rasgos que, al menos a cierto nivel, la separan del lenguaje. Pero no cualquier duración regular vale y pongo un ejemplo: los semáforos de la calle se encienden y apagan a intervalos regulares y eso no basta para percibirlos como “rítmicos”. Tampoco nos sirve el batido de las alas de un colibrí. Existe un rango limitado de pulsos que somos capaces de apreciar como rítmicos y un rango aún más pequeño que podemos seguir con especial precisión: ese rango se sitúa, aproximadamente, entre 80 pulsos por minuto y 100 pulsos por minuto2. En ese intervalo, si nos piden anticipar las notas de una canción, ni nos aceleramos ni nos quedamos detrás, damos la palmada justo a tiempo y nuestras expectativas son especialmente precisas. Es nuestro “tempo ideal” por así decirlo. ¿Y qué hay del tempo de Despacito?: 89 pulsos por minuto. Bastante ajustadito, de hecho.

Además, dentro de una canción, no todos los pulsos (no todos los cuándos) son iguales, existe una jerarquía a varios niveles que suele ser binaria, especialmente en el caso de la música occidental. Es decir: las duraciones de las notas se suelen subdividir (un pulso de negra en dos corcheas, en 4 semicorcheas, etc. ) y agrupar (compases de 2/4 o de 4/4, semifrases de 4 compases, frases de 8, temas enteros de 32…) de dos en dos y esta agrupación está asociada, además, a que ciertos momentos se perciban como más importantes. En estos momentos es donde se producen los cambios armónicos, donde la música introduce nuevos materiales y donde es más probable que suene una nota que, además, será un poquito más fuerte que sus vecinas. El pie se apoya en el suelo y gracias a eso la música puede seguir avanzando.

Pero no se trata sólo de una construcción musical o de un capricho del lenguaje: la atención misma de los oyentes se focalizada de acuerdo con estas jerarquías. La profesora Mari Riess Jones ha estudiado especialmente este fenómeno: cuando escuchamos música, la atención se distribuye de forma desigual, dirigiéndose hacia los momentos donde es más probable que aparezca una nueva nota, lo cual nos permite percibirla mejor. De este modo, la jerarquía rítmica de la música se convierte, de hecho, en la estructura misma de nuestra atención.

¿Y Despacito? Una base rítmica del reggaetón en 2 pulsos que se repite 2 veces dentro de cada compás de 4/4, un estribillo de 4 compases que se repite 2 veces cada vez que suena, una estructura armónica de 4 acordes que se ha utilizado en otros cuatro cuatrillones de canciones antes… estábamos perdidos desde el principio.

Referencias:

1 Patrick E. Savage et al (2015) Statistical universals reveal the structures and functions of human music. 2015. . PNAS doi: 10.1073/pnas.1414495112

2 Dirk-Jan Povel and Peter Essens (1985) Perception of Temporal Patterns [PDF] (1985) Music Perception: An Interdisciplinary Journal Vol. 2, No. 4

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Ritmo, expectativas y Des… pa… cito. se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué son las expectativas musicales?
  2. Lo que tienen en común una red inalámbrica, el ritmo del corazón y la consciencia
  3. Formas ritmo-espacio
Catégories: Zientzia

Gaston Julia y su ‘Grand Prix des sciences mathématiques’

mer, 2019/01/30 - 11:59

En 1913, el gobierno francés aprobó la llamada loi des Trois ans por la que se aumentaba la duración del servicio militar de dos a tres años y se rebajaba a 19 años la edad la incorporación a ese servicio. Francia estaba preparando a su ejército para una eventual guerra con Alemania que comenzaría al año siguiente: la Primera Guerra Mundial.

Muchos alumnos de las Grandes Escuelas francesas fueron movilizados al estallar la guerra. Habitualmente se unían a la infantería como subtenientes, un grado que les colocaba delante de sus hombres en el momento del combate y les exponía especialmente. Si casi el 17% de los soldados franceses murieron en la Primera Guerra Mundial, ese porcentaje aumentaba al 30% en el caso de los oficiales de infantería y a un 41% para aquellos que procedían de la École normale supérieure. Se estima que un 40% de estudiantes universitarios franceses fallecieron o sufrieron mutilaciones en esa guerra: supuso el sacrificio de una generación de intelectuales, entre ellos muchos científicos.

Gaston Julia. Imagen: MacTutor History of Mathematics archive. University of St Andrews.

Tras una brillante carrera en la École normale supérieure, el joven Gaston Julia (1893-1978) fue llamado a filas en agosto de 1914. Se incorporó al 57 regimiento de infantería. Tras cinco meses de formación, fue enviado como subteniente al campo de batalla, al Chemin des Dames. Allí, en enero de 1915, fue gravemente herido en la cara: perdió la nariz, tuvo que someterse a diferentes operaciones y llevar durante toda su vida una máscara de cuero. Recordemos que Louis Antoine (1888-1971) fue un gran amigo de Julia. Durante la ofensiva de Nivelle, en abril de 1917, una bala le alcanzó la cara, perdió los dos ojos y el sentido del olfato. Julia y Antoine compartían habitación en el sanatorio en el que permanecieron para recuperarse de sus heridas.

Tras su largo periodo de convalecencia, Julia se dedicó a la investigación en matemáticas y a la docencia en diferentes centros superiores.

Anuncio del Grand Prix de 1918. Imagen: Repositorio Gallica.

El 29 diciembre de 1915 la Académie des sciences anunció que atribuiría un Grand Prix des sciences mathématiques en 1918 con el estudio de la iteración de funciones como tema propuesto.

Desde 1906, Pierre Fatou (1878-1929) investigaba sobre el problema de iteración de fracciones racionales. Animado por el premio de la Académie retomó con fuerza el tema en 1917. En mayo de 1917 publicó un primer artículo titulado Sur les substitutions rationnelles en el que decía que sabía resolver completamente el problema de la iteración (que calificaba de “muy difícil” en general) en el caso de fracciones racionales enviando un disco sobre sí mismo.

Simultáneamente, Gaston Julia comenzó a depositar en la Académie unos documentos confidenciales conteniendo resultados análogos.

El matemático, Paul Montel (1876-1975) publicó ese mismo año una nota titulada Sur la représentation conforme que inspiró a Fatou y Julia en sus trabajos de iteración. De hecho, les dio la clave para llegar a una solución satisfactoria del problema planteado en el Grand Prix en el caso de funciones racionales.

El 24 diciembre de 1917, la Académie des sciences recibió una carta de Gaston Julia en la que afirmaba que los resultados anunciados por Fatou en Sur les substitutions rationnelles estaban contenidos en sus documentos confidenciales y solicitó su apertura. Ese mismo día depositó su candidatura para el Grand Prix. Los expedientes se abrieron en la sesión de la Académie del 24 de diciembre de 1917: eran unas notas desordenadas, escritas sin demasiado cuidado, seguramente para adelantar a Fatou en una posible nueva publicación.

En la sesión del 2 diciembre 1918 la Académie des sciences concedió a Gaston Julia el Grand Prix anunciado en 1915.Fatou no se había presentado al premio. Pero el informe de la comisión que decidía el galardón prácticamente daba a entender la Académie tendría que haber dividido el premio en caso de que Fatou se hubiera postulado. Ambos matemáticos realizaron trabajos prácticamente equivalentes que publicaron posteriormente de manera extendida. No es extraño que diferentes personas lleguen a resultados similares trabajando de manera independiente.

El estudio de funciones iteradas se ralentizó en Francia tras la concesión del Grand Prix. Por un lado, aunque Julia era un matemático brillante y muy prolífico y tenía muchos estudiantes, parece que ninguno se interesó por el tema. Por otro lado, el trabajo como astrónomo de Fatou le impidió invertir mucho tiempo en las matemáticas, no tenía gente joven cerca que pudiera continuar con su trabajo y murió con solo 51 años.

El conjunto de Julia (en blaco) para la función f(z)=z²+c cuando la constante c cambia. Imagen: Wikimedia Commons.

Hasta la década de los años 1980, el tema no se retomó con fuerza… pero esa es otra historia. Actualmente, en dinámica compleja, los conjuntos de Julia y de Fatou son dos conjuntos complementarios obtenidos al estudiar el comportamiento de números complejos al ser iterados por una función holomorfa. El conjunto de Julia J(f) de una función holomorfa f está formado por los puntos que bajo la iteración de f tienen un comportamiento ‘caótico’ (perturbaciones arbitrariamente pequeñas provocan cambios drásticos en la sucesión de funciones iteradas) y el conjunto de Fatou F(f) es el complementario, es decir, aquella familia de puntos que tiene un comportamiento ‘estable’ bajo iteración (bajo pequeñas iteraciones tiene pequeños cambios). Un pequeño homenaje que recuerda las aportaciones al tema de ambos matemáticos.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Gaston Julia y su ‘Grand Prix des sciences mathématiques’ se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Pierre Fatou, un matemático poco (re)conocido
  2. Louis Antoine: el destello en medio de una larga noche
  3. Homenaje de Google a Euler
Catégories: Zientzia

Refracción de ondas

mar, 2019/01/29 - 11:59
Imagen: Pixabay

¿Qué sucede cuando una onda se propaga de un medio a otro en el que su velocidad de propagación es diferente? Fijémonos en la Figura 1(a). Dos pulsos unidimensionales se aproximan a un límite que separa dos medios. La velocidad de la propagación en el medio 1 es mayor que en el medio 2. Esta situación correspondería en el mundo real a pulsos en una cuerda ligera (medio 1) atada a una cuerda relativamente muy pesada (medio 2). Ya sabemos que podemos esperar que una parte de cada pulso se refleja en el límite. Esta componente reflejada se pone del revés en relación con el pulso original. ¿Pero qué pasa con esa parte de la onda que continúa en el segundo medio?

Figura 1. Fuente: Cassidy Physics Library

Como vemos en la figura, los pulsos transmitidos están más juntos en el medio 2 que en el medio 1. La razón es que la velocidad de los pulsos es menor en la cuerda más pesada. Así que el segundo pulso, mientras todavía está en la cuerda ligera, está alcanzando al que ya está en la cuerda pesada. Por la misma razón, cada pulso se comprime en una forma más estrecha; es decir, cuando la parte frontal de un pulso ha entrado en la región de menor velocidad, la parte posterior sigue avanzando con mayor velocidad.

Con las ondas periódicas ocurre algo parecido. Lo tenemos en la Figura 1(b). Para simplificar suponemos que toda la onda se transmite y nada se refleja. Al igual que los dos pulsos se acercaron y cada pulso se apretó y se estrechó, el patrón de onda periódico también se comprime. Por lo tanto, la longitud de onda λ2 de la onda transmitida es más corta que la longitud de onda λ1 de la onda entrante o incidente.

Aunque la longitud de onda cambia cuando la onda pasa a través del límite, la frecuencia de la onda no puede cambiar. Si la cuerda no está rota, las trocitos de cuerda inmediatamente a ambos lados del límite deben subir y bajar juntos. Las frecuencias de las ondas incidentes y transmitidas deben, entonces, ser iguales. Podemos simplemente etiquetar ambas como f.

La relación entre longitud de onda, frecuencia y velocidad para las ondas incidentes y transmitidas se puede escribir por separado como λ1 f = v1 y λ2f = v2. Dividiendo una ecuación por la otra, eliminado f, obtenemos que

λ1 / λ2 = v1 / v2.

Esta ecuación nos dice que la razón entre las longitudes de onda en dos medios es igual a la razón entre las velocidades de propagación de las ondas en esos medios.

Figura 2. Fuente: Cassidy Physics Library

Lo mismo sucede cuando las ondulaciones del agua atraviesan un límite. Los experimentos muestran que las ondas se mueven más lentamente en aguas menos profundas. Si colocamos una pieza de vidrio en la parte inferior de un tanque de ondulación para hacer que el agua sea menos profunda estamos, de hecho, creando un límite entre la parte más profunda y la menos profunda (medio 1 y medio 2). La Figura 2 muestra el caso en que este límite es paralelo a las líneas de cresta de la onda incidente. Al igual que con las ondas en la cuerda, la longitud de onda de las ondas en el agua en un medio es proporcional a la velocidad en ese medio.

Figura 3. Fuente: Wikimedia Commons

Las ondas en el agua ofrecen una posibilidad no presente en las ondas en la cuerda. El frente de onda puede acercarse al límite en cualquier ángulo, no solo de frente. La Figura 3 ilustra este caso. La longitud de onda y la velocidad, por supuesto, cambian a medida que la onda pasa a través del límite. La dirección de la propagación de la onda también cambia al pasar de un medio a otro con diferente velocidad de transmisión. A medida que cada parte de un frente de onda en el medio 1 entra en el medio 2, su velocidad disminuye y comienza a quedarse atrás. Con el tiempo, las direcciones de todo el conjunto de frentes de onda en el medio 2 tienen direcciones diferentes a las del medio 1. Este fenómeno se llama refracción. Los frentes de onda “giran” para hacerse más paralelos al límite entre los medios.

Figura 4. Un frente de onda muy estrecho llegando con un ángulo de 60º al límite; una parte es reflejada (también con un ángulo de 60º) y otra pasa al medio 2 con un cambio de dirección. Fuente: Wikimedia Commons

Combinando todo lo que hemos visto encontramos una explicación a un fenómeno que habrás observado en las playas de arena, esas en las que la profundidad del agua aumenta lentamente conforme te alejas de la orilla. Da igual la dirección de las olas mar adentro: cerca de la orilla son prácticamente paralelas a la orilla.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Refracción de ondas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cuando las ondas se encuentran
  2. Física de las ondas estacionarias: frecuencia fundamental y sobretonos
  3. Reflexión de ondas: rayos
Catégories: Zientzia

Digestión estomacal (y II): regulación

lun, 2019/01/28 - 11:59

Además de las células propias de las glándulas de la mucosa oxíntica que se presentaron en la anotación anterior, en la mucosa gástrica hay otras que no liberan productos exocrinos, sino factores endocrinos (hormonas) o paracrinos con función reguladora. Son las siguientes:

(1) Las células enterocromafines se encuentran entre las células parietales y las células principales en las glándulas gástricas de la mucosa oxíntica. Secretan histamina.

(2) Las células G se encuentran en las glándulas del área de glándulas pilóricas. Son células endocrinas, que liberan la hormona gastrointestinal gastrina a la sangre.

(3) Las células D (o delta) se encuentran en número escaso en las glándulas de la zona pilórica pero son muy abundantes en el duodeno. Secretan somatostatina.

Imagen: Wikimedia Commons

La secreción de los jugos gástricos que vimos en la anotación anterior se produce mediante la intermediación de cuatro mensajeros químicos, para los que las células parietales cuentan con sus correspondientes receptores. Acetilcolina, gastrina e histamina ejercen efectos estimulantes al promover la inserción de las unidades de ATPasa de H+/K+ -que se encuentran almacenadas en vesículas intracelulares- en la membrana de las células parietales, elevando así la secreción de HCl a la luz gástrica. La somatostatina, sin embargo, tiene efectos inhibitorios. La gastrina y la acetilcolina estimulan también la secreción de pepsinógeno por las células principales. Veamos estos mensajeros con algún detalle.

La acetilcolina es un conocido neurotransmisor. Se libera en el plexo nervioso intrínseco en respuesta a la estimulación por el nervio vago, y estimula las células parietales, principales, células G y las enterocromafines.

Las células G secretan gastrina al torrente sanguíneo, en respuesta a la presencia de proteínas en el interior del estómago y por efecto de la acetilcolina. Cuando vuelve al cuerpo y al fundus del estómago, las células parietales y principales elevan la secreción de jugos gástricos. Además, promueve la liberación de histamina por parte de las células enterocromafines.

La histamina es un agente paracrino liberado por las células enterocromafines en respuesta a la gastrina y la acetilcolina. Ejerce efectos locales (por eso es paracrina) en las células parietales de su entorno, potenciando la acción, precisamente, de las sustancias que han estimulado su liberación.

La somatostatina es liberada por las células delta (o células D) en respuesta a la acidez y su efecto es inhibitorio dando lugar a una retroalimentación negativa. Actúa como agente paracrino también, sobre las células de su entorno, inhibiendo la secreción de células parietales, células G y células enterocromafines.

La regulación de la digestión estomacal se produce mediante un conjunto de actuaciones complementarias. Son varios los estímulos capaces de provocar un aumento de la secreción de jugos gástricos. Unos son anteriores a la llegada del alimento a estómago, otros actúan cuando el alimento ya se encuentra en su interior, y otros proceden del duodeno una vez el quimo ha abandonado el estómago. Por esa razón la secreción gástrica sigue una secuencia en tres fases:

Fase cefálica. Antes de que el estómago reciba el alimento, determinados estímulos sensoriales (visuales, olfativos o el acto de masticar) anticipan su llegada. En ese caso la secreción gástrica se eleva por la acción del nervio vago en respuesta a los citados estímulos, acción que surte dos efectos: (1) promueve el aumento en la secreción de acetilcolina por los plexos nerviosos intrínsecos, lo que, a su vez, eleva la secreción de HCl y de pepsinógeno; (2) estimula la secreción de gastrina por las células G, lo que a su vez promueve la secreción de HCl y pepsinógeno; además, la secreción de clorhídrico también se eleva debido a que la gastrina induce la liberación de histamina.

Fase gástrica. Esta comienza al llegar el alimento al estómago. Los estímulos que actúan a este nivel (proteínas y péptidos, por un lado, y distensión estomacal por el otro) elevan la secreción gástrica debido a la acción superpuesta de diferentes vías. La acción más potente se debe a la presencia de proteínas en el estómago, que estimulan los quimiorreceptores que activan los plexos nerviosos intrínsecos, con la consiguiente estimulación por estos (mediante la acetilcolina) de la células secretoras. La presencia de proteínas en el estómago también actúa a través de la vía vagal, reforzando la fase cefálica. La consecuencia de estas acciones es la elevación de la secreción de ácido clorhídrico y de pepsinógeno, acentuándose así la digestión ya iniciada.

Fase intestinal. Hay factores intestinales que inciden en la secreción de jugos gástricos, aunque en este caso pueden ser estimuladores o inhibidores. La presencia en el duodeno de los productos de la digestión parcial de las proteínas estimula la liberación de gastrina intestinal, que es transportada al estómago por la sangre, actuando de la misma forma que la gastrina estomacal. Ahora bien, cuando el quimo llega las zonas iniciales del intestino delgado la secreción gástrica se reduce debido a tres factores:

(1) Por un lado, al vaciarse el estómago, disminuye la presencia de proteínas en su interior, desapareciendo de esa forma el principal factor que había provocado la elevación de la secreción de jugos.

(2) Conforme se vacía el estómago, su pH se reduce mucho, pues el HCl ya no es neutralizado por las sustancias del quimo; esa reducción estimula la liberación de somatostatina que, como hemos visto, ejerce efecto inhibidor sobre la secreción gástrica.

(3) Los mismos estímulos que inhiben la motilidad estomacal, inhiben también la secreción gástrica. El reflejo enterogástrico y las enterogastronas suprimen la actividad de las células secretoras gástricas, a la vez que reducen la excitabilidad de las células musculares lisas.

Llegados a este punto, la digestión estomacal ha terminado y sus productos han ido pasando del antro estomacal al duodeno e intestino delgado, donde se completará la digestión de los péptidos, lípidos y carbohidratos que no han sido hidrolizados en las fases anteriores.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Digestión estomacal (y II): regulación se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Digestión estomacal (I): el papel de las glándulas gástricas
  2. La motilidad estomacal
  3. Actividades digestivas y su regulación
Catégories: Zientzia

Desmitificando: La barriga cervecera

dim, 2019/01/27 - 11:59
Una de las imágenes que la agencia Jung von Matt creó para Bergedorfer Bier en 2016

Para empezar aquí van algunos ejemplos, de aquí y de allá, del consumo de cerveza. En Alemania y en 2006, era, por persona, de 112 litros al año y, también en Alemania y en 2011, más del 70% de los adolescentes y del 50% de las adolescentes había consumido cerveza en los 30 días anteriores a la encuesta. Cerca de Alemania, también en Europa central, en Chequia, el 79% de los hombres y el 55% de las mujeres consumen cerveza habitualmente. En España y en 2017, según el informe de Cerveceros de España, el consumo de esta bebida fue de 48.3 litros al año. Ese año, el consumo en Alemania fue de 104 litros al año.

Este consumo ha llevado a la extendida creencia popular de que el consumo de cerveza es la causa de la llamada barriga cervecera o, en términos más técnicos, la obesidad abdominal, tal como cuentan Schütze y sus colegas, del Instituto Alemán de Nutrición Humana de Nuthetal. Pero ya veremos como hay estudios que apoyan esta relación y otros que la niegan e, incluso, hay algunos que concluyen, y es sorprendente, que la relación es negativa, es decir, que la cerveza adelgaza.

En el trabajo de Schütze, con el método epidemiológico, participan 7876 hombres y 12749 mujeres, de 35 a 65 años, y con un seguimiento del peso, circunferencia en las caderas y consumo de cerveza en mililitros por día al inicio del estudio y a los seis años y a los ocho años y medio.

Los resultados muestran que en el 57% de los hombres y el 67% de las mujeres aumenta el peso durante los años que dura el estudio. En cuanto al consumo de cerveza, en el 57% de los hombres y el 69% de las mujeres se mantiene estable, y en el 30% de los hombres y el 22% de las mujeres, disminuye. Por tanto, en el 13% de los hombres y el 9% de las mujeres, el consumo de cerveza crece.

En los hombres con consumo alto, el peso y la circunferencia de las caderas crecen. El resultado es una curva en U: con el consumo moderado, de menos de medio litro al día, no cambian peso y circunferencia; y en los que más aumentan ambos parámetros es en los abstemios y en los que consumen más de un litro al día. En las mujeres, hay aumento de peso y circunferencia en consumidoras de poca cerveza y, en cambio, disminuyen con un consumo moderado, de unos 250 mililitros al día.

Los autores concluyen que hay relación entre el consumo de cerveza, si es elevado, y el peso, aunque dudan si el cambio detectado se debe más a los cambios en la distribución de grasas en el cuerpo habituales con la edad. Por tanto, la creencia popular de la relación entre la cerveza y la barriga cervecera no queda probada con este estudio.

En el estudio epidemiológico de Chequia, con 891 hombres y 1098 mujeres y edades de 25 a 64 años, la media semanal de toma de cerveza es de 3.1 litros en los hombres y de 0.31 litros en mujeres. Es en este estudio donde los autores detectan, en mujeres, una pequeña relación negativa entre el consumo de cerveza y el Índice de Masa Corporal, es decir, que la cerveza adelgaza, poco pero lo hace. En conclusión, en Chequia no existe relación entre la obesidad abdominal y la ingestión de cerveza.

Por el contrario, en Brasil, el estudio de Paula Aballo Nunes Machado y Rosery Sichieri, de la Universidad del Estado de Rio de Janeiro, encuentra relación entre la obesidad abdominal y la toma de cuatro o más copas al día, o sea, de casi litro y medio de cerveza. El estudio, epidemiológico, se hizo con 2441 voluntarios, el 57% mujeres, y edades de 20 a 60 años.

En un trabajo experimental, no epidemiológico, Javier Romeo y su grupo, del Instituto del Frío del CSIC, en Madrid, planificaron un experimento con 58 voluntarios, de ellos 27 mujeres, con una edad media de 36 años. Después de un mes de abstinencia alcohólica, los voluntarios consumieron, en el mes siguiente, 330 mililitros de cerveza al día las mujeres (lo que se llama un tercio o el contenido de una lata de cerveza) y 660 mililitros (dos latas) al día los hombres. Tras estudiar los datos, el grupo concluye que no hay relación entre el consumo de cerveza y cambios, ni positivos ni negativos, en el peso corporal, la circunferencia de las caderas o el Índice de Masa Corporal. Después de todo, una lata de cerveza supone unas 145 kilocalorías, algo más que un yogur con azúcar (o tres veces menos que una piña colada). No hay relación, en este estudio, entre cerveza y barriga cervecera.

En un meta-análisis sobre cerveza y obesidad publicado en 2013, Bendsen y sus colegas, de la Universidad de Copenhague, revisaron 35 estudios epidemiológicos con datos de peso y consumo de cerveza tomados de la población en general, con grupos de entre 317 y 44080 voluntarios y seguimientos de 3.7 a 10 años. También utilizaron doce estudios experimentales, con toma de cerveza y variaciones de peso. Consideraron que la ración estándar de cerveza es el tercio, o 330 mililitros, al día, y con 4.6 grados de alcohol.

Llegaron a varias conclusiones y, en primer lugar, los estudios epidemiológicos indican que consumir más de medio litro de cerveza al día está positivamente relacionado con la obesidad abdominal o, si se quiere decir así, con la barriga cervecera. En cambio, los estudios experimentales dan resultados diferentes. Seis de ellos indican que el consumo de cerveza por 21-126 días aumenta el peso una media de 0.73 kilogramos pero, sin embargo, otros cuatro estudios no demuestran aumentos de peso.

Según los autores y en general, aunque los datos publicados son de baja calidad, la conclusión final es que no hay evidencias de que el consumo moderado de cerveza, hasta medio litro al día, esté asociado a la obesidad abdominal. Pero el consumo por encima de estas cantidades parece que provoca la aparición de la barriga cervecera.

Por tanto, hay dudas sobre la existencia de la barriga cervecera, sobre todo para consumos moderados de cerveza, aunque, también es indiscutible, que la cerveza se bebe, a veces demasiada, y que la barriga, para muchos, existe, aunque, repito la relación entre ambas está en debate.

Referencias:

Bendsen, N.T. et al. 2013. Is beer consumption related to measures of abdominal and general obesity? A systematic review and meta-analysis. Nutrition Reviews 71: 67-87.

Bobak, M. et al. 2003. Beer and obesity: a cross-sectional study. European Journal of Clinical Nutrition 57: 1250-1253.

Cerveceros de España. 2018. Informe socioeconómico del sector de la cerveza en España. Ministerio de Agricultura, Pesca y Alimentación. Madrid. 56 pp.

Gaetano, C. de, et al. 2016. Effects of moderate beer consumption on health and disease: A consensus document. Nutrition, Metabolism & Cardiovascular Diseases doi: 10.1016/j.numecd.2016.03.007

Machado, P.A.N. & R. Sichieri. 2002. Relaçao cintura-quadril e fatores de dieta em adultos. Revista de Saùde Pública 36: 198-204.

Romeo, J. et al. 2007. ¿Influye la cerveza en el aumento de peso? Efectos de un consumo moderado de cerveza sobre la composición corporal. Nutrición Hospitalaria 22: 223-228.

Schütze, H. et al. 2009. Beer consumption and the “beer belly”: scientific basis or common belief? European Journal of Clinical Nutrition 63: 1143-1149.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Desmitificando: La barriga cervecera se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Desmitificando: Las rubias son “tontas”
  2. Desmitificando: Alguien me está mirando…
  3. Desmitificando: La vitamina C y el resfriado
Catégories: Zientzia

Los riesgos dormidos: lo que usted debería saber

sam, 2019/01/26 - 11:59

Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.

Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.

La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.

Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.

Virginia Ormaetxea de Harrilur Geotecnia y portavoz del Colegio de Geólogos de Euskadi (EGEO) expone dos de los riesgos geológicos que actualmente pueden afectarnos a cualquiera, cualquier día, debidos a la presión urbanística: los desprendimientos/deslizamientos de tierra y los riesgos asociados a las rocas ácido-sulfatadas.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Los riesgos dormidos: lo que usted debería saber se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Geología: la clave para saber de dónde venimos y hacia dónde vamos
  2. El (Paleo)Clima y ¿el frío que vendrá?
  3. #Naukas16 ¿Cómo saber si tu funeraria te estafa?
Catégories: Zientzia

Pages