S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 1 heure 15 min

Peces carnívoros, vegetarianos y la acuicultura insostenible

ven, 2019/04/12 - 08:00

 

José Miguel Cerdá-Reverter

File 20190225 26171 1yv51ty.jpg?ixlib=rb 1.1Imagen:  Kosin Sukhum / Shutterstock

La sostenibilidad es la forma de asegurar las necesidades actuales sin comprometer las futuras, las de nuestras próximas generaciones. La acuicultura actual, que lleva a nuestra mesa gran parte del pescado que comemos, dista de ser sostenible.

Vamos al mar a capturar pequeños peces que no nos gusta comer para transformarlos en pienso con el que alimentar a las especies que sí nos gusta comer. Somos así de exquisitos. También, siguiendo prácticas paloelíticas, recolectamos (que no producimos) pequeños crustáceos para alimentar a las crías de los peces que cultivamos.

Pero cada vez que realizamos una transformación tenemos pérdidas. Entonces, ¿por qué no nos comemos el pienso directamente? Quitaríamos escalones del proceso y lo haríamos más efectivo, más sostenible.

No sé si llegará ese día, pero mientras tanto, seguiremos comiendo pescados que nos acerquen al esnobismo. Porque ¿quién comía antes salmón, dorada o lubina? Casi nadie, especialmente fuera de los eventos gastronómicos navideños. Que hoy podamos incluir estas especies en nuestra dieta es uno de los grandes logros de la acuicultura occidental, más preocupada por las cuotas de mercado que por la sostenibilidad de los procesos de producción.

A fin de cuentas, es el mercado quien ha seleccionado las especies que cultivamos y ha marcado la sostenibilidad del proceso. Aquellos precios prohibitivos del pasado prometían grandes rentabilidades. Sin embargo, gran parte de estos peces, antaño caros, son carnívoros y ocupan los niveles más altos de la cadena trófica. Por eso necesitan grandes cantidades de proteínas y aceites de pescado para crecer. Un alimento que se obtiene, a su vez, de otros peces que capturamos y transformamos en pienso. Es “como el pez que se muerde la cola”, nunca mejor dicho.

Conseguir peces vegetarianos como solución

Las especies comerciales, de momento, son las que son. Pero llevar estos peces al mercado de forma rentable supone un elevado esfuerzo científico y tecnológico.

Una de las soluciones que se ha implementado es la sustitución de las harinas y aceites de pescado utilizados en los piensos por sus homólogos vegetales. En esta búsqueda, se han realizado investigaciones con muchos tipos vegetales buscando siempre plantas con un elevado contenido proteico y aceites con una composición óptima.

Estamos intentando convertir a nuestras especies en vegetarianas. Pero ¿acaso les gusta este cambio? No. Si nos pasamos con el porcentaje de proteína vegetal, no les gusta el pienso, no crecen tan bien, sufren a nivel intestinal y pueden tener, incluso, trastornos reproductivos inducidos por la presencia de fitoestrógenos. De hecho, todavía no se ha podido llegar a la sustitución total. Y será difícil que se consiga en el futuro.

Tanques experimentales para la cría de peces. Imagen: Instituto de Acuicultura de Torre de la Sal

Además, ante esta estrategia, podríamos preguntarnos: ¿esquilmar las pesquerías de anchoveta peruana (una especie parecida a nuestro preciado boquerón, de donde provienen la mayor parte de las harinas de pescado de los piensos) es más sostenible que quemar la selva amazónica para plantar los vegetales que destinamos a los piensos? ¿Es ético utilizar las pesquerías y los excedentes de vegetales para alimentar a nuestros peces carnívoros en lugar de para paliar hambrunas?

Los intentos de sustitución y la inversión colateral en investigación no han venido de la mano de mejoras en sostenibilidad. Por el contrario, provocan un incremento en los precios de las harinas de pescado que encarece la producción piscícola a niveles insostenibles.

La variabilidad de las pesquerías, debida a factores ambientales como la corriente de El Niño de las costas del Pacífico Sur, producen cambios impredecibles en los precios de los harinas. Y este es el motivo real que nos ha llevado a echar mano de los vegetales en la fabricación de piensos, no la sostenibilidad, aunque muchos quieran vender la historia al revés. Sorprendentemente, el efecto colateral de optimizar el negocio podría ser un acercamiento a la sostenibilidad.

Cambios de cara al futuro

Los consumidores no tenemos mucho margen de acción para aumentar la sostenibilidad del proceso. Debemos decidir entre gastronomía y alimentación sostenible, es decir, entre comer un pescado que nos gusta más o aparcar nuestra exquisitez y elegir un pescado más sostenible en su producción, sin olvidar la calidad nutricional.

Optar por la segunda vía nos obligará a explorar el cultivo de nuevas especies, a ser posible herbívoras. Hoy por hoy, especies como la carpa o la tilapia podrían mostrar un mayor grado de sostenibilidad en su cultivo, dado que su dieta se basa en vegetales.

Si queremos seguir comiendo especies carnívoras, debemos seguir explorando fuentes alternativas de materias primas más sostenibles e intentar llegar al 100% de sustitución. Actualmente hay cuatro líneas incipientes que plantean la utilización de harinas de insecto, fitoplancton, subproductos de pesca y alimenticios y proteínas sintéticas de bacterias como ingredientes alternativos. La producción de microalgas o fitoplancton solo requiere agua, luz y abono.

Cilindros para el cultivo de microalgas o fitoplacton. Imagen: Instituto de Acuicultura de Torre de la Sal

Además, tendremos que mejorar la eficiencia alimenticia de nuestros peces, es decir, conseguir que con la misma cantidad de alimento sean capaces de crecer más y más rápido. Aquí, la selección genética y las técnicas biotecnológicas serán de gran ayuda.

Lo que sí está en nuestra mano es consumir pescado producido en zonas cercanas a nuestra localidad aprovechándonos de la trazabilidad del producto (conocemos el camino que sigue desde su nacimiento hasta su comercialización) que nos proporciona la acuicultura. Esto reduce la contaminación asociada al proceso productivo, un parámetro que también debería entrar en la ecuación de sostenibilidad.

La acuicultura está aquí para quedarse, que nadie lo dude. Ayuda a paliar la sobrepesca en los caladeros y nos aporta alimento saludable y de gran calidad. Pero está en manos de la ciencia profundizar en la investigación para aportar mayor sostenibilidad a los procesos productivos.The Conversation

Sobre el autor: José Miguel Cerdá-Reverter es investigador y director del IATS – CSIC, Instituto de Acuicultura Torre de la Sal (IATS – CSIC)

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Peces carnívoros, vegetarianos y la acuicultura insostenible se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los peces en el río
  2. Peces capaces de respirar en aire y anfibios
  3. La regulación osmótica de los peces diádromos
Catégories: Zientzia

El mapa del cólera de John Snow

jeu, 2019/04/11 - 11:59

A mediados del siglo XIX, la creencia general presuponía que el cólera se propagaba a través del miasma en el aire. La teoría de los microbios y su relación con las enfermedades aún no estaba establecida (Pasteur tardaría aún 10 años en realizar los experimentos que le darían validez) y los brotes de cólera que asolaban Londres hacia 1850 eran, para todos, un misterio. Pero un gráfico iba a cambiar aquella situación: un simple mapa, hoy considerado el origen de la epidemiología, realizado por John Snow.

Snow (antes de convertirse en personaje de Juego de Tronos) fue un médico nacido en 1813, célebre por su contribución al desarrollo de la anestesia. Pero además, era un tipo inquieto con una teoría: él pensaba que el cólera se propagaba, no a través del aire, sino por el agua contaminada. En aquella época, el sistema de alcantarillado y suministro de agua de Londres dejaba mucho que desear. El agua se repartía en pozos públicos desde los que los ciudadanos bombeaban su propio suministro para llevarlo a sus hogares. Por otra parte, a menudo los desagües se vaciaban en pozos negros bajo las viviendas, más que en tuberías de alcantarillado. El resultado… era hediondo. El olor de heces humanas y animales se combinaba con el de la basura podrida. No es de extrañar que algunos atribuyesen a ese “miasma” la capacidad de enfermar a cualquiera.

Pero Snow pensaba que el problema era el agua y, para demostrarlo, en 1854 empezó a registrar los casos de cólera del barrio de Soho, sobre un mapa centrado en torno a 13 fuentes: cada muerte era anotada como una línea sobre el lugar de residencia. En total, 578 muertes y el resultado dejaba lugar a pocas dudas: casi todas se concentraban alrededor de una fuente en Broad Street. En cuanto aparecía una nueva fuente, la enfermedad aparentemente se “frenaba”.

Para verificar que el área afectada por el cólera coincidía, efectivamente, con el área abastecida por la fuente, Snow comenzó por trazar un diagrama de Voronoi sobre el mapa. En este tipo de diagramas, el espacio se divide en regiones de cercanía a una serie de puntos y, en este caso, la región más cercana a la fuente de Broad Street parecía ser la más afectada por el cólera. Sin embargo, la coincidencia no era del todo exacta, por lo que Snow decidió repetir su diagrama teniendo en cuenta, esta vez, otro tipo de distancia: la distancia en tiempo, o distancia “caminada” a cada fuente (similar a la que registran los mapas isócronos). Para ello, tomó cuerda (para medir distancias sobre una trayectoria sinuosa) y un lápiz, y redibujó sus polígonos definidos, esta vez, como las zonas más cercana a una fuente a través de los caminos disponibles. La coincidencia se volvía aún mayor.

El mapa deja ver, también, algunas anomalías curiosas… Como la del bloque al este de la fuente contaminada, donde se encuentra una “brewery” o fábrica de cerveza. Parece que los trabajadores de la fábrica podían beber cerveza para calmar su sed. Por suerte, la fermentación acababa con las bacterias del cólera (sólo en este caso podría decirse que la cerveza es sana, en ningún otro).

También había casos aislados, fuera del área de influencia de la fuente, excepciones que Snow documentó de manera exhaustiva. Hoy casi sorprende el detalle de sus notas, como en el caso de una mujer de 59 años que “no había estado cerca de Broad Street en meses. Un carruaje iba de Broad Street a West End todos los días y le llevaba una botella de agua de la fuente de Broad Street, dado que ella la prefería. El agua fue tomada el jueves 31 de agosto, ella la bebió esa misma tarde y también el viernes. Tuvo un ataque de cólera por la tarde de este último día y falleció el sábado”. Otros casos alejados de la fuente correspondían de manera similar a gente que iba a trabajar o comprar a Broad Street y bebían de la fuente. Para colmo, esta tenía fama de tener buen sabor (mejor, al menos, que el de algunas de sus fuentes vecinas).

Por último, además de sus análisis geográficos, Snow tomó muestras de las distintas fuentes y las analizó bajo el microscopio. Confirmó la presencia de un organismo desconocido en la fuente de Broad Street. La fuente había sido contaminada por un pañal arrojado a un pozo negro cercano. Conformes, aunque no convencidos (la teoría de los microbios patógenos tardaría aún una década en ser aceptada), las autoridades decidieron cerrar el pozo de Broad Street y el brote de cólera pronto se sofocó. John Snow murió apenas cuatro años más tarde, en 1858, sin poder ver confirmada su teoría, sin terminar de decir “yo tenía la razón”.

Hoy, su mapa es considerado pionero en el uso del método geográfico para estudiar una epidemia. Pero además, cambió para siempre cómo percibimos las visualizaciones de datos: no sólo como un apoyo clarificador a un modelo ya conocido, sino como sustento y prueba del mismo. La teoría de Snow no hubiese podido ser mostrada únicamente mediante números y coordenadas; hubiese perdido, en el proceso de lectura, toda su elocuencia.

Referencias:

Un análisis contemporáneo del mapa de John Snow: Narushige Shiode, Shino Shiode, Elodie Rod-Thatcher, Sanjay Rana & Peter Vinten-Johansen (2015) The mortality rates and the space-time patterns of John Snow’s cholera epidemic map International Journal of Health Geographics doi: 10.1186/s12942-015-0011-y

Steven Johnson (2008) “El mapa fantasma”. Ilustrae.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El mapa del cólera de John Snow se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cómo conseguir que la vacuna del cólera no necesite cadena de frío
  2. Un mapa del discernimiento
  3. El mapa Big Brain
Catégories: Zientzia

Pál Turán: teoría de grafos y fábricas de ladrillos

mer, 2019/04/10 - 11:59

 

Pál Turán (1910-1976) fue un matemático húngaro que trabajó fundamentalmente en teoría de números. Durante cuarenta y seis años colaboró con su compatriota Paul Erdős, llegando a publicar veintiocho trabajos conjuntos. Por supuesto, el número de Erdős de Pál Turán es 1.

Pál Turán. Imagen: Wikimedia Commons.

Alumno de Lipót Fejér –como los célebres matemáticos Paul Erdős, George Pólya, Tibor Radó, Marcel Riesz o John von Neumann, entre otros– Torán se casó en segundas nupcias con la también alumna de Féjer –y asimismo colaboradora de Paul Erdős y Alfréd RényiVera T. Sós (1930). El teorema de Kővári–Sós–Turán es un trabajo conjunto del matrimonio con Tamás Kővári: en él proporcionan una cota superior para la solución del problema de Zarankiewicz, una cuestión no resuelta en matemáticas que intentar averiguar cuál es el mayor número posible de aristas en un grafo bipartito que tiene un número dado de vértices y no posee subgrafos bipartitos completos de un tamaño dado.

Varios conceptos y desigualdades llevan el nombre de este matemático. Por ejemplo, el teorema de Turán establece que el llamado grafo de Turán es el que tiene el mayor número de aristas entre todos los grafos que no contienen subgrafos completos.

El grafo de Turán T(13,4). Imagen: Wikimedia Commons.

En 1934, Turán utilizó la denominada criba de Turán –una técnica para estimar el tamaño de ciertos conjuntos de números enteros positivos– para dar una nueva y sencilla demostración de un teorema de 1917 de G. H. Hardy y Srinivāsa Ramanujan sobre el orden normal del número de divisores primos de un número entero positivo. La desigualdad de Turán–Kubilius generaliza el anterior resultado.

Llevan el nombre de desigualdades de Turán unas desigualdades sobre polinomios de Legendre que Turán encontró en 1950. También son conocidas la desigualdad de Erdős-Turán en teoría de la medida y las conjeturas de Erdős-Turán sobre progresiones aritméticas (demostrada en 1975 por Endre Szemerédi) y sobre bases aditivas (problema aún no resuelto).

Gran parte del trabajo de Turán en teoría de números abordó la hipótesis de Riemann. De hecho, Erdős comentaba en [1] que “Turán era un ‘no creyente’, de hecho, un “pagano”: no creía en la verdad de la hipótesis de Riemann”.

Durante la Segunda Guerra Mundial, Turán se vio obligado a trabajar en una fábrica de ladrillos. Su trabajo consistía en empujar un carro con briquetas a lo largo de una vía desde un horno hasta un almacén. La fábrica contenía varios hornos y varios lugares de almacenamiento, con vías que se entrecruzaban para realizar estos transportes. A Turán le resultaba difícil empujar el vagón a través de un cruce de vías, y comenzó a considerar cómo podría rediseñarse la fábrica para minimizar estos cruces.

Tras finalizar la guerra, mencionó el problema a algunos de sus colegas. Los matemáticos Kazimierz Zarankiewicz y Kazimierz Urbanik abordaron esta cuestión. Demostraron que siempre es posible completar el diseño como se muestra en la figura 3: los hornos pueden colocarse a lo largo de un eje y los almacenes a lo largo del otro, organizando cada grupo de la manera más uniforme factible alrededor del origen y con las vías en forma de rectas entre cada posible par.

Imagen: Wikimedia Commons.

 

Si m es el número de hornos y n el de almacenes Zarankiewicz y Urbanik dieron una cota superior para el número de cruces (ver [3]). En el caso de la figura 3 (m=4 y n=7) esa cota se alcanza: hay 18 cruces.

¿Se trata de la manera óptima de hacerlo? Se desconoce la respuesta. Zarankiewicz y Urbanik pensaban que su fórmula proporcionaba el menor número posible de cruces, pero algunos años después descubrieron un error en su prueba. ¿Será posible diseñar una fábrica de ladrillos con menos cruces entre las vías uniendo hornos y almacenes? El problema continúa abierto

Referencias:

[1] Paul Erdős, Some personal reminiscences of the mathematical work of Paul Turán, Acta Arithmetica XXXVII (1980) 3-8

[2] J J O’Connor and E F Robertson, Paul Turán, MacTutor History of Mathematics archive, University of St Andrews.

[3] Turán’s Brick Factory Problem, Futility Closet, 4 abril 2019

[4] Turán’s brick factory problem, Wikipedia (consultado 6 abril 2019)

[5] Pál Turán, Wikipedia (consultado 6 abril 2019)

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Pál Turán: teoría de grafos y fábricas de ladrillos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Arthur Cayley, la teoría de grafos y los isómeros químicos
  2. La teoría de grafos y “Così Fan Tutte”
  3. Incendios, los grafos de visibilidad y la conjetura de Collatz
Catégories: Zientzia

Polarización de la luz

mar, 2019/04/09 - 11:59
Imagen: Wikimedia Commons

Hooke y Huygens propusieron que la luz es en muchos aspectos como el sonido, es decir, que la luz es una onda que se propaga a través de un medio. Newton no pudo aceptar esta propuesta y argumentó que la luz también debe tener algunas propiedades similares a las partículas, además de su naturaleza ondulatoria*. Encontró que dos propiedades de la luz no podían explicarse, tal y como él lo entendía, a menos que la luz estuviera formada por partículas.

Primero, un haz de luz se propaga en el espacio en líneas rectas, mientras que las ondas, como el sonido, se extienden en todas las direcciones y son capaces de doblar las esquinas. Esta objeción no pudo responderse hasta principios del siglo XIX, cuando Thomas Young midió la longitud de onda de la luz y descubrió lo extremadamente pequeña que es. Incluso la longitud de onda de la luz roja, la longitud de onda más larga del espectro visible, es inferior a una milésima de milímetro. Mientras un rayo de luz brille sea el que ilumine los objetos o la luz entre a través de orificios de tamaño ordinario (unos pocos milímetros o más de ancho), la luz parecerá viajar en línea recta. Como vimos, los efectos de difracción y dispersión no se hacen evidentes hasta que una onda pasa sobre un objeto o por un agujero cuyo tamaño es aproximadamente igual o menor que la longitud de onda.

Newton basó su segunda objeción en el fenómeno de la “polarización” de la luz. En 1669, el científico danés Rasmus Bartholin descubrió que los cristales de espato Islandia (calcita) podían dividir un rayo de luz en dos rayos. Un texto escrito o cualquier objeto pequeño visto a través del cristal se veía doble.

Newton pensó que este comportamiento podría explicarse suponiendo que la luz está formada por partículas que tienen diferentes “lados”, por ejemplo, secciones transversales rectangulares. Razonó que las imágenes dobles representarían una clasificación de las partículas de luz que habían entrado en el medio con diferentes orientaciones.

Alrededor de 1820, Young y Fresnel dieron una explicación mucho más satisfactoria de la polarización, utilizando un modelo ondulatorio de la luz con una modificación crítica respecto al imperante. Hasta entonces los científicos generalmente habían asumido que las ondas de luz, como las ondas de sonido, debían ser longitudinales. Young y Fresnel demostraron que si las ondas de luz se consideraban transversales se podía explicar el fenómeno de la polarización muy fácilmente.

Imagen: Wikimedia Commons

En una onda transversal de tipo mecánico, el movimiento del propio medio, como una cuerda, es siempre perpendicular a la dirección de propagación de la onda. Esto no significa que el movimiento del medio esté siempre en la misma dirección. De hecho, podría estar en cualquier dirección en un plano perpendicular a la dirección de propagación.

Sin embargo, si el movimiento del medio es principalmente en una dirección (por ejemplo, vertical), la onda está polarizada. Por lo tanto, una onda polarizada es en realidad el tipo más simple de onda transversal. Una onda transversal no polarizada es más complicada, ya que es una mezcla de varios movimientos transversales. Todo aplica también a las ondas de luz, a pesar de que no necesitan de un medio para propagarse.

Nota:

* No, Newton no se adelantó a de Broglie, aunque lo parezca. Simplemente estaba formulando hipótesis para intentar comprender un fenómeno, no afirmando la dualidad onda-corpúsculo.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Polarización de la luz se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Tipos de ondas
  2. Características de una onda periódica
  3. Difracción de ondas: el principio de Huygens
Catégories: Zientzia

Absorción del alimento

lun, 2019/04/08 - 11:59

 

Fuente: Biology Notes for IGCSE

La mucosa del intestino delgado de los mamíferos contiene glándulas exocrinas cuyo producto de secreción es una solución de moco y sal denominada succus entericus o jugo intestinal. La función de esa secreción es aportar un agente protector y lubricante de la pared intestinal (el moco) y agua, ya que la digestión requiere que los nutrientes se encuentren en disolución.

Las enzimas que realizan la digestión en la luz del intestino provienen del páncreas. Son la lipasa, tripsina, quimotripsina, carboxipeptidasa y amilasa. Los productos de esa digestión o bien son absorbidos directamente o son digeridos por enzimas del borde en cepillo de las células epiteliales. Las enzimas en cuestión son la enteroquinasa (que activa el tripsinógeno procedente del páncreas), las disacaridasas que finalizan la digestión de los carbohidratos (en mamíferos estas enzimas son maltasa, sacarasa, lactasa y trehalasa) y las aminopeptidasas, que hacen lo propio con la digestión de las proteínas. En las aves hay alguna diferencia con respecto a los mamíferos: carecen de lactasa, como es lógico, y muchos pájaros (no así los colibríes) no tienen sacarasa.

En principio, el intestino tiende a absorber todos los nutrientes (tras su digestión), electrolitos1, vitaminas y agua que han sido ingeridos. Aunque, como veremos en otra ocasión, es un órgano muy flexible, por lo que la capacidad para digerir y absorber unos nutrientes u otros se puede modificar en función de su presencia y proporción en la dieta habitual.

El agua se absorbe de forma pasiva impulsada por la absorción de Na+. Este, por su parte, puede pasar a favor de gradiente electroquímico –y, por lo tanto, de forma pasiva- desde la luz del tubo al fluido intersticial que hay entre los villi. Ese movimiento se produce a través de los espacios intercelulares; del líquido intersticial pasa a los capilares sanguíneos.

Pero también hay movimiento de sodio a través de las células epiteliales, y ese movimiento sí requiere gasto de energía. Puede entrar pasivamente en la célula a través de canales o en compañía de otro ión gracias al concurso de un transportador (simporter Na+/Cl–, antiporter Na+/H+ o simporter Na+-glucosa (o aminoácido)). Y sale de la célula epitelial, a través de su membrana basolateral hasta el líquido intersticial de los espacios intercelulares gracias a la acción de la bomba Na+/K+. La absorción de Cl–, H2O, glucosa y aminoácidos está vinculada a la absorción activa de sodio. El Cl– pasa a favor del gradiente eléctrico creado por el Na+, y el agua, por el flujo osmótico provocado por la alta concentración de NaCl en los espacios intersticiales.

La mayor parte de los carbohidratos en condiciones de ser absorbidos por las células epiteliales se encuentran, como ya se ha dicho, en forma de disacáridos. Las disacaridasas presentes en el borde en cepillo reducen esos azúcares a sus monómeros constituyentes: glucosa, galactosa y fructosa, dependiendo del disacárido original.

Glucosa y galactosa son absorbidas mediante transporte secundario activo, en el que intervienen simporters como el cotransportador sodio-glucosa (SLGT), que transfieren ambas sustancias, glucosa y sodio desde la luz del intestino al interior celular. La energía que se gasta en este proceso es la que gasta la bomba Na+/K+ de la membrana basolateral que, como antes hemos señalado, es la responsable de crear el gradiente de Na+ necesario para hacer posible su transferencia y, con él, el del azúcar. De esa forma, la concentración de glucosa (y en su caso la de galactosa) se eleva dentro de la célula, por lo que puede abandonarla fácilmente a través de la membrana basal a favor de gradiente de concentración, mediante difusión facilitada por el transportador de glucosa GLUT-2, presente en esa membrana. Del fluido intersticial pasa al capilar del villus en el que se encuentra la célula epitelial. Además de ese transporte, parece ser que la glucosa también puede pasar desde la luz intestinal hasta el líquido intersticial a través de los espacios intercelulares del epitelio (como ocurría con el sodio).

La fructosa se absorbe a través de difusión facilitada. Entra en la célula epitelial gracias al transportador GLUT-5 y sale al espacio intersticial mediante el concurso del transportador GLUT-2.

Las proteínas, por su parte, se van fragmentando, primero en el estómago y luego en la luz intestinal. Como resultado de las sucesivas hidrólisis anteriores, finalmente quedan aminoácidos y pequeños péptidos para su digestión final y absorción epitelial. Los aminoácidos se absorben de forma similar a la glucosa y galactosa.

Los pequeños péptidos se introducen en la célula epitelial mediante un transportador dependiente de Na+. El proceso se denomina transporte terciario activo. El simporter que interviene transfiere a la vez el péptido y un protón desde la luz intestinal al interior de la célula. El H+ se mueve a favor de gradiente de concentración, mientras que el péptido lo hace en contra. El gradiente de protones se genera mediante el concurso de un antiporter de Na+/H+, que introduce sodio a favor de gradiente de concentración a la vez que saca H+ en contra. Por su parte, el gradiente de concentración de Na+ que impulsa el antiporter Na+/H+ se genera gracias a la actividad de la bomba Na+/K+ en la membrana basolateral.

Todo ese proceso se puede observar desde el ángulo contrario. La bomba Na+/K+ extrae Na+ de la célula hacia el líquido intersticial. Ese transporte es necesariamente activo, porque el sodio está muy concentrado en el medio interno (el líquido intersticial o extracelular es medio interno), mientras que el potasio lo está en el medio intracelular. La bomba, por lo tanto, reduce de esa forma la concentración intracelular de Na+, de manera que facilita su transferencia desde la luz intestinal. Dado que parte de ese sodio entra acoplado a la salida de protones y puesto que esa salida está, a su vez, asociada a la entrada de oligopéptidos a la célula, la incorporación de estos acaba siendo el resultado de una cadena de movimientos, activos y pasivos, en la que intervienen varios iones (H+, Na+ y K+).

Los oligopéptidos son hidrolizados por la acción de las aminopeptidasas del borde en cepillo de la membrana celular o en el citoplasma gracias a la acción de peptidasas intracelulares. Los aminoácidos resultantes de estos procesos (transporte o digestión intracelular) salen de la célula epitelial mediante transportadores pasivos (no utilizan energía) y entran en los capilares sanguíneos por difusión.

Además de las proteínas provistas por el alimento, en el intestino delgado se digieren y absorben proteínas de origen endógeno, como enzimas digestivas, proteínas celulares que han sido expulsadas de las células de la pared a la luz intestinal durante la renovación de la mucosa, y proteínas plasmáticas que se filtran desde el plasma accidentalmente. Entre 20 y 40 g de estas proteínas son digeridas diariamente.

Las grasas experimentan un proceso de digestión y absorción muy diferente de los anteriores. Como vimos, debido a la acción de las sales biliares y los movimientos intestinales las gotas lipídicas de tamaño grande se convierten, primero en gotas pequeñas, y luego, debido a la acción de la lipasa (con el concurso de la colipasa), en micelas, estructuras lipídicas esféricas de entre 3 y 10 nm de diámetro. Esas micelas son la forma en que los monoglicéridos y ácidos grasos libres acceden a la membrana de las células epiteliales para, una vez allí, penetrar a su través. Los componentes que configuran la estructura micelar son reutilizados para englobar nuevos fosfolípidos y monoglicéridos, y llevarlos hasta la membrana para su absorción.

Tras entrar en las células, los constituyentes de los lípidos son utilizados para sintetizar triglicéridos, que son empaquetados en agregados provistos de una capa de lipoproteínas gracias a la cual se hacen solubles en agua. Las lipoproteínas de mayor tamaño se denominan quilomicrones, y salen mediante exocitosis de la célula epitelial hacia el líquido intersticial, y de ahí, en mamíferos, al vaso quilífero (al que nos referimos aquí). En las aves los quilomicrones pasan a los capilares sanguíneos de los villi.

Fuente: Biology Notes for IGCSE

Los productos de la digestión de carbohidratos y proteínas pasan al hígado porque, como vimos, las vénulas desembocan en la vena porta hepática. La mayor parte de esos nutrientes se procesan metabólicamente allí. Además, ese órgano también se ocupa de tareas de desintoxicación de sustancias dañinas. Las grasas tienen un destino diferente. Al acceder al vaso quilífero, acaban desembocando en el sistema linfático y, de este, pasan a la circulación general a través del conducto torácico, un gran vaso linfático que desemboca en el sistema venoso. Ese dispositivo hace que una parte importante de los lípidos absorbidos sean incorporados directamente a los adipocitos, aunque otra parte acaba también siendo procesada por el hígado. De este modo se evita que este órgano reciba más grasa de la que puede procesar.

El hígado, no obstante, juega una función importante en el transporte de lípidos pues, como vimos, sintetiza diferentes lipoproteínas plasmáticas y las vierte al sistema circulatorio para su uso. Las lipoproteínas de alta densidad (HDL y LDL) transportan principalmente colesterol y también fosfolípidos para la fabricación de membranas celulares. Las lipoproteínas de muy baja densidad (VLDL) transportan principalmente triglicéridos que son almacenados en adipocitos como sustancias de reserva.

Hemos visto antes que la absorción de sodio por las células de la mucosa intestinal va acompañada de absorción de agua. Es, de hecho, una actividad muy importante. Un intestino delgado humano viene absorber del orden de 9 l de agua al día, aunque el agua que se ingiere en el alimento son unos 1.250 ml y otros 1.250 ml se ingieren bebiendo. El resto son fluidos procedentes del propio organismo: 1.500 ml de saliva, 2.000 ml de jugos gástricos, 1.500 ml de jugo pancreático, 500 ml de bilis y 1.500 de jugo intestinal. La suma de esas cantidades arroja un volumen de 9.500 ml. Los 500 ml restantes pasan al intestino grueso, donde se absorberán 350 ml diarios. El resto, 150 ml, se evacúa con las heces.

Por otra parte, el HCl secretado por el estómago es neutralizado en el intestino delgado por el NaHCO3 secretado por el páncreas. El H2CO3 resultante se disocia en CO2 y H2O y estos productos, junto con el NaCl también resultante de la neutralización del clorhídrico procedente del estómago son absorbidos. El resultado final es que las actividades digestivas no provocan cambios en el pH del medio interno.

Nota:

1Con la salvedad de calcio y hierro, que son absorbidos en función de las necesidades.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Absorción del alimento se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El estómago (u órgano equivalente)
  2. Efectores osmóticos
  3. Modalidades de alimentación
Catégories: Zientzia

¿Son útiles los juguetes STEM?

dim, 2019/04/07 - 11:59

Haydée Valdés González

Seguramente, de un tiempo a esta parte ustedes también habrán observado un espectacular aumento en la oferta de juguetes “científicos” también denominados juguetes STEM (Science, Technology, Engineering and Mathematics; Ciencia, Tecnología, Ingeniería y Matemáticas) que están disponibles en cualquier tienda del sector. Por ejemplo, la entrada “stem toys” en amazon.com devuelve más de 8000 resultados (a fecha de enero de 2019).

La publicidad de estos juguetes frecuentemente sugiere que tienen un claro carácter educativo de manera que los niños podrán aprender sobre Ciencia y Tecnología sin renunciar a la diversión. Parece además, que el juguete STEM es una buena opción para fomentar el interés de los niños por la Ciencia y la Tecnología e incluso, por qué no, para despertar sus vocaciones científicas.

Sin negar que el juguete pueda ser bonito, de calidad, y que el niño pueda pasar un rato entretenido con él, la realidad es que la mayoría de los juguetes STEM tienen, por lo general, un claro error de planteamiento en lo que a su enfoque científico se refiere: presentan la actividad científica como un proceso dirigido y cerrado cuando la actividad científica es justamente todo lo contrario, un proceso abierto y no dirigido.

Veamos.

Imagen: Pixabay

Los “juguetes científicos” son juguetes comerciales en los que, en una gran mayoría de los casos, se parte de preguntas cerradas a cuya única respuesta se llega siguiendo un procedimiento perfectamente establecido. Consecuentemente, y por lo general, sólo será posible obtener el resultado previamente predeterminado por el fabricante si se siguen las instrucciones al pie de la letra y se usan los materiales suministrados por el mismo.

La Ciencia, en cambio, es una actividad orientada a la búsqueda de conocimiento en la que únicamente se sabe con certeza el punto de partida y donde, generalmente, la fabricación y el desarrollo del instrumental necesario forma parte de la actividad investigadora (a diferencia del juguete STEM donde todo el material viene suministrado por el fabricante).

Por tanto, hacer Ciencia es una cosa y otra cosa muy diferente es llevar a cabo actividades relacionadas con la Ciencia que es, esencialmente, lo que un niño hace cuando juega con un juguete STEM.

Más específicamente: un niño está haciendo Ciencia cuando motivado por su propia curiosidad efectúa un conjunto de acciones y obtiene cierto conocimiento. Por ejemplo: un niño está haciendo paleontología (a un nivel infantil: elemental, básico y sencillo) cuando rebusca entre las piedras en una escombrera de una mina de carbón intentando encontrar alguna con marcas y después las observa detenidamente con una lupa para ver si alguna de estas piedras se corresponde, por ejemplo, con un fósil de una planta. Estrictamente hablando, este niño ha llevado a cabo una investigación real, a un nivel rústico y primitivo como digo, pero tan auténtica y verdadera en su esencia como la que podría efectuar cualquier paleontólogo.

En cambio, un niño está jugando a ser científico cuando, jugando con un juguete STEM, imita la actividad de un investigador de manera que siguiendo el correspondiente manual de instrucciones el niño aplica algunas de las técnicas de laboratorio más básicas y emplea parte del instrumental más elemental que un científico utiliza en su día a día para llegar a un resultado preestablecido. Por ejemplo: un niño está jugando a ser paleontólogo cuando juega con un juguete STEM en el que hay un conjunto de fósiles “enterrados” en un bloque de arcilla y “excava” en dicho bloque de arcilla, con unas “herramientas de paleontólogo” (miniaturizadas) y “desentierra” todos los fósiles.

En general, como queda ilustrado en el ejemplo anterior, las actividades relacionadas con la Ciencia planteadas en los juguetes STEM resultan bastante artificiales principalmente porque suelen ser una simplificación bastante burda de la actividad científica “adulta” y no son verdaderas propuestas para hacer Ciencia a un nivel propiamente infantil (cuanto más pequeño es el niño al que va destinado el juguete peor, como se puede suponer).

Los juguetes STEM tampoco son, necesariamente, la mejor manera de promover el desarrollo del espíritu científico infantil. En concreto, podría decirse que un juguete STEM es a la Ciencia lo que un dibujo para colorear, con el modelo miniaturizado ya coloreado en la propia hoja, es al Arte. Para desarrollar la capacidad artística de un niño no basta con plantearle que, sin salirse de la raya, coloree un dibujo con los mismos colores que un modelo dado o que copie una lámina (procesos dirigidos). Estas actividades son (como mucho) útiles para adquirir determinada pericia técnica pero en ningún caso son suficientes para desarrollar capacidad artística alguna. Cultivar la capacidad artística infantil indudablemente requiere dejar espacio al niño para que, espontáneamente, inspirado por algo que verdaderamente le haya conmovido, exprese sus emociones mediante una obra de su propia creación. Entendamos que una obra de arte creada por un niño de corta edad puede ser un trozo de corteza de un árbol con varias marcas hechas con una piedra puntiaguda, una figura “amorfa” de arcilla, o “cuatro garabatos” en una hoja de papel en blanco.

De la misma manera, en el ámbito científico un niño no desarrollará su espíritu científico si lo único que se le plantea es hacer experimentos siguiendo un manual de instrucciones (proceso dirigido).

Investigar es decidir en cada momento qué paso dar a continuación en función de los resultados obtenidos lo que es absolutamente opuesto a seguir ordenadamente un conjunto específico de pasos para obtener un resultado determinado que, en definitiva, es el modo en el que se plantea la experimentación en un juguete STEM.

“Enlatar” la Ciencia en un producto comercial para que un niño haga un experimento específico atendiendo a un conjunto de instrucciones es (a lo sumo) útil para aprender algunos contenidos científicos y quizás (en el caso de los niños de mayor edad) para adquirir cierta pericia técnica y familiarizarse con el instrumental científico y unas pocas técnicas básicas de laboratorio pero, para desarrollar verdaderamente el espíritu científico infantil, sin duda alguna, hay que ofrecer al niño la posibilidad de vivir experiencias científicas reales en las que, espontáneamente, guiado por su propia curiosidad, pueda indagar y profundizar sobre cuestiones que verdaderamente le intriguen. Sólo así podrá conocer lo que es auténticamente la Ciencia, vivir en primera persona el inmenso placer que proporciona comprender cosas por uno mismo y entender porqué lo verdaderamente divertido es hacer Ciencia frente a la posible diversión que pueda proporcionar jugar con un juguete STEM.

Para terminar, hay una cuestión sobre la que me gustaría incidir especialmente: la referente a algunos “juguetes científicos” diseñados específicamente para niñas. La situación actual es que amparándose bajo la filosofía “empoderamiento de las niñas en la Ciencia” algunas empresas están diseñando y vendiendo “juguetes científicos diseñados específicamente para niñas” bajo la promesa de que gracias a ellos se contribuirá a favorecer el acceso de las niñas a la Ciencia y su participación en ella. Sin embargo, resulta verdaderamente llamativo que muchos de estos juguetes tengan los colores (rosa y morado, principalmente) y versen sobre temáticas (maquillaje, perfumes, jabones, barras de labios, velas, etcétera) habitualmente asociados al mundo femenino. Obviamente, en base a lo que se discute en el presente artículo, la validez de estos productos comerciales para favorecer el acercamiento de las niñas (y de cualquiera) a la Ciencia y su participación en ella es altamente dudosa pero es que además, estos juguetes no están en ningún modo exentos de polémica al poder considerarse que perpetúan los estereotipos de género.

Sobre la autora: Haydée Valdés González es doctora en ciencias químicas.

El artículo ¿Son útiles los juguetes STEM? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Juguetes y hormonas sexuales
  2. Las matemáticas en Wall Street, ¿útiles o perversas?
  3. Lejos del dogma y cerca de la aventura, por Melina Furman
Catégories: Zientzia

¿Qué pasa en tu cuerpo cuando te enamoras?

sam, 2019/04/06 - 11:59

Para que resuelte el amor primero tiene que existir química entre dos personas. Literalmente.

Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.

Edición realizada por César Tomé López

El artículo ¿Qué pasa en tu cuerpo cuando te enamoras? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué pasa en tu cerebro cuando duermes?
  2. ¿Cómo demonios funcionan las copas musicales?
  3. ¿Hemos intentando contactar con extraterrestres?
Catégories: Zientzia

El arboretum de la UPV/EHU

ven, 2019/04/05 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

En el espacio de aproximadamente 11 hectáreas de extensión, sobre una pendiente orientada al sur que salva un desnivel de 40 metros entre cima que ocupan las facultades de Ciencia y Tecnología y Medicina y el pequeño embalse de Lertutxe (25.900 m2), se halla el Arboretum de la UPV/EHU. Se extiende entre los términos municipales de Leioa y Erandio (Bizkaia) y las obras de acondicionamiento comenzaron en 2009. Este terreno, perteneciente a la universidad, ya fue destinado a ocupar un Jardín Botánico en anteriores planificaciones, pero esto jamás llegó a realizarse por diversas causas. Finalmente se abordó, con el apoyo de la Diputación Foral de Bizkaia, la instalación de un arboretum, basado en una colección viva de árboles.

Foto: Antonio Secilla.

Un arboretum (conjunto de árboles) es una colección de especies leñosas, fundamentalmente árboles y grandes arbustos dispuestos de una manera poco densa, como en un parque inglés. Existen numerosos ejemplos de este equipamiento, sobre todo en el mundo anglosajón, presentando algunos una antigüedad notable, como es el caso del de Westonbirt en el Reino Unido (1829), el Arnold Arboretum de la Universidad de Harvard (Massachussets, EE.UU.), de 1872 o el National Arboretum, en Washington, desde 1927.

Los Jardines Botánicos modernos, y de forma más modesta, también los arboreta, cumplen en la actualidad las siguientes funciones de apoyo a: la investigación, la docencia, la conservación de la biodiversidad y la educación ambiental. En el caso que nos ocupa, varias tesis doctorales centraron su investigación en el embalse de Lertutxe, pero la actividad investigadora se halla actualmente detenida por falta total de programas que la financien. Además, el Arboretum de la UPV/EHU cuenta con algunos elementos conmemorativos que le son propios. Con arreglo a los recursos disponibles, se trata de cumplir con estos cometidos mediante las estructuras que se describen a continuación.

Docencia

Es la principal actividad. Ella se fundamenta en la existencia de una serie de elementos que ocupan buena parte de la extensión del Arboretum.

Colección de árboles y arbustos (Arboretum propiamente dicho). Está formada por un conjunto de árboles que bien son de plantación reciente o son individuos establecidos de forma natural (en este último caso, las especies corresponden en gran parte a la flora autóctona y los individuos son los de mayor edad y porte). En este Arboretum se pueden distinguir cinco sub-colecciones: 1. Árboles y formaciones autóctonas, 2. Árboles de las regiones templadas del Hemisferio Sur (Cono sur de Suramérica, Australia, Suráfrica y Nueva Zelanda); 3. Árboles de las regiones templadas de Asia; 4. Árboles de Norteamérica; 5. Árboles de la Región Mediterránea.

Heliosciámetro. Es un elemento de alto interés didáctico. La palabra deriva del griego helios (sol), skias (imagen, sombra, proyección) y metro (medir), y se trata de una versión actualizada del primitivo gnomon de egipcios y babilonios, tal vez el instrumento astronómico conocido más antiguo. El dispositivo que aquí se presenta consiste en un poste rematado por una lente que proyecta sobre el suelo la sombra del Sol y permite realizar diversas medidas en función de la trayectoria recorrida por esta sombra. Se indican numerosos parámetros astronómicos, como altura del Sol sobre el horizonte local, hora solar, hora de salida (orto) y puesta (ocaso) del Sol, puntos de salida y puesta del Sol, situación del Sol en el Zodíaco, etc. Toda una clase de astronomía.

Foto: Antonio Secilla.

Colección de rocas del País Vasco. Está formada actualmente por una veintena de muestras de rocas, representativa de la variedad de tipos de rocas de Bizkaia principalmente. Es propósito de la UPV/EHU incrementar la colección para lograr una representatividad que abarque un territorio mayor.

Foto: Antonio Secilla.

Embalse de Lertutxe. De modesta extensión y aguas someras, si bien alcanza los casi 7 m en su punto más profundo, es un elemento de alto valor paisajístico y ecológico en el Arboretum. Se utiliza como espacio para recogida de muestras en las prácticas de Ecología de Aguas por los alumnos del grado de Biología y del Máster en Biodiversidad, Funcionamiento y gestión de Ecosistemas. En él habita una población de patos salvajes que se pretende conservar, lo que implica el mantenimiento de las comunidades naturales de carrizos y espadañas que pueblan todo el perímetro del embalse.

Foto: Antonio Secilla.

Fragmento de bosque natural. Por circunstancias de abandono durante muchos años, en el entorno del riachuelo de Lertutxe se ha desarrollado espontáneamente un pequeño bosque de robles y alisos que ha alcanzado en la actualidad una alta naturalidad gracias a que durante largos años no ha sido intervenido. Este pequeño bosque tiene un notable valor para el Arboretum y para la UPV/EHU representa una oportunidad única de poder mostrar a los estudiantes (de cualquier nivel) y “a pie de universidad” un ejemplo de bosque natural.

Foto: Antonio Secilla.

Conservación de la Biodiversidad

Bosque natural. El pequeño bosque natural que hemos comentado tiene un notable valor porque corresponde a dos tipos de hábitat protegidos por la Unión Europea (códigos 9190 y 91E0*) y porque, gracias al abandono de tantos años, se halla en un excelente estado de naturalidad. Ambas circunstancias hacen que la preservación de este pequeño fragmento de bosque natural autóctono constituya una participación de la UPV/EHU en los esfuerzos en materia de conservación del patrimonio natural.

Fauna. Se pretende que el Arboretum de la UPV/EHU está habitado por una fauna, tanto terrestre como acuática, que encuentre en esta zona un espacio en el que establecerse de forma permanente. En este sentido, ya se ha prohibido la caza y se han llevado a cabo actuaciones repobladoras como suelta de aves rapaces, anátidas y otros animales. En la medida de lo posible, las especies animales vivientes en el Arboretum contarán con un refugio para su subsistencia.

Educación Ambiental

Feria de las plantas de los 5 continentes. En el primer fin de semana de octubre de cada año se celebra una feria de plantas ornamentales y útiles en el recinto del Arboretum. Participan más de una treintena de expositores de diversos lugares que ofrecen a la venta sus plantas al público. Se trata de expositores especializados, cada uno en un tipo de planta, y con una perspectiva geográfica amplia, de modo que se puedan encontrar especies vegetales de diversas partes del mundo. El objeto de esta feria es fomentar el conocimiento sobre las plantas del público en general y su afición por cultivarlas.

Visitas guiadas. Se realizan recorridos por los senderos y caminos del Arboretum para observar las especies arbóreas y arbustivas, el Helosciámetro, el ejemplo de bosque atlántico, las especies acuáticas del embalse, las aves, la colección de rocas, etc. Estas visitas se hacen por grupos en ocasiones propicias, como son las ferias, y son guiadas por personas adiestradas a tal efecto.

Elementos conmemorativos

Bosque de la Vida. Es un elemento prominente en el espacio del Arboretum que tiene un reconocido valor artístico. Su condición de lugar de inhumación de las personas que donaron sus restos a la ciencia, le convierte en un elemento de profunda significación y de reconocimiento a su generosidad y a la de sus familiares.

Foto: Antonio Secilla.

Espiral conmemorativa del inicio de la docencia en Euskara en la UPV/EHU. Esta espiral, que conmemora el inicio de los estudios en euskera en la facultad de Ciencia y Tecnología, cuenta con una serie de árboles plantados a lo largo del adoquinado que dibuja la espiral. Estos árboles están ordenados de más primitivo a más evolucionado y proceden de los 5 continentes, en representación de la vocación universal de nuestra universidad.

Foto: Antonio Secilla.

Bosque de los honoris causa. Es un espacio dedicado a los árboles que plantan las personas premiadas por nuestra universidad con un doctorado de honor (Doctoris honoris causa). Es una forma de honrar y perpetuar en la memoria a las personas distinguidas de esta forma.

Foto: Antonio Secilla.

Sobre el autor: Javier Loidi es catedrático de botánica en el Departamento de Biología Vegetal y Ecología de la UPV/EHU.

El artículo El arboretum de la UPV/EHU se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
  2. Cartografiando territorio inexplorado: imagen por espectrometría de masas
  3. Proteómica: cuando las proteínas y la espectrometría de masas van de la mano
Catégories: Zientzia

Humildemente, el mundo es mejor gracias a mí

jeu, 2019/04/04 - 11:59
Wonder Woman por Greg Guillemin

Tenemos más y mejor acceso a la información, sin embargo, tenemos la impresión de que estamos más desinformados que nunca. Hay medios de comunicación con un equipo editorial y de revisores que nos ofrecen garantías. Hay comunicadores con un historial impecable de honestidad y saber hacer. Pero en cuanto ponemos un ojo fuera de estos lugares de confianza, estamos perdidos. A ver si se citan las fuentes, a ver si quien firma es una voz autorizada, a ver si está publicado en un medio serio, a ver si lo que cuenta coincide con lo que yo ya sé. Todo eso está muy bien, pero en estos tiempos de posverdad, para decidir si algo es información o desinformación, es tan importante el qué se cuenta como el cómo se cuenta.

Una de las técnicas más persuasivas es el storytelling, es decir, contar historias y con ellas establecer conexiones emocionales. Esta técnica a menudo se emplea en divulgación científica y, sobre todo, en publicidad. Los desinformadores también conocen su poder de persuasión, pero hay un formato en concreto del que abusan y nos facilita la tarea de identificarlos: el relato heroico. De ahí el título de este artículo.

  • Las fuentes no lo son todo.

Si en un artículo se citan o se enlazan las fuentes de información, es más probable que lo que ahí se cuente sea cierto. No obstante, no es un criterio implacable. Las fuentes pueden ser o no fuentes de calidad. En los artículos sobre temas científicos suelen enlazarse estudios científicos, los llamados papers. El sistema de publicaciones científicas funciona mediante un método de revisión y verificación de datos que nos ofrece garantías. Aun así, es difícil identificar si realmente estamos ante un paper o un artículo cualquiera, si el paper es bueno, si la metodología el paper se corresponde con el tema del artículo… Es decir, casi tienes que ser experto para comprobar si la fuente es fiable y coherente o no. Así que eso de “comprobar las fuentes” no sirve para todos.

De hecho, casi cualquiera puede publicar un post citando fuentes que corroboren su tesis. Es tan fácil como entrar en Google Scholar y buscar algún estudio que confirme, o al menos no contradiga, lo que quieres contar. A esto se le llama cherry piking: filtrar la información para quedarnos exclusivamente con la que nos da la razón. Esto solemos hacerlo de forma inconsciente, puesto que todos padecemos, en mayor o menor medida, un sesgo de confirmación. Algunos filtran para engañar, pero la mayoría filtran sometidos a su sesgo de confirmación. Los lectores también.

  • Todos tenemos sesgos de confirmación y los desinformadores lo saben.

Es más probable que demos por cierta una información si esta se corresponde con lo que ya sabemos. Nuestros conocimientos previos sobre el tema pueden ser un arma de doble filo. Por un lado, pueden ayudarnos a discernir, y por otro pueden servir de semilla para la desinformación. Depende de la calidad de lo que sepamos, de si son conocimientos o de si son prejuicios, y a veces es difícil identificarlos.

Por ejemplo, una de las razones por las que el movimiento antivacunas ha calado es porque se fundamenta en prejuicios sobre el sector farmacéutico. El rechazo a los aditivos alimentarios se fundamenta en prejuicios sobre el sector alimentario. La creencia de que los cosméticos contienen tóxicos se fundamenta en prejuicios hacia el sector. ¿Cómo es posible que una persona con estudios superiores decida no vacunar a sus hijos? ¿Cómo es posible que alguien que sepa la química suficiente como para identificar los aditivos de un alimento, los rechace? ¿Cómo es posible que alguien tenga los conocimientos como para reconocer cuáles son los tensioactivos en la fórmula de un champú y crea que son tóxicos?

A menudo pronuncio la frase “Cuantas más cosas sabemos, mejores decisiones tomamos”. Esto es falso. No se trata de saber más cosas, sino de tener conocimientos de calidad. No se trata de saber más, sino de saber mejor.

De hecho, siguiendo con el ejemplo de los antivacunas, estos manejan más información que el resto. Esa es una de las razones por las que resulta tan complicado debatir con un antivacunas, porque son gente muy informada, o mejor dicho, muy desinformada.

En este sentido puede resultar interesante el documental de Netflix “La Tierra es plana”. Los terraplanistas también son gente muy desinformada, hacen sus propios experimentos tratando de confirmar su teoría. Los diseñan para tal fin. Buscan papers que confirmen sus hipótesis. Tienen el sesgo de confirmación a tope. Los que no somos terraplanistas también. Y demás no hacemos experimentos para corroborarlo. Por eso me parece especialmente brillante la intervención del físico Lamar Glover en el documental: “Conspiracionistas, antivacunas, terraplanistas… Cuando dejamos gente atrás, mentes brillantes mutan y se anquilosan. Son científicos en potencia totalmente equivocados”.

Si entramos en foros de conocidos anticientíficos, como antivacunas, o como quienes afirman que un desinfectante industrial es la cura del cáncer, veremos que en sus publicaciones enlazan fuentes y que además se apoyan fuertemente en los prejuicios que existen sobre el sector farmacéutico. No es de extrañar que su desinformación pueda parecer información ante ojos inexpertos.

Quien tiene demasiado presentes los traspiés de la industria farmacéutica, es probable que infravalore todos sus logros, y que le resulte convincente cualquier idea conspiranoica sobre este sector. Por este motivo gran parte del relato de los anticientíficos y charlatanes se fundamenta en reiterar los errores de la industria. Su propaganda depende del menosprecio hacia un sector entero.

  • El relato heroico como fórmula del éxito desinformador.

Pensemos en cualquier charlatán anticientífico que nos venga a la mente. Hecho.

Seguramente se presenta como alguien sin demasiado poder pero muy motivado para luchar contra algo más grande que él. La industria farmacéutica, la industria alimentaria, el gobierno. Cualquier cosa grande. Hace hincapié en definirse como un donnadie. Un simple agricultor, un simple investigador, un simple ciudadano de a pie. Los héroes de nuestro tiempo son, con frecuencia, autoproclamados mindundis. Esto les da mucha credibilidad, por aquello de la empatía, y por aquello de que nos hacen sentir partícipes. Todos podemos ser héroes y tal.

Su historia empieza de la nada. Abriendo un blog como cualquier hijo de vecino. Sin ánimo de lucro, por supuesto. El voluntarismo es súper importante para mantener la credibilidad. Simplemente empezó a investigar y a escribir sus cosillas para despertar el sentido crítico de la gente. Porque la educación es súper importante y se fragua en un blog. Porque una entrada en un blog puede desarmar a toda una industria. Lo hace por la gente. Para que la gente sea libre y viva en un mundo mejor.

Su obra benefactora se abre camino. Un día sale en la tele. Y luego publica un libro y da charlas. Va por ahí contando la verdad y, según él, poniendo súper nerviosa a la industria de nosequé. A veces cuenta que se ponen en contacto con él para reñirle muy fuerte. Es importante contarlo, porque si el malo no te amenaza, eres un héroe de mierda.

Es muy importante que el malo sea un ente. No es una persona, es un ente. La industria, los gobiernos, el gran hermano que te vigila. A veces es una empresa, pero suficientemente grande como para que entre dentro de la categoría de ente. Una multinacional. Eso, eso, multinacional, que son todas el demonio rojo.

Nadie se convierte en héroe relatando su batalla contra las patatas fritas Manolo. A ver si van a pensar que es una rencilla personal con Manolo y no una lucha súper importante en defensa de los derechos fundamentales y esas cosas serias. Además, a quién le importan las patatas de Manolo, habiendo multinacionales y gobiernos del mal.

El charlatán es un rebelde. Es indomable. Es el azote de lo preestablecido. Su historia es convincente porque es una historia que mola. El relato heroico funciona, con un malo muy malo y muy grande, y con un bueno cargado de buenas intenciones. Un tipo humilde, como tú y como yo. Un tipo que humildemente está haciendo nuestro mundo mejor.

  • Conclusión

Los desinformadores resultan convincentes porque sus intervenciones lo tienen todo: fuentes, prejuicios y un relato heroico.

La tarea de identificar la veracidad de lo que cuentan es complicada a través de las fuentes y a través de la identificación de nuestros propios prejuicios. Por eso, el formato cobra protagonismo a la hora de detectar la desinformación. Si una información se nos presenta en forma de relato heroico, con toda probabilidad, estamos ante un impostor.

Igual que criticamos a los charlatanes que sueltan lindezas sobre las farmacéuticas para venderse a sí mismos y sus pseudoterapias, apliquemos el mismo detector de charlatanería sobre aquellos que dicen enfrentarse a “la perversa industria alimentaria”. Cualquiera que con orgullo diga enfrentarse al “eje del mal”, ya sea la industria, los gobiernos, o el lado oscuro, es un donnadie con ínfulas. Un desinformador que ha convertido su lucha inventada en su empresa, en una cuestión identitaria, en su cometido vital.

El relato heroico es una vaga maniobra de persuasión propia de la posverdad. Detectarlo es, probablemente, la mejor estrategia de identificar la desinformación.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Humildemente, el mundo es mejor gracias a mí se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Puedes presumir de tener la mejor piel del mundo.
  2. ¿Por qué si nunca hemos vivido mejor que ahora el mundo nos parece cada vez peor?
  3. Así es la mejor crema antiedad según la ciencia
Catégories: Zientzia

¿Pueden los números enamorarse de su propia imagen?

mer, 2019/04/03 - 11:59

En la entrada Los números enamorados del Cuaderno de Cultura Científica, habíamos presentado algunas familias de números naturales que deben su propiedad definitoria al comportamiento de sus divisores, en concreto, de sus divisores propios, es decir, entre los divisores no se considera al propio número. Estuvimos hablando de los números perfectos, abundantes, deficientes, casi perfectos, multi-perfectos, ambiciosos, sublimes, amigos, novios, sociables, intocables, prácticos, raros, e incluso, poderosos.

Detalle de la obra “CITY VIEW” (2003), de la artista japonesa, que vive en Nueva York, Kumi Yamashita. La obra pertenece a la colección permanente de Namba Parks Tower, en Osaka (Japón). Fotografía de la página web de la artista

En esta entrada vamos a hablar de una serie de familias de números que podríamos denominar en su conjunto como narcisistas, aunque esta sea la denominación particular de una de esas familias. Estos números tienen la propiedad de que, si se toman las cifras que componen cada uno de ellos, después se elevan estas a ciertas potencias y se suman los resultados, se obtiene de nuevo el número.

Recordemos que una persona narcisista es aquella que “cuida demasiado de su arreglo personal, o se precia de atractivo, como enamorado de sí mismo” y el concepto viene del mito griego en el cual el joven y apuesto Narciso se enamoró de su propia imagen reflejada en el agua. En el concepto de números narcisistas la imagen reflejada sería la suma de las potencias de sus cifras, que, al ser el propio número, sería como el enamoramiento de Narciso de su propia imagen reflejada.

Narciso (1594-1596), del artista italiano Caravaggio, perteneciente a la colección de la Galeria Nazionale d’Arte Antica. Imagen de Wikimedia Commons

Empecemos este recorrido por la familia de números que recibe precisamente el apelativo de números narcisistas. Esta familia está formada por aquellos números que son iguales a la suma de las potencias de sus cifras elevadas a la cantidad de cifras que tiene el número. Por ejemplo, el número 153 es un número narcisista, puesto que, teniendo 3 cifras, que son 1, 5 y 3, se cumple que 13 + 53 + 33 = 1 + 125 + 27 = 153; o también, el número 1634, ya que 14 + 64 + 34 + 44 = 1 + 1296 + 81 + 256 = 1.634.

Los números narcisistas menores que 100.000 son: 1, 2, 3, 4, 5, 6, 7, 8, 9, 153, 370, 371, 407, 1.634, 8.208, 9.474, 54.748, 92.727 y 93.084.

Fijémonos en uno en concreto, el número narcisista 8.208. Este ha alcanzado una cierta fama por haber aparecido en la serie televisiva Los Simpson. Como puede leerse en el libro Los Simpson y las matemáticas del matemático y divulgador Simon Singh, la historia de ese y otros dos números que aparecen en un capítulo de la temporada 17 de esta serie es muy curiosa.

Dentro de la comunidad matemática es conocido que algunos de los guionistas y productores de la serie Los Simpson, así como de la serie Futurama, tienen estudios de matemáticas, y en general, de ciencias, lo que ha motivado que en ambas series aparezcan muchísimas referencias matemáticas. Simon Singh cuenta como, en particular, la profesora Sarah Greenwald, de la Universidad Estatal de los Apalaches, y el profesor Andrew Nestler, de la Universidad de Santa Mónica, empezaron a recoger todas esas referencias y a utilizarlas en sus clases de matemáticas. Cuando esto llegó al oído de los guionistas de la serie Los Simpson, en 2005, decidieron invitarlos a la lectura de un futuro episodio, ese que tendría el título Marge, Homer y el deporte en pareja. Cuando los dos invitados se marcharon, los guionistas se percataron de que en ese episodio no habían incluido ninguna referencia matemática, lo cual les pareció que había sido algo descortés hacia sus invitados y decidieron revisar el guion e incluir un guiño a las matemáticas.

Imagen del episodio Marge, Homer y el deporte en pareja, en la que aparecen tres números curiosos, uno de ellos un número narcisista, 8.208

Como se puede ver en la anterior imagen de ese capítulo, decidieron incluir en la pantalla del estadio de béisbol, una mención a la cantidad de público asistente, dando cuatro opciones. La primera 8.191, que es lo que se conoce como un número primo de Mersenne, los cuales son de la forma 2p – 1, en concreto, 213 – 1 = 8.191. La segunda es 8.128, que es un número triangular (véase la entrada El asesinato de Pitágoras, historia y matemáticas (y II)). La tercera cantidad era el número narcisista 8.208, que verifica que 8.208 = 84 + 24 + 04 + 84. La última opción era simplemente que no se podía conocer esa cantidad.

Es fácil observar que solo existe un número finito de números narcisistas. Veámoslo. Si tomamos un número con n cifras, se tiene que ese número es mayor que 10n – 1 y menor que 10n. Por otra parte, la suma de las potencias de sus cifras elevadas a la cantidad de cifras del número alcanza como mucho el valor de 9n + … + 9n (sumado n veces) = n x 9n. Pero resulta que para n > 60, se tiene que n x 9n n – 1, luego la suma de las potencias de las cifras del número elevadas a la cantidad de cifras nunca podrá alcanzar al número. Es decir, no existen números narcisistas con más de 60 cifras.

De hecho, solamente hay 88 números narcisistas (puede verse aquí la lista completa), como fue demostrado por D. T. Winter, en 1985. Además, el mayor de ellos solamente tiene 39 cifras, es

115.132.219.018.763.992.565.095.597.973.971.522.401.

El matemático británico G. H. Hardy (1877 – 1947), en su libro Apología de un matemático, dice en referencia a estos números…

Se trata de hechos excepcionales, ideales para las columnas de acertijos y similares que aparecen en la sección de pasatiempos del periódico para entretener a los aficionados a las matemáticas, pero no hay nada en ellos que atraiga mucho a un matemático.

Portada de la edición en castellano, de la editorial Capitán Swing, del libro Apología de un matemático, de G. H. Hardy

Este concepto puede extenderse a una familia un poco más amplia, la de los números que son iguales a la suma de las potencias de sus cifras elevadas a una cantidad fija cualquiera, no necesariamente la cantidad de cifras del número, que es el caso de los números narcisistas. Por ejemplo, el número 4.150, que puede expresarse como la suma de las potencias quintas de sus cifras (que son solo cuatro), así 45 + 15 + 55 + 05 = 1.024 + 1 + 3.125 = 4.150. En una nota en la revista Mathematical Gazette, de 1968, se sugiere el nombre de “powerful numbers”, que es el mismo nombre que reciben los números que en la anterior entrada del Cuaderno de Cultura Científica, Los números enamorados, se denominaron poderosos, por lo que llamaremos a estos otros, números potentes. Por otra parte, en el libro Mathematics on vacation, su autor, el químico, editor y matemático recreativo Joseph Madachy (1927 – 2014), les llama números “invariantes digitales perfectos”.

Los números potentes menores de 100.000 son: 1, 2, 3, 4, 5, 6, 7, 8, 9, 153, 370, 371, 407, 1.634, 4.150, 4.151, 8.208, 9.474, 54.748, 92.727 y 93.084, solamente dos más que los narcisistas, a saber, 4.150 y 4.151. El siguiente número poderoso, que además no es narcisista, es 194.979 = l5 + 95 + 45 + 95 + 75 + 95.

En la enciclopedia on-line de sucesiones de números enteros, en la información sobre la sucesión A023052, aparece un listado de los 255 números potentes conocidos. El más grande, que además no es narcisista, tiene 105 cifras y se obtiene al elevar cada una de sus cifras a la potencia 109 y sumarlas. Es …

926.141.173.758.288.802.620.975.817.393.837.795.715.817.835.556.117.230.343.321.424.553.048.655.411.019.641.033.929.959.544.403.221.763.375

A raíz del concepto de número invariante digital perfecto, Joseph Madachy define los “números invariantes digitales recurrentes”, que podríamos denominar también números potentes recurrentes. Un número es un invariante digital recurrente, de orden k, si al construir la sucesión de números, empezando por el mismo, formados por las sumas de las potencias k-ésimas de las cifras del número anterior, se llega de nuevo al número original en un número finito de pasos, llamado longitud del ciclo. Por ejemplo, el número 55 es un invariante digital recurrente de orden 3, ya que 53 + 53 = 250, 23 + 53 + 03 = 133 y 13 + 33 + 33 = 55, siendo longitud del ciclo igual a 3.

Veamos un ejemplo de orden 4, el número 1.138. Calculemos la sucesión asociada, 14 + 14 + 34 + 84 = 4.179, 44 + 14 + 74 + 94 = 9.219, 94 + 24 + 14 + 94 = 13.139, 14 + 34 + 14 + 34 + 94 = 6.725, 64 + 74 + 24 + 54 = 4.338, 44 + 34 + 34 + 84 = 4.514 y regresamos al origen, después de un ciclo de longitud 8, 44 + 54 + 14 + 44 = 1.138.

Tabla de números invariantes digitales recurrentes de órdenes, entre 2 y 8

Otra familia de números relacionada con los números narcisistas, pero a la que nadie parece haber bautizado, son aquellos números que son iguales a la suma de las potencias de sus cifras elevadas a la posición que ocupan en el número, empezando por la izquierda. Por ejemplo, los números 89, 175, 2.427 y 2.646.798 son de estos números, ya que:

81 + 92 = 8 + 81 = 89,

11 + 72 + 53 = 1 + 49 + 125 = 175,

21 + 42 + 23 + 74 = 2 + 16 + 8 + 2.401 = 2.427, y

21 + 62 + 43 + 64 + 75 + 96 + 87 =

2 + 36 + 64 + 1.296 + 16.807 + 531.441 + 2.097.152 = 2.646.798.

De nuevo, se puede demostrar que esta familia de números es finita. Más aún, no puede haber números de esta familia con más de 22 cifras. Veámoslo.

Si tenemos un número con n cifras, entonces el número es mayor que 10n – 1 y si además pertenece a esta familia, será menor que 9 + 92 + … + 9n, pero, por la fórmula para la suma de los primeros números de la serie geométrica, esta suma es igual a 9 x (9n – 1) / 8 n + 1 / 8. En consecuencia, 10n – 1 n + 1 / 8, que nos lleva, tomando logaritmos, a que n

De hecho, solo hay 19 números que verifiquen esta propiedad: 1, 2, 3, 4, 5, 6, 7, 8, 9, 89, 135, 175, 518, 598, 1.306, 1.676, 2.427, 2.646.798 y 12.157.692.622.039.623.539, y el mayor tiene 20 cifras.

Otra familia de números relacionada con los números narcisistas es la formada por los números de Munchausen, aquellos números que son iguales a la suma de sus cifras elevadas a ellas mismas. Por ejemplo, el número 3.435 es un número de Munchausen, ya que 33 + 44 + 33 + 55 = 3.435.

El nombre fue sugerido por el matemático e ingeniero de software holandés Daan van Berkel, en su artículo On a curious property of 3435 (2009), en referencia al barón de Munchausen. En los números de Munchausen cada cifra se eleva a sí misma, de la misma forma que el barón de Munchausen se eleva a sí mismo, tirando de su coleta, con lo cual consigue volar y evita caer en una ciénaga.

Ilustración de la edición francesa de 1862 del libro Las aventuras del barón de Munchausen de Rudolf Erich Raspe (1785), realizada por el ilustrador francés Gustave Doré (1832 – 1883), en la que el barón de Munchausen sale volando de una ciénaga tirando de su coleta hacia arriba. Imagen de Wikimedia Commons.

Esta es una propiedad muy rígida. El único número de Munchausen, salvo el número 1 que lo es trivialmente, es el número 3.435, como demostró Daan van Berkel. Luego, podemos decir que este es un número muy especial.

Aunque si observamos la definición nos encontramos con un problema. Si una de las cifras del número es el 0, entonces tenemos que sumar 00 y esto es un problema. ¿Cuánto vale 00? Aunque es una polémica no cerrada del todo, la posición de la comunidad matemática es que ese valor debe ser 1. En ese caso, como demostró Daan van Berkel, solo hay dos números de Munchausen 1 y 3.435.

Sin embargo, si admitiésemos que 00 = 0, o modificamos la definición para que solo se considerasen las cifras no nulas, entonces habría otro número de esta familia, el 438.579.088, que verifica que

44 + 33 + 88 + 55 + 77 + 99 + 88 + 88 = 438.579.088.

Número 3.435 realizado con las Tarjetas de Cumpleaños Art Nouveau de la diseñadora estadounidense Laura Beckman. Imágenes de la página de Laura Beckman

También se pueden definir los números de Munchausen opuestos, es decir, aquellos números que son iguales a la suma de sus cifras elevadas a ellas mismas, pero no cada una con la suya, sino en el sentido opuesto. Por ejemplo, si consideramos el número 325, sus cifras son 3, 2 y 5, y vamos a tomar sus potencias elevadas a las cifras, pero en el orden opuesto, 5, 2, 3, quedando 35 + 22 + 53 = 243 + 4 + 125 = 372, luego este número no es de Munchausen opuesto. De nuevo, existen solamente dos números en esta familia:

48.625 = 45 + 82 + 66 + 28 + 54,

397.612 = 32 + 91 + 76 + 67 + 19 + 23.

Escultura Passing Time (2011), del artista neozelandés Anton Parsons, en Christchurch (Nueva Zelanda). Imagen de la página web de Anton Parsons

Lo cierto es que el concepto de número narcisista ha generado una enorme familia de generalizaciones. A continuación, haremos un breve repaso por algunas de ellas.

A. Suma de dos cuadrados. Si existiera un número narcisista con dos cifras, lo cual ya sabemos que no existe, entonces este sería igual a la suma de los cuadrados de sus cifras. Se puede generalizar este concepto para números de más de dos cifras, pero dividiendo al número en dos “mitades” de cifras. Es decir, a esta familia pertenecen los números que son iguales a las sumas de los cuadrados de dos “mitades” del número. Veamos algunos ejemplos:

1233 = 122 + 332, 8833 = 882 + 332, 5.882.353 = 5882 + 23532,

1.765.038.125 = 17.6502 + 38.1252, 116.788.321.168 = 116.7882 + 321.1682.

B. Suma de tres cubos. De forma análoga, se pueden considerar aquellos números que son iguales a la suma de los cubos de tres “tercios” del número.

22 18 59 = 223 + 183 + 593,

166 500 333 = 1663 + 5003 + 3333.

C. Números factoriones. Estos números son aquellos que son iguales a la suma de los factoriales de sus cifras. Por ejemplo, 145 es un factorión, ya que

1! + 4! + 5! = 1 + 24 + 120 = 145.

Los números 1 y 2 son trivialmente números factoriones, ya que 1! = 1 y 2! = 2. Y el número 40.585 también es un número factorión, ya que

4! + 0! + 5! + 8! + 5! = 24 + 1 + 120 + 40320 + 120 = 40.585.

Resulta que estos son los únicos factoriones que existen. Supongamos que tenemos un número de n cifras, entonces este es mayor que 10n – 1, pero si es un número factorión, entonces es menor que la mayor suma posible de los factoriales de sus dígitos, que es n x 9!, de donde, 10n – 1 n x 9!. Pero resulta que, para n = 8 se obtiene que 107 = 10.000.000 > n x 9! = 2.903.040, luego no existen números factoriones de 8 cifras. Y, por inducción, se puede demostrar que ocurre para todos los n mayores o iguales que 8. Para n = 7, la suma máxima de los factoriales de las cifras que se puede obtener es 7 x 9! = 2.540.160, luego solo hay que comprobar los que son menores que esta cantidad. Y solo existen los cuatro anteriores.

D. Pares de números, o números “amigos”, para estas propiedades.

Por ejemplo, un par de números tales que la suma de los cuadrados de dos “mitades” de cada uno de ellos da el otro número, como los números 3.869 y 6.205, para los cuales

382 + 692 = 1.444 + 4.761 = 6.205 y 622 + 052 = 3844 + 25 = 3.869,

o el par de números

5.965 = 772 + 062 y 7.706 = 592 + 652.

Lo mismo para los cubos,

13 + 33 + 63 = 244 y 23 + 43 + 43 = 136,

o los factoriales, donde los tres números 169, 36.301 y 1.454 forman una cadena:

1! + 6! + 9! = 36.301, 3! + 6! + 3! + 0! + 1! = 1.454 y 1! + 4! + 5! + 1! = 169.

E. Números narcisistas salvajes. Estos números, al igual que los narcisistas, pueden ser expresados a partir de sus cifras, pero de una forma particular, las cifras deben de aparecer en el orden que aparecen en el número y pueden utilizarse las operaciones siguientes, suma, resta, multiplicación, división, potencia, radical y factorial.

Mostremos una pequeña colección de distintos números narcisistas salvajes

E incluso, se puede considerar que el orden de las cifras sea cualquiera, en cuyo caso se habla de números selfie. Un par de ejemplos serían

34.562 = 2 (3 5) x6! x4!y87.369 = (3! + 7) x8! / 6 + 9.

Social circle (2011), del artista neozelandés Anton Parsons. Imagen de la página web de Anton Parsons

Bibliografía

1.- Clifford A. Pickover, El prodigio de los números. Desafíos, paradojas y curiosidades matemáticas, Ma Non Troppo (ediciones Robinbook), 2002.

2.- Clifford A. Pickover, La maravilla de los números. Un viaje por los secretos de las matemáticas, sus desafíos y caprichos, Ma Non Troppo (ediciones Robinbook), 2002.

3.- Joseph Madachy, Mathematics on vacation, Charles Scribner’s sons, 1966.

4.- Wolfram Mathworld: Narcissistic Number

5.- Simon Singh, Los Simpson y las matemáticas, Ariel, 2013.

6.- G. H. Hardy, Apología de un matemático, Capitán Swing, 2017.

7.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A0230052 (números potentes o invariantes digitales perfectos)

8.- Wolfram Mathworld: Recurring Digital Invariant

9.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A032799

10.- Daan van Berkel, On a curious property of 3435 (2009) (arXiv:0911.3038)

11.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A046253 (números de Munchausen)

12.- Harvey Heinz, Narcissistic numbers

13.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A014080 (números factoriones)

14.- George D. Poole, Integers and the sum of the factorials of their digits, Mathematics Magazine, vol. 44, n. 5, p. 278-279 (1971).

15.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A193069 (números narcisistas salvajes)

16.- I. J. Taneja, Different Types of Pretty Wild Narcissistic Numbers: Selfie Representations-I, RGMIA Research Report Collection, n. 18, Article 32, pp. 1-43 (2015).

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo ¿Pueden los números enamorarse de su propia imagen? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Construye tu propia calculadora de sumas y restas
  2. La magia de los números (el teorema de Moessner)
  3. Los números enamorados
Catégories: Zientzia

Los colores del cielo

mar, 2019/04/02 - 11:59
Imagen: Pixabay

Newton sugirió que los colores aparentes de los objetos dependen de qué color se refleja o dispersa más fuertemente para quien observa el objeto. En general, no hay una forma sencilla de predecir a partir de la estructura de la superficie, de la composición química o de cualquier otro factor qué colores reflejará o dispersará una sustancia. Eso no quiere decir que existan, sino que se basan en modelos matemáticamente muy complejos. Sin embargo, algo que la mayoría de nosotros vemos todos los días se puede explicar de una forma bastante simplificada a la par que instructiva: los colores del cielo

Thomas Young demostró experimentalmente que diferentes longitudes de onda de la luz corresponden a diferentes colores. La longitud de onda de la luz se puede especificar en unidades de nanómetros (nm; 1 nm = 10-9 m) o, alternativamente, en ångstroms (Å), el nombre de Anders Jonas Ångstrom, un astrónomo sueco que, en 1862, utilizó técnicas espectroscópicas para detectar La presencia de hidrógeno en el Sol. Un ångstrom es igual a 10-10 m. El rango del espectro visible para los humanos es de aproximadamente 400 nm (4000 Å) para luz violeta a, aproximadamente, 700 nm (7000 Å) para la luz roja.

Los pequeños obstáculos pueden dispersar la energía de una onda incidente de cualquier tipo en todas las direcciones, y la cantidad de dispersión depende de la longitud de onda. Como regla general, cuanto mayor sea la longitud de onda en comparación con el tamaño del obstáculo, menor será la dispersión de la onda por el obstáculo. Para partículas más pequeñas que una longitud de onda, la cantidad de dispersión de luz varía inversamente con la cuarta potencia de la longitud de onda. Por ejemplo, como la longitud de onda de la luz roja es aproximadamente el doble de la longitud de onda de la luz azul, la dispersión de la luz roja es solo alrededor de un dieciseisavo* de la dispersión de la luz azul.

Imagen: Pixabay

Con este simple dato ya sabemos por qué el cielo de mediodía de un día despejado es azul. La luz del Sol se dispersa por las moléculas y las micropartículas partículas de polvo presentes en las capas altas de la atmósfera. Todos estos obstáculos tienen dimensiones muy pequeñas en comparación con las longitudes de onda de la luz visible. Por lo tanto, en un día claro, la luz dispersa mucho más la luz de longitud de onda corta (luz azul) que la luz de longitudes de onda más largas y, por así decirlo, llena la luz azul llena el cielo de punta a punta. Debemos ser conscientes de que el color depende del observador. Cuando miras hacia arriba en un cielo despejado, es principalmente esta luz dispersada la que entra en tus ojos. El rango de longitudes de onda cortas dispersas (y la sensibilidad al color del ojo humano) conduce a la sensación de azul.

Imagen: Pixabay

Pero, ¿qué ocurre un día con neblina cuando observamos la puesta de sol o el amanecer? Lo que nuestro ojo recibe directamente del Sol es un haz de luz en el que las longitudes de onda más cortas se han dispersado completamente por el camino, no así las longitudes de onda más largas. De esta forma percibes el cielo alrededor del Sol poniente como rojizo.

Imagen: Pixabay

Si la Tierra no tuviera atmósfera, no habría dispersión de la luz, el cielo aparecería negro y las estrellas serían visibles durante el día. De hecho, comenzando en altitudes de aproximadamente 16 km, donde la atmósfera se vuelve bastante fina, el cielo se ve negro y las estrellas se pueden ver durante el día, como han descubierto los que hayan volado a gran altitud, incluidos los astronautas [2].

Imagen: Pixabay

Si la luz es dispersada por partículas considerablemente más grandes que una longitud de onda (como las gotas de agua en una nube), no hay mucha diferencia en la dispersión de diferentes longitudes de onda. Como todas las longitudes de onda se dispersan, el resultado de su mezcla es blanco. Blanco color nube.

Imagen: Sergio Cambelo / flickr

Ese azul grisáceo o parduzco que a menudo cubre las grandes ciudades es causado principalmente por partículas emitidas por motores de combustión interna (automóviles, camiones, calderas de calefacción [3]) y por plantas industriales. La mayoría de estas partículas contaminantes son invisibles, y varían en tamaño, desde los 10-6 m hasta los 10-9 m. Dichas partículas proporcionan una base a la que se adhieren gases, líquidos y otros sólidos. Estas partículas más grandes dispersan la luz y producen neblina. La gravedad tiene poco efecto sobre las partículas [4] hasta que se vuelven muy grandes. Pueden permanecer en la atmósfera durante meses si no se limpian por la lluvia, nieve o el viento en cantidad y tiempo suficientes.

Más información en Y el Sol se volvió azul

Notas:

[1] Un dieciseisavo (1/16) es 1 dividido entre 24.

[2] Por eso en la Luna, donde no hay atmósfera el cielo se ve negro y se ven las estrellas aun estando al sol. Los conspiranoicos suelen citar las imágenes del cielo lunar negro pero sin estrellas como prueba de que los viajes a la Luna fueron un montaje. Lo único que demuestran es que no saben de fotografía: si el sol está presente tienes que tener muy poco tiempo de exposición y el obturador casi cerrado para que se vean cosas que son muchísimo más brillantes para la cámara que las estrellas.

[3] Estas calderas funcionan con gasóleo, biomasa o…carbón. Por ejemplo, se estima que en Madrid Central a comienzos de 2019 aun estaban operativas 200 calderas de carbón y unas 4000 de gasóleo (fuente). Las calderas generan la mitad de las partículas que contaminan el aire (EEA).

[4] Que están en un fluido, en el aire, no en el vacío.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los colores del cielo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Características de una onda periódica
  2. La luz como onda
  3. Reflexión y refracción de la luz
Catégories: Zientzia

¡Salvad a las ranas!

lun, 2019/04/01 - 11:59
Ranas. Imagen: Wikimedia Commons

Si un hongo llamado Batrachochytrium dendrobatidis no les tiene a usted y a toda su familia asustados y amenazados es porque no son ustedes una rana, un sapo u otro tipo de anfibio. Porque si lo fuesen, lo estarían. El Bd (acortemos) ha sido declarado recientemente como el patógeno más peligroso para la biodiversidad del que se tiene noticia hasta ahora: es responsable de la desaparición de 90 especies de anfibios y amenaza a más de 500. De ellas, 124 han reducido el número de sus ejemplares hasta en un 90% y no está claro que puedan llegar a recuperarse nunca. Los especialistas no saben a día de hoy cómo detenerlo.

Un estudio llevado a cabo en 2018 sugiere que el hongo se originó en la península de Corea y desde allí se diseminó por todo el mundo en animales infectados que se colaron en las cargas de exportación, ya fuese como polizones o como mercancías alimenticias o como mascotas. Hoy se puede encontrar en más de 60 países de todo el mundo y está causando estragos en América Latina, Asia y África.

Este patógeno se transmite por contacto directo o a través de aguas infectadas y ataca a los animales a través de la keratina presente en su piel, que forma parte del sistema respiratorio de los anfibios. Así, causa que se vayan asfixiando a la vez que deteriora su sistema inmune y termina causándoles un ataque cardíaco.

Suena terrible, y lo es, pero el Bd ha tenido al menos un aspecto positivo para las ranas y similares: estamos hablando de ellas y de las amenazas que sufren. Como les pasa a muchos animales menos agraciados que tigres, pandas, delfines, águilas y elefantes, sus penurias, incluidas aquellas que el ser humano les causa, pasan más desapercibidas y se les defiende menos, a pesar de ser parte imprescindible de muchos ecosistemas, necesarios para que se mantengan los equilibrios tróficos y dependientes de la conservación de los recursos naturales.

Y eso que son unos animales fascinantes de los que la mayoría no sabemos lo suficiente. Por si es su caso, aquí van algunas cosas sobre las ranas que quizá usted no sepa.

¿En qué se diferencia una rana de un sapo?

En lo que a su taxonomía se refiere, ranas y sapos forman parte del género Anuro y de forma generalizada se les llama anuros a ambos. A partir de aquí, las diferencias entre ambos son a nivel coloquial y popular, pero taxonómicamente no hay una categorización establecida.

Rana Silverstoneia flotator, originaria de Costa Rica y Panamá. Imagen: Wikimedia Commons

Se considera que las ranas son, en general, más pequeñas, de piel suave y brillante, y más gráciles, con patas más finas que les permiten dar mayores saltos. Por el contrario los sapos son más rugosos, de colores más discretos y más corpulentos, con saltos más pequeños. Las ranas ponen sus huevos en racimos mientras que los sapos los ponen en forma de ristras.

Sin embargo, no todas las especies cumplen todas estas características, y por eso no es una división oficial.

¿Por qué las ranas no se congelan en invierno?

Los anfibios han colonizado prácticamente todos los hábitats del mundo, y en algunos de ellos puede llegar a hacer mucho frío. Dado el porcentaje de agua que contiene su cuerpo, y que son por naturaleza animales de sangre fría, ¿cómo lo hacen para no congelarse en invierno?

Las ranas hibernan, como hacen otros animales, como respuesta al frío del invierno. Para hibernar, buscan un espacio que les proteja del tiempo y de los depredadores y se acomodan en él. Entonces su metabolismo se ralentiza de forma drástica y consiguen dormir durante meses utilizando para ello las reservas de energía que van acumulando durante las estaciones cálidas. Cuando vuelve a hacer calor, despiertan y salen de su escondrijo para volver a alimentarse y dedicarse a la gustosa tarea de aparearse.

Sapo común en plena reproducción. Imagen: Wikimedia Commons

Las ranas acuáticas pueden hacer esto bajo el agua, pero a diferencia de otros animales acuáticos, como las tortugas, que se pueden enterrar bajo el barro y obtener de él las pequeñísimas cantidades de oxígeno que requieren durante la hibernación, las ranas deben situarse cerca de corrientes de agua ricas en oxígeno e hibernar sobre el barro no bajo él. Muchas salen ligeramente del letargo y nadan lentamente de vez en cuando.

Las ranas terrestres hibernan en tierra, a menudo enterrándose bien bajo el suelo para situarse a salvo de depredadores y también huyendo del nivel de congelación. Otras se evitan el esfuerzo de cavar y enterrarse ubicándose en grietas lo suficientemente profundas de troncos o rocas para quedar fuera del alcance de cualquiera que pretenda darles un bocado.

Para evitar que el frío les haga daño mientras hibernan cuentan con un efectivo sistema anticongelante: una alta concentración de glucosa en sus órganos vitales evitan que se congelen. Pueden llegar a formarse algunos cristales de hielo en algunas partes del cuerpo, como por ejemplo la vejiga, y el animal parecerá muerto durante semanas pero cuando llegue la primavera y las temperaturas suban, esos cristales desaparecerán, el cuerpo de la rana estará intacto y ésta recuperará su actividad sin problema.

¿Cómo evitan deshidratarse en las estaciones secas?

Si bien la mayoría de los anfibios viven en lugares donde ninguna estación es tan seca como para suponer un problema, unas pocas se han adaptado para conquistar esos hábitats. En esos casos, practican la estivación, la versión veraniega de la hibernación: el animal entra en un estado durmiente como respuesta a las condiciones extremas temporales del entorno.

Para hacerlo, se entierran en el suelo, allí donde aun se conserva un poco de humedad y mientras duermen ponen en marcha un ingenioso truco: generan varias capas de piel muerta, formando una especie de capullo impermeable que les envuelve y les ayuda a conservar su propia humedad, dejando expuestos al exterior solamente los agujeros respiratorios para evitar asfixiarse. Cuando termina la estación seca y vuelven las lluvias, se liberan de su caparazón y regresan a la superficie para rehidratarse.

¿Por qué pasan de renacuajos a ranas?

Cuando nacen, las ranas no son ranas más pequeñas, sino un renacuajo, que a simple vista parece un animal de una especie totalmente distinta: una cabeza grande y redondeada con una ancha cola que les permite desplazarse y alimentarse en el agua. Pocas semanas después desarrollan las poderosas patas traseras que les ayudan a saltar fuera del agua y alimentarse en un terreno nuevo. No son las únicas que practican la metamorfosis, muchos peces e insectos lo hacen también. Pero ¿por qué?

Renacuajo de la rana bermeja, días antes de su metamorfosis. Imagen: Wikimedia Commons

Según la investigadora holandesa Anna ten Brink, se trata de una estrategia que permite a una especie aumentar potencialmente sus opciones de alimentación, y es una estrategia tan eficaz que, sin bien ha aparecido contadas veces a lo largo de la evolución, una vez que lo hace rara vez desaparece.

Ten Brink y su equipo partieron de la idea de que los animales que no se metamorfosean y siempre tienen el mismo tipo de cuerpo adaptado al mismo tipo de entorno, están bien preparados para comer un tipo de alimento durante toda su vida. Pero si ese entorno contiene otro tipo de alimento, ¿podrían los adultos incorporarlo si durante su crecimiento su anatomía cambiaba de una forma distinta?

La respuesta que observaron es que los animales esto rara vez ocurre, ya que entonces las crías tendrían más dificultad para nutrirse del primer alimento y un mayor porcentaje moriría antes de llegar a la edad adulta.

Aquí, la metamorfosis es una solución evidente: los animales jóvenes siguen adaptados al alimento original y los adultos cambian completamente de cuerpo para poder consumir el segundo. Claro que esto supone pagar un alto precio en forma de una gran cantidad de calorías y el riesgo de que el proceso salga mal y el animal sufra defectos que acorten notablemente su vida.

Incluso aunque salga bien, el periodo de metamorfosis es un momento de especial vulnerabilidad en el que no pueden huir ni defenderse en caso de ataque de un depredador. Por eso ten Brink especula que la metamorfosis sale adelante cuando la recompensa evolutiva es realmente buena, cuando los que la completan tienen a su alcance una alimentación muy nutritiva que les permite reproducirse numerosamente con éxito.

Referencias:

A deadly amphibian disease goes global – Science
The Evolutionary Ecology of Metamorphosis – The American Naturalist
¿Por qué un animal cambiaría su cuerpo por otro? – The New York Times
How do frogs survive winter? Why don’t they freeze to death – American Scientist
What’s The Difference Between a Frog and a Toad? – Live Science

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo ¡Salvad a las ranas! se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¡Salvad a la hija!
  2. ¿Por qué si nunca hemos vivido mejor que ahora el mundo nos parece cada vez peor?
  3. Las ventajas (para ti y para los demás) de ser egoísta de vez en cuando
Catégories: Zientzia

Tega enseña lenguaje

dim, 2019/03/31 - 11:59
Fuente: Affectiva

Tega cuenta historias a niños y niñas leyéndoles libros ilustrados. De vez en cuando les hace preguntas para conocer su opinión acerca de lo que les ha contado, saber si le entienden, interesarse por el significado de alguna palabra o conocer sus ideas sobre algún aspecto en particular de lo que les ha leído.

Al contar historias se mueve, adopta posturas diferentes y pone caras. También ilustra lo que cuenta con imágenes que proyecta en una pantalla. Además, se fija y registra la expresión facial y la disposición corporal de quien escucha el cuento; de esa forma sabe si le interesa y está atento a lo que dice. Y al acabar de leerle el libro, le pide que se lo cuente con sus propias palabras.

Tega es un robot con cubierta de peluche que ha sido desarrollado por un equipo del Massachusetts Institute of Technology (MIT) formado por ingenieros, informáticos y artistas. Lo han diseñado para que enseñe lenguaje a niños y niñas de corta edad, y fue presentado a finales de enero pasado en Hawai, en la AAAI Conference on Artificial Intelligence.

Tega ha demostrado ser competente en la tarea para la que fue creado. En el marco de un experimento leyó cuentos a niños y niñas de entre 4 y 6 años de edad. Lo hizo en sesiones semanales de una hora de duración. En un grupo las lecturas eran personalizadas. Cada vez que interactuaba con los chiquillos Tega aprendía, sabía más de sus habilidades y conocimientos verbales. De esa forma, para la siguiente sesión escogía un cuento más adecuado al nivel de competencia verbal de cada uno de ellos, tanto por las estructuras que eran capaces de manejar como por el vocabulario que conocían. Y además, iba sustituyendo algunas palabras por sinónimos menos conocidos.

En un segundo grupo las lecturas no eran personificadas. Tega escogía al azar la historia de una biblioteca de cuentos. Eso sí, cada dos semanas elevaba la dificultad del texto. Además de los dos grupos que interactuaron con el robot, el equipo utilizó un grupo de control que no interactuó con Tega.

Varias semanas después de terminar las sesiones, el equipo evaluó el conocimiento de vocabulario en los dos grupos experimentales y en el control. Todos los que habían interactuado con el robot habían mejorado sus conocimientos verbales, pero los del grupo con los que Tega se había relacionado de forma personalizada mejoraron más. En un test de conocimiento verbal cometieron un 23% menos de errores que antes de las sesiones con el robot. Y la tasa de error de quienes no habían interactuado de forma personalizada con él solo se redujo la mitad que la del grupo anterior. Los del grupo control no mejoraron.

Además de saber más vocabulario, los pequeños que habían interactuado con Tega de forma personalizada contaban historias más largas y más complejas que los otros niños, y su lenguaje corporal indicaba que prestaban una mayor atención al robot durante las sesiones.

No han creado Tega para que enseñe lenguaje como lo harían maestros y maestras. Lo han hecho para que sirva de apoyo al personal docente y para su uso bajo circunstancias especiales. Pero uno no puede dejar de pensar que cada vez son más los ámbitos en los que se diseñan robots para sustituir o “complementar” actividades humanas. Antes pensábamos que los robots se limitarían a la manufactura, limpieza y tareas repetitivas, en general. Pero ya hay muñecas sexuales robóticas, se proyectan androides que cuiden a personas y, como acabamos de ver, se crean robots capaces de enseñar porque, entre otras habilidades, pueden aprender.

Fuentes: Tega, a New Social Robot Platform; Tega; Smart and fluffy storytelling robot to be trialled in US classrooms

——————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Tega enseña lenguaje se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El aprendizaje continuo mejora la interacción de robots con humanos en lenguaje natural
  2. El lenguaje de la química
  3. Mestizajes: Intuición, arte y lenguaje, por Itziar Laka
Catégories: Zientzia

¿Qué pasa en tu cerebro cuando duermes?

sam, 2019/03/30 - 11:59

De la misma forma que el hígado, el corazón, los pulmones o los riñones no dejan de funcionar cuando duermes, el encéfalo tampoco lo hace. Si alguno de estos órganos lo hiciese el resultado es el mismo: la muerte. Pero, si la consciencia no está operativa, ¿a qué se dedica el cerebro mientras dormimos?

Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.

Edición realizada por César Tomé López

El artículo ¿Qué pasa en tu cerebro cuando duermes? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Hemos intentando contactar con extraterrestres?
  2. ¿Cómo demonios funcionan las copas musicales?
  3. #Naukas16 Qué pasa cuando le das un péndulo a una máquina
Catégories: Zientzia

Geología, Antropoceno y cambio climático

ven, 2019/03/29 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

Nauru. Fuente: Wikimedia Commons

Tras su lanzamiento por Paul Crutzen en el año 2000, el alcance social y académico del Antropoceno ha crecido de una manera sorprendente. Este concepto se acuñó para materializar nuestra percepción de que las actividades humanas han cambiado el Sistema Tierra. El comportamiento de los océanos, la atmósfera, la superficie terrestre, la criosfera, la biosfera y el clima ya no es el mismo que ha caracterizado durante más de 11.000 años la época geológica en la que formalmente aún vivimos, el Holoceno.

El hecho de que los humanos podamos afectar de modo tan significativo el curso de la evolución geológica de nuestro planeta dio pie en 2009 a la creación del Grupo de Trabajo sobre Antropoceno que está examinando la posibilidad de la formalización e inclusión del término en la Tabla Cronoestratigráfica Internacional (conocida como la Escala del Tiempo Geológico). Ya que la historia de la Tierra anterior a la documentación humana sólo se puede reconstruir a partir de su registro en las rocas, este enfoque centrado en el análisis de las evidencias contenidas en los sedimentos recientes es fundamental para comparar adecuadamente las historias moderna y antigua de nuestro planeta y, por lo tanto, para medir la magnitud y la velocidad de la perturbación planetaria provocada por los humanos.

El Antropoceno se caracteriza por un conjunto de señales de naturaleza sedimentaria, biológica y química que se pueden encontrar en la mayor parte de la superficie terrestre. Algunas de estas evidencias tienen equivalentes en unidades geológicas más antiguas (por ejemplo, el enriquecimiento en metales), pero otras señales son completamente novedosas (como los radioisótopos artificiales o los plásticos dentro de los sedimentos). Estas evidencias reflejan una fase distinta en la historia de la Tierra, que se alejó de su estabilidad general holocena a partir de la Revolución Industrial y, en particular, desde la “Gran Aceleración” en el crecimiento de la población humana, la industrialización y la globalización a mediados del siglo XX, momento que se considera como el límite más adecuado para marcar su inicio.

Desde el punto de vista climático, el rápido aumento de los gases de efecto invernadero desde el siglo XIX (Figura 1) ha provocado un creciente ascenso de la temperatura y del nivel del mar, acompañados por una pérdida de hielo en los continentes. Este calentamiento ha alcanzado ya niveles más altos que los detectados durante el Holoceno y se acerca a los de otras etapas interglaciares del periodo Cuaternario.

Figura 1. Tasas de cambio en las concentraciones de gases de efecto invernadero desde el inicio de la Revolución Industrial. La década de 1950 marca una aceleración de su crecimiento (gráficos originales en W. Steffen, W. Broadgate, L. Deutsch, O. Gaffney y C. Ludwig (2015) “The trajectory of the Anthropocene: The Great Acceleration” The Anthropocene Review 2, 81-98). Imagen tomada de WWF (2018) “Informe Planeta Vivo-2018: Apuntando más alto”. M. Grooten y R.E.A. Almond (Eds.), Suiza.

La asociación de los humanos con las regiones costeras se remonta a las primeras civilizaciones, cuando nos concentramos en las desembocaduras de los ríos, deltas y estuarios, debido a la disponibilidad de alimentos abundantes y accesibles. Durante el siglo XX, la zona costera ha cambiado profundamente a medida que las poblaciones humanas iban creciendo y los ambientes costeros se ocupaban para la agricultura, la urbanización y la industria. Gran parte de la población mundial vive hoy en las áreas costeras con una densidad 3 veces superior al promedio mundial y la mayoría de las megaciudades planetarias también se encuentran en la costa. Sin embargo, los registros instrumentales y geológicos muestran que la velocidad de aumento reciente del nivel marino es anómala con respecto a los últimos miles de años y muchas zonas costeras se encuentran ahora amenazadas. Se ha observado globalmente una transición en el ascenso marino desde valores relativamente bajos durante el Holoceno superior (3 mm/año.

El estudio del nivel marino es un campo muy interdisciplinar y de creciente importancia. En el 1º informe de evaluación del IPCC (1990) no había referencia alguna a los cambios en el nivel del mar anteriores al siglo XX. Ya en el 3º informe de evaluación (2001) se incorporó el cambio del nivel marino a escalas de tiempo más largas, pero sólo en el 4º informe (2007) se agrupó la información geológica sobre el paleoclima en un solo capítulo, como asimismo se ha hecho en el 5º y último informe de evaluación (2013). Los registros instrumentales del nivel del mar comenzaron con el mareógrafo de Ámsterdam en 1682 y la altimetría de precisión por satélite se inició tras el lanzamiento del TOPEX/Poseidon a finales de 1992. Estos datos han demostrado que las velocidades de cambio del nivel del mar varían regionalmente y a escalas temporales de décadas debido a cambios en la densidad del océano. Es ahí donde los datos geológicos se hacen necesarios para poder situar estas estimaciones instrumentales en un contexto temporal a más largo plazo (Figura 2).

Figura 2. Fotografía del testigo, contenido en arena, principales especies de microfósiles (1: Entzia macrescens; 2: Trochammina inflata), elevación de la paleomarisma (PME), actividad de los radioisótopos Pb-210 y Cs-137 y distribución del Pb y Zn durante los últimos 300 años en un sondeo perforado en la marisma de Murueta (Reserva de la Biosfera de Urdaibai). Imagen modificada de A. García-Artola, A. Cearreta y E. Leorri (2015) “Relative sea-level changes in the Basque coast (northern Spain, Bay of Biscay) during the Holocene and Anthropocene: The Urdaibai estuary case” Quaternary International 364, 172-180. DOI: 10.1016/j.quaint.2014.06.040

Durante el siglo XX, el nivel del mar ha aumentado globalmente unos 30 cm y la magnitud del ascenso del nivel marino previsto para este siglo es un tema muy controvertido. Las últimas proyecciones del IPCC (2019) auguran un aumento medio del nivel del mar a finales del siglo XXI de 28–57 cm para un escenario con reducción drástica de las emisiones de efecto invernadero, y de 55–140 cm si hubiese un crecimiento de estas emisiones. Otras estimaciones recientes sugieren que el ascenso medio global del nivel del mar podría incluso superar los 150-200 cm en el año 2100 (Figura 3). Esta diferencia en las previsiones refleja las grandes incertidumbres que existen sobre el comportamiento futuro de los casquetes glaciares de Groenlandia y Antártida.

Figura 3. Las distintas proyecciones del nivel marino para el año 2010 realizadas a partir de modelos han variado mucho a lo largo del tiempo desde la publicación del Primer Informe de Evaluación del IPCC (AR1) en 1990 hasta el último Informe Especial sobre el Océano y la Criosfera (SROC) de 2019. Imagen modificada de M. Oppenheimer y R.B. Alley (2016) “How high will the seas rise?” Science 354, 1375-1377. DOI: 10.1126/science.aak9460

El aumento del nivel del mar tiene una amplia gama de efectos sobre las zonas costeras que incluyen la inundación y pérdida de marismas, la erosión de playas, dunas y acantilados, la incursión de agua salada en acuíferos y centros urbanos, y el desplazamiento general de los ecosistemas costeros hacia tierra. La magnitud de estos impactos y sus consecuencias estarán asociadas, además, con los efectos de otros procesos humanos que han estado operando en el litoral durante décadas, como la disminución del aporte fluvial de sedimentos, la extracción de aguas subterráneas o la ocupación de las tierras costeras.

La duración del Antropoceno hasta ahora ha sido geológicamente muy breve, equivalente a una vida humana, pero sus impactos ya han cambiado de manera irrevocable el curso futuro de la historia de nuestro planeta. Algunos de estos cambios son irreversibles, incluso si la humanidad y sus efectos ambientales desaparecieran mañana mismo, y sus consecuencias persistirán durante siglos, milenios y millones de años.

Para saber más:

C.N. Waters, J. Zalasiewicz, C. Summerhayes, A.D. Barnosky, C. Poirier, A. Gałuszka, A. Cearreta, M. Edgeworth, E. Ellis, M.A. Ellis, C. Jeandel, R. Leinfelder, J.R. McNeill, D. deB. Richter, W. Steffen, J. Syvitski, D. Vidas, M. Wagreich, M. Williams, A. Zhisheng, J. Grinevald, E. Odada, N. Oreskes, y A.P. Wolfe (2016) “The Anthropocene is functionally and stratigraphically distinct from the Holocene” Science 351, 137 (aad2622.1-aad2622.10). DOI: 10.1126/science.aad2622

C. Summerhayes y A. Cearreta (2019) “Chapter 6. Climate Change and the Anthropocene” En: J. Zalasiewicz, C.N. Waters, M. Williams y C.P. Summerhayes (Eds.), The Anthropocene as a geological time unit: A guide to the scientific evidence and current debate. Cambridge University Press, 200-241. DOI: 10.1017/9781108621359

Sobre los autores: Alejandro Cearreta y Ane García Artola pertenecen al Departamento de Estratigrafía y Paleontología de la Facultad de Ciencia y Tecnología de la UPV/EHU.

El artículo Geología, Antropoceno y cambio climático se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Verdín, eucaliptos y cambio climático
  2. Los ecosistemas acuáticos de África y el cambio climático
  3. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
Catégories: Zientzia

Por qué nos fascinan los neandertales

ven, 2019/03/29 - 08:00

Manuel Alcaraz Castaño

Réplica de un cráneo neandertal en la cueva de San Miguel (St. Michael’s Cave), Gibraltar. Boaski / Flikr

Entre los muchos enigmas de la ciencia prehistórica que provocan fascinación, tanto a científicos como al público interesado, la desaparición de los neandertales ocupa un lugar privilegiado.

Los neandertales poblaron Europa y Asia occidental desde hace unos 300.000 años y desaparecieron hace poco más de 40.000, coincidiendo con la llegada a Europa de los Humanos modernos –nuestra especie– tras su salida de África. Este último es uno de los períodos más críticos en la Prehistoria humana, pues no sólo incluyó un cambio de poblaciones definitivo, sino también una importante transformación cultural.

Dicha transformación supuso el asentamiento en todo el viejo mundo de los comportamientos complejos que caracterizarían el posterior desarrollo de las formas de vida asociadas a nuestra especie. Los prehistoriadores llevamos más de un siglo discutiendo sobre los factores y características de estos procesos de cambio, sin haber consensuado aún interpretaciones plenamente satisfactorias.

Las implicaciones ideológicas que supone el estudio de un pariente evolutivo tan cercano a la humanidad actual, y por tanto vital para entendernos a nosotros mismos, han provocado que la investigación de los neandertales haya estado históricamente cargada de prejuicios y mitos diversos. Sin embargo, los avances teóricos y metodológicos de las últimas décadas han permitido que actualmente el problema sobre su desaparición se plantee como una de las controversias científicas de mayor complejidad en el campo de la Prehistoria.

“El mito”, o la historia de la investigación sobre los neandertales

La investigación de Homo neanderthalensis, como se denominó la especie definida a partir de los restos humanos encontrados en 1856 en el valle de Neander (Alemania), es uno de los mejores ejemplos de cómo en ocasiones la ciencia puede verse influida por el contexto histórico en el que se desarrolla.

Las implicaciones ideológicas y sociales que conllevó el reconocimiento de una humanidad remota, distinta pero emparentada con la actual, inauguraron una tradición investigadora sobre los Neandertales en la que éstos, de forma más o menos directa, han sido objeto de prejuicios e ideologías de distinto pelaje.

Valle de Neander. Cordula / Wikimedia Commons

Las primeras interpretaciones que acusaron estas influencias externas a la ciencia se dieron ya desde finales del siglo XIX y principios del XX, en un contexto de fuerte oposición a la teoría de la evolución formulada por Darwin solo tres años después del descubrimiento de los restos de Neander. Entonces, una compleja mezcla de ideas racistas, colonialistas y religiosas contribuyeron a dibujar un neandertal troglodítico y animalizado, esencialmente distinto a nosotros, para el que en todo caso se tenían aún muy pocas evidencias arqueológicas y paleontológicas.

Tras la Segunda Guerra Mundial, las ideologías dominantes viraron para fomentar la imagen de un neandertal más humanizado y capaz. Sin embargo, durante los años 80 el péndulo volvió a oscilar y la visión del neandertal basculó hacia interpretaciones que le volvían a alejar de la humanidad moderna, tanto en capacidades culturales como en naturaleza biológica.

Es esta última visión, y en cierto modo las reminiscencias de las imágenes animalizadas de principios de siglo, la que cuestionan la mayoría de los investigadores desde hace tres décadas, y a la cual suelen enfrentar sus investigaciones.

Podemos situar en la última década del siglo XX el comienzo de una etapa historiográfica, la actual, en la que la investigación sobre los neandertales ha alcanzado una verdadera madurez científica. Aunque las implicaciones ideológicas que supone el estudio de este tipo humano siguen flotando en el ambiente, el asentamiento de la Prehistoria como una ciencia interdisciplinar, con métodos y técnicas avanzados, ha hecho que nuestro conocimiento actual de esta especie humana se encuentre fundamentalmente basado en evidencias y pruebas empíricas. Algunas de ellas presentan una solidez científica que apenas podía ser imaginada pocos años atrás.

Por ello, el enigma de la desaparición de los neandertales, históricamente cargado de tópicos y prejuicios, es hoy investigado como un complejo problema científico de primera magnitud. Arqueólogos, paleoantropólogos, geólogos, ecólogos o físicos, entre otros, aúnan esfuerzos para recomponer un puzle poliédrico y, como siempre en Prehistoria, parcial e incompleto.

Por tanto, puede concluirse sin ambages que, en los últimos años, las influencias externas a la investigación meramente científica han perdido fuerza para dejar paso a marcos de trabajo cada vez más objetivos. Hemos pasado del mito al logos.

“El logos”, o la investigación interdisciplinar de un problema científico

El planteamiento tradicional del problema de la desaparición neandertal se hacía en términos simples y dicotómicos. O bien nuestra especie, superior en biología y tecnología, protagonizó un proceso de suplantación poblacional, más o menos violento y a escala continental, o bien los neandertales evolucionaron cultural y anatómicamente hacia las formas modernas de Homo sapiens.

Hoy en día se da la situación paradójica (en realidad bastante habitual en ciencia) de que, sabiendo bastante más sobre el problema, somos incapaces de defender teorías tan definidas. Las nuevas evidencias arqueológicas, paleontológicas, geológicas, paleoecológicas y paleogenéticas nos han empujado progresivamente a abandonar la idea de un proceso de cambio único y monolítico, y valorar, por el contrario, marcos interpretativos basados en la variabilidad regional y cronológica.

Hoy sabemos que neandertales y Humanos modernos tuvieron descendencia fértil en varios momentos y regiones geográficas, pero aún desconocemos si esos procesos de hibridación fueron responsables de la desaparición (en este caso asimilación) de los neandertales en toda su extensión geográfica. Sabemos también que los neandertales fueron capaces de desarrollar tecnologías y estrategias de subsistencia complejas durante el Paleolítico medio, pero no tenemos aún la seguridad de que dichas estrategias contribuyeran directamente al posterior desarrollo cultural del Paleolítico superior.

Sabemos que los neandertales tuvieron la inteligencia e inquietudes necesarias para desarrollar comportamientos simbólicos, incluyendo probablemente la creación de las primeras grafías pintadas en cuevas, pero se discute si dichos comportamientos fueron recurrentes, o incluso si los métodos utilizados para su verificación son fiables.

Comparación de un cráneo de Homo sapiens y de un neandertal. Wikimedia Commons

Hasta hace poco creíamos saber que neandertales y Humanos modernos convivieron durante milenios en distintas regiones europeas, pero el refinamiento de los métodos de datación nos ha obligado a cuestionar fuertemente esa idea. Igualmente, creíamos saber que los neandertales estaban especialmente adaptados a climas fríos, pero hoy se baraja la hipótesis de que la variabilidad climática fuera un factor relevante para su desaparición.

Nos encontramos en un momento de grandes cambios teóricos e interpretativos, en el que el final de los neandertales se estudia desde un marco interdisciplinar alejado de los mitos y prejuicios del pasado, por más que en ocasiones estos traten de volverse a incluir en escena. Al obtener evidencias cada vez más certeras en distintos ámbitos, el problema se hace aún más complejo, y evitamos las respuestas simplistas y viciadas que se han propuesto en el pasado.

Son especialmente relevantes los proyectos de investigación a escala regional realizados con metodologías modernas e interdisciplinares, cada vez más numerosos y relevantes en la península ibérica. Precisamente, esta macro región geográfica se ha revelado clave para estudiar el final de los neandertales y el primer poblamiento europeo de Humanos modernos, pues es probable que aquí se produjeran los últimos episodios de este complejo proceso de cambio biocultural.

Y aunque nuestras respuestas probablemente nunca serán definitivas, si mantenemos el pensamiento crítico y el método científico como guías, sin duda se acercarán cada vez más a la realidad prehistórica.

Sobre el autor: Manuel Alcaraz Castaño es investigador en arqueología del Paleolítico en la Universidad de Alcalá

This article is republished from The Conversation under a Creative Commons license. Original article.

El artículo Por qué nos fascinan los neandertales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Neandertales ¿crónica de una muerte anunciada?, por María Martinón-Torres
  2. La cronología de la desaparición de los neandertales
  3. Los neandertales respiraban de otra manera
Catégories: Zientzia

Datos que entran por los ojos

jeu, 2019/03/28 - 11:59

Si uno le pregunta a Google Images qué es un una gráfica, puede encontrarse con un esperpento como el siguiente:

Más allá de la fealdad generalizada y los colores estridentes, la web y los medios de comunicación están plagados de ejemplos de malas representaciones de datos. Ejemplos donde el artificio y la ornamentación pervierten la función de estas poderosas herramientas.

¿Qué es una gráfica entonces? Dado que Google no parece ser de gran ayuda en este caso, yo os propongo la siguiente definición: una gráfica es una representación de datos numéricos mediante recursos visuales que permite interpretarlos y extraer información de ellos. Las gráficas son herramientas de comunicación para un tipo de mensaje muy determinado (los datos) y un tipo de receptor muy determinado (monos con buenos ojos), y como tal, utilizan un código muy especializado.

Los ojos son nuestra principal fuente de información. Se estima que nuestras retinas reciben unos 10 Gbps de información, de los cuales, pasan por el nervio óptico unos 100 Mbps hasta nuestro córtex visual. De hecho, según calculan los neurocientíficos, al menos un tercio de nuestro cerebro está ocupado procesando información visual. Por eso, a veces, cerramos los ojos cuando intentamos concentrarnos: para ser capaces de destinar más recursos a pensar o recordar mejor. En realidad, no es que tengamos una vista muy buena en comparación con otras especies. En lo que realmente somos buenos es en el análisis de la imagen, en extraer información útil a partir de lo que vemos… como caras de otros monos o un león camuflado en las hierbas.

En cambio, nuestra memoria de trabajo es bastante más modesta. Quizás resulte familiar la conocida como ley de Miller: “the magic number seven, plus or minus two1”. Es uno de los artículos más citados en psicología y, aunque ha sido revisada y matizada posteriormente, viene a decir que, en general, los humanos no podemos retener más de 7 elementos o grupos en nuestra memoria a corto plazo. Es decir, que si nos dan un listado de, pongamos, 10 cosas, nos va a resultar difícil retenerlas todas a la vez en nuestra cabeza y hacer comparaciones entre ellas mentalmente.

Por tanto, la magia de la visualización de datos consiste en convertir “cifras” (números abstractos que requerirían nuestra pobre memoria para ser comparados) en estímulos visuales, de esos que somos tan buenos en analizar.

Por poner un ejemplo, os proponemos encontrar el número más alto en tres tipos de representaciones distintas:

En la primera representación, habréis tenido algunos problemas para encontrarlo, y probablemente hayáis escaneado varias veces la lista, hacia arriba y hacia abajo, para recordar un número o comprobar otra vez dónde estaba la coma de los decimales. En la segunda representación, las cifras están estandarizadas para mostrar dos posiciones decimales. Una vez visto este detalle, la alineación a la derecha hace que encontrar el número más grande sea prácticamente inmediato, dado que “sobresale” hacia la izquierda más que los demás. Pero fijaos que ya hemos recurrido a un truco visual, tomando un atajo que nos permite evitar la memorización, y esto se hace especialmente evidente en la representación final en forma de gráfica.

Existe otro ejemplo muy representativo del poder de nuestros ojos procedente, en este caso, del mundo de los juegos. El juego es como sigue:

  1. Hay 2 jugadores.
  2. Cada jugador escoge un número del 1 al 9 en su turno.
  3. Una vez un número es escogido, nadie puede volver a usarlo.
  4. Gana el jugador que primero sume 15 usando 3 números.

Planteado de esta manera, es posible que al lector le cueste hacerse a una idea de en qué consiste el juego o qué estrategia elegir. Parece ciertamente complejo. Jugar requiere retener en la memoria una lista de los números escogidos, las posibles sumas que se forman con ellos y los números eliminados por el otro jugador. Todo un dolor de cabeza. Sin embargo, este mismo juego puede presentarse de manera visual, simplificándose enormemente:
Esta representación visual resume todas las posibles combinaciones, ya que cualquier fila, columna o diagonal suma 15; nos revela, además, algunas propiedades interesantes de estos números. Por ejemplo, el 5 participa en más sumas cuyo resultado es 15 que ningún otro número (ya que se encuentra en el centro de la distribución). Los números pares participan, cada uno, en 3 sumas. Los números impares sólo pueden formar 2 sumas. Son propiedades matemáticas que podríamos haber deducido de haber analizado en detalle el problema inicial. Pero la representación visual nos permite pensar de manera visual, sin abstracciones previas.

En definitiva, la gracia de las gráficas y de las representaciones visuales de cualquier tipo de problema es que convierten datos abstractos, que nuestra memoria de trabajo no puede retener, en estímulos perceptivos, que entran en nuestra cabeza sin necesidad de mediación, sin necesidad de que comprendamos y retengamos cada uno de esos numeritos. Esto las convierte, a su vez, en un arma enormemente peligrosa. Precisamente porque las gráficas hacen innecesario el proceso de lectura (de interpretación mediada y meditada de los datos), es muy fácil engañar y distorsionar los datos recurriendo a su poder.

Referencia:

1Miller, G. A. (1956). “The magical number seven, plus or minus two: Some limits on our capacity for processing information”. Psychological Review. 63(2): 81–97

Sobre los autores: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica. Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute.

El artículo Datos que entran por los ojos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sal de la piscina si te pican los ojos y no mezcles lejía con amoniaco
  2. #Naukas14 Arqueología de datos
  3. Colonialismo científico: los investigadores africanos se rebelan contra el expolio de datos genéticos
Catégories: Zientzia

Cuatro leyes consumadas siguiendo una banda de Möbius

mer, 2019/03/27 - 11:59

La escritora danesa Solvej Balle (1962) publicó en 1983 Ifølge loven Fire beretninger om mennesket,novelatraducida al castellano como Según la ley. Cuatro relatos sobre el ser humano (Seix Barral, 1995).

Como indica el título, cuatro historias componen este libro. Son cuatro metáforas sobre la búsqueda de la verdad. Son cuatro relatos sobre las obsesiones de otras tantas personas que realizan su peculiar búsqueda para llegar a entender la naturaleza del ser humano.

La banda de Möbius estructura la novela que, a priori, podría parecer formada por relatos independientes. Pero cada historia lleva a la siguiente, y la cuarta conduce inevitablemente a la primera, que reanuda el ciclo interminable del libro. La habitual metáfora de la banda de Möbius, pensada como la cinta del eterno retorno, se muestra de este modo en la novela.

Cuatro son también las leyes que actúan como hilo conductor de esta singular narración, algunas de ellas conocidas leyes científicas. Describimos brevemente cada relato.

1. Ley sobre examen forense y autopsia

De acuerdo con la ley, el cuerpo que después del óbito ofrece dudas sobre la causa de la muerte deberá ser sometido a autopsia.

Ley sobre examen forense y autopsia (Dinamarca)

El bioquímico canadiense Nicholas S. investiga sobre el misterio de la verticalidad del cuerpo humano. Presencia la autopsia de una joven que ha fallecido de hipotermia –se ha suicidado– y que ha donado su cuerpo a la ciencia. Estudia con minuciosidad el cerebro del cadáver en cuya corteza busca ‘un determinado color verde’ que probaría la existencia de una sustancia denominada filodoxa-tri-fosfato que –según una teoría muy controvertida– desempeñaría un papel fundamental en el movimiento bípedo del ser humano…

Si esta sustancia era un error, éste era de la evolución, no suyo. Si la naturaleza había cometido un error, su misión no era ocultarlo.

2. Ley del talión

El que maltrate a su prójimo será tratado de la misma manera; fractura por fractura, ojo por ojo y diente por diente, es decir, recibirá lo mismo que él ha hecho al prójimo.

Levítico, 24:19-21

Tanja L., estudiante de Derecho en Suiza, posee poderes paranormales y sospecha que provoca –en contra de su voluntad– caídas y accidentes, causando de este modo dolor y sufrimientos a otras personas. Desea descubrir la naturaleza del dolor, y para ello viaja a Barcelona, Madrid y París, buscando señales que le ayuden a descifrarlo.

Su búsqueda había sido un malentendido. Había aprendido bastante sobre la fragilidad y la fuerza destructora del ser humano, pero no podía lastimarse con tanta facilidad a una persona.

3. Ley de la gravedad

Dos cuerpos de diferente peso se moverán a la misma velocidad de caída en el vacío.

Ley de la caída de los cuerpos de Galileo

René G. es un matemático danés con un único deseo: no ser nadie.

Deseaba saber hasta qué punto podía acercarse un ser humano a la transparencia del no ser y estaba seguro de que, una vez hubiese alcanzado ese punto cero, podría hacer lo que se esperaba de él, proseguir sus estudios, realizar su trabajo sobre las relaciones entre los teoremas de incompletitud de Gödel y los postulados paralelos no euclidianos, y después pasar el resto de su vida describiendo sosegados círculos alrededor del punto cero humano.

Pero, no es tan fácil…

4. Ley de la termodinámica

En un sistema aislado, los procesos en los que interviene el calor suceden sólo en una dirección

Segunda ley de la termodinámica

Alette V. es una escultora canadiense que se dedica a realizar bustos a los transeúntes. Adora la materia inanimada y sueña con fundirse con ella. En ese afán por desprenderse de su parte humana, decide suicidarse dejándose morir de hipotermia. Así, su cadáver pasará a ser un objeto más en su habitación.

Trasladaba las personas al mundo de los objetos. […] Ella pertenecía a los objetos, pero ¿qué era?

Alette ha donado su cuerpo-objeto a la ciencia… un bioquímico canadiense llamado Nicholas S. conseguirá el cerebro de la fallecida para avanzar en sus investigaciones sobre el misterio de la verticalidad del cuerpo humano…

Nota: Adaptado de “Según la ley. Cuatro relatos sobre el ser humano”, de Solvej Balle, en DivulgaMAT, 2013

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Cuatro leyes consumadas siguiendo una banda de Möbius se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Poesía retorcida sobre banda de Möbius
  2. La Formación Jaizkibel y sus singulares geoformas “de Möbius”
  3. El teorema de los cuatro colores (1): una historia que comienza en 1852
Catégories: Zientzia

Descomposición de la luz

mar, 2019/03/26 - 11:59
Vidriera modernista del Museo Art Nouveau y Art Déco Casa Lis (Salamanca). Fuente: Museo Casa Lis

Los agentes colorantes encontrados en la pintura y la cerámica prehistóricas muestran que los humanos han apreciado el color desde los tiempos más antiguos. Pero, increiblemente, no existió ninguna hipótesis científica sobre el hasta Newton. Hasta entonces, la mayoría de las ideas aceptadas sobre el color procedían de artistas y técnicos como da Vinci, que basaban sus ideas en su experiencia con la mezcla de pigmentos.

Desafortunadamente, las lecciones aprendidas con la mezcla de pigmentos rara vez se aplican a la mezcla de haces de luz de diferentes colores. En la antigüedad, se pensaba que la luz del Sol era “pura”. El color resultaba de la adición de impurezas, como los casos en los que un rayo de “luz pura” se refracta en una pieza de vidrio y emerge con bordes de colores.

Fuente: Smithsonian Libraries

Newton se interesó por los colores cuando todavía era estudiante en la Universidad de Cambridge. En 1672, a la edad de 29 años, Newton publicó un modelo del color en las Philosophical Transactions de la Royal Society de Londres. Este fue su primer artículo científico publicado. En él escribió:

In the beginning of the Year 1666, at which time I applyed myself to the grinding of Optick glasses of other figures than Spherical, I procured me a Triangular glass-Prisme, to try therewith the celebrated Phaenomena of Colours. And in order thereto haveing darkened my chamber, and made a small hole in my window-shuts, to let in a convenient quantity of the Suns light, I placed my Prisme at his entrance, that it might be thereby refracted to the opposite wall. It was at first a very pleasing divertisement, to view the vivid and intense colours produced thereby. . . .

[A comienzos del año 1666, momento en el que me apliqué al pulimiento de lentes ópticas de formas diferentes a la esférica, me hice de un prisma triangular de vidrio para comprobar el famoso fenómeno de los colores. Para ello, tras oscurecer mi habitación y hacer un pequeño agujero en mis contraventanas para dejar entrar una cantidad conveniente de la luz del Sol, coloqué mi prisma en su entrada, para que así pudiera ser refractada hacia la pared opuesta. Al principio fue un divertimento muy agradable ver los colores vívidos e intensos producidos así. . . .] (Traducción propia)

El haz cilíndrico de luz solar “incolora” de la abertura circular pasaba a través del prisma y producía una mancha alargada de luz coloreada en la pared opuesta. Esta mancha era violeta en un extremo, rojo en el otro y mostraba una gradación continua de colores en el medio. Para este patrón de colores Newton inventó un nombre: espectro.

Pero, ¿de dónde vienen los colores? ¿Y por qué la imagen se extiende en una mancha alargada en len vez de ser un círculo? Newton pasó la luz a través de diferentes espesores de vidrio, cambió el tamaño del agujero en la contraventana e incluso colocó el prisma fuera de la ventana.

Fuente: Wikimedia Commons

Ninguno de estos cambios tuvo ningún efecto en el espectro. Tal vez alguna rugosidad o irregularidad en el vidrio era lo que producía el espectro, pensó Newton. Para probar esta posibilidad pasó los rayos de colores de un prisma a través de un segundo prisma similar puesto del revés. Si alguna irregularidad en el vidrio causaba que el haz de luz se extendiera, entonces pasar este haz a través del segundo prisma debería extenderlo aún más. En cambio, el segundo prisma, cuando se colocaba en determinada posición, volvía a juntar los colores bastante bien. Ahora se formaba un punto de luz blanca, como si la luz no hubiera pasado a través de ninguno de los prismas.

Fuente: Wikimedia Commons

Siguiendo un proceso de eliminación, Newton se convenció a sí mismo de lo que probalmente creía desde el principio era cierto: la luz incolora (blanca) está compuesta de colores. El prisma no fabrica ni añade los colores; estaban allí todo el tiempo, pero mezclados no se podían distinguir. Cuando la luz incolora pasa a través de un prisma, cada uno de los colores componentes se refracta en un ángulo diferente. Como consecuencia el haz se despliega en un espectro.

Como prueba adicional de esta hipótesis, Newton cortó un pequeño agujero en una pantalla en la que proyectó un espectro. De esta manera, la luz de un solo color podría separarse y pasar a través de un segundo prisma. Encontró que el segundo prisma no tenía ningún efecto adicional en el color de este haz, tan solo cambiaba su dirección, lo refractaba, aún más. Es decir, una vez que el primer prisma había hecho su trabajo de separar los componentes de color de la luz incolora, el segundo prisma no podía cambiar el color de los componentes. Resumiendo sus conclusiones, Newton escribió:

Colors are not Qualifications of Light derived from Refraction or Reflection of natural Bodies (as ’tis generally believed) but Original and Connate Properties, which in divers Rays are divers. Some Rays are disposed to exhibit a Red Colour and no other; some a Yellow and no other, some a Green and no other, and so of the rest. Nor are there only Rays proper and particular to the more Eminent Colours, but even to all their intermediate gradations.

[Los colores no son calidades de la luz producidas por la refracción o reflexión de los cuerpos (como se cree en general), sino propiedades originales inherentes, que en los diferentes rayos son distintas. Algunos rayos exhiben un color rojo y ningún otro; algunos uno amarillo y ningún otro; otros uno verde y ningún otro, e igualmente el resto. Tampoco hay rayos propios y concretos de los colores primarios, sino iguales para todas sus gradaciones intermedias.] (Traducción propia)

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Descomposición de la luz se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La teoría de la invariancia
  2. La relatividad de la masa
  3. Reflexiones sobre la gravedad
Catégories: Zientzia

Estructura y motilidad del intestino delgado

lun, 2019/03/25 - 11:59
Imagen: Wikimedia Commons

Estructura

El intestino delgado es un tubo que se extiende desde el estómago hasta el intestino grueso. Se encuentra alojado en la cavidad abdominal, y recibe secreciones del páncreas y del sistema biliar. En la mayor parte de los vertebrados el intestino delgado es el principal órgano de digestión y absorción del alimento. En los terrestres se subdivide en tres áreas: duodeno, yeyuno e íleon.

Una sección transversal del tubo digestivo a la altura del intestino delgado revela la existencia de cuatro capas principales: mucosa, submucosa, muscular (muscularis externa) y serosa.

La mucosa se subdivide en tres láminas. La primera es el epitelio, denominado también membrana mucosa1, una lámina epitelial interior que contiene células exocrinas (secretan jugos digestivos), endocrinas (secretan hormonas) y epiteliales (especializadas en la absorción de nutrientes). La segunda es la lámina propia, una capa un tanto difusa de tejido conjuntivo en el que se insertan las células epiteliales de la membrana mucosa. La lámina propia se encuentra atravesada por finos vasos sanguíneos, conductos linfáticos y fibras nerviosas. Alberga además el tejido linfoide asociado al intestino, que es la barrera de defensa inmunitaria frente a los patógenos del intestino. La mucosa muscular es una fina capa de músculo liso que se encuentra entre la lámina propia y la submucosa.

La submucosa es una gruesa capa de tejido conjuntivo, al que debe la pared del intestino delgado su elasticidad. Contiene vasos sanguíneos y linfáticos cuyas ramificaciones se proyectan hacia la mucosa y hacia la capa muscular más externa. La submucosa también alberga una red nerviosa, llamada plexo submucoso o plexo de Meissner.

Por el exterior de la submucosa se encuentra la capa muscular. En la mayor parte del intestino delgado esta capa tiene dos subcapas, una interna, circular, y otra externa, longitudinal. La contracción de la subcapa interna provoca la constricción del tubo allí donde se produce, mientras que la contracción de la exterior provoca el acortamiento del tubo. La contracción combinada y coordinada de ambas subcapas es lo que produce la mezcla de los contenidos intestinales y su propulsión a lo largo del tubo. Entre ambas subcapas se encuentra otra red nerviosa, el plexo mientérico que junto al plexo submucoso ayuda a regular la actividad intestinal local.

La serosa es la capa de tejido conjuntivo que cubre el tubo digestivo. Secreta un fluido seroso de efecto lubricante que previene la fricción entre el aparato digestivo y los órganos adyacentes. No hay discontinuidad entre la serosa y el mesenterio que ancla el tubo digestivo a la pared de la cavidad abdominal.

Imagen: Wikimedia Commons

La estructura del intestino delgado es tal que da lugar a un área superficial de gran extensión, muy superior a la que tendría un simple tubo de la misma longitud y diámetro luminal. La existencia en la mucosa de pliegues, vellosidades y microvellosidades es lo que permite que la superficie interior sea muy superior a lo que cabría esperar de un tubo sin esas particularidades, y gracias a ello el área disponible para la absorción alcanza una gran magnitud.

La superficie interior de la mucosa se dispone en pliegues circulares que multiplican por tres la superficie interna del tubo. De los pliegues salen proyecciones similares a dedos microscópicos; son los villi (villus en singular) o vellosidades, y dan una apariencia aterciopelada a la superficie interna del intestino. Multiplican por diez el área superficial. La superficie de cada villus se halla cubierta por células epiteliales, de las que salen las microvellosidades (o microvilli); estas forman lo que se denomina borde en cepillo (brush border). Cada célula epitelial puede contener en su parte apical entre 3000 y 6000 microvillosidades, y permiten multiplicar por veinte el área superficial de las células. El borde en cepillo alberga enzimas que participan en la digestión y la absorción simultánea de sus productos. En total, la superficie efectiva para la absorción es seiscientas veces mayor de lo que sería en un tubo cuya pared interna fuese lisa.

Las uniones estrechas (o zonulae occludentes) entre las células epiteliales de los villi mantienen herméticamente aislados la luz intestinal y el medio intersticial. La absorción se produce gracias al concurso de transportadores específicos de cada nutriente o electrolito en el borde en cepillo, y a la acción de las enzimas allí insertas que completan la digestión de carbohidratos y proteínas.

Por otro lado, cada villus recibe una arteriola que se ramifica en una red de capilares en su interior. Además, el centro de cada vellosidad está ocupada por un vaso linfático ciego que denominado vaso quilífero. La absorción consiste en la transferencia de los nutrientes digeridos a los capilares y al vaso linfático terminal, para lo que han de atravesar las células epiteliales de la mucosa, difundir a través del fluido intersticial que baña el tejido conjuntivo del núcleo de las vellosidades y atravesar el endotelio de algún capilar o del vaso quilífero.

Motilidad

Al llegar el quimo al duodeno, las contracciones de la musculatura lisa provocan su mezcla con las secreciones procedentes de páncreas e hígado, y lo impulsan a lo largo del tubo. La forma primaria de motilidad es la segmentación, proceso que consiste en contracciones anulares de la muscula lisa circular a lo largo del intestino delgado. Las contracciones obliteran el tracto intestinal, de manera que entre cada dos zonas contraídas, las relajadas albergan porciones discretas de quimo. Esas contracciones no se desplazan de la forma en que lo hacen las peristálticas, sino que se alternan con momentos de relajación. Contracciones y relajaciones se suceden en cada zona, lo que provoca que el quimo que se hallaba entre dos zonas contraídas se divida en dos partes y se mezcle con el de las zonas adyacentes. La reiteración de esa secuencia de contracciones y relajaciones sucesivas da lugar a una mezcla completa del contenido intestinal. Además, de esa forma se expone todo ese contenido a la superficie interna de la mucosa, lo que permite la absorción homogénea de todos los nutrientes.

Las contracciones de la segmentación empiezan debido a la acción de las células marcapasos del intestino delgado, células que generan un ritmo eléctrico básico similar al del estómago. Si el potencial eléctrico que produce esas células supera un determinado umbral, provoca la contracción de la capa de musculatura lisa circular a la frecuencia propia de las células marcapasos.

La intensidad de la respuesta de la musculatura no es constante, por lo que la intensidad de las contracciones de segmentación depende del grado de distensión de la pared intestinal, de la acción de la gastrina y de la acción nerviosa extrínseca. Entre comidas, la segmentación es mínima o, sencillamente, no se produce. Pero cuando llega la comida al tracto digestivo se producen fuertes contracciones de segmentación. Las contracciones duodenales empiezan en respuesta a la distensión producida por la presencia de quimo procedente del estómago. Pero las que se producen más adelante, en el íleon, son estimuladas por la gastrina, que se libera en respuesta a la presencia de quimo en el estómago. Además, la estimulación parasimpática (y por lo tanto, extrínseca), refuerza la segmentación, mientras que la simpática provoca el efecto contrario.

La progresión del quimo a lo largo del intestino delgado no se produce mediante peristaltismo, como ya se ha señalado. El quimo avanza porque la frecuencia de la segmentación se reduce a lo largo de su recorrido. De lo contrario no ocurriría, dado que las contracciones provocan el desplazamiento del quimo tanto hacia delante como hacia atrás. Las células marcapasos del duodeno se despolarizan espontáneamente con una frecuencia mayor que las más alejadas, siendo las del íleon terminal las que lo hacen a menor frecuencia. Las segmentaciones del intestino delgado humano pasan así de ser 12 por minuto en el duodeno a solo 9 por minuto en el íleon terminal. Esa diferencia hace que se desplace algo más quimo hacia delante que hacia atrás, dando lugar a un lento avance. De ese modo se va produciendo la mezcla a la vez que los nutrientes son absorbidos, habiendo tiempo suficiente para ello. Normalmente, el quimo tarda entre 3 y 5 horas en recorrer el intestino delgado humano.

Cuando ya se ha absorbido la mayor parte del alimento la segmentación cesa y es sustituida por lo que se denomina complejos mioeléctricos migratorios (o complejo motor migrante, CMM), también denominados “amo de casa intestinal”. Consiste este complejo en ondas de actividad eléctrica que se desplazan a lo largo del intestino delgado entre comidas. Las ondas eléctricas generan contracciones peristálticas. Y de esa forma, los restos de alimento no digerido, junto con bacterias, sustancias difíciles de digerir y restos de mucosa son transportadas hasta la válvula ileocecal y el interior del colon para su expulsión final como restos fecales. Un complejo motor migrante se desarrolla a lo largo de unas dos horas, y una vez finalizado vuelve a producirse hasta que vuelve a llegar quimo al estómago.

La válvula ileocecal permanece abierta mientras los contenidos del intestino delgado son impulsados a su través hacia el intestino grueso. Pero se cierra ante la mínima señal que amenace con retrotraer los restos de la digestión al intestino delgado. Por otro lado, la musculatura lisa del último tramo del íleon se encuentra engrosada y, por lo tanto, en condiciones, al contraerse, de formar un esfínter que se encuentra bajo control hormonal y nervioso. Normalmente ese esfínter se encuentra prácticamente cerrado, y se cierra con más intensidad si hay alguna presión en el lado del intestino grueso; por el contrario, si el lado del íleon se encuentra distendida, entonces ese esfínter se mantiene abierto. Mediante esos dos mecanismos (válvula ileocecal y musculatura lisa engrosada) permiten controlar el posible retroceso de los restos de alimento no digerido y, lo que es más importante, la invasión de patógenos procedentes del intestino grueso.

Nota:

1 Aunque esa denominación se presta a confusión porque a la mucosa también se la suele denominar así.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Estructura y motilidad del intestino delgado se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La motilidad estomacal
  2. El intestino no es nuestro segundo cerebro
  3. Sistemas nerviosos: evolución de la estructura encefálica
Catégories: Zientzia

Pages