S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 45 min 49 sec

La ciencia de la incertidumbre

lun, 2019/09/23 - 11:59

“Son once contra once”, “No hay rival pequeño” o “Un partido no termina hasta que el árbitro pita el final” son solo algunos de los tópicos asociados al fútbol que oímos incansablemente a jugadores, entrenadores, analistas y portavoces de clubes deportivos. Pero detrás de estas declaraciones enlatadas y reutilizadas hasta la extenuación se esconde una reflexión de cierto calado: el fútbol es un juego en el que intervienen variables muy diversas y, por este motivo, disponer de los mejores jugadores, del mejor equipo técnico o de los mejores servicios médicos no garantiza la victoria. Por más que se prepare un partido siempre hay elementos que escapan del control de los protagonistas. Una lesión fortuita de la estrella del equipo, un arbitraje desafortunado o un espontáneo que salta al terreno de juego y obliga a suspender el encuentro. En definitiva, la incertidumbre también juega. Los profesionales del fútbol lo saben y por eso se dedican a dibujar esquemas de juego en la pizarra, a estudiar concienzudamente a los rivales, a ensayar disparos desde el punto de penalti o a preparar jugadas con el objetivo de intentar sustituir el azar por el conocimiento. Pero ¿de verdad son la incertidumbre y la ciencia rivales tan irreconciliables?

Imagen: Eva Ferreira, catedrática de Economía Aplicada de la UPV/EHU, durante el desarrollo de su conferencia «Hacer predicciones es muy difícil, sobre todo las del futuro» en Naukas Bilbao 2019 (Fotografía: Iñigo Sierra)

El antagonismo secular entre el devenir de la fortuna y la sabiduría, entre la ciencia y la incertidumbre, ha sido el punto de partida de la charla “Hacer predicciones es muy difícil, sobre todo las del futuro” con la que la catedrática de Economía Aplicada de la UPV/EHU, Eva Ferreira, ha repasado la evolución de los vínculos entre lo que sabemos y lo que predecimos desde los tiempos de los faraones hasta el momento presente. La intervención se ha desarrollado en el marco del evento de divulgación científica Naukas Bilbao, que ha tenido lugar los días 20 y 21 de septiembre en el Palacio Euskalduna de la capital vizcaína.

“El desarrollo del conocimiento científico no ha tenido en cuenta la gestión de la incertidumbre hasta hace bien poco. El cálculo de probabilidades comienza en el siglo XVII y la extensión a todas las ramas del conocimiento no llega hasta el siglo XX”, ha asegurado Ferreira, quien ha detallado que fue en el pasado siglo cuando se introdujo la “consideración de que la mayoría de las medidas son inciertas” a un paradigma hasta ese momento centrado en “un desarrollo científico casi totalmente determinista”.

De acuerdo con el relato de Ferreira, “el uso de la inferencia estadística” ha hecho posible establecer patrones usando muestras seleccionadas y controlar las probabilidades de error, un modelo que se basa en la existencia de datos y en la habilitación de métodos efectivos para su sistematización. Los datos y su gestión como antídoto a la incertidumbre.

En la actualidad existe abundante y sofisticada tecnología para gestionar cantidades ingentes de información, procesarlas, jerarquizarlas, analizarlas, extraer conclusiones y optimizar los procesos de toma de decisiones.

“Oír los términos Big data, inteligencia artificial, revolución digital, machine learning es muy común cuando se habla del modelo de negocio de una empresa, de la selección de personal, de inversiones financieras, de estrategias políticas, de marketing… La publicidad de quienes diseñan algoritmos para estos fines nos habla de dejar atrás la improvisación y el caos para disfrutar del marketing predictivo”, ha apostillado la experta, que, sin embargo, advierte de los riesgos de asignar a las herramientas -por avanzadas y precisas que estas sean- capacidades de las que carecen: “La gestión sistemática de datos tiene una importancia enorme, pero corremos el riesgo de atribuirle a los instrumentos propiedades que no tienen”.

Imagen: Eva Ferreira, experta en estadística, señaló que los comportamientos cambian a tenor de los datos que se tienen entre manos. (Fotografía: Iñigo Sierra)

Para abundar en este tema, Ferreira ha explicado que conferir propiedades predictivas a los datos y a su sistematización es osado porque para que esto fuera cierto no se deberían producir transformaciones sociales o cambios de conducta.

“Nuestro comportamiento puede cambiar según los datos que tenemos a disposición. De hecho, no hace falta decir que nuestras preferencias, nuestro comportamiento y las decisiones que tomamos pueden cambiar en función de la información que recibimos”, agrega.

En su opinión es imprescindible, por tanto, construir modelos dinámicos, que incluyan información tanto cuantitativa como cualitativa, procedente de fuentes diversificadas y pasada por el tamiz de las distintas ramas del conocimiento.

“Hay multitud de ejemplos que nos ilustran cómo el tratamiento de datos debe ir de la mano de la reflexión previa. La debacle de Nokia, el algoritmo de Amazon que no reclutaba mujeres, las burbujas financieras… nos recuerdan una máxima muy sencilla: que ningún algoritmo que se base únicamente en el pasado, predecirá por sí mismo algo que nunca antes haya sucedido”, concluye Ferreira.

El fútbol y las predicciones son así: una apasionante mezcla de ciencia, técnica e incertidumbre.

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo La ciencia de la incertidumbre se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La certeza de la incertidumbre en los informes del IPCC
  2. El legado de Fisher y la crisis de la ciencia
  3. Ciencia Clip: un concurso de vídeos de ciencia para jóvenes estudiantes
Catégories: Zientzia

La geología y sus superpoderes

dim, 2019/09/22 - 11:59

Vamos a comenzar con un arranque provocador. Partamos de la premisa de que la ficción es la única forma de realidad que existe. Vale, tal vez esta afirmación pueda resultar excesiva. ¿Qué tal si decimos que Dostoievski puede dar tantas claves para comprender el mundo como un informativo? ¿Y qué pasaría si seguimos avanzando por esta senda y al relato de ficción, que tantas veces nos ayuda a entender la complejidad de la vida, le añadimos el rigor empírico de la ciencia? ¿Y si no fuera cualquier ciencia, sino una que está tan vinculada a los cambios que suceden en el planeta que parece que tenga superpoderes?

Los terremotos, los tsunamis, la formación de los recursos hídricos, los yacimientos minerales, la meteorología, la mismísima historia de la vida se explica gracias a la geología, una disciplina tan apasionante como desconocida.

Del potencial de esta rama del conocimiento se han dado cuenta destacados creadores de ficción, que se nutren de sus principios básicos para dar vida a superhéroes y supervillanos. Tanto los responsables del universo de cómics Marvel, como los de la serie de animación Steven Universe están explotando este filón (aquí el término casi deja de ser una metáfora) para hilvanar sus guiones.

El fenómeno no ha pasado inadvertido al divulgador y profesor de Biología y Geología de secundaria Carlos Lobato. Valiéndose de los personajes y elementos protagonistas de sagas como Vengadores o los Cuatro Fantásticos ha mostrado los misterios de la geología al público de la novena edición del evento de divulgación científica Naukas Bilbao 2019, celebrado los días 20 y 21 de septiembre en la capital vizcaína.

“No es la primera vez que relaciono la ciencia con el cine o los dibujos animados, pero casi siempre lo he hecho desde el punto de vista de la biología y creo que es de recibo darle su sitio a la geología, que suele ser una de las grandes olvidadas a pesar de ser muy atractiva tanto para el alumnado, como para el público en general”, asegura Lobato.

La charla del profesor concentró en 10 minutos esenciales las características de minerales, rocas y otros materiales a través de superhéroes como Iron Man, ese tipo duro, muy duro, que basa sus poderes en las propiedades del hierro. También hubo espacio para la Cosa, uno de los protagonistas de los Cuatro Fantásticos, que tiene tantísima fuerza y resistencia porque en realidad es una roca metamórfica.

Como la intervención se titulaba «Las Gemas de Cristal del Infinito» se prestó especial atención a las piedras preciosas: las del Infinito (Vengadores) y las de Cristal (Steven Universe).

Resulta que la gama cromática de las Gemas del Infinito por las que tanto se afana el villano Thanos no son casuales sino que se trata de los colores reales que tienen los minerales y las rocas de la naturaleza.

Y luego están las Gemas de Cristal de Steven, que en la ficción de Cartoon Network se encargan de la protección del planeta y pueden adaptarse a diferentes campos gravitacionales, cambiar de forma, regenerarse y unirse entre sí para crear otras piedras más poderosas, como es el caso de Granate, surgida de la fusión de un rubí y un zafiro.

“Los rubíes y los zafiros presentan la misma composición química: Al2O3, por lo que pertenecen a la misma familia de minerales. El color azul del zafiro se debe al titanio, mientras que el color rojo del rubí se debe al cromo y al hierro. Es una genialidad de la serie que hayan creado personajes basados en dos gemas con la misma composición química, porque de esta manera se puede entender mejor su deseo de pasar su vida juntos formando a Granate”, reflexiona un entusiasta Lobato.

Después de esto no hay duda: la geología está llena de superpoderes y la ficción puede que no sea la única forma de realidad que existe, pero casi, casi.

 

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo La geología y sus superpoderes se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Otra mirada al planeta: arte y geología
  2. Geología, ver más allá de lo que pisamos
  3. Arquitectura y geología: materialidad y emplazamiento
Catégories: Zientzia

Más allá de las neuronas

sam, 2019/09/21 - 11:35

Al hablar de las células del sistema nervioso todo el mundo piensa inmediatamente en las neuronas, unidades de importancia capital porque están especializadas en recibir, procesar y transmitir información a través de señales químicas y eléctricas y sirven, entre otras funciones, para pensar y recordar. Pero las neuronas no están solas en el cerebro, sino que hay otras células que las acompañan y se encargan de tareas tan relevantes como la respuesta inmune o la eliminación de los residuos que se generan en el sistema nervioso central. Estas últimas células han sido las protagonistas de la charla que la doctora en Neurobiología Amanda Sierra ha ofrecido en el programa de conferencias Naukas Pro, que tienen lugar en el marco del evento de divulgación científica Bizkaia Zientzia Plaza, que se celebra en Bilbao del 18 al 25 de septiembre.

Imagen: Amanda Sierra, neurocientífica y profesora investigadora Ikerbasque en la Universidad del País Vasco y el Centro Vasco de Neurociencia Achucarro durante su charla en Naukas PRO 2019. (Fotografía: Iñigo Sierra)

En concreto la investigadora Ikerbasque se ha centrado en la microglía, un tipo de célula “muy pequeña que está constantemente escaneando el cerebro” en busca de estructuras dañadas, células muertas o residuos con la intención de eliminarlos.

Según la experta, el cerebro es como una sabana en la que habitan diferentes especies. Si un ejemplar muere, los animales carroñeros eliminan los residuos que se generan, llevando a cabo una función esencial para el equilibrio de ese ecosistema.

En el sistema nervioso ocurre algo parecido. Cuando las células mueren la microglía se encarga de encontrar y fagocitar esos residuos. Pero ¿cómo lo hacen? Lo cierto es que las células muertas emiten señales para llamar la atención de la microglía, se trata de “señales encuéntrame, como la galleta de Alicia en el País de las Maravillas que decía: cómeme”. Esta señal es la que permite que la microglía localice el tejido dañado y lance sus prolongaciones alrededor de la célula muerta formando un bolsillo tridimensional que la envuelve completamente y la atrae hacia sí para poder fagocitarla.

“Una de las preguntas que nos hacemos es qué le ocurre a la microglía después de llevar a cabo ese proceso. Estamos intentando responderla, ya que comerse una célula muerta implica una serie de cambios metabólicos en la microglía, modifica su función”, asegura la experta.

Este tipo de trabajos, que Sierra desarrolla en el laboratorio del Achucarro Basque Center for Neuroscience en el que trabaja, tienen relevancia para descubrir, por ejemplo, cómo se desenvuelven estas células en las situaciones en las que aparecen enfermedades neurodegenerativas. Lamentablemente, en algunos casos como el infarto cerebral o la epilepsia ya se ha detectado que no cumplen correctamente su función, por lo que los residuos se acumulan en el cerebro y se aumenta el daño todavía más.

Imagen: La investigadora Amanda Sierra explicó las líneas de investigación que desarrolla en Achucarro Center for Neuroscience, que se centra en las células microgliales y la interacción entre la fagocitosis y la inflamación en el cerebro enfermo. (Imagen: Iñigo Sierra)

Las investigaciones de Sierra buscan generar conocimiento para abrir nuevas vías que permitan influir en el proceso de fagocitosis de la microglía, mejorar su eficiencia y acelerar las tareas de limpieza.

La experta aprovechó asimismo la cita para rendir homenaje al investigador Pío del Río Hortega, discípulo del científico vasco Nicolás Achúcarro, que murió en el exilio y fue una figura clave en el descubrimiento y estudio de la microglía hace aproximadamente 100 años. Aunque no lo logró, Río Hortega estuvo nominado al premio Nobel de Medicina en dos ocasiones por su contribución a la ciencia. Sus restos mortales descansan desde 1986 en el Panteón de Hombres Ilustres del cementerio de Valladolid, de donde era oriundo.

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Más allá de las neuronas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La hiperactividad neuronal impide que las microglías realicen su trabajo
  2. El citoesqueleto de las neuronas y el alzhéimer
  3. Las dos culturas y más allá: Ciencia, Sociedad y Desarrollo (curso de verano)
Catégories: Zientzia

¿Y si el futuro de la refrigeración estuviera en Galicia? Caliente, caliente

ven, 2019/09/20 - 11:59

Si jugáramos a asociar un concepto a un topónimo y para empezar la partida escogiéramos el término frío, seguramente mucha gente contestaría Siberia. Lo cierto es que es una muy buena respuesta, porque el clima siberiano se caracteriza por unas temperaturas extraordinariamente bajas. Pero cuando hablamos del frío generado artificialmente hay otro territorio geográfico que está emergiendo con fuerza: se trata de Galicia, y muy particularmente del Centro de Investigaciones Científicas Avanzadas (CICA) de la Universidad de A Coruña, porque es allí donde un equipo de investigadores ha descubierto las perovskiñas, una nueva familia de materiales sólidos con potencial para revolucionar el futuro de la refrigeración.

Imagen: Juan M Manuel Bermúdez, doctor en Química Ambiental y Fundamental por la Universidade da Coruña e investigador que desarrolla su labor en el ámbito de la química del estado sólido y ciencia de materiales, durante su charla en Naukas PRO 2019. (Fotografía: Iñigo Sierra) (Fotografía: Iñigo Sierra)

“Es una investigación realizada por un equipo formado íntegramente por miembros de la Universidad de A Coruña”, asegura uno de los padres de las perovskiñas, el doctor en Química Ambiental y Fundamental Juan Manuel Bermúdez. El científico ha presentado los resultados de su estudio y sus posibles aplicaciones dentro del programa de conferencias Naukas Pro, que tienen lugar en el marco del evento de divulgación científica Bizkaia Zientzia Plaza, que se celebra en Bilbao del 18 al 25 de septiembre.

Pero para entender el hallazgo un poco mejor hay que volver al punto de partida. Según los datos que maneja Bermúdez, el 10% del consumo eléctrico mundial se destina a dispositivos de aire acondicionado. Si a este dato le sumamos el consumo de neveras domésticas, frigoríficos y cámaras industriales el porcentaje se sitúa en el 20% del total. Generar frío de forma artificial es necesario para conservar los alimentos, garantizar el buen estado de muchos medicamentos y mejorar la calidad de vida de las personas, pero, para conseguirlo, se emplean diversos tipos de fluidos refrigerantes que tienen impacto en el medioambiente. Por este motivo resulta imperativo investigar en el descubrimiento de nuevas fórmulas de enfriar más respetuosas con el medio natural. Eso es exactamente lo que Bermúdez ha compartido en una charla en la que se ha valido de imágenes térmicas de objetos cotidianos tomadas con cámaras de infrarrojos, que se pueden consultar en el perfil de Instagram @thermogramer.

El experto ha hecho un repaso por los principales inconvenientes que presentan para el medio ambiente los actuales sistemas de refrigeración y ha presentado a la audiencia las ventajas de las perovskiñas, una familia de materiales barocáloricos muy flexibles que tienen la capacidad de producir efectos de refrigeración si se les aplica presión.

Imagen: Juan Manuel Bermúdez presentó un nuevo material en Naukas PRO 2019, la perovskiña. La perovskiña es un nuevo material sólido que responde a aplicación de bajas presiones enfriándose con facilidad. (Fotografía: Iñigo Sierra) 

Pero ¿por qué se llaman perovskiñas? El término constituye la versión gallega del sustantivo perovskita, que abarca los compuestos que presentan una estructura reticular en forma de cubos que alojan iones en su interior. De hecho la perovskita es un mineral poco frecuente que fue descubierto a inicios del siglo XIX en los Montes Urales. ¡Tachán! Al hablar de frío tarde o temprano tenía que aparecer Rusia.

Además de servir para enfriar neveras y aparatos de aire acondicionado, las perovskiñas presentan, según Bermúdez, un enorme potencial de aplicación. Por ejemplo, como plantillas de calzado para que los deportistas puedan evitar el sobrecalentamiento del pie y autorrefrigerarse a través de sus propias pisadas (hay que recordar que las perovskiñas despliegan sus efectos refrigerantes mediante presión).

También podrían ser útiles para concebir colchones que dieran fresquito en verano, evitar el sobrecalentamiento de teléfonos móviles e incluso contribuir a la refrigeración de un gran equipamiento como un aeropuerto o una estación si se aplican al suelo y se aprovecha la presión ejercida por las personas que lo recorren. Nada de esto existe en este momento, pero hay un universo de posibilidades por explorar. Seguramente por eso la investigación ha sido publicada en Nature Communications y ha recibido reconocimientos como el Premio de Investigación Ernesto Viéitez de la Real Academia Galega de Ciencias.

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo ¿Y si el futuro de la refrigeración estuviera en Galicia? Caliente, caliente se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Bilbao celebrará el día de Darwin
  2. Inflación caliente à la Higgs
  3. ¿Caliente o frío?
Catégories: Zientzia

Recomiendan el antibiótico Eridosis para el acné en sus redes sociales, pero no son médicos

jeu, 2019/09/19 - 11:59
Foto: Deborah García Bello

En las redes sociales hay personas con miles de seguidores que enseñan cuáles son sus remedios para luchar contra el acné. Personas sin formación científica ni vínculo alguno con la profesión sanitaria recomiendan mascarillas de yogur, miel, bicarbonato o limón. Estas mascarillas, además de ser ineficaces contra el acné, pueden causar graves daños en la piel. Desde hace poco nos enfrentamos a una nueva recomendación por parte de algunos influencers cuyo daño es de mayor envergadura. Se trata de las toallitas Eridosis. Las toallitas Eridosis son un medicamento sujeto a prescripción médica cuyo principio activo es un antibiótico. En las redes hay quien recomienda este medicamento con ligereza, como si se tratase de una simple toallita desmaquillante. Este es el origen del problema, pero no termina ahí. Hay farmacias que dispensan este medicamento sin pedir la receta médica y sin dar ningún tipo de información.

  • Las toallitas Eridosis son un medicamento, no un cosmético.

La diferencia entre un medicamento de uso tópico y un cosmético es la actividad farmacológica. Mientras que en un cosmético ningún principio activo puede penetrar más allá de la dermis, en un medicamento de uso tópico el principio activo sí puede penetrar y tener actividad farmacológica más allá de la barrera cutánea. Las bases reguladoras para su fabricación y distribución también son diferentes. Los medicamentos solo se venden en farmacia; mientras que los cosméticos son de venta libre. El laboratorio cosmético es quien decide en qué canal vende sus productos.

Las toallitas Eridosis son un medicamento. Pertenecen a los laboratorios Reig Jofre y son un preparado anti-acné para uso tópico. Es uno de los tratamientos más prescritos por médicos ante casos de acné leve y moderado.

El principio activo que contiene es la eritromicina. Cada toallita está impregnada con un mililitro de una disolución de eritromicina al 2% de concentración (20 mg de eritromicina por cada ml de preparado).

Eritromicina. Fuente: Wikimedia Commons

 

La eritromicina es un antibiótico del grupo de los macrólidos, con acción bacteriostática. Aunque es un antibiótico de espectro antibacteriano moderadamente amplio, es especialmente activo frente al Propionibacterium acnes, la bacteria responsable del acné.

El mecanismo exacto por el cual la eritromicina reduce el acné vulgar no es bien conocido. Sin embargo, se sabe que la eritromicina actúa por inhibición de la síntesis de proteínas en microorganismos sensibles y de esa forma se explica su actividad antibacteriana.

  • Contraindicaciones y advertencias de Eridosis.

Como en cualquier otro medicamento, en el prospecto de Eridosis figuran una serie de contraindicaciones, precauciones, advertencias y reacciones adversas. Es un medicamento y, como tal, puede producir ciertos efectos secundarios.

Hay que tener especial precaución durante el embarazo y la lactancia con el uso de eritromicina tópica. La razón es que la eritromicina atraviesa la placenta, alcanzando concentraciones bajas en el feto, pero no despreciables. La seguridad de su uso durante el embarazo no ha sido establecida, por eso se aconseja que este medicamento se utilice solo cuando se estime imprescindible y siempre que el beneficio supere el posible riesgo.

Con respecto a la lactancia se desconoce si la eritromicina se excreta con la leche materna tras la administración tópica. Sin embargo, es sabido que la eritromicina administrada por vía sistémica se excreta con la leche materna, por ese motivo se aconseja administrar este medicamento con precaución a madres lactantes.

No obstante, en el prospecto de Eridosis se indica que «los resultados de los estudios realizados con Eridosis al 2% demostraron que no aparecen niveles detectables de eritromicina en el suero sanguíneo de los pacientes acneicos tratados».

Los efectos adversos de este medicamento son, en general, leves y transitorios. Los efectos secundarios que se manifiestan más frecuentemente son alteraciones dermatológicas como eritema, sequedad de la piel, piel escamosa, prurito, irritación, sensación de quemazón cutánea y ampollas (pustulosis exantemática). El uso tópico de este medicamento, concomitante con otras terapias contra el acné, deben realizarse con precaución y bajo supervisión médica debido a la posibilidad de acumulación de efectos irritantes.

En el prospecto de Eridosis también se advierte que «la utilización de agentes antimicrobianos (especialmente en terapias prolongadas) puede estar asociada con la proliferación de gérmenes resistentes a los antibióticos». La resistencia a los antibióticos es la pandemia más grave que se nos viene encima en este siglo.

  • Los influencers recomiendan y las farmacias dispensan

Para documentarme para este artículo visité seis farmacias españolas. En todas ellas pedí “las toallitas Eridosis”. Solo en una de las seis farmacias me indicaron que se trataba de un medicamento sujeto a prescripción médica y que no lo dispensarían sin receta. Allí me explicaron que se trata de un antibiótico, me hablaron del problema de la resistencia a los antibióticos y de los posibles efectos adversos y contraindicaciones. En las otras cinco farmacias no habría tenido ningún problema en llevarme el medicamento. No me hicieron ninguna pregunta. Son tres euros veinte. Nada más. Compré el medicamento en una de ellas para ver el prospecto actual y escribir este artículo.

Foto: Deborah García Bello

En el lateral de la caja de Eridosis aparece escrito en negrita «Con receta médica». En el frontal, al lado del código nacional del medicamento, aparece un círculo. También aparece en cada sobre. Ese círculo es el símbolo que indica «dispensación sujeta a prescripción médica».

  • A modo de cierre

Las redes sociales son muy útiles a la hora de difundir información, también desinformación. Y aunque las recomendaciones sanitarias de un influencer sin formación científica tendrían que parecer un chiste para cualquiera, la realidad es que no es así, y hay personas que siguen sus consejos. Unos y otros por ignorancia.

Compañías como Google han empezado a tomar medidas relacionadas con esto, como prohibir los anuncios de tratamientos médicos especulativos y sin evidencia científica suficiente. Sería conveniente que las redes sociales filtrasen los contenidos con implicaciones sanitarias. Se censuran los pezones femeninos, pero no se controlan los anuncios de antibióticos. Al teclear “eridosis” en el buscador de cualquier red social aparecen decenas de publicaciones en las que personas sin formación recomiendan su uso.

No obstante, la responsabilidad final recae en el personal sanitario. Las farmacias no deberían dispensar medicamentos sujetos a prescripción médica sin solicitar receta y sin orientar al paciente.

A modo de cierre. Si tienes la sospecha de padecer acné, no busques el remedio en las redes sociales. Pide consejo en la farmacia y acude al médico.

Para saber más:

Ni mitos ni remedios caseros: así me libré del acné.

Sobre la autora: Déborah García Bello es química y divulgadora científica

Nota de la autora: Deliberadamente en este artículo no se ha enlazado ninguna publicación de influencers que hayan recomendado el uso de Eridosis. Una de las razones es no fomentar más su difusión. Otra de las razones es no inducir linchamientos en las redes sociales. Por educación y por elegancia, elijo criticar el hecho y no la persona. Y porque para brillar es mejor echarse purpurina.

El artículo Recomiendan el antibiótico Eridosis para el acné en sus redes sociales, pero no son médicos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La confianza en las redes sociales y el uso de electrodomésticos inteligentes
  2. Ni mitos ni remedios caseros: así me libré del acné
  3. Las redes 5G no afectan a la salud… pero podrían hacer que el hombre del tiempo acierte menos
Catégories: Zientzia

Números primos gemelos, parientes y sexis (2)

mer, 2019/09/18 - 11:59

En mi anterior entrada de la sección Matemoción de Cuaderno de Cultura Científica, titulada Números primos gemelos, parientes y sexis (1), estuvimos hablando de los números primos gemelos, que son aquellas parejas de números primos que están lo más cerca que pueden estar dos números primos, excepto el 2 y el 3, con solo un número par entre ellos, (p, p + 2), así como de algunas familias de números primos relacionadas con los gemelos, como son los trillizos, cuatrillizos, quintillizos, etc.

En esta entrada, vamos a considerar otras familias de números primos, que también generalizan, en otro sentido, a los números primos gemelos, como son los números primos parientes y sexis.

Escena de la primera cita entre el profesor de matemáticas de la Universidad de Columbia (Jeff Bridges) y la profesora de literatura inglesa de la misma universidad (Barbra Streisand), en la película El amor tiene dos caras (1996), dirigida por Barbra Streisand. El profesor de matemáticas explica en la misma qué son los números primos gemelos

Pero primero vayamos con un poquito de historia. Como puede leerse en el artículo A note on the Origin of the Twin Prime Conjecture (Nota sobre el origen de la conjetura de los números primos gemelos), del historiador de las matemáticas estadounidense William Dunham, en 1849 el matemático francés y oficial de artillería Alphonse de Polignac (1826–1863), un personaje prácticamente desconocido, publicó el artículo Recherches Nouvelles sur les Nombres Premiers ( Nuevas investigaciones sobre números primos), en la revista Comptes rendus de la Academia de Ciencia Francesa, en la que afirmaba lo siguiente (aunque lo presentó como un teorema, era más bien una conjetura).

Conjetura de Polignac: para cada número natural k, existen infinitos números primos p, tales que (p + 2k) también es primo.

Observemos que para k = 1, es la conjetura de los números primos gemelos.

El siguiente protagonista de esta historia es el matemático inglés James Whitbread Lee Glaisher (1848 – 1928), profesor del Trinity College de Cambridge y que tuvo una reconocida carrera dentro de la matemática y la ciencia británicas. En 1879, publicó en la revista Messenger of Mathematics, de la que fue editor durante 56 años, el artículo An Enumeration of Prime-Pairs (Enumeración de pares primos), en la que estudiaba lo que llamó “pares primos”, que eran números primos “separados por un solo número” (lo que conocemos como números primos gemelos). Contó la cantidad de “pares primos” que había hasta un millón, dos millones, etcétera, con el objetivo de analizar la distribución de estos. Y afirmó “Hay poca o ninguna duda de que el número de pares primos es ilimitado; pero sería interesante, aunque probablemente no sencillo, demostrarlo”. Es decir, la conjetura de los números primos gemelos.

Aunque fue el matemático alemán Paul Stäckel (1862 – 1919), quien acuñó el término “números primos gemelos”, en alemán Primzahl-Zwillinge, en un artículo de 1916. Poco después el matemático francés Viggo Brun, utilizaría ese mismo término en francés, en su artículo de 1919 (véase a entrada Números primos gemelos, parientes y sexis (1)), y acabó convirtiéndose en el término utilizado para ese concepto.

Fotografía de 1908 del matemático de Trinity College, Cambridge, James Whitbread Lee Glaisher (1848-1928)

 

Sobre la conjetura de los números primos gemelos ya estuvimos hablando en la primera parte de esta serie, Números primos gemelos, parientes y sexis (primera parte) [https://culturacientifica.com/2019/09/04/numeros-primos-gemelos-parientes-y-sexis-1/]. En esta entrada vamos a analizar las otras parejas de números primos que aborda la conjetura de Polignac, en particular, los números primos parientes (k = 2) y sexis (k = 3).

Si los números primos gemelos son aquellas parejas de números primos tales que la diferencia entre ellos es 2 (k = 1), es decir, parejas de primos (p, p + 2), se van a llamar números primos parientes (“cousin” en inglés) a las parejas de números primos con una diferencia entre ellos de 4 (k = 2), luego de la forma (p, p + 4), como (3, 7), (7, 11) o (13, 17).

Las parejas de números primos parientes menores de 500 son (véase la sucesión A023200 de la enciclopedia online de números enteros):

(3, 7), (7, 11), (13, 17), (19, 23), (37, 41), (43, 47), (67, 71), (79, 83), (97, 101), (103, 107), (109, 113), (127, 131), (163, 167), (193, 197), (223, 227), (229, 233), (277, 281), (307, 311), (313, 317), (349, 353), (379, 383), (397, 401), (439, 443), (457, 461), (463, 467), (487, 491), (499, 503).

La pareja de números primos parientes más grande conocida, a día de hoy, fue obtenida en 2009, y está formada por los números (p, p + 4), tal que

p = [311.778.476 x N x (N + 1) + 210] x [N – 1] / 35 + 1,

para N = 587.502 x 9.001#, donde 9.001# denota el primorial de 9.001, que definiremos a continuación, que tiene 11.594 dígitos.

El primorial de un número n, que se denota n#, es una especie de factorial del número (véase Buscando lagunas de números no primos) que se define como el producto de todos los números primos menores, o iguales, que ese número n. Así, si tomamos el número primo 23, entonces 23# = 2 x 3 x 5 x 7 x 11 x 13 x 17 x 19 x 23 = 223.092.870 o para el número 39 se tiene que 39# = 2 x 3 x 5 x 7 x 11 x 13 x 17 x 19 x 23 x 29 x 31 x 37 = 7.420.738.134.810.

Para los números primos parientes existe un resultado análogo al teorema de Brun para números primos gemelos, es decir, la suma de los recíprocos de los números primos parientes (salvo la pareja 3 y 7)

también es convergente, y su límite es el número B4, conocido como constante de Brun para números primos parientes, que tiene un valor aproximado de 1,1970449 (véase el artículo On the Twin and Cousin Primes, de Marek Wolf).

Nos podemos interesar ahora por las ternas de números primos parientes, como (3, 7, 11). Pero resulta que esa es la única terna de números primos parientes que existe, puesto que si tenemos una terna de números primos de la forma (p, p + 4, p + 8), necesariamente uno de ellos es divisible por 3. Esto es fácil de probar. Si escribimos p de la forma p = 3 n + r, donde r = 0, 1 ó 2, entonces la terna anterior es de la forma (p = 3 n + r, p + 4 = 3 (n + 1) + r + 1, p + 8 = 3 (n + 2) + r + 2), luego si r = 0, el primer número de la terna es divisible por 3, si r = 1, lo es el tercero y si r = 2, lo es el segundo.

La investigación de los matemáticos Yitang Zhang, Terence Tao y James Maynard sobre la conjetura de los números primos gemelos, ha conseguido grandes avances en los últimos años. Véase la entrada Números primos gemelos, parientes y sexis (1)

 La siguiente familia de números primos, relacionada con la conjetura de Polignac, que nos interesa, son los números primos sexis. Estos son parejas de números primos de la forma (p, p + 6), es decir, la diferencia entre ellos es 6 (k = 3), como (5, 11), (7, 13) o (11, 17). Su nombre se debe a que la palabra en latín para el número “seis” es “sex” (de hecho, los diez primeros números, en latín, son unus, duo, tres, quattuor, quinque, sex, septem, octo, novem, decem).

Las parejas de números primos sexis menores de 500 son (véase la sucesión A023201):

(5, 11), (7, 13), (11, 17), (13, 19), (17, 23), (23, 29), (31, 37), (37, 43), (41, 47), (47, 53), (53, 59), (61, 67), (67, 73), (73, 79), (83, 89), (97, 103), (101, 107), (103, 109), (107, 113), (131, 137), (151, 157), (157, 163), (167, 173), (173, 179), (191, 197), (193, 199), (223, 229), (227, 233), (233, 239), (251, 257), (257, 263), (263, 269), (271, 277), (277, 283), (307, 313), (311, 317), (331, 337), (347, 353), (353, 359), (367, 373), (373, 379), (383, 389), (433, 439), (443, 449), (457, 463) y (461, 467).

Además, la pareja de números primos sexis más grande conocida, a día de hoy, es la pareja (p, p + 6), tal que

p = (187.983.281 x 251.478 + 4) x (5 x 251.478 – 1) – 1,

con 31.002 dígitos, que fue encontrada por S. Batalov, en abril de 2019.

Algunas parejas de números primos sexis forman parte de grupos de tres primos muy próximos, como (5, 7, 11) o (7, 11, 13), lo que en la anterior entrada denominados números primos trillizos, los cuales son de la forma (p, p + 2, p + 6) o (p, p + 4, p + 6). Por lo tanto, en cada terna de números primos trillizos, hay una pareja de números primos gemelos, (p, p + 2) o (p + 4, p + 6), una pareja de números primos parientes, (p +2, p + 6) o (p, p + 4), y una pareja de números primos sexis, (p, p + 6). Por ejemplo, en la terna de números primos trillizos (67, 71, 73), 71 y 73 son gemelos, 67 y 71 parientes, y 67 y 73 sexis.

El número 283.281.277 es el número primo más pequeño formado por los tres miembros, en sentido inverso, de una terna de números primos trillizos (277, 281, 283). Visto en The Prime pages

 

A diferencia de lo que ocurría con los números primos parientes, que no pueden ir en grupos de tres, ahora se pueden considerar ternas de números primos sexis como (7, 13, 19), (17, 23, 29) o (31, 37, 43), formadas por tres números primos sexis consecutivos, (p, p + 6, p + 12), tal que el siguiente p + 18 no es primo, pero podría serlo el anterior p – 6, y que llamaremos tripletes, o tríos, de números primos sexis.

Más aún, se pueden considerar cuartetos de números primos sexis, formados por cuatro números primos sexis consecutivos, de la forma (p, p + 6, p + 12, p + 18), como (5, 11, 17, 23), (11, 17, 23, 29) o (41, 47, 53, 59). Curiosamente, salvo para el primer cuarteto, el primer número primo de cualquier cuarteto de números primos sexis termina en 1, como podemos observar en los primeros términos de la sucesión A023271, que está formada por los primeros primos de los cuartetos de números primos sexis: 5, 11, 41, 61, 251, 601, 641, 1091, 1481, 1601, 1741, 1861, 2371, 2671, 3301, 3911, 4001, 5101, …

Sin embargo, no existen quintetos de números primos sexis, salvo (5, 11, 17, 23, 29), puesto que dados cinco números con una deferencia de seis entre ellos (p, p + 6, p + 12, p + 18, p + 24), entonces uno de ellos debe ser divisible por 5, para lo cual basta escribir p de la forma p = 5 n + r, para r = 0, 1, 2, 3 ó 4.

Curiosa pareja de números primos sexis, formada por los nueves dígitos, del 1 al 9, pero duplicados, pero terminados luego en 1 y 7. Visto en The Prime pages

Además de las parejas de números primos gemelos, parientes y sexis, se pueden estudiar otras parejas de números primos (p, p + 2k), para k mayor que 3, relacionadas con la conjetura de Polignac. Parejas de números primos cuya distancia entre ellos sea 8 (k = 4), como (3, 11), (5, 13), (11, 17), (23, 31) o (29, 37), cuya distancia sea 10 (k = 5), como (3, 13), (7, 17), (13, 23), (19, 29) o (31, 41), cuya distancia sea 12 (k = 6), como (5, 17), (7, 19), (11, 23), (17, 29) o (19, 31), o mayores distancias aún.

Die Droguen /Las drogas –Novalis– (2011), 150 × 110 cm, de la artista alemana Rune Mields. Los números que aparecen en esta obra son números primos. Imagen de ART SY

 

Bibliografía

1.- William Dunham, A Note on the Origin of the Twin Prime Conjecture, Notices of the ICCM, vol. 1, n. 1, pp. 63-65, 2013.

2.- Wolfram Mathworld: Cousin Primes

3.- Wikipedia: Cousin prime

4.- The Prime pages

5.- Wolfram Mathworld: Sexy Primes

6.- Wikipedia: Sexy prime

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Números primos gemelos, parientes y sexis (2) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Números primos gemelos, parientes y sexis (1)
  2. Buscando lagunas de números no primos
  3. Los ritmos primos de Anthony Hill
Catégories: Zientzia

La carga del núcleo y el sistema de periodos

mar, 2019/09/17 - 11:59
Foto: vubp / Pixabay

A pesar del éxito del modelo atómico de Rutherford a la hora de explicar los resultados de los experimentos de dispersión de partículas α, seguía habiendo un problema sin resolver. Todavía no había forma de medir la carga Q en el núcleo de forma independiente. Sin embargo, los experimentos de dispersión habían confirmado las predicciones de Rutherford sobre el efecto de la velocidad de la partícula y el grosor de la lámina sobre el ángulo de dispersión. Como sucede a menudo cuando se confirma parte de una hipótesis, es razonable proceder temporalmente como si toda la hipótesis estuviera justificada; es decir, hasta que no hubiese más resultados, se podría suponer que el valor de Q necesario para explicar los datos de dispersión observados fuese el valor correcto de Q para el núcleo real, determinado por la ley de Coulomb y el movimiento de las partículas α.

Sobre esta base, el laboratorio de Rutherford compiló datos de dispersión para varios elementos diferentes, entre ellos carbono, aluminio y oro. De estos experimetos resultaba que las siguientes cargas positivas para el núcleo eran las que cuadraban mejor: para el carbono, Q = 6e ; para el aluminio dos valores parecían funcionar, Q = 13e o 14e; y para el oro, Q = 78e o 79e [1]. Del mismo modo, se encontraron valores para el resto de elementos.

La magnitud de la carga positiva del núcleo fue un dato de trascendental importancia para entender cómo era un átomo. Como el átomo en su conjunto es eléctricamente neutro, se sigue que, si el núcleo tiene una carga positiva de 6e, 13e, 14e, etc., el número de electrones cargados negativamente que rodean el núcleo debe ser 6 para el carbono, 13 o 14 para el aluminio, etc. Por lo tanto, por primera vez, la comunidad científica tenía idea de cuántos electrones puede tener un átomo.

Pero un hecho más importante si cabe resultó rápidamente evidente. Para cada elemento, el valor de la carga nuclear, en múltiplos de e, estaba cerca del número atómico Z, ¡el número de lugar de ese elemento en la tabla periódica! Los resultados de los experimentos de dispersión con partículas α aún no eran lo suficientemente precisos como para llegar afirmarlo con certeza, pero todo apuntaba a que cada núcleo tiene una carga positiva Q numéricamente igual a Ze.

Esta posibilidad hacía la imagen del átomo nuclear mucho más clara y simple. Sobre esta base, el átomo de hidrógeno (Z = 1) tiene un electrón en algún lugar que no es el núcleo. Un átomo de helio (Z = 2) tiene en su estado neutro dos electrones en algún lugar que no es el núcleo. Un átomo de uranio (Z = 92) tiene 92 electrones en algún lugar que no es el núcleo. Experimentos adicionales respaldaron aún más este sencillo esquema. Los experimentos demostraban que era posible producir átomos de hidrógeno ionizados con una carga, H+, y átomos de helio ionizados con dos cargas, He2+, pero no había forma de conseguir H2+ ni He3+. Evidentemente, un átomo de hidrógeno tiene solo un electrón que perder, y un átomo de helio solo dos. Inesperadamente, el concepto de átomo nuclear proporcionaba una nueva visión completamente nueva de la tabla periódica de los elementos. El átomo nuclear sugiere que la tabla periódica es realmente una lista de los elementos de acuerdo con el número de electrones alrededor del núcleo, o lo que es lo mismo, con el número de unidades de carga positiva en el núcleo.

Estos resultados aclaraban algunas de las problemas en el sistema de periodos de Mendeléyev. Por ejemplo, a los elementos teluro y yodo se les habían asignado las posiciones Z = 52 y Z = 53 en función de sus propiedades químicas. Este posicionamiento contradecía el orden de sus pesos atómicos. Pero ahora se veía que Z correspondía a un hecho fundamental sobre el núcleo. Por lo tanto, lo que se pensaba que era una carencia del sistema de Mendeléyev en realidad no lo era. [2]

Notas:

[1] Donde e es la magnitud de la carga de un electrón (e = −1,602·10−19 C ). Para una explicación de cómo se determina e véase La carga más pequeña.

[2] Esto es algo a lo que no se le da tanta importancia como a las predicciones de nuevos elementos que hizo Mendeléyev, pero es algo del mismo calibre. A toro pasado parece obvio, pero cuando Mendeléyev presenta el sistema de periodos es toda una expresión de rigor químico.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo La carga del núcleo y el sistema de periodos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El sistema de periodos
  2. La suave piel del núcleo
  3. La unidad de carga eléctrica
Catégories: Zientzia

El Antropoceno: cuando ciencias y letras convergen

lun, 2019/09/16 - 11:59
Foto: Dominik Vanyi / Unsplash

Estamos presenciando una época sin precedentes, o al menos eso es lo que postulan muchos miembros de la comunidad científica. En términos geológicos, vivimos oficialmente en el “Holoceno”, época perteneciente al período Cuaternario de la historia de la Tierra. Sin embargo, en las últimas dos décadas ha emergido con fuerza una idea alternativa, la cual no está dejando indiferente a ningún geólogo ni tampoco – esta vez no – a intelectuales de ciencias sociales y humanidades.

El que fue galardonado con Premio Nobel de Química en 1995 por sus investigaciones acerca de la incidencia atmosférica del ozono, Paul J. Crutzen, introdujo la nueva noción en el año 2000:

Yo estaba en una conferencia en la que alguien comentaba algo sobre el Holoceno. En ese momento pensé que tal término era incorrecto, porque el mundo ha cambiado demasiado. Así que le dije: ¡No, estamos en el Antropoceno!, creando en el ardor de ese momento la palabra. Todo el mundo estaba sorprendido, pero parece haber persistido”

El término lo había publicado junto al biólogo Eugene F. Stoermer en un boletín del Organismo Internacional de la Geosfera y la Biosfera (IGBP), y hacía hincapié en el impacto significativo que las actividades humanas han tenido sobre los ecosistemas terrestres, una de cuyas principales manifestaciones es el cambio climático. No la única: la disminución de la naturaleza virgen, la urbanización, la agricultura industrial, la infraestructura del transporte, las actividades mineras, la pérdida de biodiversidad, la modificación genética de organismos, los avances tecnológicos, la acidificación de los océanos o la creciente hibridación socionatural son otras muestras de que algo está pasando. Ello implicaría la adopción de la nueva unidad geológica y aceptar que los cambios cuantitativos han cobrado tales dimensiones que han devenido en un cambio cualitativo global propiciado por la acción humana. De ahí su denominación como Antropoceno, que está compuesto por Antropos, “ser humano”, y Kainos, “nuevo”.

Crutzen plantó una semilla que empezó a germinar poco tiempo después. En 2002 publica en solitario un artículo en la revista Nature, y en 2008 Zalasiewicz sugiere en un artículo que el nuevo término es el apropiado para el período en el que vivimos. Y desde entonces, el concepto ha ido ganando popularidad. Nature pidió el reconocimiento científico y público del Antropoceno en un editorial de 2011, mismo año en el que aparece en portada de la revista The Economist. A pesar de que no se haya admitido como paradigma compartido dentro de la comunidad científica, su aprobación oficial por parte de la International Commision on Stratigraphy (ICS) y la International Union of Geological Sciences (IUGS) parece inminente. Y todo apunta a que sea así.

Vale, pero… ¿Qué pintan aquí las “letras”?

Sea o no aceptado finalmente, no parece que el término “Antropoceno” vaya a desaparecer de la cultura popular. Se trata de un concepto que no sólo trasciende las fronteras de la geología, sino también las de las ciencias naturales ligadas al estudio del ecosistema terrestre. Un concepto que nos recuerda que la naturaleza se encuentra dentro de la sociedad y la sociedad se encuentra dentro de la naturaleza. Por ello, ciencias naturales y ciencias sociales se encuentran íntimamente imbricadas.

Por ejemplo, algunos críticos temen que el nombramiento de una nueva época geológica que hace referencia a los seres humanos proporcione un estímulo más para el generalizado antropocentrismo imperante. Otros argumentan que hacer referencia al ser humano en general tiene al menos una consecuencia no deseada: se oculta qué grupos o qué personas en concreto son los verdaderos agentes de dichas acciones transformadoras. Y de haber una transformación, ¿cuándo se ha iniciado?

Algunos científicos consideran el comienzo de esta a partir de la Revolución Industrial, otros a la Revolución Agrícola y otros a partir de 1945, año de la detonación de la primera bomba atómica. Sin embargo, cada una de las propuestas exige de un análisis profundo por parte de los historiadores. Filósofos, sociólogos, climatólogos, biólogos, antropólogos, geólogos y una larga lista de disciplinas se dan encuentro bajo un mismo pero polifacético problema. Hay quienes incluso han propuesto otras variantes al Antropoceno, como Econoceno, Capitaloceno o Tecnoceno, que avivan la reflexión sobre las responsabilidades diferenciadas relativas a la acumulación de las emisiones de gases de efecto invernadero.

Cada una de las opciones se encuentra repleta de implicaciones políticas y simbólicas. Por ello, aunque la recopilación y análisis de pruebas empíricas es una labor genuinamente científica, se trata de un problema que también atañe a las denominadas “humanidades”. Así, los hechos científicos son reelaborados por “los de letras”, que aportan significados adicionales, colaboran en la matización de conceptos y en la comprensión global de un mismo fenómeno. La buena noticia es que aquella división a la que C.P. Snow se refirió con “las dos culturas” se ve, al menos por el momento, unida por una causa común: el ser humano.

Referencia:

Arias-Maldonado, M. (2018): Antropoceno: la política en la era humana. Madrid: Taurus.

Sobre el autor: José Luis Granados Mateo (@JoisDo) desarrolla una tesis doctoral en Historia y Filosofía de la Ciencia en la UPV/EHU, becado por la Dirección de Medio Ambiente de la Diputación Foral de Gipuzkoa.

El artículo El Antropoceno: cuando ciencias y letras convergen se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las letras que son de ciencias, y viceversa
  2. El Antropoceno: ¿estamos en un nuevo tiempo geológico?
  3. Activa tu neurona – Antropoceno. El comienzo de “la era de los hombres”
Catégories: Zientzia

El cobalto, un metal escaso y muy necesario

dim, 2019/09/15 - 11:59
Plataformas petrolíferas en desuso en Cromarty Firth (Escocia, Reino Unido). Foto: Michael Elleray / flickr

El cobalto es un elemento cuyo atributo más conocido es el color que proporcionan ciertos compuestos de los que forma parte a piezas de vidrio, esmaltes y cerámicas. El azul cobalto, que es como se denomina ese color, es propio de los pigmentos minerales elaborados con aluminatos y silicatos de cobalto, y con mezclas de fosfato de cobalto y alúmina.

El cobalto es también el centro activo de la vitamina B12 -denominada también cobalamina-, una coenzima que participa en el metabolismo celular. Interviene, por ejemplo, en la síntesis de ADN, y en el metabolismo de ácidos grasos y aminoácidos. Es especialmente importante para el sistema nervioso, debido al papel que juega en la producción de la cubierta de lípidos que envuelve los axones de las neuronas y en la maduración de los glóbulos rojos en la médula ósea.

Además de su uso decorativo y su papel biológico a través de la vitamina B12, el cobalto tiene numerosas aplicaciones industriales. Hay una gran demanda de este elemento para su uso en los electrodos de las baterías eléctricas. Por esa razón, como la producción de vehículos eléctricos está aumentando rápidamente, su demanda está creciendo a gran ritmo. Se estima, de hecho, que el año que viene no pueda extraerse todo el cobalto que necesitará la industria del automóvil, lo que podría suponer un obstáculo importante para aumentar la producción de coches eléctricos.

El cobalto representa el 0,003% de la corteza terrestre. Se extrae mediante minería, generalmente asociada a la extracción de cobre y níquel. Se calcula que las reservas mineras totales de este metal ascienden a algo más de siete millones de toneladas, de las que aproximadamente la mitad se encuentra en la República Democrática del Congo.

Así las cosas, no es de extrañar que se busquen afanosamente alternativas a la minería como método de obtención de tan escaso metal. Se da la circunstancia de que en los océanos hay una cantidad enorme de cobalto, tanto como quinientos millones de toneladas. O sea, hay setenta veces más cobalto en los mares que en la corteza terrestre, por lo que ya hay quien se ha puesto a pensar en cómo extraerlo. Maha Haji y Alexander Slocum, del Instituto tecnológico de Massachusetts (MIT), han propuesto para ello recurrir a tecnologías de adsorción pasiva; son tecnologías basadas en la propiedad de muchos materiales para atrapar de forma pasiva (sin gasto energético) determinadas sustancias.

Al parecer el cobalto se adhiere con facilidad a materiales como algas y otros productos orgánicos abundantes. Y los investigadores del MIT proponen utilizar torres de perforación de petróleo en desuso para amarrar a ellas cordones de los que colgarían esferas de plástico del tamaño de balones de playa. Las esferas estarían convenientemente perforadas y en su interior se dispondrían los materiales adsorbentes más adecuados. Cada pocas semanas se recogerían los balones, se les retiraría el cobalto y se volverían a colocar colgando de los cordones. De acuerdo con sus estimaciones, reutilizando setenta y seis plataformas petroleras hoy en desuso, podría obtenerse el cobalto necesario para fabricar medio millón de baterías de coches eléctricos cada año. Sus cálculos se basan en experimentos de laboratorio en los que se ha utilizado un procedimiento similar para obtener uranio. El problema es que en el agua de mar hay ocho veces menos cobalto que uranio y este procedimiento tendría, por ahora, un coste muy alto. Pero puede que sea asumible, dependiendo, entre otras cosas, de lo que represente en el coste total de las baterías y del interés que tenga la gente en adquirir coches eléctricos.

Fuente: Haji, Maha N. & Slocum, Alexander H. (2019): An offshore solution to cobalt shortages via adsorption-based harvesting from seawaterRenewable and Sustainable Energy Reviews 105(C): 301-309.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El cobalto, un metal escaso y muy necesario se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tabla periódica en el arte: Cobalto
  2. Un aerogel metal-orgánico cataliza una nueva empresa
  3. Una batería de metal líquido y el futuro de las energías renovables
Catégories: Zientzia

Gemma Del Caño y Marián García – Naukas Bilbao 2018: Sandwich mixto en tres actos

sam, 2019/09/14 - 11:59
Foto: Steven Depolo / flickr

Naukas es sinónimo de ciencia divertida. Y en ocasiones la ciencia divertida se convierte en todo un espectáculo. Tras ver este vídeo nunca verás un sandwich mixto igual.

Por cierto, Naukas Bilbao 2019 se celebra a partir del próximo día 18 de septiembre (programa completo) dentro del festival Bizkaia Zientzia Plaza (programa de actividades completo). Por si te animas a que te sorprendan aprendiendo.

Gemma Del Caño y Marián García: ''Sandwich mixto en tres actos''

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

 

El artículo Gemma Del Caño y Marián García – Naukas Bilbao 2018: Sandwich mixto en tres actos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao está en marcha
  2. Francisco R. Villatoro – Naukas Bilbao 2018: El ángulo mágico del grafeno
  3. Naukas Bilbao 2017 – Déborah García Bello: Saboer
Catégories: Zientzia

Nuevos biomarcadores en niños con enfermedad renal crónica

ven, 2019/09/13 - 11:59

Servicio Central de Análisis de Araba (SGIker – UPV/EHU)

Imagen: Tareq Salahuddin / flickr

La enfermedad renal crónica (ERC) se define como una condición en la que los riñones se encuentran dañados y no son capaces de filtrar la sangre adecuadamente. Como consecuencia, se produce la acumulación de desechos en la sangre y en el organismo, que puede originar serios problemas de salud[1].

Los últimos avances en nuevas terapias médicas han permitido un mejor control y pronóstico de estos pacientes. Sin embargo, aún no se logra prevenir el retraso en el crecimiento, la anemia, los problemas cardiovasculares asociados y otras consecuencias de la enfermedad en niños con ERC, alcanzando elevadas tasas de morbimortalidad en este grupo de población[2].

En la actualidad, la creatinina sérica se utiliza como biomarcador clásico para evaluar la función renal. No obstante, la creatinina tiene una sensibilidad bastante limitada y revela el daño renal cuando ya se ha producido una importante pérdida de nefronas, las unidades funcionales de los riñones. Por ello, la búsqueda de nuevos biomarcadores de diagnóstico o de la evolución de la patología y su aplicación en la ERC pediátrica podría contribuir a su diagnóstico, seguimiento y a una mejor comprensión de la fisiopatología de la enfermedad[3].

La metabolómica es una herramienta que tiene como finalidad la búsqueda e identificación de biomarcadores atendiendo al perfil metabólico de un conjunto de muestras biológicas. Estudia las moléculas pequeñas, típicamente por debajo de los 1500 Da, en un sistema biológico, comparando los conjuntos de moléculas o metabolitos entre un grupo control y un grupo testado[4].

Existen dos tipos de metabolómica, la metabolómica dirigida y la metabolómica no dirigida. En el primero de los casos, se buscan diferencias en cuanto a moléculas o grupos de moléculas pertenecientes a distintas rutas metabólicas que son seleccionadas por los investigadores. Por el contrario, en la metabolómica no dirigida se comparan los perfiles de moléculas presentes en las poblaciones objeto de estudio sin que exista ningún tipo de selección de éstas, lo que implica que no haya ningún sesgo previo[5].

Figura 1. Comparativa de los estudios metabolómicos para la búsqueda de biomarcadores de la ERC pediátrica. Elaboración del SCAA.

En el SCAA, se han desarrollado dos métodos diferentes basados en la cromatografía líquida acoplada a espectrometría de masas, técnica de análisis que permite la separación, detección y cuantificación de moléculas de una muestra (Figura 1). Los métodos propuestos se han aplicado a muestras de plasma recogidas por el Servicio de Nefrología Pediátrica del Hospital de Cruces en Barakaldo de pacientes pediátricos con ERC y controles de la misma edad del País Vasco.

El primer método (metabolómica dirigida) permitió la identificación de tres moléculas que podrían actuar como biomarcadores potenciales, además de la creatinina: citrulina, S-adenosilmetionina y dimetilarginina simétrica. En un estudio estadístico llevado a cabo para evaluar la calidad de los posibles nuevos biomarcadores, la utilización de la creatinina sérica como único biomarcador permitía la clasificación correcta del 71 % de los pacientes, mientras que la incorporación de las concentraciones plasmáticas de estas tres nuevas moléculas logró alcanzar una correcta clasificación en un 89 % de los pacientes mejorando el diagnóstico[6,7].

Por su parte, de la aplicación del otro método (metabolómica no dirigida) se obtuvieron cinco señales, de las que posteriormente fue posible identificar cuatro como las siguientes moléculas: n-butirilcarnitina, cis-4-decenoilcarnitina, bilirrubina y esfingosina-1-fosfato. Del mismo modo, se evaluó la capacidad de estas moléculas que podrían proponerse como biomarcadores de la ERC, obteniéndose una correcta discriminación entre enfermos y controles en un 96 % de los casos[8].

Referencias:

Este trabajo de investigación ha formado parte de la Tesis Doctoral de Sandra Benito y ha dado lugar a cuatro publicaciones científicas.

[1] LEVEY, A.S., ATKINS, R., CORESH, J., COHEN, E.P., COLLINS, A.J., ECKARDT, K.U., NAHAS, M.E., JABER, B.L., JADOUL, M., LEVIN, A., POWE, N.R., ROSSERT, J., WHEELER, D.C., LAMEIRE, N. eta EKNOYAN, G., 2007. «Chronic kidney disease as a global public health problem: approaches and initiatives – a position statement from Kidney Disease Improving Global Outcomes». Kidney International, 72, 247-59.

[2] HARAMBAT, J., VAN STRALEN, K.J., KIM, J.J. eta TIZARD, E.J., 2012. «Epidemiology of chronic kidney disease in children». Pediatric Nephrology, 27, 363-73.

[3] ZHAO, Y.Y., 2013. «Metabolomics in chronic kidney disease». Clin. Chim. Acta, 422, 59-69.

[4] FIEHN, O., 2002. «Metabolomics – the link between genotypes and phenotypes». Plant Mol. Biol., 48, 155-171.

[5] PATTI, G.J., YANES, O. eta SIUZDAK, G., 2012. «Innovation Metabolomics: the apogee of the omics trilogy». Nat. Rev. Mol. Cell Biol., 13, 263-269.

[6] BENITO, S., SANCHEZ, A., UNCETA, N., ANDRADE, F., ALDAMIZ-ECHEVARRIA, L., GOICOLEA, M.A. eta BARRIO, R.J., 2016. «LC-QTOF-MS-based targeted metabolomics of arginine-creatine metabolic pathway-related compounds in plasma: application to identify potential biomarkers in pediatric chronic kidney disease». Anal. Bioanal. Chem., 408, 747-760.

[7] BENITO, S., SANCHEZ-ORTEGA, A., UNCETA, N., JANSEN, J.J., POSTMA, G., ANDRADE, F., ALDAMIZ-ECHEVARRIA, L., BUYDENS, L.M.C., GOICOLEA, M.A. eta BARRIO, R.J., 2018. «Plasma biomarker discovery for early chronic kidney disease diagnosis based on chemometric approaches using LC-QTOF targeted metabolomics data». J. Pharm. Biomed. Anal., 149, 46-56.

[8] BENITO, S., SANCHEZ, A., UNCETA, N., ANDRADE, F., ALDAMIZ-ECHEVARRIA, L., GOICOLEA, M.A. eta BARRIO, R.J., 2018. «Untargeted metabolomics for plasma biomarker discovery for early chronic kidney disease diagnosis in pediatric patients using LC-QTOF-MS». Analyst (Cambridge, U. K.), Ahead of Print.

El artículo Nuevos biomarcadores en niños con enfermedad renal crónica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Posibles biomarcadores para el ictus
  2. Tres historias italianas: vacunas, homeopatía, niños y derechos humanos
  3. La ecología de una enfermedad
Catégories: Zientzia

El sonido del viento (2)

jeu, 2019/09/12 - 11:59

[El sonido del viento (1)]

Mientras que los instrumentos de cuerda necesitan transmitir su vibración al aire (mediante una superficie o caja de resonancia), en los instrumentos de viento es el propio aire el que se mueve desde el principio. La función del tubo, por tanto no es producir sonido, sino dar forma y contener la onda sonora. Ahora bien, como contenedor tiene una función fundamental ya que define el tono del sonido.

De manera general, cuanto más larga sea la onda sonora, más grave será su sonido y viceversa. Por eso, los instrumentos más grandes de la orquesta (como el contrabajo) son aquellos que producen sonidos más graves y viceversa. Además, bajo el nombre de cada instrumento, suele agruparse una familia entera, de distintos tamaños, que cubren rangos de sonidos diferentes (lo que en música se conoce como tesitura).

Cada instrumento de viento tendrá, por tanto, un tono asociado a su longitud, la frecuencia natural de su tubo, que diría un físico. Ahora bien, suele ser deseable que un solo instrumento pueda producir varios tonos distintos. Y “cortar” el tubo en cuestión no suele ser una opción (aunque en algunos instrumentos se puede probar algo parecido). Por ello, los ingeniosos inventores de máquinas de hacer sonidos (i.e. instrumentos) han ideado varios mecanismos que permiten variar la longitud de un tubo sin romperlo. Aquí van algunas.

1- Agujeros.

El tubo define la frecuencia de la onda sonora que contiene porque es capaz de imponer unas condiciones de contorno sobre ella. Pero vamos a explicar qué significa esto. Pongamos por ejemplo, un tubo cilíndrico abierto por los dos lados (i.e. flauta). Lo que nos dice la física es que, dentro de ese tubo, va a suceder todo lo que pueda suceder y nada que no pueda suceder. A veces la física se pone un poco tautológica, yo lo sé, pero esto tiene su importancia porque una de las cosas que no pueden suceder es que en los extremos del tubo se den cambios bruscos de presión o de velocidad en el aire.

Esto implica que la onda sonora, dentro de nuestro imaginario tubo cilíndrico, debe tener al menos dos puntos donde la presión del aire no varía (dos nodos): la entrada y la salida. Aquí, el aire del tubo entra en contacto con el exterior que se encuentra, invariablemente, a presión atmosférica.

Este es el mecanismo por el que la longitud del tubo define la longitud de la onda sonora. Pero podemos utilizarlo también para “acortar” el tubo sin cortarlo. Si abrimos agujeros y los destapamos sucesivamente, cada agujero forzará un nuevo nodo en la onda sonora. La onda se formará entonces entre la entrada del tubo y el primer agujero abierto. Cuanto más cerca este agujero de la embocadura, más agudo será el sonido (más corta su longitud de onda). Por eso los instrumentistas van retirando dedos, según se acercan al agudo, fijaos por ejemplo, en el solo inicial del clarinete de Rhapsody in Blue.

 

2- Armónicos.

Ahora bien, existen algunos instrumentos de viento que no tienen agujeros, ni uno solo. Este es el caso, en general, de los instrumentos de viento metal. Las “teclas” de trompetas, trompas y demás activan distintos pistones sin dejar que el aire de su interior entre en contacto en ningún momento con el exterior.

La trompa es un caso especialmente sorprendente, dado que alcanza los 3 metros de longitud. El origen de las trompas son son los míticos cuernos o cornos que se llevaban a la batalla. Pero este corno fue creciendo… y está claro que en algún momento a alguien se le fue de las manos. En su versión orquestal, el tubo se encuentra enrollado y quizás no impresiona tanto, pero la trompa alpina, un instrumento típico de Suiza, permite apreciar la verdadera magnitud del instrumento.  

Ahora bien, la trompa no tiene ni un agujero. Es un único tubo continuo… y aún así, sirve para entonar melodías como esta:

¿Cómo es esto posible? La clave está en que las condiciones de contorno imponen que la onda tenga al menos dos nodos en los extremos del tubo (en el caso de la trompa, un nodo y un antinodo, ya que uno de los extremos está tapado por la boca del instrumentista). Pero esta condición se cumple también para sonidos que tienen más nodos dentro del propio tubo, sonidos cuya longitud es una fracción racional de la longitud del tubo, también conocidos como armónicos. Para conseguir tocar estos armónicos, el trompista debe variar la vibración de sus labios con una gran precisión. Con una trompa moderna, un profesional es capaz de hacer sonar hasta 10 armónicos de una mismo tono fundamental.

Esquema de los armónicos de un abierto por ambos extremos y un tubo cónico cerrado por un lado, como la trompa. Fuente: University of New South Wales

3- Pistones.

Hasta el s. XIX, las trompas de las orquestas solían ser, como las alpinas, un simple tubo enrollado, sin ningún tipo de apertura ni pistón. Sin embargo, su dependencia de los armónicos, limitaba su posible repertorio a aquellas piezas compuestas en la tonalidad de su frecuencia fundamental.

Con un lenguaje musical cada vez más flexible y con más cambios de tonalidad, esto suponía una fuerte restricción. En el s. XVIII, empezaron a usarse tubos de distinta longitud, que se colocaban entre la boquilla y el cuerpo del instrumento para extender su longitud y variar así su tono. Estos fueron los precursores del sistema de pistones y válvulas que se utiliza hoy en día: el “elija su propia aventura” de los instrumentos de viento metal.

Los pistones son mecanismos que habilitan distintos recorridos del aire dentro del instrumento, dando lugar a tubos de distinta longitud con sólo pulsar una tecla. Fueron ideados a principios del s. XIX (alrededor de 1815) pero no llegaron a popularizarse hasta bastante tiempo después debido, por un lado, a la falta de madurez del invento y, por otro, al recelo de algunos músicos que seguían prefiriendo la trompa natural. Hoy, en cambio, este mecanismo está plenamente aceptado y no sólo dota de mayor flexibilidad a este tipo de instrumentos, sino que les da ese aspecto intrincado, tan característico y tan bonito.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El sonido del viento (2) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El sonido del viento
  2. Sonido (1)
  3. Sonido (y 2)
Catégories: Zientzia

Évariste Galois: contra el tiempo

mer, 2019/09/11 - 11:59

 

«Lejos de cualquier lirismo, Billette ha sabido crear un universo históricamente anclado, pero moderno por su lenguaje y su intención, por la explosión cronológica del relato, así como por el humor y un toque fantástico».

Raymond Bertin, « Combat pour un nouveau monde / Contre le temps », Cahiers de théâtre Jeu,‎ 2012

Libreto de Contre le temps.

 

Contre le tempsContra el tiempo– (2011) es una obra de teatro de la dramaturga Geneviève Billette. Se estrenó en Montreal (Canadá) el 8 de noviembre de 2011, año en el que se conmemoraba el centenario del nacimiento de Évariste Galois. En la imagen posterior aparecen los personajes de la obra; de izquierda a derecha:

  • Stéphanie, la amada de Galois.

  • El poeta Gérard de Nerval, encarcelado en la prisión de Sainte-Pélagie en febrero de 1832 por un alboroto nocturno. Allí conoce a Galois y entablan amistad.

  • Évariste Galois, protagonista de la historia.

  • Gabriel, el padre de Galois.

  • Adélaïde, la madre de Galois que se siente culpable por haber perdido el contacto con su hijo durante su estancia en prisión.

  • Alfred, el hermano pequeño de Galois, que sólo desea pasar tiempo con Évariste.

  • Augustin, el amigo de Galois que no entiende la razón de sus matemáticas.

  • El espectro del matemático Jean-Baptiste Fourier, que anhela que Galois redacte su legado científico. Se siente culpable por haber fallecido sin terminar la evaluación de un documento de Galois. Junto a Gérard de Nerval, aporta la nota cómica a una obra de claro corte dramático.

Los personajes de la obra. Fotografía de producción.

 

A continuación resumimos el guion y compartimos algunas citas (traducidas por la autora de esta anotación).

Estamos en 1832, en París. Évariste Galois acaba de abandonar la prisión en la que ha permanecido encarcelado durante ocho meses por motivos políticos. Activo republicano, había sido arrestado, por segunda vez, por un acto de sedición contra el rey Luis Felipe de Orleans. Es un joven apasionado y comprometido; vive por la democracia y la investigación científica.

El matemático intenta terminar su tratado de álgebra porque sospecha que va a morir; lucha contra el tiempo. La noche anterior al duelo que le lleva a la muerte, Galois escribe en el margen de la memoria que está intentando terminar:

Hay algo a completar en esta demostración. No tengo tiempo.

Su madre –con la que ha perdido el contacto desde hace meses– corre a buscarlo para abrazarle y transmitirle su cariño. Un curioso personaje impide a Adélaïde acercarse a Galois: es el fantasma de Jean-Baptiste Fourier, que se siente culpable por haber fallecido –en mayo de 1830– unos días después de haber recibido un manuscrito de Galois para –como secretario vitalicio de la académie des Sciences– evaluar. Sin haber sido revisado, este documento se perdió. Fourier sabe que Galois va a morir y no quiere que nadie le entretenga para que finalice la redacción de su legado matemático.

Galois redacta con gran excitación. Se detiene en algunos momentos para recordar detalles de su vida. Se acuerda afligido de su padre –alcalde de Bourg-la-Reine, de ideas liberales– que se suicida en 1829 no pudiendo soportar el descrédito ante sus conciudadanos promovido por el párroco de la ciudad. Galois lamenta no haber percibido el mal momento anímico por el que pasaba Gabriel. Pero sigue escribiendo, con pasión, con un arrebato cercano a la locura. Recuerda a su amada Stéphanie, a su hermano pequeño, a su madre…

Galois encarna al genio romántico, apasionado por la vida y por intentar cambiar el orden del mundo. Sus ansias por aprender se habían visto frenadas por las autoridades académicas; fue expulsado de la École Polytechnique que apoyaba a una monarquía repudiada por Galois.

Adélaïde: La dirección de la École se declara monárquica, ¿y qué? Eso no te impedirá pensar, trabajar, ¡el álgebra no tiene banderas!

Évariste: El álgebra es también una visión del mundo.

En una conversación con su amigo Augustin, explica la razón por la que sus matemáticas son revolucionarias:

¿Por qué crees que nadie antes de mí había conseguido resolver el problema? Los otros matemáticos no carecen de inteligencia. Conozco sus trabajos de memoria, sé exactamente cómo piensan […]. Uno a uno, han fracasado con la ecuación de grado 5, porque aislaban el problema. […] La única manera de resolverlo era con otra perspectiva. Mi método de resolución general, Augustin, […] era la única solución.

Al definir la estructura de grupo, Galois establece un nuevo territorio a explorar, un territorio con inmensas posibilidades:

Augustin: Comprendo el principio, pero ¿para qué sirve?

Évariste: Para pensar de manera amplia. […] También para ir más allá. Permite anticiparse.

Augustin: ¿Pero a qué se dedica?

Évariste: No te entiendo…

Augustin: Las aplicaciones concretas.

Évariste: Ah eso… Ninguna. […]

Augustin: Vamos… Cuando vayas donde un mecenas, ¿qué le dirás? ¿A quién beneficiarán tus grupos de inmediato?

Évariste: A nadie. Por ahora, a nadie. No… no es para nosotros. Los químicos se apropiarán de ello. Los físicos también. Pero las aplicaciones concretas, como dices, creo que no serán visibles más que dentro de doscientos años. […]

Augustin: Esto es serio, Évariste. No has podido pasarte noches enteras de trabajo sin conocer la utilidad de tus investigaciones… Es imposible. ¡Imposible!

Évariste: Lo que dices es estúpido. ¿Cómo quieres inventar si sabes exactamente lo que estás buscando? Me he obsesionado con la ecuación de grado 5, esto es lo que me ha permitido progresar, noche a noche, hasta la idea de grupo. No se puede investigar, Augustin, realmente investigar, conociendo con antelación el paisaje final.

Augustin: Doscientos años… nadie se beneficiará. Me refiero a que ninguno de nosotros estará…

Évariste: Es cierto, es lo que más me fascina. Hacer posible un mundo que nunca conoceré.

Por cierto, el tiempo le ha dado la razón. Sus teorías matemáticas permiten estudiar objetos complejos en términos de simetrías y de permutaciones y, hoy en día, se aplican a áreas tan variadas como la informática, la química, la física o la criptografía.

Contre le temps finaliza con la aprobación por parte de Fourier de los trabajos de Galois. Cuando el matemático yace ya herido de muerte tras su duelo, Fourier le tranquiliza:

Está todo. (Pausa) Está todo, Galois.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Évariste Galois: contra el tiempo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Estudiar más que conocer, buscar más que encontrar la verdad
  2. Contra la meritocracia
  3. El rostro humano de las matemáticas
Catégories: Zientzia

El modelo atómico de Rutherford

mar, 2019/09/10 - 11:59
El oro se emplea en las naves espaciales como protector contra la radiación. Pero básicamente radiación térmica (infrarrojo), visible y, combinado con otros materiales, ultravioleta. Tras leer esta anotación sabrás que el espesor de oro necesario para proteger contra una fuente de radiación alfa a una nave espacial o a una astronauta haría las misiones espaciales prohibitivamente caras. Fuente: NASA

¿Cómo llega Rutherford a la conclusión de que el átomo debía tener una concentración de masa y carga, esto es, un núcleo a partir de los primeros experimentos de Geiger y Marsden? Veámoslo con algo más de detalle partiendo de la base de que el modelo imperante en ese momento es el modelo atómico de Thomson.

Lo primero que parecía evidente es que debía existir algo (los núcleos) que tenía que ser mucho más densos que cualquier cosa en los átomos de Thomson. Simplemente, porque una partícula α que se mueve directamente hacia uno de ellos se ve detenida y devuelta. Una analogía sería que una pelota de tenis rebota si impacta con una roca, pero no si lo que se encuentra delante es una nube de partículas de polvo de la misma masa que esa misma roca.

Figura 1. Fuente: Cassidy Physics Library

El esquema de la Figura 1 se basa en uno de los diagramas de Rutherford en su artículo de 1911 [1], que sentó las bases de la teoría moderna de la estructura atómica. Muestra dos partículas α cargadas positivamente, A y A’. La partícula α A se dirige directamente hacia un núcleo masivo N. Si el núcleo tiene una carga eléctrica positiva, repelerá la partícula α, que tiene carga positiva. Debido a esta fuerza eléctrica repulsiva, A frenará hasta detenerse a cierta distancia r de N y luego cambiará el sentido de su movimiento, volverá hacia atrás. A’ es una partícula α que no se dirige directamente hacia el núcleo N. Es rechazada por N de tal forma que sigue una trayectoria que se puede demostrar matemáticamente que debe ser una hipérbola. La desviación de A’ de su trayectoria original está indicada por el ángulo ϕ.

Rutherford consideró los efectos en la trayectoria de la partícula α de las variables importantes: la velocidad de la partícula, el grosor de la lámina y la cantidad de carga Q en cada núcleo. Según el modelo de Rutherford, la mayoría de las partículas deberían dispersarse en ángulos pequeños, porque la posibilidad de acercarse a un núcleo muy pequeño directamente es muy pequeña. Pero un número significativo de partículas α debería dispersarse en ángulos grandes. Eran necesarios nuevos experimentos.

Figura 2. Fuente: Cassidy Physics Library

Geiger y Marsden comprobaron [2] estas predicciones con el dispositivo esquematizado en la Figura 2. La caja de plomo B contiene una sustancia radiactiva (radón) que emite partículas α. Las partículas que emergen del pequeño orificio en la caja se desvían en diversos ángulos al pasar pasan a través de una fina capa de metal F. El número de partículas desviadas en cada ángulo ϕ se encuentra dejando que las partículas golpeen una pantalla de sulfuro de zinc S. Cada partícula que golpea la pantalla produce un centelleo (un punto de fluorescencia momentáneo). Estos centelleos se pueden observar y contar mirando a través del microscopio M. El microscopio y la pantalla se pueden mover conjuntamente a lo largo de toda la circunferencia, cubriendo de esta manera todos los ángulos ϕ.

Geiger y Marsden descubrieron que el número de partículas α contadas dependía del ángulo ϕ de dispersión, de la velocidad de las partículas y del grosor de la lámina. Estos hallazgos coincidieron con las predicciones de Rutherford y respaldaron un nuevo modelo atómico, en el cual la mayor parte de la masa y toda la carga positiva ocupan una región muy pequeña en el centro del átomo.[3][4]

Notas:

[1] E. Rutherford (1911) «The Scattering of α and β Particles by Matter and the Structure of the Atom», Philosophical Magazine. Series 6, vol. 21.

[2] H. Geiger, Hans & E. Marsden (1913). «The Laws of Deflexion of α Particles through Large Angles», Philosophical Magazine. Series 6. vol. 25

[3] Lo que implica que la mayor parte del átomo es espacio vacío.

[4] Curiosamente y desde el punto de vista electrostático el átomo de Rutherford es un caso particular del átomo de Thomson. Esto permitió que el primer modelo cuántico del átomo se desarrollase basándose en el modelo de Thomson. Lo hizo Arthur E. Hass en 1910. Esta historia, bastante desconocida, la conté en este video.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El modelo atómico de Rutherford se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Rutherford: la radiactividad y el descubrimiento del núcleo atómico, por El zombi de Schrödinger
  2. El modelo atómico de Thomson
  3. 1913-2013: del modelo atómico de Bohr al Higgs
Catégories: Zientzia

Todos los rojos son chillones

lun, 2019/09/09 - 11:59


Ekai Txapartegi

Foto: Janke Laskowski / Unsplash

Un vestido rojo destaca en cualquier fiesta, terraza o sarao. La prenda roja atrae nuestra atención pero, ¿alguna vez se ha preguntado por qué?

Blanco, negro y rojo

Lingüísticamente, “rojo” es el primerizo, la primera palabra cromática, el hermano mayor de todos los demás colores.

No todas las culturas humanas desarrollan palabras para nombrar los colores, como “amarillo”, “rosa” o “marrón”. En cambio, todas distinguen entre el día y la noche. Entre lo visible y lo que no se puede ver. De alguna manera, todas las lenguas humanas son capaces de distinguir su “blanco” de su “negro”, su claro de su oscuro. Pero a partir de ahí, no todas las culturas han necesitado desplegar palabras para describir colores particulares.

La evolución lingüística, no obstante, suele conducir a un punto en el que las sociedades humanas comienzan a nombrar las cosas por su apariencia externa, los colores. Y curiosamente, casi siempre la primera palabra que emerge para cumplir esa función, después de blanco y negro, suele ser el rojo.

Henry & Co. / Unsplash

Gracias a la antropología lingüística sabemos que si una lengua humana solo cuenta con tres palabras para designar la apariencia externa de las cosas, esas tres palabras serán “claro”, “oscuro” y “rojo”. Evidentemente, eso llama la atención de cualquier psicólogo cognitivo. De todos los colores, el rojo debe ser especial porque, lingüísticamente al menos, es casi siempre el primer color. O, dicho al revés, algo tendrá, alguna vivacidad especial, para que siempre le toque ser el primerizo, el hermano mayor.

Se puso colorado

Al ser el primer color, es normal que en algunas lenguas rojo todavía signifique “todos los colores” o “cualquier color”. En lengua comanche, por ejemplo, rojo es sinónimo de color. Incluso en griego clásico, la raíz de “chroma” es “chros”, que también representa la piel humana o, en general, la presencia exterior. Además, está presente en la palabra ocre, un rojo primigenio.

Aunque tampoco hay que irse tan lejos. En español, ¿qué significa la expresión “ponerse colorado”, sino sonrojarse?

También es el color que ha tenido más margen temporal para evolucionar. Siempre se menciona que los esquimales tienen decenas de palabras para designar el blanco; pero no es tan conocido que los maoríes, por ejemplo, tienen tantas o incluso más variedad de palabras para designar el complejo universo del rojo.

Los frutos rojos, las hojas verdes

Todos los rojos son chillones pero, ¿de dónde le viene esa vivacidad especial?

“Le regaló una rosa roja y él, tímido, se puso colorado”. El pincel de la literatura romántica colorea de rojo el amor, la pasión, la atracción y el placer. Es el pigmento de las flores y de la piel. Pero, pero, pero… la naturaleza no es tan romántica. Biológicamente, el rojo no nació del amor y las flores, sino del hambre y los frutos.

Ser el primer color tiene una preciosa explicación evolutiva. En comparación con otras funciones biológicas del cuerpo humano, nuestra visión tricromática es relativamente reciente, se conformó hace unos 30 o 40 millones de años. Se conoce como ‘tricromática’ porque se configura sobre 3 ejes: el eje blanco/negro, el eje azul/amarillo y, por último, el eje el rojo/verde. Este tercer eje, el último en evolucionar, lo compartimos con otros simios tricromáticos. Los demás animales (los pájaros, los peces, los insectos…) han desarrollado otro tipo de espectros cromáticos.

¿Cuál es la razón evolutiva que llevó a ciertos simios a desarrollar ese tercer eje rojo/verde? La explicación simplificada es que éramos recolectores. Poder ver el color rojo, contrastándolo con el verde, supuso un fenomenal avance evolutivo porque nos permitió poder resaltar en un solo golpe de vista el jugoso y deseable fruto rojo frente a las desabridas hojas verdes de fondo.

Foto: Xiaokang Zhang / Unsplash

El color rojo es el resultado evolutivo de la tecnología visual desarrollada por los monos recolectores para distinguir la fruta madura de las hojas. Por eso es el color que se distingue desde más lejos, a primera vista y sin esfuerzo.

Evolutivamente, rojo significa comida, significa jugoso, el fruto que se esconde tras las hojas de los arbustos. Significa también caza, el animal sobre la hierba. Significa, en definitiva, que ha llegado poderosa la primavera.

Siempre forma, nunca fondo

Por esa razón, el color rojo fuerza la distinción entre la forma y el fondo. El rojo es siempre forma; nunca es fondo.

En una original exposición sobre el color rojo que acogió en Mayo el Campus de Gipuzkoa (UPV/EHU), el pintor Manuel Bocanegra presentó una obra paradójica. Se trata de un marco vacío pintado de rojo.

‘Pausa’, obra de Manuel Bocanegra.
Ekai Txapartegi, Author provided

¿Por qué no se pintan de rojo los marcos de los cuadros? Porque un marco rojo empujaría la pintura al fondo y convertiría la pared en su propio marco. Manuel Bocanegra ha dejado vacío, intencionadamente, el espacio enmarcado porque, se ponga lo que se ponga, pasaría a ser paisaje, al igual que la pared que la sostiene.

Lo rojo viene al frente y arrastra al fondo todo lo demás. Como cuando va recogiendo grosellas una a una por los matorrales, mecánicamente, en una coordinación espontánea entre el ojo y la mano. Todo lo demás es fondo, que ni se ve. Simplemente, la mano se abalanza a por el objeto rojo que la vista trae al frente.

¡Mírame, estoy aquí!

Si quiere destacar algo, píntelo de rojo. Como las señales más importantes, de tráfico y de emergencia. El Reino Unido tuvo la mala idea de pintar de verde sus buzones de correos. En 1874 tuvo que volver a pintarlos, pero esta vez de rojo, porque la gente se chocaba contra los postes verdes. Psicológicamente, el rojo es el color más saliente. El que más llama la atención.

El rojo se impone. Para corregir textos, por ejemplo, se usa el rojo. O esa conocida lata de refresco, un verdadero imán para nuestra vista, símbolo del capitalismo más instintivo.

Si se viste de rojo, vibra, porque instantáneamente le convierte en un objeto de deseo. La naturaleza aprendió ese truco hace millones de años pintando sus frutos de rojo, así como las partes más eróticas de nuestro cuerpo: los labios, el pecho y los genitales.

En definitiva, todos los rojos son chillones porque este le grita descarado: “¡Míreme, estoy aquí! El resto no le interesa”.

Sobre el autor: Ekai Txapartegi es profesor del Departamento de Lógica y Filosofía de la Ciencia en la Facultad de Educación, Filosofía y Antropología de la Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Todos los rojos son chillones se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una fórmula para dominar todos los mecanismos
  2. Una fórmula para dominarlos a todos: La conservación de la energía y la ley de la palanca
  3. Una fórmula para dominarlos a todos: El trabajo
Catégories: Zientzia

Historias de la malaria: La lucha contra la malaria

dim, 2019/09/08 - 11:59
Combatiendo la malaria en la Ilslas Salomón. Foto: Jeremy Miller /AusAID / Wikimedia Commons

Fue después de la Segunda Guerra Mundial cuando la Organización Mundial de la Salud (OMS), integrada en las Naciones Unidas, incluyó, entre sus objetivos prioritarios, la detección, control y erradicación de la malaria. Así se promovió la colaboración y participación de las autoridades de muchos países y, además, fondos para financiar los programas antimalaria que proponía la OMS.

La creación de la OMS se hizo oficial el 7 de abril de 1948 pero antes y después de la Segunda Guerra Mundial, hasta ese año, la malaria era de interés para muchos países y organizaciones. José Antonio Nájera lo contaba en 1989 cuando era Director, en su sede de Ginebra, del Programa de Acción contra la Malaria de la OMS. En esos años anteriores a la OMS, hubo campañas con éxito y otras que fracasaron: en los ejércitos que lucharon en la Primera Guerra Mundial; la construcción del Canal de Panamá; el control del agua en el Valle del Tennessee en Estados Unidos; las plantaciones en Malasia; la erradicación de los mosquitos en Brasil o Egipto, el desarrollo de métodos de erradicación en España y Portugal, y tantos otros. En España, el último caso se diagnosticó en 1962, y en 1964 la OMS declaró al país como libre de malaria, cuando en 1937 había unos 100000 casos al año.. Fue en 1973 cuando se declaró a Grecia país libre de malaria cuando antes de la Segunda Guerra Mundial tenía de uno a dos millones de casos anuales.

Incluso organizaciones internacionales, como la Organización para la Salud de la Liga de las Naciones, ya tenía una Comisión de la Malaria cuyo primer informe se publicó en 1924. También la Organización Panamericana de la Salud, y desde 1907, celebraba conferencias y publicó informes sobre la malaria.

Pero fue con la OMS cuando se inició la lucha sistemática contra la malaria a nivel internacional. Los primeros informes de la comisión de expertos de la OMS se publicaron en 1947, antes de que la organización empezara a funcionar de manera oficial. En esa fecha, su objetivo era utilizar el DDT para el mosquito vector, siempre con la participación financiera de los sistemas de salud de los países implicados. Además, siempre se menciona el drenaje de marismas y pozos, la importación del pez Gambusia que se alimenta de las larvas de los mosquitos, utilizar venenos como el vertido de petróleo o la utilización del Verde País (con arsénico), todo ello para evitar el desarrollo de las larvas del mosquito.

El segundo informe, de 1948, incluye la declaración de la política oficial de la OMS sobre la malaria. También se nombró una sección dedicada a la malaria en el Comité Ejecutivo de la OMS. La Asamblea oficial de la OMS, llamada Asamblea de la Salud, de 1948, pedía, además de la formación de la sección de la malaria, estudios sobre la extensión de la malaria y el tratamiento a los enfermos, la mejora de las prácticas agrícolas y en la construcción de casas, y conseguir fondos para investigación.

El siguiente informe, de 1950, revela la escasez de personal preparado para la detección y el control de la enfermedad en los trabajos en aldeas y pueblos. Hay 250 millones de enfermos y 2,5 millones de muertes. Y llegan la OMS y el DDT a los países con malaria. Además, en los informes hasta 1954 aparecen las primeras citas de cepas de mosquitos resistentes al DDT. En concreto, aparecen mosquitos resistentes en Estados Unidos, Grecia y Panamá. Se piden más estudios de campo sobre estas resistencias, con datos más precisos.

Pero las campañas tienen éxito en muchos países y, en 1957, la OMS publica un Informe Técnico para establecer los criterios que determinan que la malaria deja de ser una enfermedad endémica en un determinado entorno, así como el protocolo para la observación continua de nuevos enfermos y de criaderos de mosquitos para reaccionar con prontitud y eficacia si fuera necesario.

Hasta 1955, el objetivo de la OMS era controlar la enfermedad pero, a partir de este año, los programas intentan erradicar la malaria. Ya se había aprobado en 1954 en la Conferencia Sanitaria Panamericana, celebrada en Santiago de Chile, y en la Conferencia Asiática sobre la Malaria, en Baguío, Filipinas. Era un plan basado en el DDT y, sobre todo, en la participación directa de los organismos antimalaria de los países implicados. Era importante resaltar que los gastos para el control de la enfermedad eran mayores que los necesarios para erradicarla. Además, los programas de control, que debían durar muchos años, daban tiempo a la aparición de resistencias en los mosquitos.

Al año siguiente, en 1955, el Comité Ejecutivo de la OMS recomendó la erradicación en la Octava Asamblea Mundial sobre Salud, celebrada en México. También se aprueba que la OMS tenga un presupuesto especial y concreto dedicado a la lucha contra la malaria y comenzaron las campañas de la organización contra la malaria.

En el siguiente informe de la OMS sobre la malaria, publicado en 1957, se define la erradicación de la enfermedad como “el final de la transmisión de la malaria y la desaparición de enfermos infectados por medio de una campaña limitada en el tiempo y practicada con un grado de perfección tal que, cuando termine, no haya transmisión ni reaparición de la enfermedad”. De nuevo se destaca que los gastos de la erradicación son menores que los necesarios para el control y que, por otra parte, se acortan los tiempos y se evita que aparezcan las resistencias.

En las reuniones de la OMS y de otros organismos internacionales relacionados con la salud era evidente la sensación de urgencia creada por una insistente llamada humanitaria contra la extensión y las consecuencias de la malaria para la población de muchos países y regiones del planeta. Las últimas decisiones habían iniciado muchos programas de erradicación pero, en muchos casos, con poco éxito por la falta de datos fiables sobre la presencia y extensión de la malaria, con sistemas administrativos y sanitarios escasos o poco desarrollados, falta de personal entrenado y de coordinación en campañas con países vecinos, y, también, la escasez de fondos para investigación básica y aplicada sobre la enfermedad.

Los mayores problemas estaban en el África tropical y en el Sureste de Asia, con algunos éxitos en campañas concretas como Liberia o Camerún. Pero, a menudo, los programas no se terminaban y se interrumpían por muchas y variadas razones. Incluso en Ceilán, actual Sri Lanka, donde se suponía erradicada la malaria, tuvo posteriormente una epidemia masiva con miles de enfermos. Poco a poco se iba extendiendo la convicción de que, a medio plazo, no sería posible la erradicación. Falta la infraestructura sanitaria eficaz y preparada en la mayoría de los países con malaria endémica.

Para mediados de los sesenta, la malaria estaba erradicada en Europa, en la mayor parte del área asiática de la URSS, varios países del Cercano Oriente, Estados Unidos, casi todo el Caribe, grandes zonas del norte y el sur de Sudamérica, Australia, Japón, Singapur, Corea y Taiwan. La enfermedad había desaparecido del 80% de las áreas geográficas en que había sido endémica.

Pero en África, al sur del Sáhara, los programas antimalaria no habían funcionado. Era difícil organizarlos con eficacia. Además, empezaban a aparecer las resistencias al DDT.

En la Asamblea Mundial de la Salud de 1967, celebrada en Ginebra, se ajustan los objetivos y, aunque se mantiene la erradicación como meta final, se plantea el control de la malaria como una etapa intermedia, válida y necesaria. Para conseguirlo se analizan los programas en marcha y se decide cuales de ellas pueden erradicar la enfermedad en un plazo aceptable y se sigue adelante con ellos. Los que no cumplen este requisito, se consideran programas de control de la malaria. Y en la Asamblea de 1969, visto que, según expertos como George Davidson, el número de casos se acercaban a cifras de antes de la Segunda Guerra Mundial, se pasó definitivamente al control de la enfermedad, con la erradicación como objetivo a más largo plazo. Para finales de esta década, hay resistencias del plasmodio a los fármacos, sobre todo a la cloroquina y para el Plasmodium falciparum, el parásito más letal. La OMS vuelve a destacar los problemas de financiación y la escasez de personal técnico preparado.

En 1973, según la OMS, hay cuatro millones de casos, y en 1977, subían hasta once millones, y a principios de los ochenta, vuelven a bajar a los siete millones. Y siempre sin incluir el África tropical. Por ello, en 1974 se publican los protocolos para cambiar un programa de erradicación fallido por un programa de control. El control se basa en fármacos y vacunas contra el plasmodio, el control de los mosquitos y la protección de la población a la picadura de los insectos.

A partir del final de la década de los setenta, la OMS promueve la inclusión de los programas de control en los sistemas de salud primario de cada país. En concreto y según los acuerdos de la 31ª Asamblea Mundial de la Salud, en 1978 y en Ginebra, se busca reducir la mortalidad y los efectos negativos que provoca la malaria en lo social y en lo económico. Además hay que promover la prevención y el control de la enfermedad, y siempre con el objetivo final de la erradicación.

El número de casos que ha catalogado la OMS entre 1964 y 1985, según cuenta José Antonio Nájera, lleva a algunas conclusiones interesantes. En primer lugar, no se incluyen los datos de África porque son escasos y sin continuidad y, a menudo, poco fiables y confusos. Si se excluyen África, China y la India, en el resto del planeta y a partir de mediados de los setenta, el número de enfermos se mantiene estable. De China llegan los primeros datos en 1977 y, en años posteriores, la cifra desciende con rapidez; en la India, después de una epidemia masiva, con la reaparición de la malaria en 1975, se vuelve a controlar la enfermedad en los ochenta.

Entre los sesenta y finales de los novena, la confianza en erradicar la malaria llevó al descuido en los programas y, en consecuencia, a un gran aumento de enfermos y fallecimientos. Al comienzo del siglo XXI cambió la situación y volvió la malaria a ser objetivo prioritario en los programas de salud mundial. Aumentaron los fondos para investigación y se plantea la hipótesis de que continentes enteros se libren de la malaria y, con tiempo, hasta que se erradique de todo el planeta. Por entonces, la OMS considera que el mayor problema es la falta de financiación sólida, previsible y demostrada, lo que dificulta acuerdos políticos a medio y largo plazo y la colaboración regional. Y, desde la práctica, siguen apareciendo resistencias a los fármacos antiplasmodio y de los mosquitos ante los insecticidas. Por ejemplo, en 1985, la resistencia uno o a varios insecticidas había aparecido en 57 especies de Anopheles y afectaba a los programas de control de 62 países. Y la resistencia a los fármacos contra el parásitos se había detectado en 35 países de Asia, el norte de Sudamérica y el África tropical. Y. además, se sigue notando la falta de rigor y profesionalidad en los sistemas de salud de muchos países implicados.

En 1990-1992, según Nevill, de la Unidad de Malaria de Nairobi, en Kenia, el 40% de la población mundial vivía en zonas con malaria endémica, con 100 millones de casos y un millón de muertes cada año. La OMS lanzó un nuevo programa con los siguientes objetivos: diagnóstico y tratamiento precoz; aplicación de medidas preventivas; comprobar la presencia de malaria; y revisión frecuente de los factores económicos, sociales y ecológicos que favorecen la presencia y extensión de la enfermedad.

La iniciativa Roll Back Malaria, con más de 500 participantes públicos y privados, se inició en 1998 y consiguió una gran reducción en la trasmisión de la malaria en África entre 2000 y 2010. Pero, todavía en 2010, el 57% de la población vive en zonas donde el peligro de la trasmisión es intenso.

En una revisión publicada en 2010 por Vandana Wadhwa y sus colegas, de la universidad de Boston, y con datos de la OMS de 1999, la mortalidad provocada por la malaria durante el siglo XX va de casi 200 millones de muertes en 1900, unos 170 millones en 1930, 40 millones en 1950, menos de 10 millones en 1970 y décadas posteriores hasta 1997, todo ello sin incluir África. En cambio, en el África subsahariana se producen el 90% de las muertes con cifras que van desde los 200 millones de 1900 a unos 160 millones en 1967, y unos 100 millones en 1970. En otra revisión, publicada en 2004 por Simon Hay y sus colegas, de la Universidad de Oxford, se enumera el porcentaje de población expuesta a la malaria. En 1900 era el 77% de la población mundial; en 1946, era el 68%; en 1965, el 57%; en 1975, el 52%; en 1994, el 46%; en 2002, el 48%; y en 2010, el 50%. Parece que la situación que provoca el descenso de la población en riesgo se ha detenido. Y los enfermos en la segunda década del siglo XXI son, según la OMS, 225 millones en 2011, 217 en 2012, 210 en 2013, 210 en 2014, 211 en 2015, y 216 en 2016. Las cifras descienden pero no mucho y se mantienen en más de 200 millones de casos.

Se inicia la Estrategia para 2020 con objetivos como reducir la tasa de mortalidad en un 40% por lo menos, la incidencia de casos en un 40% por lo menos, eliminar la malaria en 10 países por lo menos, y evitar el resurgimiento de la enfermedad en los países declarados exentos. La campaña más reciente de la OMS contra la malaria es el Programa Mundial sobre Paludismo, con una última actualización el 14 de diciembre de 2017. Sus objetivos se rigen por la Estrategia Técnica Mundial contra la Malaria 2016-2030, aprobada por la 68ª Asamblea Mundial de la salud de mayo de 2015. A pesar del progreso en la lucha contra la malaria, en 2013 el 90% de los enfermos se localizaba en África y dos países, República Democrática del Congo y Nigeria, sumaban el 40%, casi la mitad de todos los enfermos del planeta. Las muertes en África han descendido desde 764000 en 2000 a 395000 en 2015.

La Estrategia Técnica fijó cuatro objetivos para 2030: reducir la incidencia de la malaria en al menos un 90%; reducir la tasa de mortalidad en al menos un 90%; eliminar la malaria en 35 países como mínimo; y prevenir la reaparición de la malaria en todos los países que estén libres de la enfermedad. La OMS plantea que uno de los objetivos básicos para conseguir lo anterior es el apoyo técnico a todos los países con malaria endémica. Además, la OMS debe formular y difundir orientaciones y políticas mundiales sobre el control y la eliminación de la malaria.

El último Informe Mundial sobre Malaria de la OMS corresponde a 2018, presentado en Maputo, Mozambique, y se publicó el 19 de noviembre. El número de enfermos de malaria censados en 2017 fue de 219 millones de personas y no hay cambios significativos en el periodo 2015-2017. La gran mayoría de los enfermos, hasta el 92%, está en África. Plasmodium falciparum es el parásito responsable del 99.7% de los casos en África. Los casos de malaria habían aumentado en 10 de los 11 países con mayor incidencia de la enfermedad y todos están en África. Estos países africanos con malaria endémica justifican el aumento de enfermos por la aparición de más resistencias del plasmodio a los fármacos y de los mosquitos a los insecticidas.

En 2017, el número de muertes por la malaria fue de 435000 en todo el mundo. Los niños menores de 5 años son el grupo más vulnerable, con el 61% de todos los fallecimientos. El 93% de estas muertes se dio en África.

En el Informe de 2017, la OMS cuantifica la entrega de 624 millones de mosquiteros tratados con insecticidas, la realización de 276 millones de pruebas de diagnóstico, y de casi 3000 millones de tratamientos continuados con la droga más utilizada por la OMS en la actualidad, la artemisina. Lo más efectivo es el diagnóstico rápido, los mosquiteros con insecticidas, los fármacos adecuados, la investigación para conseguir una vacuna, y los protocolos para la vigilancia de la enfermedad y una respuesta rápida. También se menciona que la OMS certifica a Paraguay como libre de malaria en 2018, mientras que Argelia, Argentina y Uzbekistán lo han solicitado. En 2017, China y El Salvador declaran cero casos de malaria autóctona.

En la actualidad, a fecha de enero de 2019, el Director del Programa Mundial sobre la Malaria de la OMS es el Dr. Pedro Alonso, fotografiado aquí en la sede de la OMS en Ginebra. Fuente: OMS

 

Por otra parte, en una revisión publicada en 2012, Christopher Murray y sus colegas, del Instituto para la Evaluación y la Medición de la Salud de Seattle, encuentran que el número de fallecidos provocados por la malaria es mayor de lo calculado hasta ahora, sobre todo porque hay más muertes en enfermos de más de cinco años. Según sus cálculos, entre 1980 y 2010, son de 995000 en 2004, un pico de 1817000 en 2004, y una caída hasta 1238000 en 2010. Este descenso en 2010 se detecta tanto en África como en otros lugares.

Para terminar, Bruno Moonen, director de la lucha contra la malaria de la Fundación Bill y Melinda Gates, escribió en 2017 que la erradicación es la única solución sostenible y equitativa. La alternativa, el control como programa indefinido, no es sostenible. Mantener la financiación para un control sin fecha final para la erradicación, y especialmente cuando se ha alcanzado un nivel de la enfermedad, es muy difícil. Y cuando no se tiene un presupuesto adecuado, la malaria puede resurgir.

El programa sin fecha final de control requiere una inversión constante de fondos en investigación y desarrollo para conseguir, en una situación en la que el plasmodio y el mosquito evolucionan constantemente. Sin embargo, los países que han conseguido erradicar la malaria son capaces de mantenerse libres de la enfermedad, aunque también es cierto que en 2018 se detectaron 68 casos de reaparición de malaria en poblaciones donde se había reducido la población de mosquitos, según cuenta Dan Strickman, de la Fundación Bill y Melinda Gates.

Pero los programas de erradicación deben alcanzar su objetivo. No hacerlo es costoso y termina por necesitar muchos fondos, quizá tomados de otras prioridades del país. Por ello, la organización de un programa de erradicación debe, en primer lugar, decidir si es factible. Si no lo es, lo mejor es no iniciarlo y seguir con el control.

Y, además, queda la llamada malaria de aeropuerto, es decir, la que llega a países que han erradicado la enfermedad desde aquellos donde sigue siendo endémica. Pueden llegar viajeros enfermos pero, también, mosquitos con el plasmodio. Por ejemplo, en agosto de 1984, una paciente de 76 años ingresó en un hospital de Madrid con fiebre y síntomas respiratorios y fue tratada de neumonía. Un mes después tuvo una infección bacteriana y le recetaron antibióticos. En un análisis de sangre apareció Plasmodium falciparum y, tratada con cloroquina y quinina, murió pocos días después por complicaciones respiratorias. En su revisión publicada en 1989, Isaäcson, de la Universidad de Witwatersrand, en Sudáfrica, incluyó este caso en la malaria de aeropuerto que, como decía, se supone que se infectaron por la picadura de mosquitos que han viajado en avión desde países con malaria. En el caso de Madrid, la paciente había visitado a su hija que vivía a menos de seis kilómetros del aeropuerto. Los casos importados en Europa, y según la OMS, provocaron hasta 100 muertes entre 1969 y 1974.

Referencias:

Breman, J.G. et al. 2004. Conquering the intolerable burden of malaria: What’s new, what’s needed: A summary. American Journal of Tropical Medicine and Hygiene 71, Suppl 2: 1-15.

Bruce-Chwatt. 1984. Malaria: from eradication to control. New Scientist 102: 17-20.

Bruce-Chwatt, L.J. 1986. Malaria control at the cross-roads! Where do we go from here? Memórias do Instituto Oswaldo Cruz 81: Suppl. II: 1-4.

Davidson, G. 1982. Who doesn’t want to eradicate malaria? New Scientist 96: 731-736.

Dietz, K. et al. 1974. A malaria model tested in the African Savannah. Bulletin of the WHO 50: 347-357.

Hanson, K. 2004. Public and private roles in malaria control: the contributions of economic analysis. American Journal of Tropical Medicine and Hygiene 71, Suppl 2: 168-173.

Hay, S.I. et al. 2004. The global distribution and population at risk of malaria: past, present and future. Lancet Infections Diseases 4: 327-336.

Hemingway, J. et al. 2016. Tools and strategies for malaria control and elimination: What do we need to achieve a grand convergence in malaria? PLOS Biology 14: e1002380.

Isaäcson, M. 1989. Airport malaria: a review. Bulletin of the WHO 67: 737.743.

Konradsen, F. et al. 2004. Engineering and malaria control: learning from the past 100 years. Acta Tropica 89: 99-108.

Lomborg, B. 2017. Aprender de la malaria. El País 4 agosto.

Moonen, B. & C. Shiff. 2017. Should we commit to eradicating malaria worldwide? British Medical Journal 356: j916.

Murray, C.J.L. et al. 2012. Global malaria mortality between 1980 y 2010: a systematic analysis. Lancet 378: 413-431.

Mwenesi, H.A. 2005. Sopcial science research in malaria prevention, management and control in the last two decades: An overview. Acta Tropica 95: 292-297.

Nájera, J.A. 1989. Malaria and the work of WHO. Bulletin of the WHO 67: 229-243.

Nevill, C.G. 1990. Malaria in Sub-Saharian Africa. Social Science & Medicine 31: 667-669.

Noor, A.M. et al. 2014. The changing risk of Plasmodium falciparum malaria infections in Africa: 2000-2010: a spatial and temporal analysis of trasmission intensity. Lancet 383: 1739-1747.

OMS. 2015. Estrategia Técnica Mundial contra la Malaria 2016-2030. OMS. Ginebra. 30 pp.

OMS. 2017. Programa Mundial sobre Paludismo de la OMS. OMS. Ginebra. 8 pp.

OMS. 2018. Informe Mundial sobre el Paludismo 2018. OMS. Ginebra. 10 pp.

Shah, S. 2010. The fever. How malaria has ruled humankind for 500.000 years. Picador. New York. 309 pp.

Strickman, D. 2018. La lucha contra los mosquitos. Investigación y Ciencia septiembre: 38-43.

Wadhwa, V. et al. 2010. The history and progression of malaria: A global and regional view. En “Malaria in South Asia”, p. 1-27. Ed. por R. Akhtar et al. Springer-Science-Business Media.

Yanney, G. 2004. Roll Back Malaria: a failing global health campaign. British Medical Journal 328: 1086-1087.

Zulueta, J. de et al. 1975. Receptivity to malaria in Europe. Bulletin of the WHO 52: 109-111.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Historias de la malaria: La lucha contra la malaria se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Historias de la Malaria: La vacuna
  2. Historias de la malaria: El parásito
  3. Historias de la malaria: El árbol de la quina
Catégories: Zientzia

Ignacio López Goñi – Naukas Bilbao 2018: La pandemia del siglo XXI

sam, 2019/09/07 - 11:59
Imagen de Ally White / Pixabay

Ignacio López Goñi es un divulgador de la microbiología siempre excelente pero de alguna manera proporcional: crece con el tamaño del escenario. En esta charla ante 2000 personas reunidas en el Euskalduna explica como nadie la pandemia que se nos viene encima en este siglo, la resistencia bacteriana a los antibióticos. López Goñi consigue que en la explicación intervengan todas y cada una de las personas presentes en el auditorio.

Ignacio López Goñi: ''La pandemia del siglo XXI''

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

 

El artículo Ignacio López Goñi – Naukas Bilbao 2018: La pandemia del siglo XXI se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan
  2. Ignacio López-Goñi: «El sistema de defensa de las bacterias es el mejor editor de genomas que existe»
  3. Ana Aguirre – Naukas Bilbao 2018: Somos binarios…. ¿o no?
Catégories: Zientzia

¿Cómo llegan bacterias resistentes y residuos de antibióticos a los alimentos?

ven, 2019/09/06 - 11:59


Mailo Virto Lekuona

 

Foto: Brian Chan / Unsplash

Hoy en día, prácticamente todas las personas constituimos un eslabón en la cadena de transmisión de antibióticos y de bacterias resistentes a antibióticos en el medio ambiente.

Esto es así porque prácticamente todo lo que ingerimos, empezando por el agua que bebemos y pasando por los alimentos de origen animal y vegetal, puede contener residuos de antibióticos o bacterias resistentes a antibióticos o sus genes. Los adquieren bien por contaminación, bien porque se encuentran naturalmente en los alimentos o bien porque se les ha añadido en el proceso de elaboración.

Residuos de antibióticos en alimentos

Las normativas europeas y estadounidenses definen los residuos de antibióticos como sustancias farmacológicamente activas (ya sea el principio activo, sus productos de degradación o sus metabolitos) que permanecen en el alimento obtenido a partir de animales a los que se les ha administrado el fármaco.

En principio, los productos de origen animal no deben ser consumidos hasta que el animal haya metabolizado el fármaco. Hay un tiempo establecido entre la administración y el sacrificio del animal para su consumo. Pero, aun así, es posible encontrar residuos en carnes, huevos y leche. También se han encontrado residuos de antibióticos en alimentos de origen vegetal e incluso en el agua de grifo.

Los huevos pueden contener residuos de antibióticos.
Tookapic/Visualhunt

La presencia de residuos de antibióticos utilizados en veterinaria en alimentos está limitada por normativas establecidas por las autoridades competentes en cada caso. En Europa, la EFSA (European Food Safety Authority) establece las directrices a aplicar y cada país miembro debe adecuar su normativa ajustada a esas directrices.

En general, cada vez que se aprueba un nuevo antibiótico (u otro tipo de medicamento) de uso veterinario para animales de consumo humano, debe de pasar una serie de análisis y evaluación de riesgos. Teniendo en cuenta los datos obtenidos de estos análisis, se establecen los límites aceptables de ingesta diaria (ADI). A partir de estos, se determinan los niveles máximos de residuos (LMR) permitidos en alimentos.

Es muy difícil determinar la ingesta real de residuos de antibióticos de cada individuo. Puede variar mucho dependiendo del país, de la dieta, etc. Por ello, los trabajos científicos publicados se refieren a lugares concretos y los resultados son difíciles de extrapolar.

En un estudio realizado en Hong Kong con niños, se analizaron los residuos de antibióticos en leche, agua potable y alimentos ingeridos y en orina. Se detectaron residuos de quinolinas, sulfamidas, macrólidos y penicilina. Pero tanto la ingesta estimada como los niveles detectados en orina estaban por debajo de los límites establecidos por las normativas vigentes.

Efectos para la salud

Sin embargo, aunque los niveles estén dentro de la normativa vigente y sean incluso indetectables, lo cierto es que las personas estamos continuamente expuestas a residuos de antibióticos. Esta exposición crónica a cantidades muy pequeñas de numerosos compuestos diferentes puede ser más perjudicial para la salud que las dosis terapéuticas durante periodos cortos, como cuando se trata una infección.

Los residuos de antibióticos en los alimentos pueden causar problemas graves de salud en las personas, como alergias, efectos inmunopatológicos y citotóxicos y aumentar el riesgo de desarrollar cáncer. Además, pueden alterar la composición del microbioma humano, especialmente del microbioma intestinal.

Comparada con la exposición por uso terapéutico, la exposición crónica a muchos antibióticos diferentes, aunque sea a niveles muy bajos, puede ejercer una mayor presión de selección sobre bacterias resistentes y no resistentes a antibióticos.

La exposición crónica a antibióticos es especialmente importante en niños después de la lactancia, cuando empiezan a ingerir otro tipo de productos. Los residuos de antibióticos en los alimentos pueden determinar el desarrollo de su microbioma. Estudios epidemiológicos y experimentales sugieren que tienen un efecto acumulativo, por lo que su efecto puede ir sumándose incluso de generación en generación.

Por otra parte, en 1976 se demostró por primera vez que el uso de antibióticos en veterinaria provocaba la colonización de bacterias resistentes en los pollos de una granja. También la adquisición de esa resistencia en el microbioma del tracto intestinal de los trabajadores de la granja.

En muchos estudios posteriores se ha demostrado que bacterias resistentes en animales pueden transmitir los genes de resistencia a bacterias presentes en el intestino humano. Esto ocurre, muy presumiblemente, vía alimentos.

Bacterias resistentes a antibióticos en alimentos

La presencia de bacterias en los alimentos puede ser intencionada, como, por ejemplo, en productos fermentados, como probióticos o incluso como bioconservantes. Los órganos competentes en cada caso (EFSA, en Europa) publican periódicamente listas de bacterias reconocidas como seguras para su uso en alimentación. Entre otras condiciones, estos microrganismos no deben producir antibióticos ni tener genes de resistencia.

No obstante, la presencia de bacterias resistentes puede ocurrir en alimentos preparados a partir de materia prima cruda, como, por ejemplo, alimentos fermentados tradicionales. O puede ser accidental, por contaminación de diferentes fuentes. Además, la matriz de los alimentos y las condiciones de conservación y procesado pueden favorecer la transmisión de genes de resistencia entre bacterias.

‘Staphylococcus aureus’, principal causa de mastitis en vacas.
Wikimedia Commons / Eric Erbe, Christopher Pooley

Preocupa especialmente la presencia de bacterias resistentes que provocan enfermedades transmitidas por los alimentos, como Salmonella o Campylobacter o bacterias responsables de zoonosis, como cepas resistentes de Staphylococcus aureus.

Además, bacterias comensales resistentes, no patógenas, pueden transferir los genes de resistencia a bacterias patógenas tanto en el procesado de los alimentos como tras la ingestión. Dado que algunas de las bacterias presentes en los alimentos tienen capacidad de aguantar las condiciones del tracto digestivo, colonizar el intestino y permanecer en él largos periodos de tiempo, pueden aumentar el riesgo de transmitir genes de resistencia tanto en el microbioma humano como en el medio ambiente.

Por todo ello, es importante monitorizar y reducir la presencia de todo tipo de bacterias resistentes (tanto comensales como patógenas) en los alimentos. Así mismo, es importante estudiar los elementos genéticos móviles presentes en los alimentos para entender su epidemiología e implementar métodos para reducir su presencia.

Todo ello, unido al cumplimiento de las buenas prácticas en los procesos de elaboración y buenas prácticas de higiene en todas las fases de la cadena alimentaria, “desde la granja a la mesa”.

Nota: Este artículo constituye un resumen de la charla impartida en el curso de verano de la UPV/EHU organizada por el JRL Environmental Antibiotic Resistence.

Sobre la autora: Mailo Virto Lekuona es profesora titular de Biquímica y Biología Molecular en la Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Cómo llegan bacterias resistentes y residuos de antibióticos a los alimentos? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El camino hacia los antibióticos inservibles
  2. Bacterias hospitalarias: resistentes e indetectables
  3. Una nueva vía para la lucha contra la resistencia a los antibióticos
Catégories: Zientzia

No todo es ciencia en ‘El club de la lucha’

jeu, 2019/09/05 - 11:59
Copyright © 1999 by 20th Century Fox. All Rights Reserved. Fair use.

 

«Tyler se lame los labios, húmedos y brillantes, y me besa el dorso de la mano».

La película que más veces he visto en mi vida es El club de la lucha. Dirigida por David Fincher, está basada en la novela homónima de Chuck Palahniuk, un escritor discípulo de la generación beat, héroe de muchas adolescencias rebeldes.

«Tyler inclina unos centímetros el bote que contiene el polvo de hipoclorito sobre el beso húmedo y brillante del dorso de mi mano. —Es una quemadura química—dice Tyler—y te dolerá más que cualquier otra quemadura. Peor que cien cigarrillos.

El beso brilla en el dorso de mi mano. —Te quedará una cicatriz—dice Tyler».

La primera regla del club de la lucha es no hablar del club de la lucha. Así que no voy a hablar del club de la lucha, sino de la ciencia de El club de la lucha. En esta novela hay descripciones científicas veraces mezcladas con licencias fantásticas. Desde cómo fabricar una bomba casera, cómo hacer una quemadura química con hipoclorito, a cómo fabricar jabón utilizando la grasa que se desecha tras las liposucciones.

Las descripciones son exquisitas. La ciencia se utiliza como recurso literario para tratar cuestiones de calado como el individuo, la libertad y la propiedad.

«Un explosivo interesante es el permanganato potásico mezclado con azúcar en polvo. La idea consiste en mezclar un ingrediente que se queme con rapidez con un segundo ingrediente que aporte oxígeno suficiente para la combustión. Al arder tan rápido se produce la explosión.

Peróxido de bario y polvo de zinc.

Nitrato de amoníaco y aluminio en polvo.

La nouvelle cuisine de la anarquía.

Nitrato de bario con salsa de azufre y guarnición de carbón vegetal. Ya tienes un compuesto de pólvora básica.

Bon appétit».

Copyright © 1999 by 20th Century Fox. All Rights Reserved. Fair use.

El club de la lucha es un ejemplo de que la cultura científica puede refinar el argumento de una novela o de una película. Se puede utilizar como metáfora, igual que cualquier otro recurso. Para plumas adecuadas, las descripciones científicas pueden ser tan hermosas como las de cualquier otro paisaje. No todo van a ser profundos ojos azules.

«Con jabón suficiente —dice Tyler— podrás volar el mundo entero».

En el octavo capítulo de la novela comienzan a fabricar jabón a partir de grasa humana.

«Esta grasa —me explica Tyler— tiene mucha sal, así que, cuanta más agua, mejor».

Vierte toda la grasa en ollas con agua hirviendo. Cuando la grasa se derrite, el sebo sube a la superficie, mientras que la sal se irá disolviendo en el agua. Esto se hace porque la grasa humana contiene mucha sal y con tanta sal el jabón no solidifica. El sebo de calidad es el que se forma en superficie.

«Hierve y espuma. Hierve y espuma».

La pastilla de jabón de color rosa se convirtió en el emblema de la película.

El sebo espumado lo van colocando en briks abiertos para que enfríe. Luego los meten en la nevera para que no se enrancie.

«Una capa de algo espeso y claro comienza a cubrir la superficie del sebo del frigorífico. —El sebo —le advierto—se está separando. —No importa —dice Tyler—. La capa más clara es de glicerina. O la agregas de nuevo cuando hagas el jabón o bien la espumas y la quitas».

Las grasas son químicamente triglicéridos. Esto es glicerina unida con enlace tipo éster a ácidos grasos. Durante la reacción de saponificación en la que las grasas se transforman en jabón, estos enlaces tipo éster se rompen y dan lugar a la formación de sales, dejando libre la glicerina. Para formar sales, lo que se hace en esta reacción es mezclar la grasa con una base como el NaOH o el KOH, así se forman las sales de sodio y de potasio respectivamente. Esas sales son lo que conocemos como jabón.

«Tyler vendía el jabón en los grandes almacenes a 20 dólares la pastilla. Dios sabe a cuánto lo venderían ellos. Era maravilloso. Le revendíamos a las mujeres ricas sus propios culos celulíticos».

En El club de la lucha fabrican jabón no solo por lo lucrativo del negocio del jabón. Lo que les interesaba realmente es la glicerina. La glicerina es uno de los reactivos necesarios para fabricar explosivos como nitroglicerina, dinamita o gelignita.

Chuck Palahniuk escribió sobre química en El club de la lucha. Años más tarde, David Fincher, incluyó en la película las descripciones completas de los procesos químicos más relevantes. Pero El club de la lucha no me gusta por eso, sino por lo importante. De todos modos, es interesante saber cuándo Tyler dice la verdad y cuándo no, porque no toda la ciencia que aparece en El club de la lucha es completamente veraz. Como otras muchas cosas que suceden en la historia. Sirven de migas de pan en el camino, manteniendo el suspense a medida que nos acercan a la verdad.

«La saliva de Tyler tenía dos funciones. El beso húmedo en la palma de mi mano retuvo el polvo de hipoclorito mientras me achicharraba. Esa fue la primera función. La segunda fue convertir el hipoclorito en cáustico. El polvo de hipoclorito solo es cáustico cuando lo mezclas con agua. O saliva.

Cierra los ojos».

Copyright © 1999 by 20th Century Fox. All Rights Reserved. Fair use.

La historia de El club de la lucha no va de ciencia, ni mucho menos. Pero se sirve de la ciencia para crear una atmósfera y, sobre todo, para hablar de asuntos trascendentes.

«Una mezcla de hipoclorito y agua llega a perforar una cacerola de aluminio. Una disolución de hipoclorito en agua disolverá una cuchara de madera. Combinado con agua, supera los cien grados de temperatura y al calentarse me quema el dorso de la mano. Tyler posa sus dedos sobre los míos; tenemos las manos extendidas sobre mis pantalones manchados de sangre, y Tyler me pide que preste atención».

En la escena en la que uno de los protagonistas padece la agonía de una quemadura química, se describe con detalle todo el proceso, el que le sucede a la carne y el importante, el que sucede en la mente.

«Regresa al dolor y presta atención. Es el momento más importante de tu vida».

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo No todo es ciencia en ‘El club de la lucha’ se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Con los edulcorantes artificiales (casi) todo son ventajas
  2. El ácido hialurónico no sirve para todo, aunque lo parezca
  3. No todo ha sido malo este año: la ciencia nos dejó algunas buenas noticias
Catégories: Zientzia

Números primos gemelos, parientes y sexis (1)

mer, 2019/09/04 - 11:59

Hace unos meses, mientras buscaba información para mis entradas del Cuaderno de Cultura Científica Los números enamorados y ¿Pueden los números enamorarse de su propia imagen?, descubrí dos familias de números primos especiales, los números primos “parientes” (llamados cousin en inglés) y los sexis, ambas relacionadas con los números primos gemelos. Entonces me las guardé en el baúl de los temas pendientes, que acabo de abrir para poder hablar en esta entrada y en la próxima sobre estas familias de números primos.

 1.2.3.5.7.11.13 (2018), del artista estadounidense Tim McKay, 332,7 x 152,4 cm, una de las obras de la exposición Primes, celebrada en 2019 en el espacio artístico Pirate: Contemporary Art, de Lakewood (Colorado). Imagen de la página web del artista

Pero empecemos por el principio, por los números primos gemelos. Como es bien conocido, los números primos son aquellos números naturales que solamente se pueden dividir por 1 y por ellos mismos, como el 2, el 3, el 5 o el 7, pero no el 9 (que se puede dividir por 3) o el 12 (que se puede dividir por 2, 3, 4 o 6). Puede leerse más sobre ellos en la entrada Buscando lagunas de números primos, como que existen infinitos números primos, que cada número natural puede expresarse, de forma única, como producto de números primos, qué es la criba de Eratóstenes o sobre el problema de la distribución de los números primos.

Como todos los números pares, a excepción del 2, son números compuestos, no primos, entonces lo más cerca que pueden estar dos números primos, salvo el 2 y el 3 que están pegados, es con solo un número par entre ellos. Y precisamente, a las parejas de números primos que están tan cerca, es decir, con solo un número par entre ellos, o dicho de otra forma, que la diferencia entre ellos es 2, se les llama números primos gemelos, como las parejas 11 y 13, 17 y 19, o 59 y 61. Las parejas de números primos gemelos menores de 500 son (véase la sucesión A0077800 de la enciclopedia online de números enteros):

(3, 5), (5, 7), (11, 13), (17, 19), (29, 31), (41, 43), (59, 61), (71, 73), (101, 103), (107, 109), (137, 139), (149, 151), (179, 181), (191, 193), (197, 199), (227, 229), (239, 241), (269, 271), (281, 283), (311, 313), (347, 349), (419, 421), (431, 433) y (461, 463).

Por eso en la novela La soledad de los números primos (Salamandra, 2009), del escritor italiano Paolo Giordano, se dice de los protagonistas, Mattia, que es matemático, y Alice: “Mattia pensaba que él y Alice eran eso, dos primos gemelos solos y perdidos, próximos, pero nunca juntos”.

Prime Rhythms / Ritmos primos (1959 -1962), de Anthony Hill, realizada en plástico laminado y de unas dimensiones de 91.5 x 91.5 x 1.9 cm. Imagen del artículo del artista A View of Non-Figurative Art and Mathematics and an Analysis of a Structural Relief. Obra relacionada con los números primos gemelos, como se explica en la entrada Los ritmos primos de Anthony Hill

Un primer resultado sobre las parejas de números primos gemelos es que, salvo la pareja (3, 5), son de la forma (6 n – 1, 6 n + 1). Veamos una justificación de este hecho. Un número cualquiera puede escribirse de la forma 6 n + d, para d = 0, 1, 2, 3, 4 o 5. Entonces:

i) si d = 0, 2 o 4, el número 6 n + d no es primo, ya que es divisible por 2;

ii) si d = 3, se puede dividir 6 n + d por 3;

iii) si d = 1, el número es de la forma 6 n + 1;

iv) si d = 5, la forma del número es 6 n + 5 = 6 (n + 1) – 1 = 6 m – 1, si tomamos m = n +1.

De hecho, hemos probado más. Hemos demostrado que todos los números primos, en particular, todos los números no divisibles por 2 y 3, son de una de estas dos formas: 6 n – 1 y 6 n + 1. Por lo tanto, la suma de dos números primos gemelos es divisible por 12 (5 + 7 = 12, 11 + 13 = 24, 17 + 19 = 36, etc).

Más aún, si tenemos una pareja de números primos (6 n – 1, 6 n + 1), entonces el dígito de las unidades del número n debe ser 0, 2, 3, 5, 7 u 8, ya que en otro caso – 1, 4, 6 o 9 – uno de los dos números de esa pareja sería múltiplo de 5.

Lo siguiente que podríamos plantearnos es cuántos números primos gemelos existen. Mientras que la existencia de infinitos números primos es un hecho conocido desde la matemática griega y que posee una sencilla demostración (véase Buscando lagunas de números primos), el problema de si existen infinitas parejas de números primos gemelos sigue estando abierto a día de hoy. Es la conocida como conjetura de los números primos gemelos.

Existen números primos gemelos muy grandes, por ejemplo, la pareja de números primos 1.000.000.000.061 y 1.000.000.000.063, que menciona Keith J. Devlin en su libro El lenguaje de las matemáticas (Ma Non Troppo, 2002), y mucho más grandes aún, como se verá más adelante, pero se desconoce si existen infinitos números primos gemelos. Sin embargo, en los últimos años se ha realizado un importante avance en esta conjetura.

En 2013 nos sorprendió la noticia de que el matemático chino, residente en Estados Unidos, Yitang Zhang, había probado una versión débil de la conjetura de los números primos (el correspondiente artículo fue publicado en 2014 en la prestigiosa revista de investigación matemática, Annals of Mathematics). En concreto, había demostrado que existen infinitas parejas de números primos cuya diferencia entre ellos es menor que 70 millones (70.000.000). No era la conjetura de los números primos gemelos, pero era un gran paso, ya que se había fijado una cota finita que, aunque no era 2 (que establece la conjetura para los números primos gemelos), al menos era finita, para la existencia de infinitas parejas de números primos cuya diferencia entre ellos fuera menor que esa cota.

A partir del resultado de Yitang Zhang, el matemático australiano-americano Terence Tao, propuso un proyecto polymath (que son proyectos colaborativos masivos para resolver problemas matemáticos) para reducir la cota de Zhang. Esta ha conseguido reducirse hasta 246. Es decir, existen infinitas parejas de números primos, cuya diferencia entre ellos es menor que 246. Dentro de ese conjunto infinito de parejas de números primos está el conjunto de los números primos gemelos (cuya diferencia es 2), el conjunto de las parejas de números primos cuya diferencia es 4, que son los llamados primos parientes, o el de aquellas cuya diferencia es 6, los primos sexis, que aún no sabemos si ellos solos son conjuntos infinitos o no, pero también todas las demás parejas de números primos con una diferencia menor que 246, como 29 y 41 (cuya diferencia es 12) o 47 y 269 (cuya diferencia es 222).

Más aún, asumiendo la conjetura de Elliot-Halberstam, sobre la distribución de números primos en progresión aritmética, y una generalización de la misma, se ha demostrado que la cota puede reducirse a 12 y 6.

Poema de los números primos (años 1980), rotulador e hilo sobre lienzo, 97,5 x 130 cm. Archivo Esther Ferrer y perteneciente al catálogo Esther Ferrer, todas las variaciones son válidas, incluida esta. Obra en la que aparecen los números primos gemelos más grandes conocidos en 1980, con 703 dígitos

Como puede verse en la página web dedicada a los números primos y sus records, The Prime pages, los números primos gemelos más grandes conocidos, a día de hoy, fueron obtenidos en septiembre de 2016, y son los números

2.996.863.034.895 · 21.290.000 – 1 y 2.996.863.034.895 · 21.290.000 + 1,

que tienen nada más y nada menos que 388.342 dígitos.

Otra cuestión interesante que nos podríamos plantear, es cuál es el porcentaje de parejas de números primos gemelos dentro del conjunto de todos los números primos, entendiendo que estamos contando solo el primer primo de la pareja, es decir, el primo p tal que p + 2 es también primo. Si miramos los listados existentes de ambos conjuntos, veremos que, entre los 100 primeros números, hay 25 números primos (2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89, 97) y 8 números primos p tales que p + 2 es también primo (3, 5, 11, 17, 29, 41, 59, 71), es decir, parejas de números primos gemelos, luego hay un 32% de parejas de números primos gemelos. Si tomamos ahora los 1000 primeros números, hay 168 números primos y 35 parejas de números primos gemelos, luego un 20,8%. Y va disminuyendo el porcentaje, de manera que cuando tomamos los primeros un millardo de números (1.000.000.000), hay 50.847.534 números primos, pero solo un 6,7% son primos p tales que p + 2 es primo, 3.424.506.

Como puede observarse, cada vez hay menos números primos gemelos (en realidad, primos p tales que p + 2 es primo), dentro del conjunto de números primos.

Un resultado curioso relacionado con los números primos gemelos es el conocido como teorema de Brun, demostrado por el matemático noruego M. Viggo Brun (1885-1978) en 1919.

Teorema de Brun (1919): La suma de los recíprocos de los números primos gemelos

es convergente, y converge al número B2, la conocida como constante de Brun, que tiene un valor aproximado de 1,902160583104 (esta aproximación fue obtenida en 2002, por Pascal Sebah y Xavier Gourdon).

Si la anterior serie, la suma de los recíprocos de los números primos gemelos, fuese divergente, es decir, que la secuencia infinita de sumas parciales de la serie no tuviese límite, entonces podríamos afirmar que existen infinitos números primos gemelos. Esto se debe a que si fuesen finitos la serie sería convergente, ya que la suma tendría un número finito de sumandos, luego sería finita, tendría límite. Sin embargo, la serie es convergente, por lo que no podemos deducir de ahí que sea una familia finita o infinita.

Por otra parte, si la constante de Brun B2 fuese un número irracional, es decir, que no se puede escribir como cociente de dos números enteros, podríamos afirmar que entonces existen infinitos números primos gemelos. Esto se debe a que, si fuesen finitos, la serie anterior sería una suma finita de números racionales, luego racional. Pero se desconoce si B2 es racional o irracional.

The First Ten Prime Numbers, Suite I (2004), de la artista estadounidense Nancy Macko, litografía, 76,2 x 55,9 cm. La imagen pertenece a la instalación de la obra en Commissary Arts (Venecia, California), en 2008, obtenida de la página web de Nancy Macko

Continuando con nuestro interés por los números primos gemelos, podríamos plantearnos si existen ternas de números primos gemelos. La respuesta es negativa, salvo para la terna (3, 5, 7), ya que cada tres números impares consecutivos, uno de ellos necesariamente es múltiplo de 3. Es fácil observar esto. Todo número puede escribirse como 3 n + r, con r = 0, 1 o 2, entonces tres números impares consecutivos pueden escribirse de la forma 3 n + r, 3 n + r + 2 y 3 n + r + 4 = 3 (n + 1) + r + 1. Si r = 0, el primer número es múltiplo de 3, si r = 1, lo es el segundo, y si r = 2, el múltiplo de 3 es el tercero.

En conclusión, no hay ternas de números primos gemelos. Lo más cerca que pueden estar tres números primos entre sí es cuando son de la forma (p, p + 2, p + 6), como (5, 7, 11) o (11, 13, 17), y de la forma (p, p + 4, p + 6), como (7, 11, 13) o (13, 17, 19), a los cuales se les llama números primos trillizos.

Los números primos trillizos de la forma (p, p + 2, p + 6), menores de 500, son (véase la sucesión A022004 de la enciclopedia online de números enteros):

(5, 7, 11), (11, 13, 17), (17, 19, 23), (41, 43, 47), (101, 103, 107), (107, 109, 113), (191, 193, 197), (227, 229, 233), (311, 313, 317), (347, 349, 353), (461, 463, 467).

Mientras que los números primos trillizos de la forma (p, p + 4, p + 6), menores de 500, son (véase la sucesión A022005):

(7, 11, 13), (13, 17, 19), (37, 41, 43), (67, 71, 73), (97, 101, 103), (103, 107, 109), (193, 197, 199), (223, 227, 229), (277, 281, 283), (307, 311, 313), (457, 461, 463).

Además, la terna de números trillizos, de la forma (p, p + 2, p + 6), más grande que se conoce en la actualidad, obtenida en abril de 2019 (véase The Prime pages), es

4.111.286.921.397 x 266.420 – 1,

4.111.286.921.397 x 266.420 + 1,

4.111.286.921.397 x 266.420 + 5,

que tienen 20.008 dígitos. Mientras que para la forma (p, p + 4, p + 6), los números primos trillizos más grandes, obtenidos en abril de 2013 (véase The Prime pages), son

6.521.953.289.619 x 255.555 – 5

6.521.953.289.619 x 255.555 – 1

6.521.953.289.619 x 255.555 + 1,

con 16.717 dígitos cada uno. Además, de forma similar a la conjetura de los números primos gemelos, existe una conjetura sobre la existencia de infinitos números primos trillizos.

En general, nos podemos plantear el estudio de las familias de los grupos de k números primos más próximos posibles, que podemos llamar, para k = 4, cuatrillizos, para k = 5, quintillizos, luego sextillizos, septillizos, octillizos, nonillizos, etcétera y, en general, para cualquier k, números primos k-tillizos.

Dos fotografías, con 6 años de diferencia (2010-2016), de la familia McGee, con sus seis hijos sextillizos, Elijah, Issac, Josiah, Madison, Olivia and Rozonno Jr., que han sido las estrellas de un programa de televisión llamado “Growing Up McGee”. Imagen e información de la página de TODAY, fotografías de Janine and Brian Killian, de Peters Photography

Los números primos cuatrillizos son de la forma (p, p + 2, p + 6, p + 8). Las primeras cuaternas de números primos cuatrillizos (véase la sucesión A007530) son

(5, 7, 11, 13), (11, 13, 17, 19), (101, 103, 107, 109), (191, 193, 197, 199), (821, 823, 827, 829), (1481, 1483, 1487, 1489), (1871, 1873, 1877, 1879), (2081, 2083, 2087, 2089).

Además, puede demostrarse que los números primos cuatrillizos son de la forma

(30 n + 11, 30 n + 13, 30 n + 17, 30 n + 19),

salvo la cuaterna inicial (5, 7, 11, 13). Este resultado, y otros similares, ayudan a la hora de encontrar números primos cuatrillizos (véase, por ejemplo, el artículo Two Algorithms to Find Primes in Patterns, de Jonathan Sorenson).

Si tenemos una cuaterna de números primos cuatrillizos (p, p + 2, p + 6, p + 8) tal que uno de los números, p – 4 o p + 12, es primo, entonces se tiene una quinterna de números primos lo más próximos posibles entre ellos, es decir, una quinterna de números primos quintillizos. Por lo tanto, los números primos quintillizos son de la forma (p, p + 2, p + 6, p + 8, p + 12), como las quinternas (5, 7, 11, 13, 17) y (11, 13, 17, 19, 23), o de la forma (p, p + 4, p + 6, p + 10, p + 12), como (7, 11, 13, 17, 19) y (97, 101, 103, 107, 109).

Mientras que los números primos sextillizos son de la forma (p, p + 4, p + 6, p + 10, p + 12, p + 16), como (7, 11, 13, 17, 19, 23) y (97, 101, 103, 107, 109, 113), y así podríamos seguir con más agrupaciones próximas de números primos.

Despidamos la primera parte de esta miniserie de entradas sobre los números primos gemelos, parientes y sexis, y otras familias relacionadas, con otra obra relacionada con los números primos de la artista donostiarra Esther Ferrer.

Poema de los números primos (2016), de Esther Ferrer, dibujo para suelo, realizado en tinta sobre papel cuadriculado, 104,5 cm x 83,5 cm, del Archivo de Esther Ferrer. Imagen de la exposición Esther Ferrer 2, 3, 5, 7, 11, 13, 17, 19, 23,… en Tabakalera. Fotografía de Raúl Ibáñez

 

Bibliografía

1.- Wolfram Mathworld: Twin Primes

2.- Wikipedia: Twin prime

3.- Yitang Zhang, Bounded gaps between primes, Annals of Mathematics 179 (3), pp. 1121–1174, 2014.

4.- The Prime pages

5.- Chris, Di and Matthew Stevenson, Hugin Home Page: Prime numbers

6.- X. Gourdon, P. Sebah: Introduction to Twin Primes and Brun’s Constant Computation

7.- Wolfram Mathworld: Prime Triplet

8.- Wikipedia: Prime triplet

9.- Wikipedia: Prime quadruplet

10.- Jonathan Sorenson, Two Algorithms to Find Primes in Patterns

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Números primos gemelos, parientes y sexis (1) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El poema de los números primos (2)
  2. Buscando lagunas de números no primos
  3. El poema de los números primos
Catégories: Zientzia

Pages