S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 51 min 20 sec

El cobalto, un metal escaso y muy necesario

dim, 2019/09/15 - 11:59
Plataformas petrolíferas en desuso en Cromarty Firth (Escocia, Reino Unido). Foto: Michael Elleray / flickr

El cobalto es un elemento cuyo atributo más conocido es el color que proporcionan ciertos compuestos de los que forma parte a piezas de vidrio, esmaltes y cerámicas. El azul cobalto, que es como se denomina ese color, es propio de los pigmentos minerales elaborados con aluminatos y silicatos de cobalto, y con mezclas de fosfato de cobalto y alúmina.

El cobalto es también el centro activo de la vitamina B12 -denominada también cobalamina-, una coenzima que participa en el metabolismo celular. Interviene, por ejemplo, en la síntesis de ADN, y en el metabolismo de ácidos grasos y aminoácidos. Es especialmente importante para el sistema nervioso, debido al papel que juega en la producción de la cubierta de lípidos que envuelve los axones de las neuronas y en la maduración de los glóbulos rojos en la médula ósea.

Además de su uso decorativo y su papel biológico a través de la vitamina B12, el cobalto tiene numerosas aplicaciones industriales. Hay una gran demanda de este elemento para su uso en los electrodos de las baterías eléctricas. Por esa razón, como la producción de vehículos eléctricos está aumentando rápidamente, su demanda está creciendo a gran ritmo. Se estima, de hecho, que el año que viene no pueda extraerse todo el cobalto que necesitará la industria del automóvil, lo que podría suponer un obstáculo importante para aumentar la producción de coches eléctricos.

El cobalto representa el 0,003% de la corteza terrestre. Se extrae mediante minería, generalmente asociada a la extracción de cobre y níquel. Se calcula que las reservas mineras totales de este metal ascienden a algo más de siete millones de toneladas, de las que aproximadamente la mitad se encuentra en la República Democrática del Congo.

Así las cosas, no es de extrañar que se busquen afanosamente alternativas a la minería como método de obtención de tan escaso metal. Se da la circunstancia de que en los océanos hay una cantidad enorme de cobalto, tanto como quinientos millones de toneladas. O sea, hay setenta veces más cobalto en los mares que en la corteza terrestre, por lo que ya hay quien se ha puesto a pensar en cómo extraerlo. Maha Haji y Alexander Slocum, del Instituto tecnológico de Massachusetts (MIT), han propuesto para ello recurrir a tecnologías de adsorción pasiva; son tecnologías basadas en la propiedad de muchos materiales para atrapar de forma pasiva (sin gasto energético) determinadas sustancias.

Al parecer el cobalto se adhiere con facilidad a materiales como algas y otros productos orgánicos abundantes. Y los investigadores del MIT proponen utilizar torres de perforación de petróleo en desuso para amarrar a ellas cordones de los que colgarían esferas de plástico del tamaño de balones de playa. Las esferas estarían convenientemente perforadas y en su interior se dispondrían los materiales adsorbentes más adecuados. Cada pocas semanas se recogerían los balones, se les retiraría el cobalto y se volverían a colocar colgando de los cordones. De acuerdo con sus estimaciones, reutilizando setenta y seis plataformas petroleras hoy en desuso, podría obtenerse el cobalto necesario para fabricar medio millón de baterías de coches eléctricos cada año. Sus cálculos se basan en experimentos de laboratorio en los que se ha utilizado un procedimiento similar para obtener uranio. El problema es que en el agua de mar hay ocho veces menos cobalto que uranio y este procedimiento tendría, por ahora, un coste muy alto. Pero puede que sea asumible, dependiendo, entre otras cosas, de lo que represente en el coste total de las baterías y del interés que tenga la gente en adquirir coches eléctricos.

Fuente: Haji, Maha N. & Slocum, Alexander H. (2019): An offshore solution to cobalt shortages via adsorption-based harvesting from seawaterRenewable and Sustainable Energy Reviews 105(C): 301-309.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El cobalto, un metal escaso y muy necesario se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tabla periódica en el arte: Cobalto
  2. Un aerogel metal-orgánico cataliza una nueva empresa
  3. Una batería de metal líquido y el futuro de las energías renovables
Catégories: Zientzia

Gemma Del Caño y Marián García – Naukas Bilbao 2018: Sandwich mixto en tres actos

sam, 2019/09/14 - 11:59
Foto: Steven Depolo / flickr

Naukas es sinónimo de ciencia divertida. Y en ocasiones la ciencia divertida se convierte en todo un espectáculo. Tras ver este vídeo nunca verás un sandwich mixto igual.

Por cierto, Naukas Bilbao 2019 se celebra a partir del próximo día 18 de septiembre (programa completo) dentro del festival Bizkaia Zientzia Plaza (programa de actividades completo). Por si te animas a que te sorprendan aprendiendo.

Gemma Del Caño y Marián García: ''Sandwich mixto en tres actos''

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

 

El artículo Gemma Del Caño y Marián García – Naukas Bilbao 2018: Sandwich mixto en tres actos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao está en marcha
  2. Francisco R. Villatoro – Naukas Bilbao 2018: El ángulo mágico del grafeno
  3. Naukas Bilbao 2017 – Déborah García Bello: Saboer
Catégories: Zientzia

Nuevos biomarcadores en niños con enfermedad renal crónica

ven, 2019/09/13 - 11:59

Servicio Central de Análisis de Araba (SGIker – UPV/EHU)

Imagen: Tareq Salahuddin / flickr

La enfermedad renal crónica (ERC) se define como una condición en la que los riñones se encuentran dañados y no son capaces de filtrar la sangre adecuadamente. Como consecuencia, se produce la acumulación de desechos en la sangre y en el organismo, que puede originar serios problemas de salud[1].

Los últimos avances en nuevas terapias médicas han permitido un mejor control y pronóstico de estos pacientes. Sin embargo, aún no se logra prevenir el retraso en el crecimiento, la anemia, los problemas cardiovasculares asociados y otras consecuencias de la enfermedad en niños con ERC, alcanzando elevadas tasas de morbimortalidad en este grupo de población[2].

En la actualidad, la creatinina sérica se utiliza como biomarcador clásico para evaluar la función renal. No obstante, la creatinina tiene una sensibilidad bastante limitada y revela el daño renal cuando ya se ha producido una importante pérdida de nefronas, las unidades funcionales de los riñones. Por ello, la búsqueda de nuevos biomarcadores de diagnóstico o de la evolución de la patología y su aplicación en la ERC pediátrica podría contribuir a su diagnóstico, seguimiento y a una mejor comprensión de la fisiopatología de la enfermedad[3].

La metabolómica es una herramienta que tiene como finalidad la búsqueda e identificación de biomarcadores atendiendo al perfil metabólico de un conjunto de muestras biológicas. Estudia las moléculas pequeñas, típicamente por debajo de los 1500 Da, en un sistema biológico, comparando los conjuntos de moléculas o metabolitos entre un grupo control y un grupo testado[4].

Existen dos tipos de metabolómica, la metabolómica dirigida y la metabolómica no dirigida. En el primero de los casos, se buscan diferencias en cuanto a moléculas o grupos de moléculas pertenecientes a distintas rutas metabólicas que son seleccionadas por los investigadores. Por el contrario, en la metabolómica no dirigida se comparan los perfiles de moléculas presentes en las poblaciones objeto de estudio sin que exista ningún tipo de selección de éstas, lo que implica que no haya ningún sesgo previo[5].

Figura 1. Comparativa de los estudios metabolómicos para la búsqueda de biomarcadores de la ERC pediátrica. Elaboración del SCAA.

En el SCAA, se han desarrollado dos métodos diferentes basados en la cromatografía líquida acoplada a espectrometría de masas, técnica de análisis que permite la separación, detección y cuantificación de moléculas de una muestra (Figura 1). Los métodos propuestos se han aplicado a muestras de plasma recogidas por el Servicio de Nefrología Pediátrica del Hospital de Cruces en Barakaldo de pacientes pediátricos con ERC y controles de la misma edad del País Vasco.

El primer método (metabolómica dirigida) permitió la identificación de tres moléculas que podrían actuar como biomarcadores potenciales, además de la creatinina: citrulina, S-adenosilmetionina y dimetilarginina simétrica. En un estudio estadístico llevado a cabo para evaluar la calidad de los posibles nuevos biomarcadores, la utilización de la creatinina sérica como único biomarcador permitía la clasificación correcta del 71 % de los pacientes, mientras que la incorporación de las concentraciones plasmáticas de estas tres nuevas moléculas logró alcanzar una correcta clasificación en un 89 % de los pacientes mejorando el diagnóstico[6,7].

Por su parte, de la aplicación del otro método (metabolómica no dirigida) se obtuvieron cinco señales, de las que posteriormente fue posible identificar cuatro como las siguientes moléculas: n-butirilcarnitina, cis-4-decenoilcarnitina, bilirrubina y esfingosina-1-fosfato. Del mismo modo, se evaluó la capacidad de estas moléculas que podrían proponerse como biomarcadores de la ERC, obteniéndose una correcta discriminación entre enfermos y controles en un 96 % de los casos[8].

Referencias:

Este trabajo de investigación ha formado parte de la Tesis Doctoral de Sandra Benito y ha dado lugar a cuatro publicaciones científicas.

[1] LEVEY, A.S., ATKINS, R., CORESH, J., COHEN, E.P., COLLINS, A.J., ECKARDT, K.U., NAHAS, M.E., JABER, B.L., JADOUL, M., LEVIN, A., POWE, N.R., ROSSERT, J., WHEELER, D.C., LAMEIRE, N. eta EKNOYAN, G., 2007. «Chronic kidney disease as a global public health problem: approaches and initiatives – a position statement from Kidney Disease Improving Global Outcomes». Kidney International, 72, 247-59.

[2] HARAMBAT, J., VAN STRALEN, K.J., KIM, J.J. eta TIZARD, E.J., 2012. «Epidemiology of chronic kidney disease in children». Pediatric Nephrology, 27, 363-73.

[3] ZHAO, Y.Y., 2013. «Metabolomics in chronic kidney disease». Clin. Chim. Acta, 422, 59-69.

[4] FIEHN, O., 2002. «Metabolomics – the link between genotypes and phenotypes». Plant Mol. Biol., 48, 155-171.

[5] PATTI, G.J., YANES, O. eta SIUZDAK, G., 2012. «Innovation Metabolomics: the apogee of the omics trilogy». Nat. Rev. Mol. Cell Biol., 13, 263-269.

[6] BENITO, S., SANCHEZ, A., UNCETA, N., ANDRADE, F., ALDAMIZ-ECHEVARRIA, L., GOICOLEA, M.A. eta BARRIO, R.J., 2016. «LC-QTOF-MS-based targeted metabolomics of arginine-creatine metabolic pathway-related compounds in plasma: application to identify potential biomarkers in pediatric chronic kidney disease». Anal. Bioanal. Chem., 408, 747-760.

[7] BENITO, S., SANCHEZ-ORTEGA, A., UNCETA, N., JANSEN, J.J., POSTMA, G., ANDRADE, F., ALDAMIZ-ECHEVARRIA, L., BUYDENS, L.M.C., GOICOLEA, M.A. eta BARRIO, R.J., 2018. «Plasma biomarker discovery for early chronic kidney disease diagnosis based on chemometric approaches using LC-QTOF targeted metabolomics data». J. Pharm. Biomed. Anal., 149, 46-56.

[8] BENITO, S., SANCHEZ, A., UNCETA, N., ANDRADE, F., ALDAMIZ-ECHEVARRIA, L., GOICOLEA, M.A. eta BARRIO, R.J., 2018. «Untargeted metabolomics for plasma biomarker discovery for early chronic kidney disease diagnosis in pediatric patients using LC-QTOF-MS». Analyst (Cambridge, U. K.), Ahead of Print.

El artículo Nuevos biomarcadores en niños con enfermedad renal crónica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Posibles biomarcadores para el ictus
  2. Tres historias italianas: vacunas, homeopatía, niños y derechos humanos
  3. La ecología de una enfermedad
Catégories: Zientzia

El sonido del viento (2)

jeu, 2019/09/12 - 11:59

[El sonido del viento (1)]

Mientras que los instrumentos de cuerda necesitan transmitir su vibración al aire (mediante una superficie o caja de resonancia), en los instrumentos de viento es el propio aire el que se mueve desde el principio. La función del tubo, por tanto no es producir sonido, sino dar forma y contener la onda sonora. Ahora bien, como contenedor tiene una función fundamental ya que define el tono del sonido.

De manera general, cuanto más larga sea la onda sonora, más grave será su sonido y viceversa. Por eso, los instrumentos más grandes de la orquesta (como el contrabajo) son aquellos que producen sonidos más graves y viceversa. Además, bajo el nombre de cada instrumento, suele agruparse una familia entera, de distintos tamaños, que cubren rangos de sonidos diferentes (lo que en música se conoce como tesitura).

Cada instrumento de viento tendrá, por tanto, un tono asociado a su longitud, la frecuencia natural de su tubo, que diría un físico. Ahora bien, suele ser deseable que un solo instrumento pueda producir varios tonos distintos. Y “cortar” el tubo en cuestión no suele ser una opción (aunque en algunos instrumentos se puede probar algo parecido). Por ello, los ingeniosos inventores de máquinas de hacer sonidos (i.e. instrumentos) han ideado varios mecanismos que permiten variar la longitud de un tubo sin romperlo. Aquí van algunas.

1- Agujeros.

El tubo define la frecuencia de la onda sonora que contiene porque es capaz de imponer unas condiciones de contorno sobre ella. Pero vamos a explicar qué significa esto. Pongamos por ejemplo, un tubo cilíndrico abierto por los dos lados (i.e. flauta). Lo que nos dice la física es que, dentro de ese tubo, va a suceder todo lo que pueda suceder y nada que no pueda suceder. A veces la física se pone un poco tautológica, yo lo sé, pero esto tiene su importancia porque una de las cosas que no pueden suceder es que en los extremos del tubo se den cambios bruscos de presión o de velocidad en el aire.

Esto implica que la onda sonora, dentro de nuestro imaginario tubo cilíndrico, debe tener al menos dos puntos donde la presión del aire no varía (dos nodos): la entrada y la salida. Aquí, el aire del tubo entra en contacto con el exterior que se encuentra, invariablemente, a presión atmosférica.

Este es el mecanismo por el que la longitud del tubo define la longitud de la onda sonora. Pero podemos utilizarlo también para “acortar” el tubo sin cortarlo. Si abrimos agujeros y los destapamos sucesivamente, cada agujero forzará un nuevo nodo en la onda sonora. La onda se formará entonces entre la entrada del tubo y el primer agujero abierto. Cuanto más cerca este agujero de la embocadura, más agudo será el sonido (más corta su longitud de onda). Por eso los instrumentistas van retirando dedos, según se acercan al agudo, fijaos por ejemplo, en el solo inicial del clarinete de Rhapsody in Blue.

 

2- Armónicos.

Ahora bien, existen algunos instrumentos de viento que no tienen agujeros, ni uno solo. Este es el caso, en general, de los instrumentos de viento metal. Las “teclas” de trompetas, trompas y demás activan distintos pistones sin dejar que el aire de su interior entre en contacto en ningún momento con el exterior.

La trompa es un caso especialmente sorprendente, dado que alcanza los 3 metros de longitud. El origen de las trompas son son los míticos cuernos o cornos que se llevaban a la batalla. Pero este corno fue creciendo… y está claro que en algún momento a alguien se le fue de las manos. En su versión orquestal, el tubo se encuentra enrollado y quizás no impresiona tanto, pero la trompa alpina, un instrumento típico de Suiza, permite apreciar la verdadera magnitud del instrumento.  

Ahora bien, la trompa no tiene ni un agujero. Es un único tubo continuo… y aún así, sirve para entonar melodías como esta:

¿Cómo es esto posible? La clave está en que las condiciones de contorno imponen que la onda tenga al menos dos nodos en los extremos del tubo (en el caso de la trompa, un nodo y un antinodo, ya que uno de los extremos está tapado por la boca del instrumentista). Pero esta condición se cumple también para sonidos que tienen más nodos dentro del propio tubo, sonidos cuya longitud es una fracción racional de la longitud del tubo, también conocidos como armónicos. Para conseguir tocar estos armónicos, el trompista debe variar la vibración de sus labios con una gran precisión. Con una trompa moderna, un profesional es capaz de hacer sonar hasta 10 armónicos de una mismo tono fundamental.

Esquema de los armónicos de un abierto por ambos extremos y un tubo cónico cerrado por un lado, como la trompa. Fuente: University of New South Wales

3- Pistones.

Hasta el s. XIX, las trompas de las orquestas solían ser, como las alpinas, un simple tubo enrollado, sin ningún tipo de apertura ni pistón. Sin embargo, su dependencia de los armónicos, limitaba su posible repertorio a aquellas piezas compuestas en la tonalidad de su frecuencia fundamental.

Con un lenguaje musical cada vez más flexible y con más cambios de tonalidad, esto suponía una fuerte restricción. En el s. XVIII, empezaron a usarse tubos de distinta longitud, que se colocaban entre la boquilla y el cuerpo del instrumento para extender su longitud y variar así su tono. Estos fueron los precursores del sistema de pistones y válvulas que se utiliza hoy en día: el “elija su propia aventura” de los instrumentos de viento metal.

Los pistones son mecanismos que habilitan distintos recorridos del aire dentro del instrumento, dando lugar a tubos de distinta longitud con sólo pulsar una tecla. Fueron ideados a principios del s. XIX (alrededor de 1815) pero no llegaron a popularizarse hasta bastante tiempo después debido, por un lado, a la falta de madurez del invento y, por otro, al recelo de algunos músicos que seguían prefiriendo la trompa natural. Hoy, en cambio, este mecanismo está plenamente aceptado y no sólo dota de mayor flexibilidad a este tipo de instrumentos, sino que les da ese aspecto intrincado, tan característico y tan bonito.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El sonido del viento (2) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El sonido del viento
  2. Sonido (1)
  3. Sonido (y 2)
Catégories: Zientzia

Évariste Galois: contra el tiempo

mer, 2019/09/11 - 11:59

 

«Lejos de cualquier lirismo, Billette ha sabido crear un universo históricamente anclado, pero moderno por su lenguaje y su intención, por la explosión cronológica del relato, así como por el humor y un toque fantástico».

Raymond Bertin, « Combat pour un nouveau monde / Contre le temps », Cahiers de théâtre Jeu,‎ 2012

Libreto de Contre le temps.

 

Contre le tempsContra el tiempo– (2011) es una obra de teatro de la dramaturga Geneviève Billette. Se estrenó en Montreal (Canadá) el 8 de noviembre de 2011, año en el que se conmemoraba el centenario del nacimiento de Évariste Galois. En la imagen posterior aparecen los personajes de la obra; de izquierda a derecha:

  • Stéphanie, la amada de Galois.

  • El poeta Gérard de Nerval, encarcelado en la prisión de Sainte-Pélagie en febrero de 1832 por un alboroto nocturno. Allí conoce a Galois y entablan amistad.

  • Évariste Galois, protagonista de la historia.

  • Gabriel, el padre de Galois.

  • Adélaïde, la madre de Galois que se siente culpable por haber perdido el contacto con su hijo durante su estancia en prisión.

  • Alfred, el hermano pequeño de Galois, que sólo desea pasar tiempo con Évariste.

  • Augustin, el amigo de Galois que no entiende la razón de sus matemáticas.

  • El espectro del matemático Jean-Baptiste Fourier, que anhela que Galois redacte su legado científico. Se siente culpable por haber fallecido sin terminar la evaluación de un documento de Galois. Junto a Gérard de Nerval, aporta la nota cómica a una obra de claro corte dramático.

Los personajes de la obra. Fotografía de producción.

 

A continuación resumimos el guion y compartimos algunas citas (traducidas por la autora de esta anotación).

Estamos en 1832, en París. Évariste Galois acaba de abandonar la prisión en la que ha permanecido encarcelado durante ocho meses por motivos políticos. Activo republicano, había sido arrestado, por segunda vez, por un acto de sedición contra el rey Luis Felipe de Orleans. Es un joven apasionado y comprometido; vive por la democracia y la investigación científica.

El matemático intenta terminar su tratado de álgebra porque sospecha que va a morir; lucha contra el tiempo. La noche anterior al duelo que le lleva a la muerte, Galois escribe en el margen de la memoria que está intentando terminar:

Hay algo a completar en esta demostración. No tengo tiempo.

Su madre –con la que ha perdido el contacto desde hace meses– corre a buscarlo para abrazarle y transmitirle su cariño. Un curioso personaje impide a Adélaïde acercarse a Galois: es el fantasma de Jean-Baptiste Fourier, que se siente culpable por haber fallecido –en mayo de 1830– unos días después de haber recibido un manuscrito de Galois para –como secretario vitalicio de la académie des Sciences– evaluar. Sin haber sido revisado, este documento se perdió. Fourier sabe que Galois va a morir y no quiere que nadie le entretenga para que finalice la redacción de su legado matemático.

Galois redacta con gran excitación. Se detiene en algunos momentos para recordar detalles de su vida. Se acuerda afligido de su padre –alcalde de Bourg-la-Reine, de ideas liberales– que se suicida en 1829 no pudiendo soportar el descrédito ante sus conciudadanos promovido por el párroco de la ciudad. Galois lamenta no haber percibido el mal momento anímico por el que pasaba Gabriel. Pero sigue escribiendo, con pasión, con un arrebato cercano a la locura. Recuerda a su amada Stéphanie, a su hermano pequeño, a su madre…

Galois encarna al genio romántico, apasionado por la vida y por intentar cambiar el orden del mundo. Sus ansias por aprender se habían visto frenadas por las autoridades académicas; fue expulsado de la École Polytechnique que apoyaba a una monarquía repudiada por Galois.

Adélaïde: La dirección de la École se declara monárquica, ¿y qué? Eso no te impedirá pensar, trabajar, ¡el álgebra no tiene banderas!

Évariste: El álgebra es también una visión del mundo.

En una conversación con su amigo Augustin, explica la razón por la que sus matemáticas son revolucionarias:

¿Por qué crees que nadie antes de mí había conseguido resolver el problema? Los otros matemáticos no carecen de inteligencia. Conozco sus trabajos de memoria, sé exactamente cómo piensan […]. Uno a uno, han fracasado con la ecuación de grado 5, porque aislaban el problema. […] La única manera de resolverlo era con otra perspectiva. Mi método de resolución general, Augustin, […] era la única solución.

Al definir la estructura de grupo, Galois establece un nuevo territorio a explorar, un territorio con inmensas posibilidades:

Augustin: Comprendo el principio, pero ¿para qué sirve?

Évariste: Para pensar de manera amplia. […] También para ir más allá. Permite anticiparse.

Augustin: ¿Pero a qué se dedica?

Évariste: No te entiendo…

Augustin: Las aplicaciones concretas.

Évariste: Ah eso… Ninguna. […]

Augustin: Vamos… Cuando vayas donde un mecenas, ¿qué le dirás? ¿A quién beneficiarán tus grupos de inmediato?

Évariste: A nadie. Por ahora, a nadie. No… no es para nosotros. Los químicos se apropiarán de ello. Los físicos también. Pero las aplicaciones concretas, como dices, creo que no serán visibles más que dentro de doscientos años. […]

Augustin: Esto es serio, Évariste. No has podido pasarte noches enteras de trabajo sin conocer la utilidad de tus investigaciones… Es imposible. ¡Imposible!

Évariste: Lo que dices es estúpido. ¿Cómo quieres inventar si sabes exactamente lo que estás buscando? Me he obsesionado con la ecuación de grado 5, esto es lo que me ha permitido progresar, noche a noche, hasta la idea de grupo. No se puede investigar, Augustin, realmente investigar, conociendo con antelación el paisaje final.

Augustin: Doscientos años… nadie se beneficiará. Me refiero a que ninguno de nosotros estará…

Évariste: Es cierto, es lo que más me fascina. Hacer posible un mundo que nunca conoceré.

Por cierto, el tiempo le ha dado la razón. Sus teorías matemáticas permiten estudiar objetos complejos en términos de simetrías y de permutaciones y, hoy en día, se aplican a áreas tan variadas como la informática, la química, la física o la criptografía.

Contre le temps finaliza con la aprobación por parte de Fourier de los trabajos de Galois. Cuando el matemático yace ya herido de muerte tras su duelo, Fourier le tranquiliza:

Está todo. (Pausa) Está todo, Galois.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Évariste Galois: contra el tiempo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Estudiar más que conocer, buscar más que encontrar la verdad
  2. Contra la meritocracia
  3. El rostro humano de las matemáticas
Catégories: Zientzia

El modelo atómico de Rutherford

mar, 2019/09/10 - 11:59
El oro se emplea en las naves espaciales como protector contra la radiación. Pero básicamente radiación térmica (infrarrojo), visible y, combinado con otros materiales, ultravioleta. Tras leer esta anotación sabrás que el espesor de oro necesario para proteger contra una fuente de radiación alfa a una nave espacial o a una astronauta haría las misiones espaciales prohibitivamente caras. Fuente: NASA

¿Cómo llega Rutherford a la conclusión de que el átomo debía tener una concentración de masa y carga, esto es, un núcleo a partir de los primeros experimentos de Geiger y Marsden? Veámoslo con algo más de detalle partiendo de la base de que el modelo imperante en ese momento es el modelo atómico de Thomson.

Lo primero que parecía evidente es que debía existir algo (los núcleos) que tenía que ser mucho más densos que cualquier cosa en los átomos de Thomson. Simplemente, porque una partícula α que se mueve directamente hacia uno de ellos se ve detenida y devuelta. Una analogía sería que una pelota de tenis rebota si impacta con una roca, pero no si lo que se encuentra delante es una nube de partículas de polvo de la misma masa que esa misma roca.

Figura 1. Fuente: Cassidy Physics Library

El esquema de la Figura 1 se basa en uno de los diagramas de Rutherford en su artículo de 1911 [1], que sentó las bases de la teoría moderna de la estructura atómica. Muestra dos partículas α cargadas positivamente, A y A’. La partícula α A se dirige directamente hacia un núcleo masivo N. Si el núcleo tiene una carga eléctrica positiva, repelerá la partícula α, que tiene carga positiva. Debido a esta fuerza eléctrica repulsiva, A frenará hasta detenerse a cierta distancia r de N y luego cambiará el sentido de su movimiento, volverá hacia atrás. A’ es una partícula α que no se dirige directamente hacia el núcleo N. Es rechazada por N de tal forma que sigue una trayectoria que se puede demostrar matemáticamente que debe ser una hipérbola. La desviación de A’ de su trayectoria original está indicada por el ángulo ϕ.

Rutherford consideró los efectos en la trayectoria de la partícula α de las variables importantes: la velocidad de la partícula, el grosor de la lámina y la cantidad de carga Q en cada núcleo. Según el modelo de Rutherford, la mayoría de las partículas deberían dispersarse en ángulos pequeños, porque la posibilidad de acercarse a un núcleo muy pequeño directamente es muy pequeña. Pero un número significativo de partículas α debería dispersarse en ángulos grandes. Eran necesarios nuevos experimentos.

Figura 2. Fuente: Cassidy Physics Library

Geiger y Marsden comprobaron [2] estas predicciones con el dispositivo esquematizado en la Figura 2. La caja de plomo B contiene una sustancia radiactiva (radón) que emite partículas α. Las partículas que emergen del pequeño orificio en la caja se desvían en diversos ángulos al pasar pasan a través de una fina capa de metal F. El número de partículas desviadas en cada ángulo ϕ se encuentra dejando que las partículas golpeen una pantalla de sulfuro de zinc S. Cada partícula que golpea la pantalla produce un centelleo (un punto de fluorescencia momentáneo). Estos centelleos se pueden observar y contar mirando a través del microscopio M. El microscopio y la pantalla se pueden mover conjuntamente a lo largo de toda la circunferencia, cubriendo de esta manera todos los ángulos ϕ.

Geiger y Marsden descubrieron que el número de partículas α contadas dependía del ángulo ϕ de dispersión, de la velocidad de las partículas y del grosor de la lámina. Estos hallazgos coincidieron con las predicciones de Rutherford y respaldaron un nuevo modelo atómico, en el cual la mayor parte de la masa y toda la carga positiva ocupan una región muy pequeña en el centro del átomo.[3][4]

Notas:

[1] E. Rutherford (1911) «The Scattering of α and β Particles by Matter and the Structure of the Atom», Philosophical Magazine. Series 6, vol. 21.

[2] H. Geiger, Hans & E. Marsden (1913). «The Laws of Deflexion of α Particles through Large Angles», Philosophical Magazine. Series 6. vol. 25

[3] Lo que implica que la mayor parte del átomo es espacio vacío.

[4] Curiosamente y desde el punto de vista electrostático el átomo de Rutherford es un caso particular del átomo de Thomson. Esto permitió que el primer modelo cuántico del átomo se desarrollase basándose en el modelo de Thomson. Lo hizo Arthur E. Hass en 1910. Esta historia, bastante desconocida, la conté en este video.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El modelo atómico de Rutherford se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Rutherford: la radiactividad y el descubrimiento del núcleo atómico, por El zombi de Schrödinger
  2. El modelo atómico de Thomson
  3. 1913-2013: del modelo atómico de Bohr al Higgs
Catégories: Zientzia

Todos los rojos son chillones

lun, 2019/09/09 - 11:59


Ekai Txapartegi

Foto: Janke Laskowski / Unsplash

Un vestido rojo destaca en cualquier fiesta, terraza o sarao. La prenda roja atrae nuestra atención pero, ¿alguna vez se ha preguntado por qué?

Blanco, negro y rojo

Lingüísticamente, “rojo” es el primerizo, la primera palabra cromática, el hermano mayor de todos los demás colores.

No todas las culturas humanas desarrollan palabras para nombrar los colores, como “amarillo”, “rosa” o “marrón”. En cambio, todas distinguen entre el día y la noche. Entre lo visible y lo que no se puede ver. De alguna manera, todas las lenguas humanas son capaces de distinguir su “blanco” de su “negro”, su claro de su oscuro. Pero a partir de ahí, no todas las culturas han necesitado desplegar palabras para describir colores particulares.

La evolución lingüística, no obstante, suele conducir a un punto en el que las sociedades humanas comienzan a nombrar las cosas por su apariencia externa, los colores. Y curiosamente, casi siempre la primera palabra que emerge para cumplir esa función, después de blanco y negro, suele ser el rojo.

Henry & Co. / Unsplash

Gracias a la antropología lingüística sabemos que si una lengua humana solo cuenta con tres palabras para designar la apariencia externa de las cosas, esas tres palabras serán “claro”, “oscuro” y “rojo”. Evidentemente, eso llama la atención de cualquier psicólogo cognitivo. De todos los colores, el rojo debe ser especial porque, lingüísticamente al menos, es casi siempre el primer color. O, dicho al revés, algo tendrá, alguna vivacidad especial, para que siempre le toque ser el primerizo, el hermano mayor.

Se puso colorado

Al ser el primer color, es normal que en algunas lenguas rojo todavía signifique “todos los colores” o “cualquier color”. En lengua comanche, por ejemplo, rojo es sinónimo de color. Incluso en griego clásico, la raíz de “chroma” es “chros”, que también representa la piel humana o, en general, la presencia exterior. Además, está presente en la palabra ocre, un rojo primigenio.

Aunque tampoco hay que irse tan lejos. En español, ¿qué significa la expresión “ponerse colorado”, sino sonrojarse?

También es el color que ha tenido más margen temporal para evolucionar. Siempre se menciona que los esquimales tienen decenas de palabras para designar el blanco; pero no es tan conocido que los maoríes, por ejemplo, tienen tantas o incluso más variedad de palabras para designar el complejo universo del rojo.

Los frutos rojos, las hojas verdes

Todos los rojos son chillones pero, ¿de dónde le viene esa vivacidad especial?

“Le regaló una rosa roja y él, tímido, se puso colorado”. El pincel de la literatura romántica colorea de rojo el amor, la pasión, la atracción y el placer. Es el pigmento de las flores y de la piel. Pero, pero, pero… la naturaleza no es tan romántica. Biológicamente, el rojo no nació del amor y las flores, sino del hambre y los frutos.

Ser el primer color tiene una preciosa explicación evolutiva. En comparación con otras funciones biológicas del cuerpo humano, nuestra visión tricromática es relativamente reciente, se conformó hace unos 30 o 40 millones de años. Se conoce como ‘tricromática’ porque se configura sobre 3 ejes: el eje blanco/negro, el eje azul/amarillo y, por último, el eje el rojo/verde. Este tercer eje, el último en evolucionar, lo compartimos con otros simios tricromáticos. Los demás animales (los pájaros, los peces, los insectos…) han desarrollado otro tipo de espectros cromáticos.

¿Cuál es la razón evolutiva que llevó a ciertos simios a desarrollar ese tercer eje rojo/verde? La explicación simplificada es que éramos recolectores. Poder ver el color rojo, contrastándolo con el verde, supuso un fenomenal avance evolutivo porque nos permitió poder resaltar en un solo golpe de vista el jugoso y deseable fruto rojo frente a las desabridas hojas verdes de fondo.

Foto: Xiaokang Zhang / Unsplash

El color rojo es el resultado evolutivo de la tecnología visual desarrollada por los monos recolectores para distinguir la fruta madura de las hojas. Por eso es el color que se distingue desde más lejos, a primera vista y sin esfuerzo.

Evolutivamente, rojo significa comida, significa jugoso, el fruto que se esconde tras las hojas de los arbustos. Significa también caza, el animal sobre la hierba. Significa, en definitiva, que ha llegado poderosa la primavera.

Siempre forma, nunca fondo

Por esa razón, el color rojo fuerza la distinción entre la forma y el fondo. El rojo es siempre forma; nunca es fondo.

En una original exposición sobre el color rojo que acogió en Mayo el Campus de Gipuzkoa (UPV/EHU), el pintor Manuel Bocanegra presentó una obra paradójica. Se trata de un marco vacío pintado de rojo.

‘Pausa’, obra de Manuel Bocanegra.
Ekai Txapartegi, Author provided

¿Por qué no se pintan de rojo los marcos de los cuadros? Porque un marco rojo empujaría la pintura al fondo y convertiría la pared en su propio marco. Manuel Bocanegra ha dejado vacío, intencionadamente, el espacio enmarcado porque, se ponga lo que se ponga, pasaría a ser paisaje, al igual que la pared que la sostiene.

Lo rojo viene al frente y arrastra al fondo todo lo demás. Como cuando va recogiendo grosellas una a una por los matorrales, mecánicamente, en una coordinación espontánea entre el ojo y la mano. Todo lo demás es fondo, que ni se ve. Simplemente, la mano se abalanza a por el objeto rojo que la vista trae al frente.

¡Mírame, estoy aquí!

Si quiere destacar algo, píntelo de rojo. Como las señales más importantes, de tráfico y de emergencia. El Reino Unido tuvo la mala idea de pintar de verde sus buzones de correos. En 1874 tuvo que volver a pintarlos, pero esta vez de rojo, porque la gente se chocaba contra los postes verdes. Psicológicamente, el rojo es el color más saliente. El que más llama la atención.

El rojo se impone. Para corregir textos, por ejemplo, se usa el rojo. O esa conocida lata de refresco, un verdadero imán para nuestra vista, símbolo del capitalismo más instintivo.

Si se viste de rojo, vibra, porque instantáneamente le convierte en un objeto de deseo. La naturaleza aprendió ese truco hace millones de años pintando sus frutos de rojo, así como las partes más eróticas de nuestro cuerpo: los labios, el pecho y los genitales.

En definitiva, todos los rojos son chillones porque este le grita descarado: “¡Míreme, estoy aquí! El resto no le interesa”.

Sobre el autor: Ekai Txapartegi es profesor del Departamento de Lógica y Filosofía de la Ciencia en la Facultad de Educación, Filosofía y Antropología de la Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Todos los rojos son chillones se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una fórmula para dominar todos los mecanismos
  2. Una fórmula para dominarlos a todos: La conservación de la energía y la ley de la palanca
  3. Una fórmula para dominarlos a todos: El trabajo
Catégories: Zientzia

Historias de la malaria: La lucha contra la malaria

dim, 2019/09/08 - 11:59
Combatiendo la malaria en la Ilslas Salomón. Foto: Jeremy Miller /AusAID / Wikimedia Commons

Fue después de la Segunda Guerra Mundial cuando la Organización Mundial de la Salud (OMS), integrada en las Naciones Unidas, incluyó, entre sus objetivos prioritarios, la detección, control y erradicación de la malaria. Así se promovió la colaboración y participación de las autoridades de muchos países y, además, fondos para financiar los programas antimalaria que proponía la OMS.

La creación de la OMS se hizo oficial el 7 de abril de 1948 pero antes y después de la Segunda Guerra Mundial, hasta ese año, la malaria era de interés para muchos países y organizaciones. José Antonio Nájera lo contaba en 1989 cuando era Director, en su sede de Ginebra, del Programa de Acción contra la Malaria de la OMS. En esos años anteriores a la OMS, hubo campañas con éxito y otras que fracasaron: en los ejércitos que lucharon en la Primera Guerra Mundial; la construcción del Canal de Panamá; el control del agua en el Valle del Tennessee en Estados Unidos; las plantaciones en Malasia; la erradicación de los mosquitos en Brasil o Egipto, el desarrollo de métodos de erradicación en España y Portugal, y tantos otros. En España, el último caso se diagnosticó en 1962, y en 1964 la OMS declaró al país como libre de malaria, cuando en 1937 había unos 100000 casos al año.. Fue en 1973 cuando se declaró a Grecia país libre de malaria cuando antes de la Segunda Guerra Mundial tenía de uno a dos millones de casos anuales.

Incluso organizaciones internacionales, como la Organización para la Salud de la Liga de las Naciones, ya tenía una Comisión de la Malaria cuyo primer informe se publicó en 1924. También la Organización Panamericana de la Salud, y desde 1907, celebraba conferencias y publicó informes sobre la malaria.

Pero fue con la OMS cuando se inició la lucha sistemática contra la malaria a nivel internacional. Los primeros informes de la comisión de expertos de la OMS se publicaron en 1947, antes de que la organización empezara a funcionar de manera oficial. En esa fecha, su objetivo era utilizar el DDT para el mosquito vector, siempre con la participación financiera de los sistemas de salud de los países implicados. Además, siempre se menciona el drenaje de marismas y pozos, la importación del pez Gambusia que se alimenta de las larvas de los mosquitos, utilizar venenos como el vertido de petróleo o la utilización del Verde País (con arsénico), todo ello para evitar el desarrollo de las larvas del mosquito.

El segundo informe, de 1948, incluye la declaración de la política oficial de la OMS sobre la malaria. También se nombró una sección dedicada a la malaria en el Comité Ejecutivo de la OMS. La Asamblea oficial de la OMS, llamada Asamblea de la Salud, de 1948, pedía, además de la formación de la sección de la malaria, estudios sobre la extensión de la malaria y el tratamiento a los enfermos, la mejora de las prácticas agrícolas y en la construcción de casas, y conseguir fondos para investigación.

El siguiente informe, de 1950, revela la escasez de personal preparado para la detección y el control de la enfermedad en los trabajos en aldeas y pueblos. Hay 250 millones de enfermos y 2,5 millones de muertes. Y llegan la OMS y el DDT a los países con malaria. Además, en los informes hasta 1954 aparecen las primeras citas de cepas de mosquitos resistentes al DDT. En concreto, aparecen mosquitos resistentes en Estados Unidos, Grecia y Panamá. Se piden más estudios de campo sobre estas resistencias, con datos más precisos.

Pero las campañas tienen éxito en muchos países y, en 1957, la OMS publica un Informe Técnico para establecer los criterios que determinan que la malaria deja de ser una enfermedad endémica en un determinado entorno, así como el protocolo para la observación continua de nuevos enfermos y de criaderos de mosquitos para reaccionar con prontitud y eficacia si fuera necesario.

Hasta 1955, el objetivo de la OMS era controlar la enfermedad pero, a partir de este año, los programas intentan erradicar la malaria. Ya se había aprobado en 1954 en la Conferencia Sanitaria Panamericana, celebrada en Santiago de Chile, y en la Conferencia Asiática sobre la Malaria, en Baguío, Filipinas. Era un plan basado en el DDT y, sobre todo, en la participación directa de los organismos antimalaria de los países implicados. Era importante resaltar que los gastos para el control de la enfermedad eran mayores que los necesarios para erradicarla. Además, los programas de control, que debían durar muchos años, daban tiempo a la aparición de resistencias en los mosquitos.

Al año siguiente, en 1955, el Comité Ejecutivo de la OMS recomendó la erradicación en la Octava Asamblea Mundial sobre Salud, celebrada en México. También se aprueba que la OMS tenga un presupuesto especial y concreto dedicado a la lucha contra la malaria y comenzaron las campañas de la organización contra la malaria.

En el siguiente informe de la OMS sobre la malaria, publicado en 1957, se define la erradicación de la enfermedad como “el final de la transmisión de la malaria y la desaparición de enfermos infectados por medio de una campaña limitada en el tiempo y practicada con un grado de perfección tal que, cuando termine, no haya transmisión ni reaparición de la enfermedad”. De nuevo se destaca que los gastos de la erradicación son menores que los necesarios para el control y que, por otra parte, se acortan los tiempos y se evita que aparezcan las resistencias.

En las reuniones de la OMS y de otros organismos internacionales relacionados con la salud era evidente la sensación de urgencia creada por una insistente llamada humanitaria contra la extensión y las consecuencias de la malaria para la población de muchos países y regiones del planeta. Las últimas decisiones habían iniciado muchos programas de erradicación pero, en muchos casos, con poco éxito por la falta de datos fiables sobre la presencia y extensión de la malaria, con sistemas administrativos y sanitarios escasos o poco desarrollados, falta de personal entrenado y de coordinación en campañas con países vecinos, y, también, la escasez de fondos para investigación básica y aplicada sobre la enfermedad.

Los mayores problemas estaban en el África tropical y en el Sureste de Asia, con algunos éxitos en campañas concretas como Liberia o Camerún. Pero, a menudo, los programas no se terminaban y se interrumpían por muchas y variadas razones. Incluso en Ceilán, actual Sri Lanka, donde se suponía erradicada la malaria, tuvo posteriormente una epidemia masiva con miles de enfermos. Poco a poco se iba extendiendo la convicción de que, a medio plazo, no sería posible la erradicación. Falta la infraestructura sanitaria eficaz y preparada en la mayoría de los países con malaria endémica.

Para mediados de los sesenta, la malaria estaba erradicada en Europa, en la mayor parte del área asiática de la URSS, varios países del Cercano Oriente, Estados Unidos, casi todo el Caribe, grandes zonas del norte y el sur de Sudamérica, Australia, Japón, Singapur, Corea y Taiwan. La enfermedad había desaparecido del 80% de las áreas geográficas en que había sido endémica.

Pero en África, al sur del Sáhara, los programas antimalaria no habían funcionado. Era difícil organizarlos con eficacia. Además, empezaban a aparecer las resistencias al DDT.

En la Asamblea Mundial de la Salud de 1967, celebrada en Ginebra, se ajustan los objetivos y, aunque se mantiene la erradicación como meta final, se plantea el control de la malaria como una etapa intermedia, válida y necesaria. Para conseguirlo se analizan los programas en marcha y se decide cuales de ellas pueden erradicar la enfermedad en un plazo aceptable y se sigue adelante con ellos. Los que no cumplen este requisito, se consideran programas de control de la malaria. Y en la Asamblea de 1969, visto que, según expertos como George Davidson, el número de casos se acercaban a cifras de antes de la Segunda Guerra Mundial, se pasó definitivamente al control de la enfermedad, con la erradicación como objetivo a más largo plazo. Para finales de esta década, hay resistencias del plasmodio a los fármacos, sobre todo a la cloroquina y para el Plasmodium falciparum, el parásito más letal. La OMS vuelve a destacar los problemas de financiación y la escasez de personal técnico preparado.

En 1973, según la OMS, hay cuatro millones de casos, y en 1977, subían hasta once millones, y a principios de los ochenta, vuelven a bajar a los siete millones. Y siempre sin incluir el África tropical. Por ello, en 1974 se publican los protocolos para cambiar un programa de erradicación fallido por un programa de control. El control se basa en fármacos y vacunas contra el plasmodio, el control de los mosquitos y la protección de la población a la picadura de los insectos.

A partir del final de la década de los setenta, la OMS promueve la inclusión de los programas de control en los sistemas de salud primario de cada país. En concreto y según los acuerdos de la 31ª Asamblea Mundial de la Salud, en 1978 y en Ginebra, se busca reducir la mortalidad y los efectos negativos que provoca la malaria en lo social y en lo económico. Además hay que promover la prevención y el control de la enfermedad, y siempre con el objetivo final de la erradicación.

El número de casos que ha catalogado la OMS entre 1964 y 1985, según cuenta José Antonio Nájera, lleva a algunas conclusiones interesantes. En primer lugar, no se incluyen los datos de África porque son escasos y sin continuidad y, a menudo, poco fiables y confusos. Si se excluyen África, China y la India, en el resto del planeta y a partir de mediados de los setenta, el número de enfermos se mantiene estable. De China llegan los primeros datos en 1977 y, en años posteriores, la cifra desciende con rapidez; en la India, después de una epidemia masiva, con la reaparición de la malaria en 1975, se vuelve a controlar la enfermedad en los ochenta.

Entre los sesenta y finales de los novena, la confianza en erradicar la malaria llevó al descuido en los programas y, en consecuencia, a un gran aumento de enfermos y fallecimientos. Al comienzo del siglo XXI cambió la situación y volvió la malaria a ser objetivo prioritario en los programas de salud mundial. Aumentaron los fondos para investigación y se plantea la hipótesis de que continentes enteros se libren de la malaria y, con tiempo, hasta que se erradique de todo el planeta. Por entonces, la OMS considera que el mayor problema es la falta de financiación sólida, previsible y demostrada, lo que dificulta acuerdos políticos a medio y largo plazo y la colaboración regional. Y, desde la práctica, siguen apareciendo resistencias a los fármacos antiplasmodio y de los mosquitos ante los insecticidas. Por ejemplo, en 1985, la resistencia uno o a varios insecticidas había aparecido en 57 especies de Anopheles y afectaba a los programas de control de 62 países. Y la resistencia a los fármacos contra el parásitos se había detectado en 35 países de Asia, el norte de Sudamérica y el África tropical. Y. además, se sigue notando la falta de rigor y profesionalidad en los sistemas de salud de muchos países implicados.

En 1990-1992, según Nevill, de la Unidad de Malaria de Nairobi, en Kenia, el 40% de la población mundial vivía en zonas con malaria endémica, con 100 millones de casos y un millón de muertes cada año. La OMS lanzó un nuevo programa con los siguientes objetivos: diagnóstico y tratamiento precoz; aplicación de medidas preventivas; comprobar la presencia de malaria; y revisión frecuente de los factores económicos, sociales y ecológicos que favorecen la presencia y extensión de la enfermedad.

La iniciativa Roll Back Malaria, con más de 500 participantes públicos y privados, se inició en 1998 y consiguió una gran reducción en la trasmisión de la malaria en África entre 2000 y 2010. Pero, todavía en 2010, el 57% de la población vive en zonas donde el peligro de la trasmisión es intenso.

En una revisión publicada en 2010 por Vandana Wadhwa y sus colegas, de la universidad de Boston, y con datos de la OMS de 1999, la mortalidad provocada por la malaria durante el siglo XX va de casi 200 millones de muertes en 1900, unos 170 millones en 1930, 40 millones en 1950, menos de 10 millones en 1970 y décadas posteriores hasta 1997, todo ello sin incluir África. En cambio, en el África subsahariana se producen el 90% de las muertes con cifras que van desde los 200 millones de 1900 a unos 160 millones en 1967, y unos 100 millones en 1970. En otra revisión, publicada en 2004 por Simon Hay y sus colegas, de la Universidad de Oxford, se enumera el porcentaje de población expuesta a la malaria. En 1900 era el 77% de la población mundial; en 1946, era el 68%; en 1965, el 57%; en 1975, el 52%; en 1994, el 46%; en 2002, el 48%; y en 2010, el 50%. Parece que la situación que provoca el descenso de la población en riesgo se ha detenido. Y los enfermos en la segunda década del siglo XXI son, según la OMS, 225 millones en 2011, 217 en 2012, 210 en 2013, 210 en 2014, 211 en 2015, y 216 en 2016. Las cifras descienden pero no mucho y se mantienen en más de 200 millones de casos.

Se inicia la Estrategia para 2020 con objetivos como reducir la tasa de mortalidad en un 40% por lo menos, la incidencia de casos en un 40% por lo menos, eliminar la malaria en 10 países por lo menos, y evitar el resurgimiento de la enfermedad en los países declarados exentos. La campaña más reciente de la OMS contra la malaria es el Programa Mundial sobre Paludismo, con una última actualización el 14 de diciembre de 2017. Sus objetivos se rigen por la Estrategia Técnica Mundial contra la Malaria 2016-2030, aprobada por la 68ª Asamblea Mundial de la salud de mayo de 2015. A pesar del progreso en la lucha contra la malaria, en 2013 el 90% de los enfermos se localizaba en África y dos países, República Democrática del Congo y Nigeria, sumaban el 40%, casi la mitad de todos los enfermos del planeta. Las muertes en África han descendido desde 764000 en 2000 a 395000 en 2015.

La Estrategia Técnica fijó cuatro objetivos para 2030: reducir la incidencia de la malaria en al menos un 90%; reducir la tasa de mortalidad en al menos un 90%; eliminar la malaria en 35 países como mínimo; y prevenir la reaparición de la malaria en todos los países que estén libres de la enfermedad. La OMS plantea que uno de los objetivos básicos para conseguir lo anterior es el apoyo técnico a todos los países con malaria endémica. Además, la OMS debe formular y difundir orientaciones y políticas mundiales sobre el control y la eliminación de la malaria.

El último Informe Mundial sobre Malaria de la OMS corresponde a 2018, presentado en Maputo, Mozambique, y se publicó el 19 de noviembre. El número de enfermos de malaria censados en 2017 fue de 219 millones de personas y no hay cambios significativos en el periodo 2015-2017. La gran mayoría de los enfermos, hasta el 92%, está en África. Plasmodium falciparum es el parásito responsable del 99.7% de los casos en África. Los casos de malaria habían aumentado en 10 de los 11 países con mayor incidencia de la enfermedad y todos están en África. Estos países africanos con malaria endémica justifican el aumento de enfermos por la aparición de más resistencias del plasmodio a los fármacos y de los mosquitos a los insecticidas.

En 2017, el número de muertes por la malaria fue de 435000 en todo el mundo. Los niños menores de 5 años son el grupo más vulnerable, con el 61% de todos los fallecimientos. El 93% de estas muertes se dio en África.

En el Informe de 2017, la OMS cuantifica la entrega de 624 millones de mosquiteros tratados con insecticidas, la realización de 276 millones de pruebas de diagnóstico, y de casi 3000 millones de tratamientos continuados con la droga más utilizada por la OMS en la actualidad, la artemisina. Lo más efectivo es el diagnóstico rápido, los mosquiteros con insecticidas, los fármacos adecuados, la investigación para conseguir una vacuna, y los protocolos para la vigilancia de la enfermedad y una respuesta rápida. También se menciona que la OMS certifica a Paraguay como libre de malaria en 2018, mientras que Argelia, Argentina y Uzbekistán lo han solicitado. En 2017, China y El Salvador declaran cero casos de malaria autóctona.

En la actualidad, a fecha de enero de 2019, el Director del Programa Mundial sobre la Malaria de la OMS es el Dr. Pedro Alonso, fotografiado aquí en la sede de la OMS en Ginebra. Fuente: OMS

 

Por otra parte, en una revisión publicada en 2012, Christopher Murray y sus colegas, del Instituto para la Evaluación y la Medición de la Salud de Seattle, encuentran que el número de fallecidos provocados por la malaria es mayor de lo calculado hasta ahora, sobre todo porque hay más muertes en enfermos de más de cinco años. Según sus cálculos, entre 1980 y 2010, son de 995000 en 2004, un pico de 1817000 en 2004, y una caída hasta 1238000 en 2010. Este descenso en 2010 se detecta tanto en África como en otros lugares.

Para terminar, Bruno Moonen, director de la lucha contra la malaria de la Fundación Bill y Melinda Gates, escribió en 2017 que la erradicación es la única solución sostenible y equitativa. La alternativa, el control como programa indefinido, no es sostenible. Mantener la financiación para un control sin fecha final para la erradicación, y especialmente cuando se ha alcanzado un nivel de la enfermedad, es muy difícil. Y cuando no se tiene un presupuesto adecuado, la malaria puede resurgir.

El programa sin fecha final de control requiere una inversión constante de fondos en investigación y desarrollo para conseguir, en una situación en la que el plasmodio y el mosquito evolucionan constantemente. Sin embargo, los países que han conseguido erradicar la malaria son capaces de mantenerse libres de la enfermedad, aunque también es cierto que en 2018 se detectaron 68 casos de reaparición de malaria en poblaciones donde se había reducido la población de mosquitos, según cuenta Dan Strickman, de la Fundación Bill y Melinda Gates.

Pero los programas de erradicación deben alcanzar su objetivo. No hacerlo es costoso y termina por necesitar muchos fondos, quizá tomados de otras prioridades del país. Por ello, la organización de un programa de erradicación debe, en primer lugar, decidir si es factible. Si no lo es, lo mejor es no iniciarlo y seguir con el control.

Y, además, queda la llamada malaria de aeropuerto, es decir, la que llega a países que han erradicado la enfermedad desde aquellos donde sigue siendo endémica. Pueden llegar viajeros enfermos pero, también, mosquitos con el plasmodio. Por ejemplo, en agosto de 1984, una paciente de 76 años ingresó en un hospital de Madrid con fiebre y síntomas respiratorios y fue tratada de neumonía. Un mes después tuvo una infección bacteriana y le recetaron antibióticos. En un análisis de sangre apareció Plasmodium falciparum y, tratada con cloroquina y quinina, murió pocos días después por complicaciones respiratorias. En su revisión publicada en 1989, Isaäcson, de la Universidad de Witwatersrand, en Sudáfrica, incluyó este caso en la malaria de aeropuerto que, como decía, se supone que se infectaron por la picadura de mosquitos que han viajado en avión desde países con malaria. En el caso de Madrid, la paciente había visitado a su hija que vivía a menos de seis kilómetros del aeropuerto. Los casos importados en Europa, y según la OMS, provocaron hasta 100 muertes entre 1969 y 1974.

Referencias:

Breman, J.G. et al. 2004. Conquering the intolerable burden of malaria: What’s new, what’s needed: A summary. American Journal of Tropical Medicine and Hygiene 71, Suppl 2: 1-15.

Bruce-Chwatt. 1984. Malaria: from eradication to control. New Scientist 102: 17-20.

Bruce-Chwatt, L.J. 1986. Malaria control at the cross-roads! Where do we go from here? Memórias do Instituto Oswaldo Cruz 81: Suppl. II: 1-4.

Davidson, G. 1982. Who doesn’t want to eradicate malaria? New Scientist 96: 731-736.

Dietz, K. et al. 1974. A malaria model tested in the African Savannah. Bulletin of the WHO 50: 347-357.

Hanson, K. 2004. Public and private roles in malaria control: the contributions of economic analysis. American Journal of Tropical Medicine and Hygiene 71, Suppl 2: 168-173.

Hay, S.I. et al. 2004. The global distribution and population at risk of malaria: past, present and future. Lancet Infections Diseases 4: 327-336.

Hemingway, J. et al. 2016. Tools and strategies for malaria control and elimination: What do we need to achieve a grand convergence in malaria? PLOS Biology 14: e1002380.

Isaäcson, M. 1989. Airport malaria: a review. Bulletin of the WHO 67: 737.743.

Konradsen, F. et al. 2004. Engineering and malaria control: learning from the past 100 years. Acta Tropica 89: 99-108.

Lomborg, B. 2017. Aprender de la malaria. El País 4 agosto.

Moonen, B. & C. Shiff. 2017. Should we commit to eradicating malaria worldwide? British Medical Journal 356: j916.

Murray, C.J.L. et al. 2012. Global malaria mortality between 1980 y 2010: a systematic analysis. Lancet 378: 413-431.

Mwenesi, H.A. 2005. Sopcial science research in malaria prevention, management and control in the last two decades: An overview. Acta Tropica 95: 292-297.

Nájera, J.A. 1989. Malaria and the work of WHO. Bulletin of the WHO 67: 229-243.

Nevill, C.G. 1990. Malaria in Sub-Saharian Africa. Social Science & Medicine 31: 667-669.

Noor, A.M. et al. 2014. The changing risk of Plasmodium falciparum malaria infections in Africa: 2000-2010: a spatial and temporal analysis of trasmission intensity. Lancet 383: 1739-1747.

OMS. 2015. Estrategia Técnica Mundial contra la Malaria 2016-2030. OMS. Ginebra. 30 pp.

OMS. 2017. Programa Mundial sobre Paludismo de la OMS. OMS. Ginebra. 8 pp.

OMS. 2018. Informe Mundial sobre el Paludismo 2018. OMS. Ginebra. 10 pp.

Shah, S. 2010. The fever. How malaria has ruled humankind for 500.000 years. Picador. New York. 309 pp.

Strickman, D. 2018. La lucha contra los mosquitos. Investigación y Ciencia septiembre: 38-43.

Wadhwa, V. et al. 2010. The history and progression of malaria: A global and regional view. En “Malaria in South Asia”, p. 1-27. Ed. por R. Akhtar et al. Springer-Science-Business Media.

Yanney, G. 2004. Roll Back Malaria: a failing global health campaign. British Medical Journal 328: 1086-1087.

Zulueta, J. de et al. 1975. Receptivity to malaria in Europe. Bulletin of the WHO 52: 109-111.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Historias de la malaria: La lucha contra la malaria se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Historias de la Malaria: La vacuna
  2. Historias de la malaria: El parásito
  3. Historias de la malaria: El árbol de la quina
Catégories: Zientzia

Ignacio López Goñi – Naukas Bilbao 2018: La pandemia del siglo XXI

sam, 2019/09/07 - 11:59
Imagen de Ally White / Pixabay

Ignacio López Goñi es un divulgador de la microbiología siempre excelente pero de alguna manera proporcional: crece con el tamaño del escenario. En esta charla ante 2000 personas reunidas en el Euskalduna explica como nadie la pandemia que se nos viene encima en este siglo, la resistencia bacteriana a los antibióticos. López Goñi consigue que en la explicación intervengan todas y cada una de las personas presentes en el auditorio.

Ignacio López Goñi: ''La pandemia del siglo XXI''

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

 

El artículo Ignacio López Goñi – Naukas Bilbao 2018: La pandemia del siglo XXI se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan
  2. Ignacio López-Goñi: «El sistema de defensa de las bacterias es el mejor editor de genomas que existe»
  3. Ana Aguirre – Naukas Bilbao 2018: Somos binarios…. ¿o no?
Catégories: Zientzia

¿Cómo llegan bacterias resistentes y residuos de antibióticos a los alimentos?

ven, 2019/09/06 - 11:59


Mailo Virto Lekuona

 

Foto: Brian Chan / Unsplash

Hoy en día, prácticamente todas las personas constituimos un eslabón en la cadena de transmisión de antibióticos y de bacterias resistentes a antibióticos en el medio ambiente.

Esto es así porque prácticamente todo lo que ingerimos, empezando por el agua que bebemos y pasando por los alimentos de origen animal y vegetal, puede contener residuos de antibióticos o bacterias resistentes a antibióticos o sus genes. Los adquieren bien por contaminación, bien porque se encuentran naturalmente en los alimentos o bien porque se les ha añadido en el proceso de elaboración.

Residuos de antibióticos en alimentos

Las normativas europeas y estadounidenses definen los residuos de antibióticos como sustancias farmacológicamente activas (ya sea el principio activo, sus productos de degradación o sus metabolitos) que permanecen en el alimento obtenido a partir de animales a los que se les ha administrado el fármaco.

En principio, los productos de origen animal no deben ser consumidos hasta que el animal haya metabolizado el fármaco. Hay un tiempo establecido entre la administración y el sacrificio del animal para su consumo. Pero, aun así, es posible encontrar residuos en carnes, huevos y leche. También se han encontrado residuos de antibióticos en alimentos de origen vegetal e incluso en el agua de grifo.

Los huevos pueden contener residuos de antibióticos.
Tookapic/Visualhunt

La presencia de residuos de antibióticos utilizados en veterinaria en alimentos está limitada por normativas establecidas por las autoridades competentes en cada caso. En Europa, la EFSA (European Food Safety Authority) establece las directrices a aplicar y cada país miembro debe adecuar su normativa ajustada a esas directrices.

En general, cada vez que se aprueba un nuevo antibiótico (u otro tipo de medicamento) de uso veterinario para animales de consumo humano, debe de pasar una serie de análisis y evaluación de riesgos. Teniendo en cuenta los datos obtenidos de estos análisis, se establecen los límites aceptables de ingesta diaria (ADI). A partir de estos, se determinan los niveles máximos de residuos (LMR) permitidos en alimentos.

Es muy difícil determinar la ingesta real de residuos de antibióticos de cada individuo. Puede variar mucho dependiendo del país, de la dieta, etc. Por ello, los trabajos científicos publicados se refieren a lugares concretos y los resultados son difíciles de extrapolar.

En un estudio realizado en Hong Kong con niños, se analizaron los residuos de antibióticos en leche, agua potable y alimentos ingeridos y en orina. Se detectaron residuos de quinolinas, sulfamidas, macrólidos y penicilina. Pero tanto la ingesta estimada como los niveles detectados en orina estaban por debajo de los límites establecidos por las normativas vigentes.

Efectos para la salud

Sin embargo, aunque los niveles estén dentro de la normativa vigente y sean incluso indetectables, lo cierto es que las personas estamos continuamente expuestas a residuos de antibióticos. Esta exposición crónica a cantidades muy pequeñas de numerosos compuestos diferentes puede ser más perjudicial para la salud que las dosis terapéuticas durante periodos cortos, como cuando se trata una infección.

Los residuos de antibióticos en los alimentos pueden causar problemas graves de salud en las personas, como alergias, efectos inmunopatológicos y citotóxicos y aumentar el riesgo de desarrollar cáncer. Además, pueden alterar la composición del microbioma humano, especialmente del microbioma intestinal.

Comparada con la exposición por uso terapéutico, la exposición crónica a muchos antibióticos diferentes, aunque sea a niveles muy bajos, puede ejercer una mayor presión de selección sobre bacterias resistentes y no resistentes a antibióticos.

La exposición crónica a antibióticos es especialmente importante en niños después de la lactancia, cuando empiezan a ingerir otro tipo de productos. Los residuos de antibióticos en los alimentos pueden determinar el desarrollo de su microbioma. Estudios epidemiológicos y experimentales sugieren que tienen un efecto acumulativo, por lo que su efecto puede ir sumándose incluso de generación en generación.

Por otra parte, en 1976 se demostró por primera vez que el uso de antibióticos en veterinaria provocaba la colonización de bacterias resistentes en los pollos de una granja. También la adquisición de esa resistencia en el microbioma del tracto intestinal de los trabajadores de la granja.

En muchos estudios posteriores se ha demostrado que bacterias resistentes en animales pueden transmitir los genes de resistencia a bacterias presentes en el intestino humano. Esto ocurre, muy presumiblemente, vía alimentos.

Bacterias resistentes a antibióticos en alimentos

La presencia de bacterias en los alimentos puede ser intencionada, como, por ejemplo, en productos fermentados, como probióticos o incluso como bioconservantes. Los órganos competentes en cada caso (EFSA, en Europa) publican periódicamente listas de bacterias reconocidas como seguras para su uso en alimentación. Entre otras condiciones, estos microrganismos no deben producir antibióticos ni tener genes de resistencia.

No obstante, la presencia de bacterias resistentes puede ocurrir en alimentos preparados a partir de materia prima cruda, como, por ejemplo, alimentos fermentados tradicionales. O puede ser accidental, por contaminación de diferentes fuentes. Además, la matriz de los alimentos y las condiciones de conservación y procesado pueden favorecer la transmisión de genes de resistencia entre bacterias.

‘Staphylococcus aureus’, principal causa de mastitis en vacas.
Wikimedia Commons / Eric Erbe, Christopher Pooley

Preocupa especialmente la presencia de bacterias resistentes que provocan enfermedades transmitidas por los alimentos, como Salmonella o Campylobacter o bacterias responsables de zoonosis, como cepas resistentes de Staphylococcus aureus.

Además, bacterias comensales resistentes, no patógenas, pueden transferir los genes de resistencia a bacterias patógenas tanto en el procesado de los alimentos como tras la ingestión. Dado que algunas de las bacterias presentes en los alimentos tienen capacidad de aguantar las condiciones del tracto digestivo, colonizar el intestino y permanecer en él largos periodos de tiempo, pueden aumentar el riesgo de transmitir genes de resistencia tanto en el microbioma humano como en el medio ambiente.

Por todo ello, es importante monitorizar y reducir la presencia de todo tipo de bacterias resistentes (tanto comensales como patógenas) en los alimentos. Así mismo, es importante estudiar los elementos genéticos móviles presentes en los alimentos para entender su epidemiología e implementar métodos para reducir su presencia.

Todo ello, unido al cumplimiento de las buenas prácticas en los procesos de elaboración y buenas prácticas de higiene en todas las fases de la cadena alimentaria, “desde la granja a la mesa”.

Nota: Este artículo constituye un resumen de la charla impartida en el curso de verano de la UPV/EHU organizada por el JRL Environmental Antibiotic Resistence.

Sobre la autora: Mailo Virto Lekuona es profesora titular de Biquímica y Biología Molecular en la Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Cómo llegan bacterias resistentes y residuos de antibióticos a los alimentos? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El camino hacia los antibióticos inservibles
  2. Bacterias hospitalarias: resistentes e indetectables
  3. Una nueva vía para la lucha contra la resistencia a los antibióticos
Catégories: Zientzia

No todo es ciencia en ‘El club de la lucha’

jeu, 2019/09/05 - 11:59
Copyright © 1999 by 20th Century Fox. All Rights Reserved. Fair use.

 

«Tyler se lame los labios, húmedos y brillantes, y me besa el dorso de la mano».

La película que más veces he visto en mi vida es El club de la lucha. Dirigida por David Fincher, está basada en la novela homónima de Chuck Palahniuk, un escritor discípulo de la generación beat, héroe de muchas adolescencias rebeldes.

«Tyler inclina unos centímetros el bote que contiene el polvo de hipoclorito sobre el beso húmedo y brillante del dorso de mi mano. —Es una quemadura química—dice Tyler—y te dolerá más que cualquier otra quemadura. Peor que cien cigarrillos.

El beso brilla en el dorso de mi mano. —Te quedará una cicatriz—dice Tyler».

La primera regla del club de la lucha es no hablar del club de la lucha. Así que no voy a hablar del club de la lucha, sino de la ciencia de El club de la lucha. En esta novela hay descripciones científicas veraces mezcladas con licencias fantásticas. Desde cómo fabricar una bomba casera, cómo hacer una quemadura química con hipoclorito, a cómo fabricar jabón utilizando la grasa que se desecha tras las liposucciones.

Las descripciones son exquisitas. La ciencia se utiliza como recurso literario para tratar cuestiones de calado como el individuo, la libertad y la propiedad.

«Un explosivo interesante es el permanganato potásico mezclado con azúcar en polvo. La idea consiste en mezclar un ingrediente que se queme con rapidez con un segundo ingrediente que aporte oxígeno suficiente para la combustión. Al arder tan rápido se produce la explosión.

Peróxido de bario y polvo de zinc.

Nitrato de amoníaco y aluminio en polvo.

La nouvelle cuisine de la anarquía.

Nitrato de bario con salsa de azufre y guarnición de carbón vegetal. Ya tienes un compuesto de pólvora básica.

Bon appétit».

Copyright © 1999 by 20th Century Fox. All Rights Reserved. Fair use.

El club de la lucha es un ejemplo de que la cultura científica puede refinar el argumento de una novela o de una película. Se puede utilizar como metáfora, igual que cualquier otro recurso. Para plumas adecuadas, las descripciones científicas pueden ser tan hermosas como las de cualquier otro paisaje. No todo van a ser profundos ojos azules.

«Con jabón suficiente —dice Tyler— podrás volar el mundo entero».

En el octavo capítulo de la novela comienzan a fabricar jabón a partir de grasa humana.

«Esta grasa —me explica Tyler— tiene mucha sal, así que, cuanta más agua, mejor».

Vierte toda la grasa en ollas con agua hirviendo. Cuando la grasa se derrite, el sebo sube a la superficie, mientras que la sal se irá disolviendo en el agua. Esto se hace porque la grasa humana contiene mucha sal y con tanta sal el jabón no solidifica. El sebo de calidad es el que se forma en superficie.

«Hierve y espuma. Hierve y espuma».

La pastilla de jabón de color rosa se convirtió en el emblema de la película.

El sebo espumado lo van colocando en briks abiertos para que enfríe. Luego los meten en la nevera para que no se enrancie.

«Una capa de algo espeso y claro comienza a cubrir la superficie del sebo del frigorífico. —El sebo —le advierto—se está separando. —No importa —dice Tyler—. La capa más clara es de glicerina. O la agregas de nuevo cuando hagas el jabón o bien la espumas y la quitas».

Las grasas son químicamente triglicéridos. Esto es glicerina unida con enlace tipo éster a ácidos grasos. Durante la reacción de saponificación en la que las grasas se transforman en jabón, estos enlaces tipo éster se rompen y dan lugar a la formación de sales, dejando libre la glicerina. Para formar sales, lo que se hace en esta reacción es mezclar la grasa con una base como el NaOH o el KOH, así se forman las sales de sodio y de potasio respectivamente. Esas sales son lo que conocemos como jabón.

«Tyler vendía el jabón en los grandes almacenes a 20 dólares la pastilla. Dios sabe a cuánto lo venderían ellos. Era maravilloso. Le revendíamos a las mujeres ricas sus propios culos celulíticos».

En El club de la lucha fabrican jabón no solo por lo lucrativo del negocio del jabón. Lo que les interesaba realmente es la glicerina. La glicerina es uno de los reactivos necesarios para fabricar explosivos como nitroglicerina, dinamita o gelignita.

Chuck Palahniuk escribió sobre química en El club de la lucha. Años más tarde, David Fincher, incluyó en la película las descripciones completas de los procesos químicos más relevantes. Pero El club de la lucha no me gusta por eso, sino por lo importante. De todos modos, es interesante saber cuándo Tyler dice la verdad y cuándo no, porque no toda la ciencia que aparece en El club de la lucha es completamente veraz. Como otras muchas cosas que suceden en la historia. Sirven de migas de pan en el camino, manteniendo el suspense a medida que nos acercan a la verdad.

«La saliva de Tyler tenía dos funciones. El beso húmedo en la palma de mi mano retuvo el polvo de hipoclorito mientras me achicharraba. Esa fue la primera función. La segunda fue convertir el hipoclorito en cáustico. El polvo de hipoclorito solo es cáustico cuando lo mezclas con agua. O saliva.

Cierra los ojos».

Copyright © 1999 by 20th Century Fox. All Rights Reserved. Fair use.

La historia de El club de la lucha no va de ciencia, ni mucho menos. Pero se sirve de la ciencia para crear una atmósfera y, sobre todo, para hablar de asuntos trascendentes.

«Una mezcla de hipoclorito y agua llega a perforar una cacerola de aluminio. Una disolución de hipoclorito en agua disolverá una cuchara de madera. Combinado con agua, supera los cien grados de temperatura y al calentarse me quema el dorso de la mano. Tyler posa sus dedos sobre los míos; tenemos las manos extendidas sobre mis pantalones manchados de sangre, y Tyler me pide que preste atención».

En la escena en la que uno de los protagonistas padece la agonía de una quemadura química, se describe con detalle todo el proceso, el que le sucede a la carne y el importante, el que sucede en la mente.

«Regresa al dolor y presta atención. Es el momento más importante de tu vida».

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo No todo es ciencia en ‘El club de la lucha’ se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Con los edulcorantes artificiales (casi) todo son ventajas
  2. El ácido hialurónico no sirve para todo, aunque lo parezca
  3. No todo ha sido malo este año: la ciencia nos dejó algunas buenas noticias
Catégories: Zientzia

Números primos gemelos, parientes y sexis (1)

mer, 2019/09/04 - 11:59

Hace unos meses, mientras buscaba información para mis entradas del Cuaderno de Cultura Científica Los números enamorados y ¿Pueden los números enamorarse de su propia imagen?, descubrí dos familias de números primos especiales, los números primos “parientes” (llamados cousin en inglés) y los sexis, ambas relacionadas con los números primos gemelos. Entonces me las guardé en el baúl de los temas pendientes, que acabo de abrir para poder hablar en esta entrada y en la próxima sobre estas familias de números primos.

 1.2.3.5.7.11.13 (2018), del artista estadounidense Tim McKay, 332,7 x 152,4 cm, una de las obras de la exposición Primes, celebrada en 2019 en el espacio artístico Pirate: Contemporary Art, de Lakewood (Colorado). Imagen de la página web del artista

Pero empecemos por el principio, por los números primos gemelos. Como es bien conocido, los números primos son aquellos números naturales que solamente se pueden dividir por 1 y por ellos mismos, como el 2, el 3, el 5 o el 7, pero no el 9 (que se puede dividir por 3) o el 12 (que se puede dividir por 2, 3, 4 o 6). Puede leerse más sobre ellos en la entrada Buscando lagunas de números primos, como que existen infinitos números primos, que cada número natural puede expresarse, de forma única, como producto de números primos, qué es la criba de Eratóstenes o sobre el problema de la distribución de los números primos.

Como todos los números pares, a excepción del 2, son números compuestos, no primos, entonces lo más cerca que pueden estar dos números primos, salvo el 2 y el 3 que están pegados, es con solo un número par entre ellos. Y precisamente, a las parejas de números primos que están tan cerca, es decir, con solo un número par entre ellos, o dicho de otra forma, que la diferencia entre ellos es 2, se les llama números primos gemelos, como las parejas 11 y 13, 17 y 19, o 59 y 61. Las parejas de números primos gemelos menores de 500 son (véase la sucesión A0077800 de la enciclopedia online de números enteros):

(3, 5), (5, 7), (11, 13), (17, 19), (29, 31), (41, 43), (59, 61), (71, 73), (101, 103), (107, 109), (137, 139), (149, 151), (179, 181), (191, 193), (197, 199), (227, 229), (239, 241), (269, 271), (281, 283), (311, 313), (347, 349), (419, 421), (431, 433) y (461, 463).

Por eso en la novela La soledad de los números primos (Salamandra, 2009), del escritor italiano Paolo Giordano, se dice de los protagonistas, Mattia, que es matemático, y Alice: “Mattia pensaba que él y Alice eran eso, dos primos gemelos solos y perdidos, próximos, pero nunca juntos”.

Prime Rhythms / Ritmos primos (1959 -1962), de Anthony Hill, realizada en plástico laminado y de unas dimensiones de 91.5 x 91.5 x 1.9 cm. Imagen del artículo del artista A View of Non-Figurative Art and Mathematics and an Analysis of a Structural Relief. Obra relacionada con los números primos gemelos, como se explica en la entrada Los ritmos primos de Anthony Hill

Un primer resultado sobre las parejas de números primos gemelos es que, salvo la pareja (3, 5), son de la forma (6 n – 1, 6 n + 1). Veamos una justificación de este hecho. Un número cualquiera puede escribirse de la forma 6 n + d, para d = 0, 1, 2, 3, 4 o 5. Entonces:

i) si d = 0, 2 o 4, el número 6 n + d no es primo, ya que es divisible por 2;

ii) si d = 3, se puede dividir 6 n + d por 3;

iii) si d = 1, el número es de la forma 6 n + 1;

iv) si d = 5, la forma del número es 6 n + 5 = 6 (n + 1) – 1 = 6 m – 1, si tomamos m = n +1.

De hecho, hemos probado más. Hemos demostrado que todos los números primos, en particular, todos los números no divisibles por 2 y 3, son de una de estas dos formas: 6 n – 1 y 6 n + 1. Por lo tanto, la suma de dos números primos gemelos es divisible por 12 (5 + 7 = 12, 11 + 13 = 24, 17 + 19 = 36, etc).

Más aún, si tenemos una pareja de números primos (6 n – 1, 6 n + 1), entonces el dígito de las unidades del número n debe ser 0, 2, 3, 5, 7 u 8, ya que en otro caso – 1, 4, 6 o 9 – uno de los dos números de esa pareja sería múltiplo de 5.

Lo siguiente que podríamos plantearnos es cuántos números primos gemelos existen. Mientras que la existencia de infinitos números primos es un hecho conocido desde la matemática griega y que posee una sencilla demostración (véase Buscando lagunas de números primos), el problema de si existen infinitas parejas de números primos gemelos sigue estando abierto a día de hoy. Es la conocida como conjetura de los números primos gemelos.

Existen números primos gemelos muy grandes, por ejemplo, la pareja de números primos 1.000.000.000.061 y 1.000.000.000.063, que menciona Keith J. Devlin en su libro El lenguaje de las matemáticas (Ma Non Troppo, 2002), y mucho más grandes aún, como se verá más adelante, pero se desconoce si existen infinitos números primos gemelos. Sin embargo, en los últimos años se ha realizado un importante avance en esta conjetura.

En 2013 nos sorprendió la noticia de que el matemático chino, residente en Estados Unidos, Yitang Zhang, había probado una versión débil de la conjetura de los números primos (el correspondiente artículo fue publicado en 2014 en la prestigiosa revista de investigación matemática, Annals of Mathematics). En concreto, había demostrado que existen infinitas parejas de números primos cuya diferencia entre ellos es menor que 70 millones (70.000.000). No era la conjetura de los números primos gemelos, pero era un gran paso, ya que se había fijado una cota finita que, aunque no era 2 (que establece la conjetura para los números primos gemelos), al menos era finita, para la existencia de infinitas parejas de números primos cuya diferencia entre ellos fuera menor que esa cota.

A partir del resultado de Yitang Zhang, el matemático australiano-americano Terence Tao, propuso un proyecto polymath (que son proyectos colaborativos masivos para resolver problemas matemáticos) para reducir la cota de Zhang. Esta ha conseguido reducirse hasta 246. Es decir, existen infinitas parejas de números primos, cuya diferencia entre ellos es menor que 246. Dentro de ese conjunto infinito de parejas de números primos está el conjunto de los números primos gemelos (cuya diferencia es 2), el conjunto de las parejas de números primos cuya diferencia es 4, que son los llamados primos parientes, o el de aquellas cuya diferencia es 6, los primos sexis, que aún no sabemos si ellos solos son conjuntos infinitos o no, pero también todas las demás parejas de números primos con una diferencia menor que 246, como 29 y 41 (cuya diferencia es 12) o 47 y 269 (cuya diferencia es 222).

Más aún, asumiendo la conjetura de Elliot-Halberstam, sobre la distribución de números primos en progresión aritmética, y una generalización de la misma, se ha demostrado que la cota puede reducirse a 12 y 6.

Poema de los números primos (años 1980), rotulador e hilo sobre lienzo, 97,5 x 130 cm. Archivo Esther Ferrer y perteneciente al catálogo Esther Ferrer, todas las variaciones son válidas, incluida esta. Obra en la que aparecen los números primos gemelos más grandes conocidos en 1980, con 703 dígitos

Como puede verse en la página web dedicada a los números primos y sus records, The Prime pages, los números primos gemelos más grandes conocidos, a día de hoy, fueron obtenidos en septiembre de 2016, y son los números

2.996.863.034.895 · 21.290.000 – 1 y 2.996.863.034.895 · 21.290.000 + 1,

que tienen nada más y nada menos que 388.342 dígitos.

Otra cuestión interesante que nos podríamos plantear, es cuál es el porcentaje de parejas de números primos gemelos dentro del conjunto de todos los números primos, entendiendo que estamos contando solo el primer primo de la pareja, es decir, el primo p tal que p + 2 es también primo. Si miramos los listados existentes de ambos conjuntos, veremos que, entre los 100 primeros números, hay 25 números primos (2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89, 97) y 8 números primos p tales que p + 2 es también primo (3, 5, 11, 17, 29, 41, 59, 71), es decir, parejas de números primos gemelos, luego hay un 32% de parejas de números primos gemelos. Si tomamos ahora los 1000 primeros números, hay 168 números primos y 35 parejas de números primos gemelos, luego un 20,8%. Y va disminuyendo el porcentaje, de manera que cuando tomamos los primeros un millardo de números (1.000.000.000), hay 50.847.534 números primos, pero solo un 6,7% son primos p tales que p + 2 es primo, 3.424.506.

Como puede observarse, cada vez hay menos números primos gemelos (en realidad, primos p tales que p + 2 es primo), dentro del conjunto de números primos.

Un resultado curioso relacionado con los números primos gemelos es el conocido como teorema de Brun, demostrado por el matemático noruego M. Viggo Brun (1885-1978) en 1919.

Teorema de Brun (1919): La suma de los recíprocos de los números primos gemelos

es convergente, y converge al número B2, la conocida como constante de Brun, que tiene un valor aproximado de 1,902160583104 (esta aproximación fue obtenida en 2002, por Pascal Sebah y Xavier Gourdon).

Si la anterior serie, la suma de los recíprocos de los números primos gemelos, fuese divergente, es decir, que la secuencia infinita de sumas parciales de la serie no tuviese límite, entonces podríamos afirmar que existen infinitos números primos gemelos. Esto se debe a que si fuesen finitos la serie sería convergente, ya que la suma tendría un número finito de sumandos, luego sería finita, tendría límite. Sin embargo, la serie es convergente, por lo que no podemos deducir de ahí que sea una familia finita o infinita.

Por otra parte, si la constante de Brun B2 fuese un número irracional, es decir, que no se puede escribir como cociente de dos números enteros, podríamos afirmar que entonces existen infinitos números primos gemelos. Esto se debe a que, si fuesen finitos, la serie anterior sería una suma finita de números racionales, luego racional. Pero se desconoce si B2 es racional o irracional.

The First Ten Prime Numbers, Suite I (2004), de la artista estadounidense Nancy Macko, litografía, 76,2 x 55,9 cm. La imagen pertenece a la instalación de la obra en Commissary Arts (Venecia, California), en 2008, obtenida de la página web de Nancy Macko

Continuando con nuestro interés por los números primos gemelos, podríamos plantearnos si existen ternas de números primos gemelos. La respuesta es negativa, salvo para la terna (3, 5, 7), ya que cada tres números impares consecutivos, uno de ellos necesariamente es múltiplo de 3. Es fácil observar esto. Todo número puede escribirse como 3 n + r, con r = 0, 1 o 2, entonces tres números impares consecutivos pueden escribirse de la forma 3 n + r, 3 n + r + 2 y 3 n + r + 4 = 3 (n + 1) + r + 1. Si r = 0, el primer número es múltiplo de 3, si r = 1, lo es el segundo, y si r = 2, el múltiplo de 3 es el tercero.

En conclusión, no hay ternas de números primos gemelos. Lo más cerca que pueden estar tres números primos entre sí es cuando son de la forma (p, p + 2, p + 6), como (5, 7, 11) o (11, 13, 17), y de la forma (p, p + 4, p + 6), como (7, 11, 13) o (13, 17, 19), a los cuales se les llama números primos trillizos.

Los números primos trillizos de la forma (p, p + 2, p + 6), menores de 500, son (véase la sucesión A022004 de la enciclopedia online de números enteros):

(5, 7, 11), (11, 13, 17), (17, 19, 23), (41, 43, 47), (101, 103, 107), (107, 109, 113), (191, 193, 197), (227, 229, 233), (311, 313, 317), (347, 349, 353), (461, 463, 467).

Mientras que los números primos trillizos de la forma (p, p + 4, p + 6), menores de 500, son (véase la sucesión A022005):

(7, 11, 13), (13, 17, 19), (37, 41, 43), (67, 71, 73), (97, 101, 103), (103, 107, 109), (193, 197, 199), (223, 227, 229), (277, 281, 283), (307, 311, 313), (457, 461, 463).

Además, la terna de números trillizos, de la forma (p, p + 2, p + 6), más grande que se conoce en la actualidad, obtenida en abril de 2019 (véase The Prime pages), es

4.111.286.921.397 x 266.420 – 1,

4.111.286.921.397 x 266.420 + 1,

4.111.286.921.397 x 266.420 + 5,

que tienen 20.008 dígitos. Mientras que para la forma (p, p + 4, p + 6), los números primos trillizos más grandes, obtenidos en abril de 2013 (véase The Prime pages), son

6.521.953.289.619 x 255.555 – 5

6.521.953.289.619 x 255.555 – 1

6.521.953.289.619 x 255.555 + 1,

con 16.717 dígitos cada uno. Además, de forma similar a la conjetura de los números primos gemelos, existe una conjetura sobre la existencia de infinitos números primos trillizos.

En general, nos podemos plantear el estudio de las familias de los grupos de k números primos más próximos posibles, que podemos llamar, para k = 4, cuatrillizos, para k = 5, quintillizos, luego sextillizos, septillizos, octillizos, nonillizos, etcétera y, en general, para cualquier k, números primos k-tillizos.

Dos fotografías, con 6 años de diferencia (2010-2016), de la familia McGee, con sus seis hijos sextillizos, Elijah, Issac, Josiah, Madison, Olivia and Rozonno Jr., que han sido las estrellas de un programa de televisión llamado “Growing Up McGee”. Imagen e información de la página de TODAY, fotografías de Janine and Brian Killian, de Peters Photography

Los números primos cuatrillizos son de la forma (p, p + 2, p + 6, p + 8). Las primeras cuaternas de números primos cuatrillizos (véase la sucesión A007530) son

(5, 7, 11, 13), (11, 13, 17, 19), (101, 103, 107, 109), (191, 193, 197, 199), (821, 823, 827, 829), (1481, 1483, 1487, 1489), (1871, 1873, 1877, 1879), (2081, 2083, 2087, 2089).

Además, puede demostrarse que los números primos cuatrillizos son de la forma

(30 n + 11, 30 n + 13, 30 n + 17, 30 n + 19),

salvo la cuaterna inicial (5, 7, 11, 13). Este resultado, y otros similares, ayudan a la hora de encontrar números primos cuatrillizos (véase, por ejemplo, el artículo Two Algorithms to Find Primes in Patterns, de Jonathan Sorenson).

Si tenemos una cuaterna de números primos cuatrillizos (p, p + 2, p + 6, p + 8) tal que uno de los números, p – 4 o p + 12, es primo, entonces se tiene una quinterna de números primos lo más próximos posibles entre ellos, es decir, una quinterna de números primos quintillizos. Por lo tanto, los números primos quintillizos son de la forma (p, p + 2, p + 6, p + 8, p + 12), como las quinternas (5, 7, 11, 13, 17) y (11, 13, 17, 19, 23), o de la forma (p, p + 4, p + 6, p + 10, p + 12), como (7, 11, 13, 17, 19) y (97, 101, 103, 107, 109).

Mientras que los números primos sextillizos son de la forma (p, p + 4, p + 6, p + 10, p + 12, p + 16), como (7, 11, 13, 17, 19, 23) y (97, 101, 103, 107, 109, 113), y así podríamos seguir con más agrupaciones próximas de números primos.

Despidamos la primera parte de esta miniserie de entradas sobre los números primos gemelos, parientes y sexis, y otras familias relacionadas, con otra obra relacionada con los números primos de la artista donostiarra Esther Ferrer.

Poema de los números primos (2016), de Esther Ferrer, dibujo para suelo, realizado en tinta sobre papel cuadriculado, 104,5 cm x 83,5 cm, del Archivo de Esther Ferrer. Imagen de la exposición Esther Ferrer 2, 3, 5, 7, 11, 13, 17, 19, 23,… en Tabakalera. Fotografía de Raúl Ibáñez

 

Bibliografía

1.- Wolfram Mathworld: Twin Primes

2.- Wikipedia: Twin prime

3.- Yitang Zhang, Bounded gaps between primes, Annals of Mathematics 179 (3), pp. 1121–1174, 2014.

4.- The Prime pages

5.- Chris, Di and Matthew Stevenson, Hugin Home Page: Prime numbers

6.- X. Gourdon, P. Sebah: Introduction to Twin Primes and Brun’s Constant Computation

7.- Wolfram Mathworld: Prime Triplet

8.- Wikipedia: Prime triplet

9.- Wikipedia: Prime quadruplet

10.- Jonathan Sorenson, Two Algorithms to Find Primes in Patterns

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Números primos gemelos, parientes y sexis (1) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El poema de los números primos (2)
  2. Buscando lagunas de números no primos
  3. El poema de los números primos
Catégories: Zientzia

Un átomo con un centro masivo diminuto

mar, 2019/09/03 - 11:59
Artilleros británicos preparándose para disparar un obús con proyectiles de 15 pulgadas en 1917. Esto tenía en mente Rutherford al hacer el comentario que leerás en el texto. Fuente: Wikimedia Commons

Como ocurre a menudo, el siguiente avance hacia la comprensión de la estructura atómica surgió de una investigación completamente sin ninguna relación con los espectros atómicos. La visión y el liderazgo de Ernest Rutherford hicieron que el equipo del Laboratorio Cavendish de la Universidad de Cambridge proporcionase durante el período 1909-1911 una nueva base sobre la que construir los modelos atómicos. Una base revolucionaria: los átomos son fundamentalmente espacio vacío.

Rutherford estaba interesado en los rayos emitidos por las sustancias radiactivas, especialmente los llamados rayos α (alfa). Estos rayos α consisten en partículas cargadas positivamente [1]. Algunas sustancias radiactivas emiten partículas α a velocidades y energías muy altas que pueden emplearse como proyectiles para bombardear muestras. Los experimentos que Rutherford y sus colegas hicieron con estas partículas son ejemplos de un tipo muy importante de experimento en física atómica y nuclear: el experimento de dispersión.

En un experimento de dispersión, un haz estrecho y paralelo de «proyectiles» (por ejemplo, partículas α, electrones o rayos X) se apunta a un objetivo. El objetivo suele ser una lámina delgada o una película de algún material. Cuando el rayo golpea el objetivo algunos de los proyectiles se desvían de su dirección original, dispersándose. La dispersión es el resultado de la interacción entre las partículas en el haz y los átomos del material. Un estudio cuidadoso de los proyectiles después de la dispersión puede generar información sobre los propios proyectiles, los átomos de la muestra y la interacción entre unos y otros. Así, si conocemos la masa, la energía y la dirección de los proyectiles y vemos como se dispersan podemos deducir las propiedades de los átomos que ocasionaron que los proyectiles se dispersasen de esa manera.

Rutherford notó que cuando un haz de partículas pasaba a través de una delgada lámina de metal, el haz se esparcía. Se puede pensar que esta dispersión está causada por interacciones electrostáticas entre las partículas α cargadas positivamente y las cargas que forman los átomos. Sabemos que los átomos contienen cargas positivas y negativas. Por lo tanto, una partícula α debería sufrir tanto fuerzas repelentes como atrayentes a medida que pasa a través de la materia. La magnitud y la dirección de estas fuerzas dependen de la distribución de las cargas en los átomos que constituyen la muestra y de la proximidad en cada momento de cada partícula a esas cargas. Cuando se propone un modelo atómico concreto, la extensión de la dispersión esperada se puede calcular y comparar con el experimento. Así, el modelo del átomo de Thomson predice una probabilidad casi nula de que una partícula se desvíe de su trayectoria inicial en un ángulo de más de unos pocos grados.

Previsión de la dispersión según el modelo atómico de Thomson. Fuente: Wikimedia Commons

El avance que condujo al modelo moderno del átomo siguió al descubrimiento de uno de los ayudantes de Rutherford, Hans Geiger. Geiger descubrió que el número de partículas dispersadas en ángulos de 10 ° o más era mucho mayor que el número predicho por el modelo de Thomson. De hecho, increíblemente un número significativo de partículas α se dispersaba en un ángulo superior a 90 °, es decir, muchas partículas prácticamente rebotaban directamente desde la lámina. Según el modelo de Thomson, el átomo debería haber actuado solo ligeramente sobre el proyectil. Algunos años después, Rutherford escribiría [2]:

[. . .] Había observado la dispersión de partículas α, y el Dr. Geiger en mi laboratorio la había examinado en detalle. Descubrió, en piezas delgadas de metal pesado, que la dispersión era generalmente pequeña, del orden de un grado. Un día, Geiger vino a mí y me dijo: «¿No crees que el joven Marsden, a quien estoy enseñando métodos radiactivos, debería comenzar una pequeña investigación?» Resulta que yo también lo había pensado, así que dije: «¿Por qué no le dejas ver si alguna partícula α se dispersa con un ángulo grande? ”. Puedo decirle con confianza que no creía que ninguna lo hiciese, ya que sabíamos que la partícula α era una partícula masiva muy rápida, con una gran cantidad de energía [cinética], y se podía demostrar que si la dispersión se debía al efecto acumulado de varias dispersiones pequeñas, la posibilidad de que una partícula se dispersara hacia atrás era muy pequeña. Entonces recuerdo que dos o tres días después Geiger se acercó a mí muy excitado y me dijo: “Hemos podido hacer que algunas de las partículas vuelvan atrás. . . »

Fue lo más increíble que me ha sucedido en mi vida. Fue casi tan increíble como si dispararas un proyectil de 15 pulgadas [3] contra un trozo de papel de seda y volviera y te golpeara. Reflexionando, me di cuenta de que esta dispersión hacia atrás debía ser el resultado de una sola colisión, y cuando hice los cálculos vi que era imposible obtener algo de ese orden de magnitud a menos que tomaras un sistema en el que la mayor parte de la masa del átomo se concentraba en un núcleo diminuto. Fue entonces cuando tuve la idea de un átomo con un centro masivo diminuto, con una carga.

Estos experimentos y la interpretación de Rutherford marcaron el origen del concepto moderno del átomo nuclear. Pero, pensemos un momento. A la vista de lo que hemos visto, ¿por qué el átomo debería tener su masa y carga positiva concentradas en un pequeño núcleo en el centro alrededor del cual se agrupan los electrones? Necesitamos más datos para poder llegar nosotros a esa conclusión también.

Notas:

[1] Estas partículas α son iones de helio cargados positivamente o, si se prefiere, núcleos de helio, con masas aproximadamente 7500 veces la masa del electrón.

[2] Rutherford, E. (1936) “The Development of the Theory of Atomic Structure”, publicado en “Background to Modern Science” McMillan, New York, 1940. Traducción propia.

[3] Un señor obús de 38,1 cm de diámetro. Véase la imagen que encabeza el texto.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Un átomo con un centro masivo diminuto se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un método para determinar la estructura átomo a átomo en un cristal
  2. La ley del gas ideal a partir del modelo cinético
  3. Las partículas de los rayos catódicos
Catégories: Zientzia

Sobre gustos……¿no hay nada escrito?

lun, 2019/09/02 - 11:59

Juan Felipe Castro

Foto: Natema Drummond / Unsplash

Desde hace mucho tiempo y en diversas culturas se acuñó la expresión “sobre gustos no hay nada escrito”. Parece ser que desde un punto de vista genético, fisiológico y cultural, ésta frase ya ha pasado de moda.

Según Nicholas Archer de la Organización de Investigación Científica e Industrial de la Commonwealth (CSIRO), nuestras preferencias a la hora de los gustos por las comidas varía según la persona y se crean a partir de una combinación de 3 factores: el entorno (la salud de cada uno en particular, dieta e influencias culturales), las experiencias previas y los genes.

Actualmente reconocemos los siguientes sabores en nuestra lengua y parte superior del esófago: amargo, dulce, salado, ácido, umami y también hay una nueva tendencia a reconocer el sabor “graso” como un sabor diferente de los otros.

El sabor como tal es en sí un concepto diferente del gusto, ya que implica una experiencia sensorial, donde se incluyen los olores, texturas y experiencias previas de los alimentos. Siempre decimos que cada alimento tiene su sello de olor propio. De hecho una misma comida preparada por dos personas distintas puede llegar a tener un sabor diferente, -“nadie hace la sopa de gallina como mi abuela”.

Fuente: elgourmet.com

Con respecto a los factores de la salud que influencian los gustos, tenemos que tener en cuenta que los sabores que percibimos en la lengua y los olores que registramos en la mucosa pituitaria de la nariz, están regidos por receptores específicos. Esos receptores se conocen a nivel genético como lo demuestran Keller et al (2002). Variaciones en esos genes hacen que tengamos preferencias por determinadas comidas, como también que tengamos aprehensión por otras. Si por ejemplo no nos gustan los vegetales y no los integramos en nuestra dieta, es probable que tengamos alguna deficiencia en algunas de las vitaminas o fibras que aportan esos vegetales. Hay una tendencia a padecer enfermedades relacionadas a la alimentación cuando dejamos de tener una dieta variada y sólo ingerimos alimentos que son exclusivamente de nuestro agrado. De hecho se conoce desde hace mucho tiempo que los sabores dulces evolutivamente se relacionan con los alimentos y por eso disfrutamos de frutas dulces que nos aportan energía en forma de azúcares. Por otro lado, los sabores amargos se relacionan con la presencia de algunas sustancias tóxicas en vegetales, por eso somos reticentes a algunas verduras que persisten en sabores amargos, ¿acaso el café sin azúcar o la cerveza son bien recibidos en nuestra dieta desde un primer instante?.

Según el portal “Nutrición personalizada” la percepción del gusto amargo es un rasgo variable y su base genética fue identificada hace más de 70 años mediante una serie de estudios en respuestas individuales a la feniltiocarbamida (PTC). PTC y el compuesto relacionado 6-n-propiltiouracilo (PROP) son miembros de las tioureas y contienen una fracción tiocianato (N-C=S).

De acuerdo a la presencia de estos genes se puede decir que algunas personas son catadores, semi catadores y no catadores de los sabores amargos. Eso explicaría cómo habemos personas que odiamos profundamente la rúcula y cómo hay otras que les gusta, porque no perciben con fuerza el sabor amargo, incluso poniéndose de moda como un ingrediente gourmet.

Sin lugar a duda un componente fundamental en nuestra elección de diferentes gustos es la experiencia previa. En cada una de nuestras culturas (incluso algunas no muy distintas) desde pequeños probamos y nos amigamos con sabores ancestrales, a tal punto que en nuestra memora emotiva esos sabores nunca dejan de conmovernos. Recordamos lugares, paisajes, fiestas familiares o fiestas populares. Existen comidas especiales en algunas regiones (cada lector puede recordar en su caso particular) que mantienen sus recetas originales centenarias que han sufrido muy pocas modificaciones.

¿O sea que conociendo los antecedentes genéticos y culturales de una zona determinada podemos llegar a predecir cuáles serán los gustos de las personas de esa región? Esto es muy cierto. Muchas empresas de marketing se encargan de predecir los gustos de una población determinada para poder instalar productos de comercio. Esta realidad excede a los gustos culinarios y se hace extensible a todos los gustos para cualquier bien de consumo.

Volviendo a nuestra frase inicial, cuando hablamos de los gustos tendemos a pensar que los gustos son algo muy subjetivo, que es propio de cada persona en particular. No caemos en cuenta que sobre ese tema de verdad ya hay mucho escrito y a diario se usa para bombardearnos con publicidades para que compremos tal o cual producto, o que accedamos a promociones de “el producto que estamos buscando”. En fin, como vimos, sobre gustos ya hay mucho escrito.

Referencias:

Keller KL et al. (2002) Genetic taste sensitivity to 6-n-propylthiouracil influences food preference and reported intake in preschool children. Appetite 2002;38:3-12.

Variación genética en la percepción del gusto (2012) Nutrición personalizada

Archer, N. (2017) Curious Kids: why do some people find some foods yummy but others find the same foods yucky? The Conversation

 

Sobre el autor: Juan Felipe Castro es licenciado en ciencias biológicas y trabaja en el  Instituto de Fisiología animal de la Fundación Miguel Lillo (Argentina) donde investiga en productos vegetales para el control de la glucemia.

 

El artículo Sobre gustos……¿no hay nada escrito? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Dudas sobre las vacunas: problemas y soluciones
  2. Sobre la predisposición genética a padecer enfermedades
  3. Sobre el origen del uso de herramientas en aves
Catégories: Zientzia

El legado de Carlomagno

dim, 2019/09/01 - 11:59
Si visitas la catedral de Aquisgrán (Alemania) y tienes ascendencia europea puedes señalar a quien quiera oirte que aquí yacen los restos de un abuelo tuyo. Karlsschrein / Wikimedia Commons

Todos hemos tenido un padre y una madre biológicos. Ellos, a su vez, tuvieron los suyos, de manera que todos hemos tenido dos abuelos y dos abuelas; si seguimos la secuencia hacia atrás, ocho bisabuelos, dieciséis tatarabuelos, etc. Si cada generación está separada de la anterior por 30 años, podríamos haber llegado a tener unos 16 000 ascendientes al comienzo del siglo XVII, unos 16 millones a principios del XIV y unos 16 000 millones en los albores del XI, hace unos mil años. A estas alturas ya se ha dado usted cuenta de que eso, sencillamente, es imposible.

En efecto, sin tener que retrotraernos tanto, el número real de nuestros ascendientes es muy inferior al que se calcula haciendo esas operaciones. La razón es clara: muchos de nuestros ancestros lo son por varias líneas genealógicas. Esa eventualidad es más improbable cuanto más cercanos en el tiempo son los ascendientes, pero aumenta conforme vamos hacia atrás.

A comienzos del siglo XIV había unas 450 millones de personas en el Mundo (alrededor de 70 en Europa), por lo que bien pudieron haber vivido unos 16 millones de ancestros de cada uno de nosotros entonces. Pero hace mil años sólo vivían 400 millones (unos 50 en Europa). Por lo tanto, es matemáticamente imposible que viviesen 16 000 millones de antepasados nuestros en aquella época.

Hablamos con naturalidad de “árbol genealógico” porque visualizamos nuestros ancestros como un árbol que se ramifica poco a poco hacia atrás. Pero la realidad es muy diferente. Ya desde generaciones no tan lejanas algunas de las ramas confluyen, y si nos retrotraemos a tiempos remotos, ni siquiera cabe hablar de ramas. Las líneas genealógicas configuran una especie de maraña o, si se quiere, de malla con múltiples cruzamientos. Por otro lado, muchas líneas no dejan descendencia ninguna en cada generación. Conforme retrocedemos en el tiempo, la red va haciéndose más y más estrecha: se calcula que en los albores del Neolítico, hace unos 12 000 años, vivían en el mundo menos de 4 millones de personas, unos 60 millones en la época homérica, y mil millones al comienzo del siglo XIX.

Adam Rutherford cuenta, en su “Breve historia de todos los que han vivido”, que todos los que tenemos ascendencia europea procedemos, por una vía u otra, de Carlomagno. Todos pertenecemos, por lo tanto, a un linaje real. No es broma, aunque sea del todo irrelevante. Quienes tenemos algún ancestro europeo no solo descendemos de Carlomagno, también procedemos de todos los europeos de su época –alrededor del año 800– que dejaron descendencia y ha llegado hasta el siglo XXI. Se estima que la de un 20% no ha llegado.

No hace falta ir tan atrás en el tiempo para localizar el momento en que confluyen nuestras líneas genealógicas. Todos los europeos compartimos un antepasado común que vivió hace, aproximadamente, unos 600 años. Y si los mismos cálculos que han permitido obtener esa cifra se hacen para toda la humanidad, se estima que todos los seres humanos compartimos un antepasado común que vivió hace unos 3 400 años. Porque aunque cueste creerlo, no se sabe de ninguna población que haya permanecido completamente aislada durante los últimos siglos.

Estas cosas resultan desconcertantes. Piénselo si ha depositado una muestra de saliva en un tubito y le han dicho que en su linaje confluyen ascendientes de las tribus guerreras de las estepas rusas, de los bravos vikingos que sembraron el caos y la destrucción en Europa, y de los egipcios que levantaron las pirámides. Lo más probable es que usted tenga esa ascendencia. También la tengo yo.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El legado de Carlomagno se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El legado de Einstein
  2. La historia de la vida
  3. Migraciones
Catégories: Zientzia

Ana Aguirre – Naukas Bilbao 2018: Somos binarios…. ¿o no?

sam, 2019/08/31 - 11:59
Foto: Mario Purisic / Unsplash

¿Cuántos sexos, géneros, si así lo prefieres, diferentes tiene nuestra especie?¿Dos o más de dos? Tanto si tienes clara la respuesta como si no esta charla de Ana Aguirre te resultará extremadamente útil y esclarecedora… salvo si estás en el grupo de los negacionistas de la ciencia, claro. La charla solo tiene un problema: el volumen del sonido; aun así la publicamos debido a su excepcional calidad de fondo y forma.

Ana Aguirre es profesora titular de Genética en el departamento de Genética, Antropología Física y Fisiología Animal de la UPV/EHU. Su trayectoria profesional incluye la participación en investigaciones sobre la caracterización genética de poblaciones humanas, la detección de productos genotóxicos o la identificación de factores genéticos en la enfermedad de Huntington, entre otros temas.

Ana Aguirre: ''Somos binarios, ¿o no?''

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Ana Aguirre – Naukas Bilbao 2018: Somos binarios…. ¿o no? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Francisco R. Villatoro – Naukas Bilbao 2018: El ángulo mágico del grafeno
  2. Carlos Briones – Naukas Bilbao 2018: Os voy a contar una historia (en imágenes)
  3. Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma
Catégories: Zientzia

Detección e identificación de residuos de disparos a contrarreloj

ven, 2019/08/30 - 11:59

Servicio Central de Análisis de Araba (SGIker – UPV/EHU)

Foto: Sofia Sforza / Unsplash

Hoy en día, la detección e identificación de residuos de disparos con arma de fuego (GSR, por sus siglas en inglés) proporciona información forense valiosa que generalmente se utiliza para determinar si una persona ha disparado un arma de fuego, confirmar una coartada, determinar orificios de entrada y salida de la bala, estimar de la distancia de disparo, establecer el tipo de munición utilizada, diferenciar entre suicidio u homicidio y en general, para relacionar a un individuo con una situación en la que se vea implicada el uso de un arma de fuego.

En el Servicio Central de Análisis de Álava (SGIker) se ha desarrollado un método basado en la ablación láser de barrido y espectrometría de masas con plasma de acoplamiento inductivo (SLA-ICPMS), cuya combinación instrumental ha sido aplicada para la caracterización de partículas GSR [1].

Este método ha permitido desarrollar un enfoque alternativo para la identificación inequívoca de GSR, lo que proporciona información precisa sobre la composición química de partículas GSR individuales de diferentes tipos de municiones.

El procedimiento más frecuentemente usado para el muestreo de residuos inorgánicos de la mano es una superficie de adhesivo de carbono como la que se muestra en la figura (muestreo de tape-lifting).

Imagen 1. Muestreo de GSR en manos con tape lifts comerciales. Fuente: Zuriñe Abrego, Characterization of gunshot residues by surface analysis techniques, UPV/EHU (2014) 1-313.

La mayor parte de los residuos químicos que se producen en el disparo de un arma de fuego se depositan sobre las manos del tirador en forma de partículas metálicas de 0.5 a 5 µm de diámetro, que se deben recogen en un tiempo limitado ya que desaparecen por el contacto de las manos con diversas superficies o mediante su lavado.

El patrón de ablación láser y las condiciones de ICPMS se optimizaron para la identificación del perfil elemental de partículas GSR. Se seleccionaron 15 isótopos 121Sb, 137Ba, 208Pb,27Al, 29Si, 31P, 33S, 35Cl, 39K, 44Ca, 57Fe, 60Ni, 63Cu, 66Zn y 118Sn, que fueron monitoreados para obtener información sobre la composición de las partículas GSR y para clasificarlas como características de GSR o consistente con GSR.

Una vez que se verificó la validez del método, se realizó un estudio sobre muestras reales, muestreadas en campo de tiro (Academia de Policía de la Ertzainta, Arkaute, Álava). Se realizaron más de 1400 disparos, utilizando diferentes armas de fuego, calibres y municiones, que permitieron validar el estudio.

En posteriores trabajos se extendió esta metodología para la determinación de GSR de munición libre de plomo, en la que se monitorizaron otros metales característicos de este tipo de munición (Gd-Ti-Zn y Ga-Cu-Sn). Se desarrolló además un método de muestreo conjunto de GRS orgánicos e inorgánicos, que permitió determinar en la misma muestra ambos tipos de residuos: los primeros determinados mediante espectrometría de masas de tiempo de vuelo (LC-QTOF) y los segundos mediante SLA-ICPMS [2,3].

Figura 2. Esquema del proceso de ablación para la identificación de GSR por LA-ICP-MS. Fuente: Analytical Chemistry . 84 (2012) 2402–2409.

Pero sin lugar a dudas, la principal ventaja de la metodología desarrollada, es que se puede usar como una alternativa a la técnica estándar de microscopía electrónica de barrido – espectroscopia de energía dispersiva (SEM-EDS), reduciendo drásticamente el tiempo de análisis a menos de 60 min. El hecho de que se tarde aproximadamente 1 hora en obtener resultados, frente a las 6-8 h de las técnicas habituales, aumenta la fiabilidad los procedimientos de cadena de custodia de las muestras, fundamentales en análisis forense.

Estos trabajos de investigación forman parte de la Tesis Doctoral de Zuriñe Abrego, “Characterization of gunshot residues by surface analysis techniques”, que mereció el premio extraordinario de doctorado.

Referencias:

[1] Z. Abrego, A. Ugarte, N. Unceta, A. Fernández-Isla, M. A. Goicolea, and R. J. Barrio*. Unambiguous Characterization of Gunshot Residue Particles Using Scanning Laser Ablation and Inductively Coupled Plasma-MassSpectrometry. Analytical Chemistry, 84 (2012) 2402–2409.

[2]. S. Benito, Z. Abrego, A.Sanchez, N. Unceta, M. A. Goicolea, R.J. Barrio. Characterization of organic gunshot residues in lead-free ammunition using a new sample collection device for liquid chromatography–quadrupole time-of-flight mass spectrometry Forensic Science International 246 (2015) 79–85

[3] Z. Abrego, N. Grijalba, N. Unceta, M. Maguregui, A. Sanchez, A. Fernandez-Isla, M. A. Goicolea and .R J. Barrio*A novel method for the identification of inorganic and organic gunshot residue particles of lead-free ammunitions from the hands of shooters using scanning laser ablation-ICPMS and Raman microspectroscopy. Analyst, 2014, 139, 6232

El artículo Detección e identificación de residuos de disparos a contrarreloj se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Bioóleo a partir de residuos cítricos
  2. Los residuos nucleares y la memoria de las arcillas
  3. La variedad de residuos madereros y la riqueza ecológica de los hayedos
Catégories: Zientzia

Hay que ser más extenso y menos intenso…

jeu, 2019/08/29 - 11:59
Foto: Lautaro Andreani / Unsplash

Seguro que todos habéis tenido en vuestras manos alguna bengala encendida. Son una cosa casi mágica: fuego, chispas… follón. Lo que le gusta a cualquier crío.

Es posible que también hayáis dado un salto al ver que una chispa caía en vuestra piel o en vuestra ropa… con el consiguiente alivio y sorpresa al ver que no pasaba nada (a no se que, en lugar de una chispa, fuera un “trocito” de la bengala”).

¿Cómo es esto posible si la chispa de la bengala está a más de mil grados y ya chillamos si el agua de la ducha sale un poco caliente?

Quizá la culpa la tengamos los propios profesores, solemos decir que la temperatura de una idea de la energía térmica que hay en un sistema, y quizá dimos a entender que la temperatura y la energía térmica eran la misma cosa. Y no lo son.

Usemos un símil. Si te digo que tengo un conjunto de personas que con bastante dinero en sus bolsillos, ¿qué puedes decirme sobre la cantidad de dinero total de ese conjunto? Espera, otra pregunta, y si te digo que también tengo otro conjunto de personas con no demasiado dinero en sus bolsillos, ¿puedes saber si la cantidad de dinero total del primer conjunto es superior a la del segundo?

Efectivamente, no se puede afirmar absolutamente nada. Si el segundo conjunto es mucho más numeroso que el primero, podría tener un montante total muy superior. La medida “dinero por persona” no es suficiente para saber la “energía total” del conjunto. Bien, pues la temperatura se parece un poco a eso, a una variable que puede estimar la energía “promedio” de las partículas elementales que vibran o se mueven en un sistema.

Volviendo a nuestra bengala, podríamos decir que hay mucha “densidad de energía” en esa chispa tan pequeña, lo que no implica que la cantidad total de energía sea mucha, precisamente por lo pequeña que es. De esta forma, la chispa no tiene energía suficiente para quemarme.

En física llamamos variables intensivas a aquellas que no dependen del tamaño del sistema, como la temperatura o la densidad. Ya sabéis que la densidad del agua es, aproximadamente un kilogramo por litro, ya tengas un vaso o una piscina. La densidad nos da “cuánta masa hay en un volumen dado” no la cantidad global (como si habláramos de personas por metro cuadrado en una manifestación). Por eso bromas como “mira, estamos a dos grados centígrados, no tocamos ni a uno cada uno”, no tienen ningún sentido. Cada punto de la estancia estará a dos grados.

Hay otras variables que llamamos extensivas que sí que aumentan o disminuyen al cambiar el tamaño del sistema, como la masa, el volumen o la energía térmica. Una curiosidad, a veces al operar con variables extensivas nos da una variable intensiva. Por ejemplo, el volumen o la masa de un objeto son variables extensivas, si hago el objeto el objeto el doble de grande, tendrá dos veces el volumen, claro, y dos veces la masa. Pero si pienso en la densidad, que es la masa dividida por el volumen, esos dos factores “2” se simplifican y la densidad seguirá siendo la misma, sin variar por el tamaño del sistema, por lo tanto una variable intensiva.

Pero hablemos con un poco más de detalle de cómo se da la transferencia de energía entre los cuerpos calientes y los fríos (si no hay cambio de estado).

Primero, aclarar que la temperatura es una variable macroscópica, no tiene sentido decir que una molécula está a tantos grados centígrados, diremos que los sistemas macroscópicos están a cierta temperatura, y podremos relacionar esta magnitud con asuntos microscópicos como la velocidad a la que se mueven las partículas.

Digamos entonces que tenemos dos sistemas de distinta masa y de distinto material que están a distinta temperatura.

De nuestro símil de antes, sabemos que estos dos sistemas difieren tanto en la temperatura, como en la energía total que tienen, pudiendo suceder que tenga más energía térmica global aquel que tiene menor temperatura.

¿Qué pasa cuando los ponemos en contacto térmico?

Pues, antes de que empecéis a soltar hipótesis, os diré que pasa exactamente lo que le da la gana a la naturaleza. Nunca está de más recordar que la ciencia se basa en el empirísmo, en ver qué sucede y dar cuenta de ello intentando buscar patrones y regularidades.

Podría ser que la energía pasase del que tiene más energía al que tiene menos hasta igualarse las energías globales en ambos sistemas. Podría ser. Pero no es. Lo que ocurre es que la energía pasa de uno a otro hasta que las temperaturas se equilibran, quedando ambos sistemas con energías distintas, y a este “estado de vibración similar” es lo que llamamos equilibrio térmico y es de lo que habla la Ley Cero de la Termodinámica.

De esta forma, si el cuerpo frío tiene menos materia, con una fracción pequeña de energía proveniente del cuerpo grande, sería suficiente para agitar sus “pocas partículas” hasta tener “un estado de vibración similar” entre ambos sistemas, una misma temperatura.

Pero aún falta otro factor a tener en cuenta. La distinta naturaleza de los materiales entre ambos sistemas. Si un kilo de material absorbe una unidad de energía, ¿elevará su temperatura los mismos grados, sea cual sea el material? Podría ser, ya sabéis, no depende de lo que os apetezca u os parezca razonable. Podría ser… pero no.

Algunos materiales necesitan absorber mucha energía para que un kilo de sustancia incremente su temperatura un grado y otros, bastante menos. A esta característica le llamamos calor específico.

Así, hay sustancias que cuesta mucho calentar. Tú aportas y aportas energía, y aquello no sube la temperatura. Fíjate que también hay otra manera de ver este efecto: estos materiales funcionan como una “reserva de energía” porque al enfriarse, cederán un montón de energía cada grado que vayan bajando su temperatura.

Una sustancia común con una capacidad calorífica bastante relevante es el agua líquida y, por esa razón, funciona como un regulador de temperatura en la costa. Absorbiendo el calor cuando la temperatura es alta y cediéndolo cuando baja.

Esto se resume en una fórmula que quizá ahora os parezca muy sencilla de entender.

Q = m C (T2-T1)

La pondríamos en palabras así: El calor que un material absorbe o cede* al cambiar su temperatura de T1 a T2 es proporcional a cuánta materia hay y a cual es su calor específico.

Si volvemos a pensar en nuestra chispa, aunque la diferencia de temperatura con nuestra piel es elevada, debido a la poca masa, cuando iguale su temperatura con nosotros, el calor que nos cederá será una cantidad muy pequeña.

La idea de este artículo nace al ver un tuit en el que se hablaba de la influencia en el calentamiento global de las pruebas nucleares y detonaciones que se llevaron a cabo en la segunda mitad del siglo XX y argumentaban la enorme temperatura de esas explosiones.

Ya estáis en condiciones de buscar vuestra propia información (o hacer vuestros propios cálculos), lo que está claro es que esa afirmación no puede sostenerse exclusivamente argumentado la temperatura de las explosiones, hay que estimar qué energía total se disipó y cuánto aumento de temperatura sería capaz de producir en la atmósfera como conjunto.

Aquí tenéis un interesante hilo de Pedro J. Hernandez (@ecosdelfuturo) donde hace las cuentas… los números os sorprenderán. Agradecemos a Pedro, como siempre, su incansable labor en la información y el detalle.

Como suelo decir: El que mide, sabe. El que no, sólo opina.

Sobre el autor: Javier Fernández Panadero es físico y profesor de secundaria además de escritor de libros de divulgación.

[*] Nota del editor: Esto es una forma coloquial de hablar. En puridad lo que se absorbe o cede es energía y la forma en la que se transfiere es calor. El calor, recordemos, es una forma de transferencia de energía, no un fluido o cosa similar. Más aquí.

El artículo Hay que ser más extenso y menos intenso… se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Menos felices y menos insatisfechos a medida que envejecemos
  2. Una fórmula para dominarlos a todos: La conservación de la energía y la ley de la palanca
  3. No era tan fácil: wifi y cáncer
Catégories: Zientzia

Shizuo Kakutani y sus teoremas

mer, 2019/08/28 - 11:59

El matemático Shizuo Kakutani (1911-2004) nació tal día como hoy, hace 108i años.

Shizuo Kakutani. Imagen: Wikimedia Commons.

 

Es sobre todo conocido por haber demostrado el teorema del punto fijo que lleva su nombre y que generaliza el teorema del punto fijo de Brouwer:

Consideremos S un subconjunto no vacío, compacto y convexo del espacio euclidiano de dimensión n. Sea φ una función de S en el conjunto potencia de S, semicontinua superiormente, convexa y tal que φ(x) es un conjunto cerrado y no vacío para todo x en S. Entonces φ tiene un punto fijo.

Este teorema posee aplicaciones en economía y teoría de juegos. Por ejemplo John Nash lo utilizó para demostrar la existencia de equilibrios de Nash en estrategias mixtas.

Otras de sus contribuciones matemáticas son el teorema de Kakutani (todo cuerpo convexo en un espacio tridimensional tiene un cubo circunscrito, es decir, un cubo tal que todas sus caras tocan al cuerpo), el concepto de descomposición en rascacielos de Kakutani en teoría ergódica o su solución de la ecuación de Poisson usando métodos de análisis estocástico.

Kakutani ayudó a difundir la conjetura de Collatz, que a veces se nombra también “conjetura de Kakutani”. ¿Y qué dice la conjetura de Collatz? Lo vamos a recordar a través de un fragmento de la obra de teatro Incendios del dramaturgo Wajdi Mouawad. La siguiente es una conversación entre Jeanne, matemática, y su hermano gemelo Simon:

Jeanne (J): ¡De acuerdo! Hay una conjetura muy extraña en matemáticas. Una conjetura que nunca se ha demostrado. Me vas a dar un número, cualquiera. Si el número es par, se divide por dos. Si es impar, se multiplica por tres y se suma uno. Haremos lo mismo con el número que se obtiene. Esta conjetura afirma que cualquiera que sea el número de partida, por este procedimiento se llega siempre a uno. Di un número.

Simon (S): Siete.

J: Bueno siete es impar. Lo multiplicamos por tres y le añadimos uno, da…

S: Veintidós.

J: Veintidós es par, se divide por dos.

S: Once.

J: Once es impar, se multiplica por tres, y se añade uno:

S: Treinta y cuatro.

J: Treinta y cuatro es par. Se divide por dos, diecisiete. Diecisiete es impar, se multiplica por tres, y se suma uno, cincuenta y dos. Cincuenta y dos es par, se divide por dos, veintiséis. Veintiséis es par, se divide por dos, trece. Trece es impar. Se multiplica por tres y se suma uno cuarenta. Cuarenta es par, se divide por dos, veinte. Veinte es par, se divide por dos, diez, diez es par, se divide por dos, cinco. Cinco es impar, se multiplica por tres y se suma uno. Dieciséis. Dieciséis es par, se divide por dos, ocho, ocho es par, se divide por dos, cuatro, cuatro es par, se divide por dos, dos, dos es par, se divide por dos, uno. Independientemente de la cifra inicial, se llega a… ¡No!

¿A qué se llega? Al número 1.

En este enlace, puedes introducir el número que quieras y comprobar que, efectivamente, realizando las operaciones indicadas se llega a 1…

Por si acaso, he hecho una prueba con el famoso número 241543903 y, siguiendo la regla antes explicada, este calculador ha ido obteniendo los siguientes números:

241543903, 724631710, 362315855, 1086947566, 543473783, 1630421350, 815210675, 2445632026, 1222816013, 3668448040, 1834224020, 917112010, 458556005, 1375668016, 687834008, 343917004, 171958502, 85979251, 257937754, 128968877, 386906632, 193453316, 96726658, 48363329, 145089988, 72544994, 36272497, 108817492, 54408746, 27204373, 81613120, 40806560, 20403280, 10201640, 5100820, 2550410, 1275205, 3825616, 1912808, 956404, 478202, 239101, 717304, 358652, 179326, 89663, 268990, 134495, 403486, 201743, 605230, 302615, 907846, 453923, 1361770, 680885, 2042656, 1021328, 510664, 255332, 127666, 63833, 191500, 95750, 47875, 143626, 71813, 215440, 107720, 53860, 26930, 13465, 40396, 20198, 10099, 30298, 15149, 45448, 22724, 11362, 5681, 17044, 8522, 4261, 12784, 6392, 3196, 1598, 799, 2398, 1199, 3598, 1799, 5398, 2699, 8098, 4049, 12148, 6074, 3037, 9112, 4556, 2278, 1139, 3418, 1709, 5128, 2564, 1282, 641, 1924, 962, 481, 1444, 722, 361, 1084, 542,  271, 814, 407, 1222, 611, 1834, 917, 2752, 1376, 688, 344, 172, 86, 43, 130, 65, 196, 98, 49, 148, 74, 37, 112, 56, 28, 14, 7, 22, 11, 34, 17, 52, 26, 13, 40, 20, 10, 5, 16, 8, 4, 2 y 1.

¡Bien! Pasando por 109 números pares y 51 impares, hemos verificado lo que dice la conjetura de Kakutani con el número 241543903, un número cualquiera. ¿Será cierta la conjetura de Collatz? ¿O quizás alguien consiga encontrar un contraejemplo? El tiempo lo dirá…

Más información

BONUS: Entre otras propiedades matemáticas, 108 es un número abundante (hablamos de este tipo de números en Sumas y sucesiones alícuotas), semiperfecto, tetranacci, hiperfactorial, refactorable o de Devlali. Además, es el número atómico del elemento hasio y la medida (en grados) de los ángulos internos de un pentágono regular. Y, por cierto, con una temperatura interna de 108 grados Fahrenheit (algo más de 42 grados centígrados), los órganos vitales del cuerpo humano comienzan a fallar por sobrecalentamiento…

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Shizuo Kakutani y sus teoremas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una conjetura sobre ciertos números en el ‘sistema Shadok’
  2. Incendios, los grafos de visibilidad y la conjetura de Collatz
  3. El teorema de Ducci
Catégories: Zientzia

Las regularidades en el espectro del hidrógeno

mar, 2019/08/27 - 11:59
Foto: Adam Kring / Unsplash

Las ideas de Balmer sobre el espectro del hidrógeno tuvieron un éxito enorme. Veámoslo.

Para usar la notación moderna, reescribimos la fórmula de Balmer λ = b [n2/(n2-22)] en una forma que nos será más útil:

1/λ = RH (1/22 – 1/n2)

En esta ecuación que, como decimos, puede derivarse de la anterior, RH es una constante, igual a 4 / b. Se llama constante de Rydberg para el hidrógeno, en honor del espectroscopista J.R. Rydberg. Continuando el trabajo de Balmer, Rydberg hizo un gran progreso en la búsqueda de varias series espectrales. La serie de líneas descritas por la fórmula de Balmer se llama la serie de Balmer. Balmer construyó su fórmula a partir de las longitudes de onda conocidas de solo cuatro líneas en la parte visible del espectro. Esta fórmula de Balmer predice correctamente cada una de estas cuatro líneas con una precisión considerable. La fórmula, sin embargo, parecía indicar que podrían existir muchas más líneas en la misma serie [1]. Además,

La sugerencia especulativa [2] de Balmer de reemplazar 22 por otros números ofrece las siguientes posibilidades:

1/λ = RH (1/12 – 1/n2)

1/λ = RH (1/32 – 1/n2)

1/λ = RH (1/42 – 1/n2)

Cada una de estas ecuaciones describe una posible serie de líneas de emisión. Todas estas series hipotéticas de líneas pueden resumirse en una fórmula general

1/λ = RH (1/nf2 – 1/ni2)

donde nf sería un número entero que es fijo para cada serie para la que se encuentren longitudes de onda (por ejemplo, nf = 2 para todas las líneas de la serie Balmer). Por otro lado ni representa enteros que toman los valores nf + 1, nf + 2, nf + 3,. . . para las sucesivas líneas individuales en una serie dada (las cuatro primeras líneas de la serie de Balmer, ni toma por tanto los valores 3, 4, 5, y 6) La constante RH debe tener el mismo valor para todas las series del hidrógeno.

Reiteremos que todo esto es pura especulación [2]. No hay nada que indique que deba existir ninguna otra serie, ninguna línea que se ajuste a la fórmula general, excepto la serie de Balmer observada experimentalmente, donde nf = 2. Pero resultó que, cuando la comunidad científica se puso a buscar estas líneas hipotéticas con buenos espectrómetros descubrió que, de hecho, ¡existen!

En 1908, F. Paschen encontró dos líneas del hidrógeno en el infrarrojo. Sus longitudes de onda se correspondían con notable precisión a la fórmula general estableciendo nf = 3 y ni = 4 y 5. Desde entonces, se han identificado muchas otras líneas en esta «serie de Paschen». Con técnicas y aparatos experimentales mejorados, se pudieron explorar nuevas regiones del espectro. Así, se fueron agregando gradualmente otras series a las series de Balmer y de Paschen. Las series del espectro del hidrógeno descubiertas son las siguientes (entre paréntesis año de descubrimiento):

Lyman (1906–1914) nf =1, ni = 2, 3, 4, . . . en el ultravioleta;

Balmer (1885) nf = 2, ni = 3, 4, 5, . . . en el ultravioleta-visible;

Paschen (1908) nf = 3, ni = 4, 5, 6, . . . en el infrarrojo;

Brackett (1922) nf = 4, ni = 5, 6, 7, . . . en el infrarrojo;

Pfund (1924) nf = 5, ni = 6, 7, 8, . . . en el infrarrojo;

Humphreys (1953) nf = 6, ni = 7, 8, 9, . . .en el infrarrojo.

Líneas espectrales del hidrógeno en escala logarítmica. Se señala la primera línea (α) de cada una de las series. Imagen: Wikimedia Commons

Balmer también especuló con la idea de que su fórmula para el espectro del hidrógeno pudiera ser un patrón para encontrar relaciones en los espectros de otros gases. Esta sugerencia también dio fruto. La fórmula de Balmer en sí misma no funcionó directamente para describir espectros de gases distintos al hidrógeno. Pero sí inspiró fórmulas de forma matemática similar que describieron con éxito el orden en porciones de muchos espectros complejos [3].

Para sorpresa de muchos y desesperación de otros no se podía construir ningún modelo basado en la mecánica clásica y el electromagnetismo que explicara los espectros descritos por estas fórmulas.

Lo que ya hemos visto sobre la teoría cuántica sugería una línea de ataque. Obviamente, la emisión y absorción de luz de un átomo debe corresponder a una disminución y un aumento de la energía del átomo. Si los átomos de un elemento emiten luz de solo ciertas frecuencias, entonces la energía de los átomos debe poder cambiar solo en ciertas cantidades. Estos cambios de energía deben implicar la reorganización de las partes del átomo. Se hacía imprescindible cambiar radicalmente el enfoque a la hora de construir un modelo de átomo viable. Pero era necesario un ingrediente fundamental adicional antes de que se construyese un modelo atómico que pudiese tener éxito: el descubrimiento de que el átomo es, básicamente, espacio vacío.

Notas:

[1] De hecho, infinitas, ya que n = 3, 4, 5, 6, 7, 8,… ∞

[2] Y numerológica. Es por pura simetría matemática. Funciona porque funciona, pero recordemos que tras la sugerencia de Balmer no hay ninguna base física a priori.

[3] La constante de Rydberg RH también reapareció en estas fórmulas empíricas.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Las regularidades en el espectro del hidrógeno se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las líneas de Balmer
  2. El hidrógeno en el Universo (I): La emisión del hidrógeno neutro a 21 cm.
  3. La ley del gas ideal y la tercera ley de la termodinámica
Catégories: Zientzia

Pages