Puntos cuánticos encapsulados con fluorescencia de meses

La nanotecnología y la nanociencia son disciplinas en las que se diseñan, fabrican y estudian estructuras moleculares de diminutas dimensiones con propiedades físicas y químicas especiales. Uno de los tipos de partículas que se estudian en estas disciplinas son los puntos cuánticos, unos nanocristales semiconductores de un tamaño que oscila entre los 2 nm y los 10 nm, que tienen excelentes propiedades ópticas y electrónicas. Entre ellas, cabe destacar que emiten luz de colores diferentes dependiendo de su tamaño, es decir, “varía la longitud de onda de emisión variando únicamente el tamaño del nanocristal, sin modificar su composición”, explica Alicia de San Luis, investigadora de Polymat y autora del trabajo.
Sus propiedades hacen que los puntos cuánticos puedan ser útiles para diversas aplicaciones como la detección en biomedicina, la producción de placas solares y LEDs, el uso como sensores de compuestos orgánicos volátiles (COVs) y como fotosensibilizadores. Sin embargo, ”también hay que tener en cuenta sus inconvenientes: son difíciles de manipular, por su pequeño tamaño, y son tóxicos, dado que los puntos cuánticos de mayor calidad están mayoritariamente compuestos por metales pesados”, apunta la investigadora.
Para sacar el mayor partido a las excelentes propiedades ópticas de estas nanopartículas, pero sin olvidar los problemas de toxicidad que presentan, en el instituto de investigación Polymat de la UPV/EHU han conseguido encapsular eficientemente puntos cuánticos comerciales en partículas de polímero dispersas en agua, manteniendo la fluorescencia de los puntos cuánticos durante largos periodos de tiempo. “El principal objetivo era encapsular los puntos cuánticos en partículas de polímero un poco más grandes, para protegerlos y facilitar, a su vez, su manipulación sin que perdieran sus propiedades”, apunta la autora de la investigación. “Hemos puesto en marcha un método sencillo con buenos resultados: partículas de polímero con fluorescencias estables durante un mínimo de 9 meses”, añade.
Una vez alcanzado el primer objetivo, “el siguiente paso fue lograr la encapsulación de combinaciones de puntos cuánticos de diferentes tamaños para crear un código de barras que se pudiera utilizar para la detección múltiple en sistemas biológicos”, explica. Así, han conseguido controlar la fluorescencia de estas combinaciones, ya que utilizando puntos cuánticos que emiten a diferentes longitudes de onda, “se pueden detectar sus señales simultáneamente, sin que se superpongan una a otra”. Esto puede servir para detección biomédica, ya que existe la posibilidad de modificar la superficie de la partícula de polímero con diferentes analitos (o diferentes anticuerpos o antígenos). En opinión de la investigadora, “se trata de una técnica de detección bastante potente, sencilla y rápida. La mayoría de los laboratorios cuentan con un fluorímetro, y, además, no habría que esperar días para procesar la muestra”.
Por otra parte, también han investigado la combinación de los puntos cuánticos con otras nanopartículas inorgánicas (CeO2), coencapsulándolas en las mismas partículas de polímero. En este estudio han podido observar “un incremento de la emisión de fluorescencia durante el tiempo de exposición a la luz solar”.
Por último, en la investigación se ha abordado la posible aplicabilidad de diversas combinaciones sintetizadas como sensores ópticos y eléctricos de compuestos orgánicos volátiles (COVs), mediante la producción de nanofibras y su posterior contacto con COVs. Esta parte de la investigación, está llevándose a cabo en colaboración con Tecnalia. “En este caso trabajamos tanto en fluorescencia como en medidas de conductividad de las nanofibras”, explica Alicia de San Luis.
Referencia:
A. de San Luis et al (2018) Toward the minimization of fluorescence loss in hybrid cross-linked core-shell PS/QD/PMMA nanoparticles: Effect of the shell thickness Chemical Engineering Journal doi: 10.1016/j.cej.2016.12.048
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Puntos cuánticos encapsulados con fluorescencia de meses se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Nanocompuestos poliméricos funcionalizados con puntos cuánticos
- Simuladores cuánticos de sistemas complejos
- Cómo de cuánticos son los fenómenos cuánticos en los seres vivos
El legado de Fisher y la crisis de la ciencia

En 2005, John Ioannidis, prestigioso profesor de medicina de la Universidad de Stanford, publicó uno de los artículos más citados e influyentes de la literatura científica: Why Most Published Research Findings are False (Por qué la mayor parte de los resultados de investigación son falsos). Posteriormente, se acuñó el término “crisis de replicabilidad” para referirse al hecho de que un gran número de estudios científicos (especialmente en ciencias sociales y medicina) no han podido ser replicados, algo fundamental en ciencia. Este problema ha saltado a la opinión pública en diversas ocasiones, como cuando en mayo de 2016 una encuesta de la revista Nature desvelaba que el 90% de los científicos reconocen que esta crisis existe.
Muchos de los análisis apuntan, como Ioannidis, a que gran parte del problema reside en que muchos resultados de investigación no siguen un buen estándar de evidencia científica, lo cual se deriva de un mal uso o una mala interpretación de los métodos estadísticos utilizados. En particular, los contrastes de hipótesis y los p-valores están en el ojo del huracán. Estas herramientas son ampliamente usadas en campos como psicología y medicina en los que las preguntas típicas de investigación tienen una estructura similar, del tipo ¿es B diferente a A? Por ejemplo, obtengo un nuevo fármaco y quiero saber si tiene un efecto más allá del placebo, o quiero comprobar si un nuevo tratamiento es superior a otro. Las metodologías son asimismo similares, y consisten en medir el efecto en un grupo de sujetos con respecto a otro grupo de control. Y ahí es donde entra en juego la estadística.
Pero ¿qué es un contraste de hipótesis y un p-valor? ¿Qué es la significancia estadística y qué es eso de “p
La ciencia es un ejercicio de inferencia inductiva, esto es, hacemos observaciones y tratamos de inferir reglas generales que las expliquen. Esto es lo contrario a lo que hacen las matemáticas, que a partir de un conjunto de reglas generales deducen resultados particulares, y estos son ciertos por definición si la deducción es formalmente correcta. La inducción es más compleja y requiere la acumulación de evidencia, por lo que nunca podemos estar completamente seguros en sentido estricto. En los años 20 del siglo pasado, Ronald Fisher abogó por evitar el problema filosófico de la inducción al promover métodos que cambian la pregunta de investigación para convertir la inducción en deducción. En lugar de responder ¿es B diferente a A?, suponemos que A y B son iguales, deducimos lo que esperaríamos observar y lo comparamos con lo observado.
Esta aproximación frecuentista se materializa en lo que se conoce como contrastes de hipótesis. En ellos se define una hipótesis nula (A y B son iguales) contraria a lo que se pretende demostrar (A y B son distintos) y se calcula un estadístico llamado p-valor que representa la probabilidad de obtener los datos observados (u otros más raros). En el uso común, si la probabilidad es suficientemente baja (típicamente menor que 0.05, el 5%, lo cual es un límite completamente arbitrario), se dice que hay significancia estadística y se acepta que las observaciones son suficientemente raras dada la hipótesis nula. Por tanto, se rechaza la hipótesis nula y se abraza la hipótesis alternativa en su lugar.
El p-valor es probablemente uno de los conceptos más escurridizos y malinterpretados de la estadística. A menudo lleva a falsos descubrimientos y afirmaciones directamente incorrectas en las que continuamente caen incluso los expertos, hasta tal punto que la American Statistical Association se vio en la obligación en 2016 de publicar una declaración oficial con una guía sobre qué son (y qué no son) los p-valores, sobre qué se puede afirmar con ellos y para qué se pueden utilizar. Algunas voces van más allá y afirman que si incluso aquellos versados en estadística a menudo utilizan mal y malinterpretan un método, significa que este es defectuoso en esencia.
Desde luego, la maniobra popularizada por Fisher es brillante, y los métodos son sencillos y metodológicamente atractivos, pero, aparte de las dificultades de interpretación,se esconden graves problemas que cuestionan su aplicación indiscriminada. Fundamentalmente, como hemos dicho, la pregunta de investigación cambia, por lo que no se responde a lo que verdaderamente nos interesa, i.e., ¿es B diferente a A, dados estos datos? En su lugar, se responde a cómo de raros son los datos si damos por bueno que A=B: ¡hemos dado la vuelta al objetivo!
En definitiva, el contraste de hipótesis se basa en recolectar evidencia indirecta en contra de una hipótesis nula, no evidencia directa a favor de la hipótesis alternativa, que es lo que se pretende comprobar realmente. Según los usos comunes, cuando no se encuentra evidencia en contra de la hipótesis nula (p-valor alto), esta se suele aceptar, lo cual es incorrecto: el mismo Fisher argumentaba que un p-valor alto significa que no aprendemos nada de las observaciones, y que por tanto solo significa que se requieren más datos. Por otro lado, cuando sí se encuentra evidencia en contra de la hipótesis nula (p-valor bajo), no solo se rechaza esta, sino que se acepta la hipótesis alternativa, lo que es todavía más problemático.
Como ya puso de manifiesto Jacob Cohen en su clásico artículo The earth is round (p , allá por 1994, esta especie de prueba por contradicción funciona bajo las reglas de la lógica en las que las afirmaciones son ciertas o falsas, sin ningún tipo de incertidumbre: “si la hipótesis nula es correcta, estos datos no serían posibles; tenemos estos datos, luego la hipótesis es falsa”. Pero la naturaleza probabilística de los fenómenos que estudia la ciencia añade una incertidumbre que vuelve el razonamiento inválido: “si la hipótesis nula es correcta, estos datos serían poco probables; tenemos estos datos, luego la hipótesis es poco probable”. Antes que Cohen, Pollard y Richardson desmontaron esta aparente transitividad de la improbabilidad con un simple ejemplo concreto: “si una persona es americana, probablemente no es miembro del Congreso; esta persona es miembro del Congreso, luego no es americana”.
El famoso artículo de Ioannidis de 2005 causó una gran impresión en la opinión pública, pero no debería sorprender a ningún científico. Como hemos visto, ya en 1994 Cohen se quejaba amargamente de que, tras cuatro décadas de duras críticas, el método de Fisher y ese criterio sagrado de “p decía del mágico y arbitrario valor “p
Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute
El artículo El legado de Fisher y la crisis de la ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La ciencia y la duda
- “Ciencia y crisis, ¿examen de conciencia?” por Luis A. Martínez Sáez
- Ciencia: es complicado
El tobogán parabólico de Garching
A finales del mes de noviembre, mi hermana Inés me mandaba unas fotos de la revista Ling que estaba ojeando en el avión de vuelta a Barcelona. Quería mostrarme un reportaje que hablaba del Parabelrutsche, un singular tobogán “muy matemático” situado en el interior de uno de los edificios de la Universidad Técnica de Múnich. Me pareció una propuesta muy ingeniosa, así que me puse a buscar información.

El proyecto Kunst am Bau –Arte dentro del edificio– es una iniciativa que deben seguir los edificios públicos en Alemania. Las leyes alemanas obligan al utilizar un porcentaje de los costos de edificación de las construcciones estatales –normalmente un 1%– al arte en cualquiera de sus formas. Es parte de su responsabilidad en la promoción de la cultura arquitectónica.
Teniendo en cuenta esta norma, en 2002, la Universidad Técnica de Múnich eligió las Facultades de Matemáticas e Informática del campus de Garching para combinar ciencia y arte. El equipo formado por los artistas Johannes Brunner y Raimund Ritz ganó el concurso de ideas lanzado por la universidad con un proyecto insólito para un centro universitario: dos enormes toboganes uniendo el tercer piso y la planta baja –separados por trece metros de altura– del edificio.
Pero estos toboganes no poseen una forma estándar. En realidad, la propuesta artística tiene muchas ideas matemáticas subyacentes. Esos toboganes son en realidad las dos partes de una formidable parábola hueca colocada en el vestíbulo del edificio, dos inmensos tubos curvos de acero que permiten evitar las escaleras y ahorrar tiempo.
Parece que la primera idea de Brunner y Ritz fue la de construir una escalera parabólica; pero la pendiente era demasiado brusca, incumpliendo las normas de seguridad. Así que no podía realizarse. Optaron entonces por un tobogán parabólico: dos piezas de aluminio, dos conductos huecos y curvos de un metro de diámetro, formando la parábola de ecuación z = y = x² h/d², donde xyz representa las coordenadas cartesianas del espacio, h es la altura desde la planta baja hasta la entrada en los toboganes (en el tercer piso) y d es la distancia (en horizontal) entre la entrada al tobogán en el tercer piso y la salida en la planta baja (ver la imagen 2).

Para descender por los toboganes, unas alfombrillas deslizantes están a la disposición de toda aquella persona que decida utilizar este “transporte rápido”. Usarlas evita rozaduras y el descenso es eficaz, ya que el interior de los tubos está revestido por un material antideslizante.
El Parabelrutsche forma ya parte del paisaje de este edificio universitario. Parece que su utilización es impecable: un cartel anuncia en las entradas de los toboganes que su mal uso puede llevar a la retirada de la matrícula o a la expulsión de la universidad.
Además de ser un remplazo a las “aburridas” escaleras, esta magnífica escultura “suaviza” el “frío” aspecto del interior del edificio. He leído que, antes de colocar el Parabelrutsche, algunas y algunos estudiantes comparaban la apariencia del edificio alojando las Facultades de Matemáticas e Informática con la de la cárcel de Alcatraz. La verdad, sí que la recuerda un poco…
Referencias:
Daniel Martorell, ‘Mates’ al servicio del arte, Revista Ling, noviembre 2018, págs. 38-41
Parabelrutsche am Neubau Mathematik/Informatik der TUM auf dem Campus Garching, TUM
Imágenes del tobogán parabólico, TUM
Parabelrutsche, TUMcampus, Das Magazin der Technischen Universität München 2, 2018, pág. 63
Projekte am Bau, 2002 Parabel, Brunner/Ritz
Parabelrutsche: Is This the Coolest Slide in the World? , Kuriositas, 8 junio 2013
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo El tobogán parabólico de Garching se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El investigador fantasma: ¿P=NP?
- Patatas ‘perfectas’ con el método ‘Edge Hotel School’
- Zorn, su lema y el axioma de elección
Difracción de ondas: el principio de Huygens
A diferencia de de las pelotas de tenis, las balas, y otras trozos de materia en movimiento, las ondas sí puden rodear una esquina. Por ejemplo, podemos oír una voz que viene desde el otro lado de una colina, a pesar de que no haya nada que refleje el sonido hacia nosotros. Estamos tan acostumbrados al hecho de que las ondas de sonido sean capaces de hacer esto que ni nos damos cuenta. Esta propagación de la energía de las ondas a lo que cabría esperar que fuese una región inaccesible se llama difracción. De nuevo, las ondas en el agua ilustran este comportamiento con mayor claridad. Seguro que ahora ves esta fotografía de otra manera.

La fotografía muestra uno de los casos en los que se produce difracción; en ella vemos que las ondas en el agua se difractan a medida que pasan a través de una apertura estrecha ranura en una barrera. Añadamos que el tamaño de la apertura es menos de una longitud de onda de ancho. Observemos que la ranura es menor que una longitud de onda de ancho. La onda aparece en la laguna y se propaga en todas direcciones. Si observamos el patrón de la onda difractada vemos que es básicamente el mismo patrón que establecería una fuente puntual de vibración si se coloca donde está la ranura apertura. Quizás lo veamos mejor con la ayuda de un esquema:

Veamos ahora la posibilidad de que, en vez de una, tengamos dos aperturas estechas. De lo que hemos visto para una apertura cabe esperar lo que se observa realmente, esto es, que el patrón resultante que forman las ondas difractadas en ambas rendijas es el mismo que el producido por dos fuentes puntuales que vibran en fase. Así lo ilustró Thomas Young en su comunicación a la Royal Society al respecto en 1803:

De forma general, si hay n aperturas estrechas (menores que una longitud de onda) en una barrera, el patrón de ondas observado después de la barrera se corresponde con el que habría en el medio si hubiese n fuentes puntuales en fase, cada una en la posición de una apertura.
Pero, ¿por qué ocurre esto?
Podemos describir estos y todos los demás efectos de la difracción a partir de una característica básica de las ondas. Esta característica se conoce como principio de Huygens, ya que la expresó por primera vez Christiaan Huygens en 1678. Necesitamos para entenderlo un concepto previo, el de frente de onda. Para una onda en el agua, un frente de onda es una línea imaginaria a lo largo de la superficie del agua, con cada punto a lo largo de esta línea exactamente en la misma fase de la vibración; es decir, todos los puntos de la línea están en fase. Dicho de otra manera y en general: un frente de onda es el lugar geométrico de todos los puntos adyacentes en los que la perturbación está en fase. Así, las líneas de cresta son frentes de onda, ya que todos los puntos de la superficie del agua a lo largo de una línea de cresta están en fase. Cada uno acaba de alcanzar su máximo desplazamiento hacia arriba, está momentáneamente en reposo, y comenzará a bajar un instante más tarde.
Como las ondas de sonido no se propagan sobre una superficie sino en tres dimensiones, sus frentes de onda no forman líneas sino superficies. Los frentes de onda para las ondas de sonido emitidas desde un fuentes muy pequeñas son superficies casi esféricas, de a misma forma que los frentes de onda de las ondulaciones en el agua a partir de una fuente muy pequeña son círculos.
El principio de Huygens, puede expresarse así: cada punto de un frente de onda puede considerarse que se comporta como una fuente puntual de ondas generadas en la dirección de propagación de la onda original y con su misma velocidad y frecuencia. Traduciendo libremente a Huygens:
Existe la consideración adicional en la emanación de estas ondas de que cada partícula de materia en la que una onda se propaga, no debe comunicar su movimiento solamente a la siguiente partícula que está en la línea recta trazada desde la [fuente], sino que también impartirá algo de él necesariamente a todas las otras que la tocan y que se oponen ellas mismas a su movimiento. Así ocurre que alrededor de cada partícula se crea una onda de la que la partícula es el centro.
Seguiremos explorando las consecuencias del principio de Huygens en próximas entregas.
Como ilustración musical, aquí vemos como Leonora confunde, olvidando el principio de Huygens, las ondas difractadas emitidas originalmente por Manrico (fuera de escena) como si hubiesen sido emitidas por el Conde de Luna (en escena), con trágicas consecuencias.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Difracción de ondas: el principio de Huygens se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cuando las ondas se encuentran
- Patrón de interferencia en pulsos de ondas
- Patrón de interferencia en ondas periódicas
La motilidad estomacal
El estómago tiene una capacidad enorme para albergar cantidades muy diferentes de alimento, para lo cual puede modificar su volumen con facilidad. Algunos casos, como el de muchas sanguijuelas, son extraordinarios: en media hora pueden ingerir una cantidad de sangre equivalente a nueve veces su masa corporal. Eso sí, necesitan días para digerirla y puede que no vuelvan a comer hasta pasados unos meses, años o nunca.

Sin llegar a esos extremos, el estómago humano también tiene una capacidad muy variable: su volumen interno va de los 50 ml, cuando está vacío, a albergar 1 l tras la comida. Multiplica por 20 su volumen al comer. Su interior contiene pliegues profundos que, al comer, se van haciendo cada vez más pequeños conforme el estómago se va relajando. A este fenómeno se le denomina relajación receptiva y permite albergar un volumen importante de comida sin que la presión se eleve demasiado en el interior del estómago.
Un conjunto de células intersticiales de Cajal (células marcapasos, aunque no son contráctiles) ubicadas en la parte superior del estómago generan un ritmo eléctrico básico (a razón de tres ondas por min, aproximadamente) que se extiende hacia abajo hasta alcanzar el esfínter pilórico. Dependiendo del grado de excitabilidad de la musculatura lisa del estómago, esa actividad eléctrica puede dar lugar a potenciales de acción que, a su vez, generarían las correspondientes ondas de contracción peristáltica al mismo ritmo que el básico de las células marcapasos.
La musculatura lisa es relativamente fina en la zona superior (fundus) y media (cuerpo), pero es gruesa en la zona inferior (antro), por lo que las contracciones son leves en el fundus y fuertes en el antro. El fundus no suele contener más que algo de gas, el cuerpo cumple la función de almacenamiento, y la mezcla se produce en el antro. De hecho, son las contracciones fuertes de su musculatura lisa las que posibilitan que se mezclen las secreciones gástricas con la comida, formándose así el quimo. Ello ocurre cuando el esfínter pilórico se encuentra cerrado. En ese caso, al no poder pasar al duodeno, el quimo retrocede produciéndose así la mezcla. Ahora bien, si el píloro no está del todo cerrado, deja pasar parte del quimo hacia duodeno y de ahí al intestino delgado. Normalmente solo deja pasar agua y partículas de menos de 2 mm de diámetro. Tanto la intensidad de las contracciones estomacales como el estado del esfínter pilórico están sometidos a la influencia de diferentes factores tanto dependientes del estómago como del duodeno. Veremos a continuación esos factores y cómo contribuyen a regular la función digestiva.

Los dos principales factores que influyen en la fuerza de la contracción peristáltica son la cantidad y fluidez del quimo. Cuanto mayor es el volumen de quimo, más rápidamente es evacuado al duodeno. De hecho, la motilidad gástrica aumenta en respuesta a la distensión estomacal, y lo hace a través de varios mecanismos: efecto directo del grado de estiramiento del músculo liso sobre sí mismo, intervención del plexo nervioso intrínseco, del nervio vago (división parasimpática) y de la gastrina (hormona estomacal). Ahora bien, si el duodeno no se encuentra en condiciones de recibir más quimo, éste no pasará aunque el estómago esté muy lleno. Las condiciones que provocan una inhibición del vaciado gástrico son las siguientes:
- El principal factor que impide el paso del quimo al duodeno es la presencia de grasa. Dado que es el sustrato más difícil de digerir, es el último en ser digerido y absorbido. Por esa razón, hasta que toda la grasa no ha sido procesada, no pasa más quimo; su presencia en el duodeno inhibe la motilidad gástrica.
- Por otro lado, la gran acidez del quimo recién salido del estómago se neutraliza en el duodeno con bicarbonato sódico procedente del páncreas. De otro modo, el ácido irritaría el epitelio duodenal. Por esa razón, la acidez duodenal inhibe el vaciado del contenido gástrico hasta que tal acidez es neutralizada.
- Otro factor inhibidor es la hipertonicidad del contenido duodenal. La digestión de proteínas y carbohidratos da lugar a la aparición de numerosas moléculas de aminoácidos (también dipéptidos) y de azúcares simples; tales moléculas ejercen un efecto osmótico muy superior al de las macromoléculas de las que proceden. Por ello, si no son absorbidas con la suficiente celeridad, su acumulación en la luz duodenal provocaría flujo osmótico de agua desde el medio interno, lo que debe ser evitado porque puede entrañar riesgo de deshidratación. Por esa razón, también una concentración osmótica elevada en el duodeno inhibe el vaciado estomacal.
- La distensión duodenal también incide sobre el vaciado del estómago. Un exceso de distensión, por sí mismo, indica que el duodeno se encuentra lleno, por lo que ha de vaciarse antes de poder aceptar más quimo del estómago. Y lo mismo ocurre cuando esa distensión obedece al flujo de osmótico de agua al que nos hemos referido antes.
Los mecanismos a través de los que se produce la regulación son nerviosos y hormonales, y en ambos casos actúan inhibiendo la evacuación gástrica. En la respuesta nerviosa pueden participar los plexos nerviosos intrínsecos (reflejo corto) y los nervios del sistema autónomo (reflejos largos). Se les denomina de forma conjunta reflejo enterogástrico. Y la respuesta hormonal se produce mediante la liberación desde la mucosa duodenal de varias hormonas denominadas genéricamente enterogastronas. Llegan al estómago a través de la sangre. Se han identificado tres enterogastronas: secretina, colecistoquinina (CCK) y péptido inhibidor gástrico (o péptido insulinotrófico dependiente de glucosa).
Por último, hay factores independientes de la digestión en sí que pueden afectar a la motilidad gástrica. Bajo condiciones de estrés, por ejemplo, la motilidad del estómago se puede ver modificada porque su musculatura lisa se encuentra bajo el control de los nervios del sistema autónomo. Se trata de efectos que varían de unos animales a otros por lo que no hay un modelo común de respuesta, aunque en general el miedo tiende a reducir la motilidad y las emociones agresivas a aumentarla. El dolor intenso también reduce la motilidad, aunque su efecto no se limita al estómago ya que lo hace en todo el sistema digestivo.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La motilidad estomacal se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El estómago (u órgano equivalente)
- Faringe, esófago y buche
- Peces capaces de respirar en aire y anfibios
El caso de Wolfgang Amadeus Mozart

Tenía 35 años, 10 meses y 8 días cuando murió. O eso aseguran las crónicas. Fue en Viena, la ciudad en que triunfó y le dio fama. Era el 5 de diciembre de 1791. Había nacido en Salzburgo en 1750, el 27 de enero. Y su muerte o, mejor, la causa de su muerte es un enigma y provoca un intenso debate. Se llamaba Wolfgang Amadeus Mozart y, Wikipedia dice, es uno de los músicos más influyentes y destacados de la historia. Y su muerte se ha convertido en un mito.
Era joven, 35 años, pero unos meses antes de su muerte, en septiembre, se sintió mal. Y un mes más tarde, en octubre, paseando con su mujer Constanze por el Prater de Viena, se sintió mal y desfallecido, sentado en un banco, le dijo a su mujer que alguien le estaba envenenando. En noviembre empeoró y, ya en cama, sufrió hinchazón, dolores y vómitos. El 5 de diciembre perdió el conocimiento y, de madrugada, murió.
La historia clínica de Mozart está llena de enfermedades, algo habitual en aquella ápoca. En la misma familia del músico, de siete hermanos solo sobrevivieron dos. Según Martin Hatzinger y sus colegas, del Hospital Markus de Frankfurt, Mozart había tenido escarlatina, anginas, tifus, reúma, viruela, gripe, cólicos renales, hipertensión y depresión.
A pesar de tanta enfermedad, su muerte, inesperada en alguien tan joven, provocó dudas y fue la base de muchas hipótesis desde que ocurrió. En el certificado de defunción se menciona como causa lo que se podría traducir como una “fiebre aguda con erupciones cutáneas”, términos muy generales que no ayudan a identificar el mal según la medicina actual.
Después de más de dos siglos de hipótesis y debates, hay quien ha revisado lo publicado hasta ahora y ha recopilado 118 posibles causas para la muerte de Mozart que han propuesto varios autores. Según Margaret Lyttle, de Liverpool, en Inglaterra, entre esas causas están, entre muchas otras, fiebre reumática, infección por estreptococos, fallo renal, glomerulonefritis aguda, triquinosis, gripe, infección por flebitis, sífilis, envenenamiento con mercurio, antimonio o plomo, y asesinato. Veamos algunas de estas causas en detalle.
Para empezar, Edward Guillery, de la Universidad de Iowa y partiendo de su posición como especialista del riñón, repasa varias de las causas de la muerte de Mozart para concluir que se pueden extraer pocas conclusiones de lo que sabemos hasta ahora.
Según la familia del músico, testigo directo de sus últimos momentos, tenía el cuerpo tan hinchado que no se podía mover en la cama, una fiebre muy alta y se quejó de que tenía “el sabor de la muerte en la lengua”.
Guillery revisa la hipótesis de una fiebre reumática de la que, por lo que cuenta el padre de Mozart, el músico ya había tenido dos episodios a los 10 y a los 28 años, pero era un diagnóstico muy general para aplicar a todos los enfermos con fiebre alta y dolores en las articulaciones. Es posible que un corazón dañado por fiebres reumáticas sufra una infección y un fallo cardiaco. Sin embargo, para Guillery el tiempo de la enfermedad mortal de Mozart, unos 10 días, es demasiado corto para apoyar esta hipótesis. Martin Hatzinger también menciona el fallo renal.
El doctor Simon Jong-Koo Lee, de la clínica del mismo nombre de Seúl, en Corea del Sur, apoya esta causa para la muerte del artista. Añade que la infección del corazón provocó una flebitis que, a su vez, causó la hinchazón que impedía moverse a Mozart. De todo ello llegó el fallo cardiaco que le llevó a la muerte.
También se ha mencionado como causa de la muerte algún tipo de golpe en la cabeza. A finales de los ochenta se examinó el cráneo de Mozart y se encontró que tenía una fractura antigua, ya curada, en el lado izquierdo que, además, mostraba que en su momento hubo un hematoma epidural ya calcificado.
Sin embargo, todo ello se basa en que el cráneo examinado sea realmente el de Mozart. Fue enterrado en una fosa “económica” con otros cadáveres en el cementerio de St. Marx, en Viena. Se asegura que el cuerpo fue marcado con un alambre por el sepulturero del lugar. La tumba se abrió en 1801, unos años después de la muerte, y se recuperó el cráneo marcado que se guardó como una “reliquia sagrada”. El profesor de Anatomía Joseph Hyrtl lo conservó y quedó en su familia hasta 1899 en que fue adquirido por el Mozartmuseum de Salzburgo.

El examen del cráneo demuestra que pertenece a alguien que murió entre los 25 y los 40 años. La reconstrucción del rostro a partir del cráneo lleva a una imagen que se parece a Mozart según los retratos que de él se conservan. Sin embargo, Orlando Mejía, de la Universidad de Caldas, en Colombia, cuenta que, en los 2000, se hizo un análisis de ADN de dos dientes de este cráneo, de unos mechones de pelo atribuidos a Mozart y de los cadáveres de una sobrina y de la abuela materna del músico. No se encontró relación genética entre los restos y, por tanto, se descarta que el cráneo pertenezca a Mozart. E. Vicek y su grupo, del Museo Nacional de Praga, siguen apoyando la hipótesis de la fractura craneal puesto que consideran que el estudio del ADN es poco concluyente.
La hipótesis plantea que la fractura del cráneo se produjo por una caída un año antes de la muerte cuando, y hay escritos que lo atestiguan, comenzaron los dolores de cabeza del músico, con debilidad y síntomas de parálisis. Pero parece que faltan mejores evidencias para aceptar esta hipótesis, sobre todo si hay dudas de que el cráneo sea el de Mozart.

Poco después de la muerte de Mozart comenzaron a circular rumores de que había sido envenenado, como él mismo sospechaba, según el testimonio de su mujer de aquel paseo por el Prater en octubre de 1791. Además, Mozart le dijo a su mujer que le estaban envenenando con “acqua tofana” y hasta había calculado la fecha de su muerte. Se rumoreó que por esta creencia compuso su Réquiem en las últimas semanas de su vida.
El “acqua tofana” era un veneno muy popular en aquellos tiempos, de acción lenta y compuesto de arsénico y óxido de plomo. Se cuenta que lo inventó una napolitana, llamada Tofana, y descubrió su composición un policía romano, hacia 1650, al investigar a un numeroso grupo de mujeres que habían enviudado en un momento oportuno y a conveniencia.
Cuando se recopila la lista de venenos que pudieron matar a Mozart vemos que es casi un tratado erudito de un siglo que gustó de los venenos. Incluso se habló de que el intento de suicidio de Antonio Salieri, el músico adversario de Mozart, era una confesión de su culpabilidad en la muerte del artista. Sin embargo, aunque la leyenda dice que se odiaban, parece ser que más bien se veían poco y eran casi amigos. Pero el rumor sobre Salieri ha crecido durante décadas. Incluso se publicó que existe una carta de Salieri admitiendo su culpa, carta que, por cierto, nadie reconoce haber visto.
Hasta los nazis tienen algo que ver con la muerte de Mozart. Era francmasón, algo muy popular en su tiempo y en Viena. Se contaba que, por ser francmasón, fueron los franceses quienes lo asesinaron. Esta leyenda fue muy útil para los nazis pues, siglo y medio después, cuando se anexionaron Austria acusaron a los masones, comunistas y judíos, de ser los asesinos de un héroe alemán, el músico Mozart.
Según algunos expertos, también se ha propuesto que Mozart pudo morir a causa del antimonio que se le recetó para aliviar su melancolía y depresión, o por el mercurio, que tomó para curar de la sífilis, aunque nadie ha demostrado que Mozart la padeciera.
Un enfoque diferente utilizaron Richard Zegers y su equipo, de la Universidad de Amsterdam, que revisaron los fallecimientos en Viena entre 1791 y 1793, alrededor de la fecha de la muerte de Mozart. Encontraron, semanas antes y después de la muerte, muchas muertes con síntomas parecidos. Proponen que, partiendo de un hospital militar de Viena, se extendió una epidemia de infección con estreptococos que llevaba a una glomerulonefritis aguda y a un fallo renal con el fallecimiento de los contagiados, tal como le ocurrió a Mozart.
La última frase del escrito de Guillery sobre la muerte de Mozart señala que, aunque no conocemos con exactitud la causa de su muerte, debemos sentirnos agradecidos de que su música siga viva entre nosotros.
Referencias:
Guillery, E.N. 1992. Did Mozart die of kidney disease? A review from the bicentennial of his death. Journal of the American Society of Nephrology 2: 1671-1676.
Hatzinger, M. et al. 2013. Wolfgang Amadeus Mozart: The death of a genius. Acta Medico-historica Adriatica 11: 149-158.
Jong-Koo Lee, S. 2010. Infective endocarditis and phlebotomies may have killed Mozart. Korean Circulation Journal 40: 611-613.
Lyttle, M. 2017. Kidney or conspiracy? Was renal failure the cause of Mozart’s death? A brief review of the composer’s illnesses and theories surrounding his death. Journal of Urology 197: e1061.
Mejía, O. 2013. La historia clínica de Wolfgang Amadeus Mozart. Acta Médica Colombiana 38: 244-254.
Puech, P.-F. 1991. Forensic scientists uncovering Mozart. Journal of the Royal Society of Medicine 84: 387.
Vicek, E. et al. 2006. The skull of Wolfgang Amadeus Mozart predicates of his death. Acta Chirurgiae Plasticae 48: 133-140.
Wikipedia. 2017. Wolfgang Amadeus Mozart. 6 abril.
Zegers, R.H.C. et al. 2009. The death of Wolfgang Amadeus Mozart: An epidemiological perspective. Annals of Internal Medicine 151: 274-278.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo El caso de Wolfgang Amadeus Mozart se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La adquisición de la lectura desde la evidencia científica: una hoja de ruta para educadores
Las pruebas de la educación es un evento que en su tercera edición tuvo lugar por primera vez en Donostia-San Sebastián, el pasado 9 de noviembre, en el Centro Carlos Santamaría de la UPV/EHU, organizado por el Consejo Escolar de Euskadi, con la colaboración de la Cátedra de Cultura Científica de la UPV/EHU.
Este evento tiene el objetivo de abordar distintos temas educativos desde la evidencia científica. Para ello, reúne a personas del ámbito educativo para que expliquen y debatan acerca de las pruebas (o su ausencia) que sustentan las afirmaciones, propuestas y prácticas educativas que están en boga o, en su caso, las pruebas que sustentan otras posibles prácticas. La dirección del evento corrió a cargo de la doctora en Psicología Marta Ferrero.
En esta conferencia Joana Acha, profesora en el departamento de Procesos Psicológicos Básicos y su Desarrollo de la UPV/EHU establece un puente entre el conocimiento científico existente sobre el proceso de adquisición de la lectura y la aplicabilidad de ese conocimiento a la práctica educativa. Aborda cuestiones desde en qué consiste exactamente aprender a leer a cómo es posible optimizar las estrategias de intervención en función de la edad y la habilidad lectora de cada persona.
Edición realizada por César Tomé López
El artículo La adquisición de la lectura desde la evidencia científica: una hoja de ruta para educadores se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Educación basada en la evidencia: retos y propuestas de mejora
- La intervención en la dislexia: de la evidencia científica a la práctica educativa
- Las primeras manifestaciones de las funciones ejecutivas y la acción educativa en el aula 0-1
El impacto de la actividad humana sobre los ecosistemas fluviales
Presas, embalses, canalizaciones, extracciones de agua… son muchas las formas en las que la actividad humana explota los recursos hídricos. “Desde hace tiempo se sabe que la actividad humana tiene un gran impacto en los ecosistemas fluviales; existen multitud de investigaciones al respecto”, comenta Arturo Elosegi Irurtia, catedrático de ecología del Departamento de Biología Vegetal y Ecología de la Facultad de Ciencia y Tecnología de la UPV/EHU. Las investigaciones realizadas sobre el tema, sin embargo, “son parciales y están muy dispersas, lo cual impide poder tener una visión general del impacto de la actividad humana”, continúa.

Con el objetivo de crear esa visión general, miembros de 6 centros de investigación y universidades de Cataluña, Holanda y Portugal, junto con la UPV/EHU, han realizado un metaanálisis de numerosos casos de estudio. El propósito ha sido conocer qué componentes y funciones de los ecosistemas fluviales se ven afectados por el estrés hídrico de origen antrópico, y en qué medida se alteran, realizando para ello una recopilación y reanálisis de la información de esos estudios individuales. “En la búsqueda inicial reunimos más de mil artículos, pero, finalmente, fueron 44 los que cumplieron con las condiciones que requeríamos para el análisis. En total, en nuestro análisis estadístico hemos trabajado con 262 casos, relativos a ríos de todo el mundo”, detalla Elosegi.
La variabilidad es inherente a los ríos, donde se suceden cíclicamente periodos de inundación y estiaje, pero las intervenciones humanas alteran ese ciclo, y eso afecta directamente al ecosistema. “Por ejemplo, una de las consecuencias más claras que hemos observado ha sido el crecimiento excesivo de las algas. Esto se da principalmente en los tramos que se encuentran debajo de embalses y tomas de agua, debido a que se estabiliza mucho el flujo de agua”, explica. Los invertebrados fluviales, por su parte, disminuyen notoriamente debajo de los puntos de estrés, tanto en abundancia como en riqueza.
Además de las comunidades biológicas, estudiaron las variables físico-químicas de los ríos, así como el funcionamiento de los ecosistemas, es decir, “cómo funciona el ecosistema fluvial con la estructura y comunidad encontrada. Entre las variables estructurales, ha destacado el aumento de la concentración de fármacos en los lugares afectados por el estrés hídrico, como debajo de los embalses o los ríos de los que se extrae agua”.
En lo que respecta al funcionamiento de los ecosistemas, por su parte, Elosegi ha subrayado que han podido ver “alteraciones que hasta ahora no eran evidentes” en zonas afectadas por el estrés hídrico: por un lado, se reduce la descomposición de la materia orgánica, lo que quiere decir que los ríos pierden capacidad de degradar la materia orgánica, y, por otro, se acelera el metabolismo: “aumenta tanto la producción primaria como la respiración, como consecuencia del excesivo crecimiento de las algas”, añade.
Las alteraciones y consecuencias mencionadas, aunque son generales, varían en importancia o gravedad en función de las características del lugar, como el tamaño del río, el clima o el régimen hídrico. De la misma forma, dependiendo de cuál es el causante del estrés hídrico, las consecuencias son más graves o leves, y según han visto, “los embalses, sobre todo los grandes, son los que provocan mayor cantidad de cambios o alteraciones en la estructura y función de los ecosistema fluviales”. Y, precisamente, los embalses son las intervenciones y causantes del estrés más habituales en estos ecosistemas: más de la mitad de los casos estudiados tuvieron en cuenta la alteración provocada por embalses.
No obstante, no han conseguido conclusiones claras en todas las variables tenidas en cuenta en el metaanálisis. “Unas veces ha sido por falta de datos, es decir, porque se estudiaron en pocas de las investigaciones que teníamos entre manos, y, otras, por la gran variabilidad que existe en la respuesta de algunas variables, lo cual nos ha llevado a no poder deducir nada claro en el metaanálisis realizado. Nos ha pasado eso con la temperatura, entre otras: debajo de unos embalses la temperatura es mayor de lo que debería, pero en otros es menor. En el caso de las comunidades, hemos observado esas fluctuaciones en los peces, lo que seguramente se deba a que en cada lugar les afectan diferentes factores”. El grupo de investigación considera indispensable continuar con los estudios para rellenar esos vacíos.
Referencia:
Sergi Sabater, Francesco Bregoli, Vicenç Acuña, Dami Barceló, Arturo Elosegi, Antoni Ginebreda, Rafael Marcé, Isabel Muñoz, Laia Sabater-Liesa, Verónica Ferreira (2018) Effects of human-driven water stress on river ecosystems: a metaanalysis Scientific Reports (2018) doi: 10.1038/s41598-018-29807-7
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El impacto de la actividad humana sobre los ecosistemas fluviales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los ecosistemas acuáticos de África y el cambio climático
- Los sedimentos fluviales, una reserva dinámica de metales contaminantes
- Verdín, eucaliptos y cambio climático
Estas Navidades no engordarás medio kilo
Durante las fiestas de Navidad solemos ganar entre 0,4 y 0,9 kilos. Aunque estas ganancias son pequeñas, la realidad es que muchas personas nunca llegan a perder ese peso extra. La consecuencia de las copiosas comidas de estas fiestas y de los eventos que las rodean es que, de seguir esta tendencia, en 10 años habríamos ganado entre 5 y 10 kg. Es lógico que sea así. Durante estas fiestas solemos aumentar el sedentarismo, llegamos a consumir 6000 Kcal en una única comida (tres veces la cantidad diaria recomendada), disponemos de más cantidad y variedad de alimentos, generalmente alimentos muy calóricos y consumimos más alcohol.
Sabemos cómo perder peso y cómo mantenerlo. Se han hecho muchos estudios científicos al respecto. La alternativa sería centrarse en estrategias de prevención del aumento de peso. Sin embargo, la evidencia científica sobre esto es más limitada. Por eso un grupo de investigadores de la Universidad de Birmingham ha realizado un estudio científico que ha sido recientemente publicado en la revista BMJ (Britsh Medical Journal) sobre cómo afecta una breve intervención conductual en la prevención del aumento de peso durante las vacaciones de Navidad. El resultado del estudio fue que los participantes sometidos a la intervención conductual no solo no ganaron peso durante las Navidades, sino que lo perdieron.
La intervención conductual que los llevó a no engordar medio kilo durante las fiestas de Navidad se basó en estos tres puntos:
-
Pesarse al menos dos veces por semana.
Los participantes del estudio debían pesarse a la misma hora, desnudos o con un atuendo similar cada vez, y anotar el resultado de la báscula en una tabla.
No hay consenso científico cómo afecta pesarse al control de peso. Hay estudios que indican que no hay correlación. Y también hay publicaciones que apuntan a que pesarse con frecuencia nos hace tomar conciencia de las fluctuaciones de peso, lo que repercute en nuestra conducta alimentaria y en consecuencia favorece la pérdida de peso.
-
Información básica sobre estrategias de control de peso.
A los participantes se les proporcionó información sobre estrategias para el control de peso durante las vacaciones de Navidad. Esta información se fundamentaba en una lista de 10 recomendaciones, como mantener los horarios de comida habituales, dar al menos 10.000 pasos al día, si tienes hambre entre horas optar por fruta o lácteos, revisar las etiquetas de los alimentos y descartar aquellos que contengan altos niveles de azúcar, grasas de mala calidad o harinas refinadas, tomar raciones de comida pequeñas, o no comer mirando la televisión.
Hay evidencia científica de que seguir estas sencillas recomendaciones favorece la pérdida de peso.
-
Conocer cuánta actividad física necesitas hacer para gastar las calorías de cada alimento.
A los participantes se les entregó una tabla PACE de alimentos típicos de Navidad. La tabla PACE, por las siglas de physical activity calorie equivalent, es una tabla que muestra las calorías de una serie de alimentos típicos que se consumen en Reino Unido durante las vacaciones de Navidad, su contenido calórico, y el equivalente en actividad física para gastar esas calorías. Por ejemplo, gastar las calorías de una ración de pastel de carne requiere 21 minutos de carrera, y de un vaso de vino requiere 32 minutos de caminata.
Hay evidencia científica de que el conocimiento de PACE repercute positivamente en el control de peso.
El estudio se realizó alrededor de las Navidades de 2016 y de 2017. Para ello se escogieron 272 adultos mayores de 18 años con un índice de masa corporal de 20 o más. El 78% eran mujeres, y también el 78% de los participantes eran de etnia blanca. La edad media era de 44 años. La mitad de los participantes fueron sometidos a la intervención conductual, y la otra mitad tan solo recibió un folleto sobre vida saludable. En noviembre y diciembre se hicieron las evaluaciones previas de los participantes, y tras las Navidades, entre enero y febrero, se hicieron las evaluaciones de seguimiento.
El resultado del estudio fue que los participantes sometidos a la intervención conductual no solo no ganaron peso durante las Navidades, sino que de media perdieron 130 g. El grupo de comparación, los que solo recibieron el folleto y no fueron sometidos a la intervención conductual, ganaron 370 g de media.
Además del control de peso, en este estudio se valoraron otros parámetros relacionados con la alimentación: la restricción cognitiva, la alimentación emocional y la alimentación no controlada. Se le llama restricción cognitiva al hecho de querer restringir de manera consciente la alimentación para adelgazar. La alimentación emocional es aquella que se mueve por impulsos y emociones que no son realmente hambre, al menos no en sentido fisiológico, como bien pueden ser el estrés, la ansiedad, e incluso el enfado, la tristeza o el aburrimiento. La alimentación no controlada es aquella que no sigue una dieta bien balanceada, que no mantiene una proporción saludable de grupos alimenticios ni sigue una rutina.
El resultado del estudio sobre estos parámetros fue que los participantes que fueron sometidos a la intervención conductual sí mejoraron su restricción cognitiva, es decir, mantuvieron cierta privación de alimentos poco saludables más allá de las fiestas de Navidad. Sin embargo, la intervención conductual no mejoró significativamente la alimentación emocional ni la alimentación no controlada.
Otro dato que podemos extraer de este estudio es que los participantes sometidos a la intervención conductual consumieron un 10% menos de bebidas alcohólicas. Sabemos que las bebidas alcohólicas perjudican la salud, y la perjudican en varios sentidos. Además, las bebidas alcohólicas contribuyen al aumento de peso, ya que entre otras cosas son altamente calóricas y generalmente ricas en azúcares libres. Por eso los autores del estudio apuntan a que las campañas de prevención de la obesidad deberían estar más enfocadas a evitar el consumo de alcohol.
-
Conclusión
Conocer qué nos hace ganar peso en las fiestas de Navidad, evita que lo ganemos.
-
Bonus track
Si tienes como objetivo no ganar peso durante las fiestas de Navidad sin amargarte la existencia, estos cinco consejos podrían ser útiles:
-
No des la turra con el turrón.
Durante estas fiestas tendrás alrededor de seis comidas importantes y copiosas. No es para tanto. Disfruta de ellas. Si tienes una cena, procura desayunar y comer ligero, y en la cena, si te gustan los dulces navideños, es el momento para disfrutar de ellos. Ya tienes el resto del año para dar la turra con lo insaludable que es el turrón.
-
No seas cutre y no te alimentes de sobras.
En casa van a sobrar turrones, mazapanes, polvorones, cóctel de gambas, cordero… Conserva lo que puedas hasta la próxima festividad, y no te pases tres días comiendo turrón de postre. Los días más críticos son del 26 al 31. No los conviertas en una cutre-fiesta extendida de lo que fue la Navidad.
-
No, no controlas.
Barra libre no significa que tengas que beberte hasta el agua de los floreros. Si te gusta el vino, tómatelo y disfrútalo. Pero ten en cuenta que a partir de la tercera copa probablemente no estés bebiendo por placer, sino que el alcohol ya ha hecho mella y estés bebiendo por inercia.
Lo mismo con los dulces navideños. Si te gusta el turrón, disfrútalo. Pero no te tienes que terminar la tableta y aderezarlo con una docena de mazapanes. Céntrate en disfrutar, en saborear, no en engullir como si fuesen los juegos del hambre.
-
Lle-lle-lle-llena tu nevera con-con-con-con kilos de peras.
Planifica las comidas no festivas y, si no sabes si podrás, ten en casa frutas, verduras, legumbres en conserva, huevos, atún. Ese tipo de alimentos sanos, que se conservan fácilmente y que se preparan en un periquete. Olvídate de precocinados y de alimentos cargados de azúcares, harinas refinadas y grasas de mala calidad, que de eso ya vas a ir sobrado estas Navidades.
-
La peña y las risas son lo importante.
Lo importante de estas fiestas es estar con la gente con la que estás a gusto y disfrutar de ellos. Si no es tu caso, y lo que te toca es aguantar, no ahogues tus penas en azúcar y alcohol. A lo mejor deberías replantearte con quién pasas las fiestas. Tu problema no es cómo no ganar medio kilo, sino cómo librarte de esos kilos de peña chunga.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Estas Navidades no engordarás medio kilo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Si estás embarazada, mejor no consumas alcohol
- La supervivencia del más fuerte… ¿estás seguro?
- Louis Antoine: el destello en medio de una larga noche
Contar hasta un millón con los dedos de las manos
En las dos primeras entradas de la serie Y tú, ¿cómo cuentas con los dedos? (parte 1 y parte 2) de la sección Matemoción del Cuaderno de Cultura Científica hemos hablado de algunas de las formas de contar con los dedos de las manos que se utilizan en la actualidad a lo largo de todo el mundo, algunas de las cuales tienen un origen muy antiguo.
La práctica de contar con los dedos de las manos es tan antigua como el propio origen de los números, seguramente hace más de cuarenta mil años. Cada pueblo fue desarrollando sus propias técnicas para contar utilizando sus manos, e incluso sus pies o partes de su cuerpo. Se contaron dedos, falanges, nudillos o las zonas entre los dedos, también se utilizaron diferentes posiciones de los dedos para expresar los diferentes números, se desarrollaron sistemas de numeración asociados con diferentes bases, como 5, 10, 12 o 20, entre otras, o se inventaron sistemas más artificiales como el chisanbop o la expresión digital de los números binarios.

Antes de entrar en el tema de hoy, expliquemos brevemente qué es eso de la expresión digital de los números binarios, que utilizan para contar algunas personas apasionadas de las matemáticas. Como se explica en este vídeo de Una de Mates, Los números binarios, todo número tiene una expresión binaria, como una serie de 1s y 0s, y toda expresión binaria se corresponde con un número en nuestro sistema de numeración decimal. Si tenemos en cuenta que cada posición en un número binario se corresponde con una potencia de 2 (1, 2, 4, 8, 16, 32, etcétera), al igual que en nuestra base decimal se corresponde con una potencia de 10 (unidades, decenas, centenas, unidades de mil…), entonces podemos conocer el valor, en nuestro sistema decimal, de una expresión binaria cualquiera sin más que conocer qué potencias de 2 están (cuando hay un 1) y cuales no (cuando hay un 0). Así, el número binario, de cinco dígitos, 11010 se corresponde con el número 1 x (24) + 1 x (23) + 0 x (22) + 1 x (21) + 0 x (20) = 1 x (16) + 1 x (8) + 0 x (4) + 1 x (2) + 0 x (1) = 26.
Podemos utilizar nuestras manos para realizar la expresión digital de los números binarios teniendo en cuenta que un dedo abierto simbolizará un 1 y un dedo cerrado un 0. Si utilizamos solo una mano, podremos representar del 0 al 31 mediante las expresiones binarias con cinco dígitos, cada uno de los cuales será un 1 o un 0, es decir, un dedo abierto o cerrado. Así, las potencias de 2 se expresarán digitalmente como: la mano cerrada es 0 (en expresión binaria 00000), solo el meñique abierto 1 (00001), solo el anular abierto 2 (00010), solo el corazón 4 (00100), solo el índice 8 (01000) y el pulgar 16 (10000), como se muestra en la siguiente imagen.

Y combinando los cinco dedos podemos representar todos los números entre 0 y 31. Como ejemplo se muestra la expresión digital de algunos números en la siguiente imagen. Si se utilizasen las dos manos, es decir, diez dedos, se podrían representar del 0 al 1023. Os planteo un pequeño juego “contad, en orden, los números del 0 al 31”.

En la entrada de hoy, tercera de la serie Y tú, ¿cómo cuentas con los dedos?, vamos a explicar un método muy antiguo que permitió contar hasta 10.000, pero más aún, hasta un millón, y cuyo uso estuvo muy difundido tanto en Occidente, como en Oriente, llegando a ser utilizado en muchas zonas hasta en época reciente. Esta forma de representar los números se utilizaba ya en el antiguo Egipto, aunque quienes sí la utilizaron ampliamente fueron los romanos, griegos, árabes, persas y estuvo muy difundida en Europa en la edad media y la moderna.
La primera publicación conocida en la que se recoge la explicación de este método de contar con los dedos fue la obra, escrita en latín, De temporum ratione (Sobre la división del tiempo), en su capítulo primero De computo vel loquela digitorum (Sobre la manera de contar y hablar mediante los dedos), del monje benedictino inglés Beda el Venerable (aprox. 672 – 735).

Beda inicia al primer capítulo De computo vel loquela digitorum de la obra De temporum ratione de la siguiente forma:
“Antes de que empecemos, con la ayuda de Dios, a hablar de cronología y su cálculo, consideramos necesario primero mostrar brevemente la muy necesaria y disponible técnica de contar con los dedos”.
A continuación, el monje benedictino explica cómo hay que colocar los dedos de la mano izquierda para representar los primeros números. Veamos lo que está escrito para los números más pequeños, del 1 al 9, tanto en latín, como su traducción al castellano (pueden compararse los textos con la imagen que se incluye después de estos).
1 “Quum ergo dicis unum, mínimum in laeva digitum inflectens, in médium palmae artum infiges”
1 “Cuando digas uno, doblando el dedo pequeño (meñique) izquierdo, colócalo en la articulación media de la palma”
2 “quum dicis duo, secundum a minimo flexum ibídem impones”
2 “cuando digas dos, dobla el segundo dedo colocándolo en el mismo lugar”
3 “quum dicis tria, tertium similiter afflectes”
3 “cuando digas tres, pliega el tercero de la misma manera”
4 “quum dicis quatuor, ibidem minimum levabis”
4 “cuando digas cuatro, levanta el meñique de dicho lugar”
5 “quum dicis quinque, secundum a minimo similitier eriges”
5 “cuando digas cinco, levanta el segundo dedo de forma similar al meñique”
6 “quum dicis sex, tertium nihilominus elevabis, medio duntaxat solo, qui Medicus appellatur, in medium palmae fixo”
6 “cuando digas seis, levanta del mismo modo el tercero, manteniendo solo el llamado medicinal (anular) unido al centro de la palma”
7 “quum dicis sepiem, mínimum solum, caeteris interim levabis, super palmae radicem pones”
7 “cuando digas siete, levanta los demás dedos, mientras colocas el pequeño sobre la base de la palma”
8 “juxta quem, quum dicis octo, medicum”
8 “haz lo mismo, cuando digas ocho, con el medicinal”
9 “quum dicis novem, impudicum e regione”
9 “cuando digas nueve, añade el impúdico (el dedo corazón) al mismo lugar”

Como hemos podido leer, Beda llama minimum al dedo meñique, que era una de las formas de referirse al dedo pequeño de la mano. Por otra parte, según el Diccionario de la lengua española de la RAE, la expresión meñique es un “cruce de menino ‘niño’ y el dialectal mermellique o margarique, variantes de margarite, procedentes del francés antiguo margariz ‘renegado’, ‘traidor’, papel a veces atribuido a este dedo en dichos y consejas”. También se le conoce como dedo auricular, por la costumbre de hurgarse el oído (aurícula) con ese dedo, como ya menciona San Isidoro de Sevilla (556-636) en sus Etimologías (véase la cita en Antiquitatem).
El siguiente dedo, secundum, es el dedo anular, que Beda llama también medicus. Según San Isidoro de Sevilla se debe a que “con él aplican los médicos los ungüentos”, aunque varios autores lo relacionan con el hecho de que en la antigüedad se creía que existía una vena, llamada vena amoris (vena del amor), que conectaba directamente ese dedo con el corazón. Este podría ser el motivo por el cual ese es el dedo elegido para colocar el anillo de boda, y de ahí el otro nombre para ese dedo, el dedo anular. La costumbre de utilizar anillos de boda se remonta al Antiguo Egipto, de donde pasó a Grecia y Roma.
Existe otra explicación (véase, por ejemplo, el libro Number words and number symbols de Karl Menninger), conectada con la anterior, basada en el hecho de que los egipcios, que ya utilizaban esta práctica de contar con los dedos de las manos, representaban el número 6, como explica Beda, doblando el dedo anular. El número 6 es un número perfecto, por lo que en la antigüedad se consideraba un número divino, lo que hacía que el mencionado dedo tuviera un valor añadido, sobre los demás dedos, para ser elegirlo para colocar el anillo matrimonial. En matemáticas los números llamados perfectos son aquellos números que son iguales a la suma de sus divisores, por ejemplo, el 6 es un número perfecto (6 = 1 + 2 + 3) y también el 28 (= 1 + 2 + 4 + 7 + 14). Lo siguientes son 496 y 8128. Precisamente se les denominó “perfectos” por ese carácter mágico y divino que les atribuyeron en tiempos antiguos.
Al tercer dedo que menciona el monje inglés lo llama impúdico. Y ya lo explica San Isidoro de Sevilla en sus Etimologías, el motivo es “porque con frecuencia se expresa con él alguna burla infamante”. Ya entonces era, como lo sigue siendo hoy en día, el dedo utilizado para ese gesto obsceno que comúnmente se llama “sacar un dedo”, “hacer la peineta” o “hacer una peseta”, cuyo significado viene a ser algo así como “¡que te jodan!” o “¡que te den por culo!”. Este gesto ya era conocido en las antiguas Grecia y Roma. Por ejemplo, se encuentra en la comedia Las nubes [PDF] del dramaturgo griego Aristófanes (444 – 385 a.c.):
ESTREPSÍADES: ¿El digital? Por Zeus, ése lo conozco.
SÓCRATES: Pues dilo.
ESTREPSÍADES: Antes, cuando yo era niño, era éste de
aquí. (Levanta el dedo corazón)
SÓCRATES: Eres un patán y un imbécil.
Este dedo del que estamos hablando también se conoce con otros nombres, dedo medio, dedo mayor, dedo corazón, dedo cordial o digitus tertius (tercer dedo), por motivos obvios.

Volviendo al antiguo método de contar con los dedos descrito por Beda el Venerable en su libro De temporum ratione (Sobre la división del tiempo), hemos de destacar que, con tan solo tres dedos, el meñique, el anular y el corazón, de la mano izquierda, cuenta las unidades, del 1 al 9. Mientras que, como explicaremos ahora, con los otros dos dedos de esa misma mano, el índice y el pulgar, va a representar las decenas, 10, 20, así hasta 90, de forma que tan solo con la mano izquierda podrán representar todos los números entre el 1 y el 99.

Quizás se entienda un poco mejor con las explicaciones del propio monje, las primeras también en latín.
10 “quum dicis decem, ungem indicis in medio figes artu pollicis”
10 “cuando digas diez, coloca la uña del índice en la articulación media del pulgar”
20 “quum dicis viginti, summitatem pollicis inter medios indicis et impudici artus inmittes”
20 “cuando digas veinte, coloca la punta del pulgar entre el índice y el impúdico”
30 “cuando sigas treinta, junta en dulce abrazo el índice y el pulgar”
40 “cuando digas cuarenta, coloca el interior del pulgar sobre el lateral o el dorso del índice, con ambos dedos levantados”
50 “cuando digas cincuenta, inclina el pulgar hacia la palma, con la falange bajada al máximo, a semejanza de una letra griega (gamma mayúscula)”
60 “cuando digas sesenta, dobla el pulgar como antes, con el índice envolviendo la parte que se encuentra ante la uña”
70 “cuando digas setenta, estando el índice como antes, es decir, envolviendo estrechamente la convexidad de la uña del pulgar, tendrá este la uña erguida hasta la articulación media del índice”
80 “cuando digas ochenta, estando el índice doblado como antes y el pulgar recto, coloca la uña de este (el pulgar) en la articulación media del índice”
90 “cuando digas noventa, coloca la uña del índice en la base del pulgar”

Para la descripción de las decenas, Beda utiliza los dedos índice y pulgar, que él llama indicis y pollicis. Respecto al índice, volviendo a las Etimologías de Isidoro de Sevilla, este dice así “El segundo [dedo] índice (index), y también salutaris o demonstratorius, precisamente porque con él saludamos o señalamos”. Efectivamente, este dedo se conoce con los nombres dedo índice (index) o dedo mostrador (demonstratorius), ya que es el que se utiliza para indicar, señalar o mostrar algo, y dedo saludador (salutaris).
Respecto al pulgar dice Isidoro de Sevilla “El primero se llama pulgar (pollex) porque entre los otros goza de poder (pollere) y potestad”. Según la RAE, el nombre de pulgar procede del nombre latino pollicaris, que a su vez viene de pollex, como lo llama Isidoro de Sevilla, quien ya nos da la idea de la procedencia de pollex, que no sería otra que la palabra latina pollere, poder. De pollicaris habría derivado a polgar y de ahí a pulgar. Además, el dedo pulgar también recibe el nombre de pólice, del mismo origen.
Este dedo también recibe el nombre de matapulgas o matapiojos, por ser el dedicado a tales fines. Así una de las variantes de una canción infantil donde se mencionan los cinco dedos dice así: “Este el chiquitillo, este el del anillo, este el de la mano, este el escribano, y este, el matapulgas y piojos de todo el año”. Hay quienes afirman, por ejemplo, el filólogo español Joan Corominas (1905-1997), autor del Diccionario crítico etimológico castellano e hispánico, que la “u” de pulgar derivó de la palabra pulga, que motivó el cambio de una “o” a una “u”. Hay quienes piensan que quizás el orden fue el inverso. De hecho, la RAE nos dice que pulga viene de la palabra latina pullex.
Al pulgar también se le denomina, dedo gordo.

Pero sigamos con la descripción del método para contar números del 1 al 9.999. Como hemos comentado, los dedos meñique, anular y corazón de la mano izquierda se utilizaban para representar las unidades, mientras que los dedos índice y pulgar para representar las decenas. Por otra parte, para las centenas (100, 200, 300, …) se utilizaban los dedos índice y pulgar de la mano derecha, con los mismos signos que los descritos arriba con esos mismos dedos, pero de la mano izquierda. Mientras que los dedos meñique, anular y corazón de esa misma mano derecha se utilizaban, con los mismos gestos descritos para los de la izquierda, para representar las unidades de mil (1.000, 2.000, 3.000, …).
Así, si una persona, frente a nosotros, nos quiere representar un número de hasta cuatro cifras, levantará sus dos manos frente a nosotros, como se muestra en la imagen de abajo. Y podemos observar que esta forma de representar los números mediante los dedos de las manos es una representación posicional, similar a la que utilizamos nosotros en nuestro sistema de numeración moderno, puesto que el orden de las unidades, decenas, centenas y millares es de izquierda a derecha.

Veámoslo con un ejemplo concreto. Para representar con los dedos de las manos el número 2.539 se colocarán los dedos como se indica en la siguiente imagen.


Pero el monje benedictino Beda el Venerable, que sería proclamado Doctor de la iglesia en 1899 por el papa León XIII, va más allá en el capítulo De computo vel loquela digitorum (Sobre la manera de contar y hablar mediante los dedos) explicando no solo cómo se puede contar hasta 10.000, sino hasta un millón. Para representar las decenas de mil se describen 9 posiciones diferentes de la mano izquierda respecto al cuerpo, de forma similar se utiliza la mano derecha para las centenas de mil.
En la obra Theatrum Arithmetico Geometricum (1727) del matemático, físico y fabricante de instrumentos alemán Jacob Leupold (1674-1727) se incluye una ilustración con el método de contar con los dedos de las manos que Beda recogía en su libro De temporum ratione.

Veamos las explicaciones del monje Beda para expresar las distintas decenas de mil (y que, más o menos, aparecen en la ilustración anterior):
10.000 “Para cuando digas diez mil, coloca el dorso de tu mano izquierda en medio del pecho con los dedos extendidos y apuntando al cuello”
20.000 “cuando digas veinte mil, coloca sobre el pecho la mano izquierda ampliamente extendida” [nota: En la ilustración de Leupold se expresa 20.000 de una forma diferente]
30.000 “cuando digas treinta mil, coloca la misma mano (hacia la derecha y de perfil) con el pulgar apuntando al cartílago central del pecho”
40.000 “cuando digas cuarenta mil, coloca el dorso de la mano sobre el ombligo”
50.000 “cuando digas cincuenta mil, manteniendo la misma posición, apunta con el pulgar de esa mano al ombligo”
60.000 “cuando digas sesenta mil, agarra el fémur izquierdo con esa mano siempre dirigida hacia abajo”
70.000 “cuando digas setenta mil, toca el mismo sitio con el dorso de la mano”
80.000 “cuando digas ochenta mil, coloca la mano sobre el fémur”
90.000 “cuando digas noventa mil, te tocas los riñones con la palma de la mano, con el pulgar apuntando hacia la ingle”
Para las centenas de mil, es decir, entre 100.000 y 900.000, se realiza la misma operación, pero en el lado contrario, es decir, con la mano derecha.
Teniendo en cuenta todos los gestos explicados hasta ahora, se pueden representar todos los números entre 1 y 999.999, aunque la verdad es que para los números muy grandes hay que hacer un verdadero ejercicio de contorsionismo con el cuerpo.

Finalmente, existe un símbolo para un millón, 1.000.000, que consiste en entrelazar los dedos de ambas manos.
Una descripción completa de este sistema para contar con los dedos de las manos, similar a la descrita por el monje inglés Beda en su libro De temporum ratione (725), nos la encontramos bastante lejos, tanto en el espacio como en el tiempo. Se trata del Farhangi Djihangiri, diccionario persa del siglo XVI, traducido al francés y comentado por el lingüista y orientalista francés Sylvestre de Sacy (1758-1838). La diferencia entre ambos textos está en que en el texto persa las unidades y decenas se representan con la mano derecha, mientras que se utiliza la izquierda las centenas y las unidades de mil, al revés que en el texto latino.
Existe una importante cantidad de textos y objetos que atestiguan el uso de esta técnica de contar con los dedos de las manos desde la antigüedad hasta hace relativamente poco tiempo. Para quienes puedan estar interesados, pueden encontrar una amplia información tanto en los mencionados libros de George Ifrah y Karl Menninger, como en los interesantes artículos Digital Reckoning among the Ancients, de Leon J. Richardson, y Numbers in the Greco-Roman World and the Early Middle Ages, de Burma P. Williams y Richard S. Williams.
Aunque no podemos abordar aquí, por falta de espacio, estos significativos objetos y textos, al menos vamos a citar un ejemplo de cada conjunto de referencias. Por una parte, existen muchos ejemplos de téseras (según la RAE, “Tésera: pieza cúbica o planchuela con inscripciones que los romanos usaban como contraseña, distinción honorífica o prenda de un pacto”) romanas antiguas (aproximadamente, del siglo I a.c.), por ejemplo, en el Museo Británico (Londres), la Biblioteca Nacional de Francia (París) o el Museo Egipcio (El Cairo), en las cuales se puede observar en una de las caras un número romano, por ejemplo, el VII o el XIIII, y en la otra la forma en la que se representaba ese número con los dedos de las manos. Podemos especular sobre la función de estas téseras de marfil, aunque se desconoce cuál era realmente.

Los textos que he elegido para terminar esta entrada no son quizás los más significativos, pero los he elegido por estar relacionado con otro de los gestos de las manos. Me refiero al gesto relacionado con el hecho de que una persona sea tacaña, el puño cerrado. Se suelen utilizar expresiones del tipo “tiene el puño cerrado” o “es de la hermandad del puño cerrado”.
Algunos poetas árabes y persas relacionaban ser tacaño con el número 93, puesto que este se representa, según lo que hemos explicado en esta entrada, con la uña del índice izquierdo apoyada sobre la articulación inferior del dedo pulgar (para representar al 90) y los otros tres dedos, corazón, anular y meñique plegados (para representar el 3). Ese mismo gesto, pero en la mano derecha, sería el número 9.300. Por ejemplo, el poeta árabe Yahya ibn Naufal al Yamani (siglo VII) escribía
“Noventa seguido de tres, que un tacaño representa mediante un puño cerrado presto a golpear, no es tan miserable como tus dádivas, oh Yazid”
O el escritor, filólogo y gramático árabe Khalil ibn Ahmand (aprox. 718-791), que publicó el primer diccionario de la lengua árabe y fue uno de los fundadores de la poesía árabe, escribió
“Vuestras manos no han sido creadas para la generosidad, y su avaricia es notoria: una es 3.900 y la otra está tan desprovista de generosidad como un 100 al que le falta 7”
Y uno de los grandes poetas persas, Abu’l Kassim Firdussi (aprox. 940-1020), en su libro Shahnama o Libro de los reyes, que es una gran epopeya del mundo persa, ironiza sobre la avaricia del sultán Mahmud el Ghaznavida, diciendo
“La mano del rey Mahmud, de origen augusto, es nueve veces 9 y tres veces 4”

Bibliografía
1.- Página web de la artista Veera Pfaffli
2.- Jose Antonio Pérez (dirección), Raúl Ibáñez (guión), Los números binarios, Una de mates, Órbita Laika (TVE2) y Cátedra de Cultura Científica
3.- Georges Ifrah, Historia universal de las cifras, Ensayo y pensamiento, Espasa, 2002 (quinta edición).
4.- Karl Menninger, Number words and number symbols, Dover, 1969.
5.- Página web de la Biblioteca Apostolica Vaticana
6.- Página web de la Bibliotheca Laureshamensis digital
7.- Diccionario de la lengua española de la RAE
8.- Antonio Marco Martínez, Antiquitatem, Los nombres de los dedos de la mano
9.- Public Delivery, Ai Weiwei gives world his middle finger
10.- Leon J. Richardson, Digital Reckoning among the Ancients, The American Mathematical Monthly, vol. 23, no. 1, pp. 7-13, 1916.
11.- Burma P. Williams, Richard S. Williams, Numbers in the Greco-Roman World and the Early Middle Ages, Isis, vol. 86, no. 4, pp. 587-608, 1995.
12.- Página web del fotógrafo Jim Marshall
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Contar hasta un millón con los dedos de las manos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La morra, jugando a contar con los dedos
- Y tú, ¿cómo cuentas con los dedos? (1)
- Y tú, ¿cómo cuentas con los dedos? (2)
Física de las ondas estacionarias: frecuencia fundamental y sobretonos
La razón física de la aparición de notas armoniosas y la relación entre ellas no eran cosas conocidas por los griegos. Pero utilizando el principio de superposición podemos comprender y definir las relaciones armónicas de manera mucho más precisa.

Primero, debemos enfatizar un hecho importante sobre los patrones de onda estacionarios producidos al reflejarse las ondas en los límites de un medio. Podemos imaginar una variedad ilimitada de ondas viajando de un lado a otro. Pero, de hecho, solo ciertas longitudes de onda (o frecuencias) pueden producir ondas estacionarias en un medio dado. En el ejemplo de un instrumento de cuerda, los dos extremos de cada cuerda están fijos (por los enganches de cada cuerda, en el caso de un arpa, o por el enganche y la presión de un dedo en el caso de una guitarra) y, por lo tanto, deben ser puntos nodales.
Este hecho pone un límite superior a la longitud de las ondas estacionarias posibles en una cuerda fijada en ambos extremos de longitud l. Dada la condición de que los extremos son puntos nodales, es evidente que dicho límite se corresponde con aquella onda para la que la mitad de su longitud de onda coincide con la de la cuerda o, expresado matemáticamente, l = λ/2 (Figura 1, arriba-izquierda).

Ondas más cortas también pueden producir patrones estacionarios pero, eso sí, teniendo más nodos. En cualquier caso debe cumplirse siempre que algún número entero n de medias longitudes de onda media coincide con la longitud de la cuerda, de modo que l = nλ/2 .
Visto de otro modo, la imagen arriba-izquierda de la Figura 1 podemos decir que representa una onda de λ = 2l (fíjate que es idéntico a lo que hemos dicho arriba, pero dado la vuelta). La de arriba-derecha una de λ = 1/2 (2l); la de centro-izquierda λ = 1/3(2l); y así sucesivamente.
La relación matemática general que da la expresión para todas las longitudes de onda posibles de las ondas estacionarias en una cuerda fija es, por tanto, λn = 2l /n, donde n es un número entero. También podemos decir, simplemente que la longitud de onda es inversamente proporcional a n, es decir, λ ∝ 1/n.
Es decir, si λ1 es la longitud de onda más larga posible, las otras longitudes de onda posibles serán 1/2 λ1, 1/3 λ1, …, (1/n) λ1. Las longitudes de onda más cortas corresponden a frecuencias más altas. Por lo tanto, en cualquier medio acotado solo se pueden establecer ciertas frecuencias concretas de ondas estacionarias. Dado que la frecuencia f es inversamente proporcional a longitud de onda, f ∝ 1 / λ, podemos reescribir la expresión para todas las posibles ondas estacionarias en una cuerda pulsada como fn ∝ n.
En otras circunstancias, fn puede depender de n de alguna otra manera. La frecuencia más baja posible de una onda estacionaria es generalmente la que está más presente cuando la cuerda vibra después de ser pulsada o arqueada. Si f1 representa la frecuencia más baja posible, entonces las otras ondas estacionarias posibles tendrían las frecuencias 2f1 , 3f1 ,. . . , nf1 . Estas frecuencias más altas se denominan “sobretonos” de la frecuencia “fundamental” f1. En una cuerda “ideal”, hay en principio un número ilimitado de estas frecuencias, pero cada una de ellas es un múltiplo simple de la frecuencia más baja.
En los medios reales existen límites superiores prácticos para las posibles frecuencias. Además, los sobretonos no son exactamente múltiplos simples de la frecuencia fundamental; es decir, los sobretonos no son estrictamente “armónicos”. Este efecto es aún mayor en los sistemas más complejos que las cuerdas tensas. En una flauta, saxofón u otro instrumento de viento, se crea una onda estacionaria en una columna de aire. Dependiendo de la forma del instrumento, los sobretonos producidos pueden no ser ni siquiera aproximadamente armónicos.
Como podemos intuir a partir del principio de superposición, las ondas estacionarias de diferentes frecuencias pueden existir en el mismo medio al mismo tiempo. Una cuerda de guitarra fuertemente pulsada, por ejemplo, oscila en un patrón que es la superposición de las ondas estacionarias de muchos sobretonos. Las energías de oscilación relativas de los diferentes instrumentos determinan la “calidad” del sonido que producen. Cada tipo de instrumento tiene su propio equilibrio de sobretonos. Es por eso que un violín suena diferente a una trompeta, y ambos suenan diferente a una voz de soprano, incluso si todos suenan a la misma frecuencia fundamental.
Como ilustración sonora, Xaver Varnus juega con columnas de aire de distinta longitud en las que se provocan ondas estacionarias de distintas longitudes de onda y, por tanto frecuencias fundamentales, con los sobretonos particulares del órgano de la catedral de Berlín, interpretando a Bach.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Física de las ondas estacionarias: frecuencia fundamental y sobretonos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Disculparse no es un arte, es una ciencia
Navidad, tiempo de felicidad, alegría y perdón, ¿no era así? Si está leyendo usted esto el mismo día de su publicación, la cena de Nochebuena está al caer. Quizá la espere usted con ilusión, quizá sea un trámite familiar que espera usted sobrellevar con paciencia y elegancia. En cualquier caso, desde aquí le recomiendo poner sus mejores sentimientos sobre la mesa, junto al marisco.
Y de buenos sentimientos vengo yo a hablarle hoy, porque si el perdón es un buen propósito para esta noche, y todas las noches, el pedir perdón debería ser la otra cara de la moneda. Las disculpas, que a muchos tanto cuesta ofrecer, son ese primer paso imprescindible hacia el ser perdonado.
Claro que, amigo, no todas las disculpas son iguales y todos los que las hemos emitido, y los que las hemos recibido, lo sabemos. No es lo mismo un “perdón” a regañadientes de un niño al que su madre ha obligado a disculparse ante otro y que solo quiere acabar con el trámite cuanto antes que una sincera y devastadora disculpa de alguien que sabe que ha metido la pata hasta el fondo con una pareja, por ejemplo, a la que está a punto de perder por su error.
Al igual que cualquier otra interacción habitual entre las personas, las disculpas y sus efectos se pueden medir y analizar bajo la lupa científica. Y de ello se pueden sacar algunas conclusiones interesantes, que nos llevan a diseñar cuál es, en teoría, la disculpa perfecta.
Fue lo que hicieron un equipo de científicos del Fisher Bussiness College de la Universidad del Estado de Ohio, que publicaron un estudio en el año 2016 en el que analizaban qué hace que unas disculpas funcionen mejor que otras y qué debe incluir una buena disculpa si quiere ser efectiva. En su artículo recogían seis puntos claves que pueden encontrarse en una petición de perdón y concluían que cuantos más puntos concurriesen en una disculpa, más efectiva es.
Los seis puntos de una buena disculpa
¿Qué seis claves compondrían la disculpa perfecta? Apunten:
- Expresión de remordimiento. Es importante dejar claro que lamentas lo ocurrido.
- Explicar dónde estuvo el error. ¿Por qué hiciste aquello por lo que te estás disculpando?
- Acepta tu responsabilidad. No eches balones fuera, no pongas escusas, no culpes a otros.
- Declara tu arrepentimiento. Deja claro que no volverías a hacerlo y que estás arrepentido.
- Ofrécete a compensarlo. Pues eso.
- Pide perdón. No lo dejes en el aire, dilo: “Perdóname”.
Cómo se estudian científicamente las disculpas
Para llevar a cabo su investigación, el equipo liderado por Roy Lewicki, profesor del Fisher Bussiness College, reclutó a 333 voluntarios con distintos perfiles, y cada uno de ellos tuvo que leer una situación en la que el voluntario era el director de un departamento de contabilidad que estaba buscando a un candidato para ser contratado. Uno de los hipotéticos candidatos, en un trabajo anterior, había rellenado mal un informe fiscal para uno de sus clientes, y cuando se le interrogó por ello, se disculpó. Los voluntarios no leían la disculpa como tal, sino que se les decía cuántas y cuáles de las seis claves contenían, y debían evaluar su eficacia.
En otro experimento con 422 participantes, se les situaba en la misma situación pero esta vez sí se les daban las disculpas completas por escrito, sin enumerar cuáles o cuántas de esas claves contenían, y de nuevo se les pedía que evaluasen su eficacia.
Los resultados de ambos no fueron idénticos, pero se parecían lo suficiente como para sacar dos conclusiones. La primera es que cuantos más elementos incluya la disculpa, mejor. La segunda es que hay dos de esos elementos que parecen ser los más importantes.
Asegúrate de incluir estos dos puntos en tu disculpa
De esos seis puntos, hay dos que son los más importantes y que nunca deberían faltar en una disculpa. La primera es aceptar tu responsabilidad en lo ocurrido. A menudo sentimos la tentación de justificarnos, de mitigar el daño causado poniendo excusas o echando balones fuera. No lo hagas si quieres que tu petición de perdón funcione. Asume tu error sin dobleces.
La segunda es ofrecerse a compensar el error. “El problema que hay con las disculpas es que, al final, hablar es muy fácil. Pero cuando dices ‘Lo voy a arreglar’, te estás comprometiendo a tomar medidas para deshacer el daño causado”, explicaba Lewicki.
A la cola de los elementos más importantes está el hecho de pedir perdón como tal, que si bien también suma a la efectividad de una disculpa, parece menos efectivo a la hora de conseguirlo que asumir la propia responsabilidad en el error.
Otros aspectos más difíciles de medir
El mismo Lewicki reconocía que su estudio tenía algunas limitaciones, por ejemplo que al ser disculpas leídas, otros factores como el lenguaje corporal o el contacto visual quedaba fuera de la ecuación, cuando todos sabemos que es parte fundamental de toda comunicación entre dos personas y que a veces dice más que las palabras pronunciadas.
Por otro lado, en la eficacia de una disculpa entra también el historial previo entre agraviante y agraviado, y en concreto, el número de veces que la misma situación se ha dado previamente. Se supone que una disculpa debe ser sincera, que es algo que le cuesta a quien se está disculpando y que incluye un compromiso de no volver a las andadas.
Si esto no es así, si los agravios y las disculpas se suceden sin que el autor cambie su comportamiento, no hay disculpa que lo arregle, por mucha aceptación de la responsabilidad que incluyan.
Así que ya lo saben: perdonen y discúlpense, pero háganlo de bien y con intención de enmienda. Feliz Navidad.
Referencias:
An Exploration of the Structure of Effective Apologies – Negotiation and Conflict Management Research
The 6 elements of an effective apology, according to science- The Ohio State University
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo Disculparse no es un arte, es una ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Arte & Ciencia: Analogías entre el arte y la ciencia como formas de conocimiento
- Arte & Ciencia: Sobre la dimensión cognitiva del arte en relación a la ciencia
- Arte & Ciencia: La importancia de la ciencia para la conservación del arte
El extremismo político tras las crisis financieras

El perfil de los acontecimientos políticos que suceden a una crisis financiera es bastante predecible, tal y como ha mostrado un análisis realizado a partir de la historia política de 20 estados democráticos en el periodo que va de 1870 a 2014. En el estudio han recopilando datos procedentes de más de 800 elecciones, 100 crisis financieras -tanto de ámbito internacional como nacional- e información cuantitativa relativa a manifestaciones, algaradas violentas y huelgas generales.
La consecuencia política más clara de las crisis financieras analizadas es que los partidos de extrema derecha mejoraron sus resultados en un 30%, en promedio, durante los siguientes cinco años. Las subidas fueron especialmente pronunciadas tras las crisis iniciadas en 1929 y 2008. El fenómeno se produce también cuando las crisis son de ámbito regional, como ocurrió con la escandinava de principios de los noventa del siglo pasado. Curiosamente, los partidos de extrema izquierda no se benefician en una medida similar.
La segunda consecuencia política más notoria de las crisis financieras es el aumento de la fragmentación parlamentaria. Sube el número de partidos en el parlamento. Y a la vez, disminuye el apoyo de que goza la mayoría gubernamental en la misma medida que aumenta la fuerza de la oposición. Los partidos o coaliciones tradicionalmente mayoritarios pierden fuerza y les resulta muy difícil conformar mayorías de gobierno. Además de las consecuencias electorales, también se producen otros fenómenos de carácter político tras desencadenarse una crisis financiera: casi se triplican las manifestaciones contra el gobierno, el número de algaradas violentas se duplica y la frecuencia de las huelgas generales aumenta un 30% al menos. Por todo ello, es más difícil gobernar.
Ahora bien, los efectos no suelen ser muy duraderos. Los años más afectados son los cinco que siguen a la crisis, y al cabo de diez años tanto la fuerza de la extrema derecha como el apoyo parlamentario del gobierno vuelven a sus niveles anteriores, incluso aunque se mantenga una mayor fragmentación en el parlamento.
Curiosamente, las crisis económicas de otra naturaleza (recesiones no ligadas a una crisis financiera) no surten efectos políticos tan marcados. No está claro a qué obedece esa diferencia. Podría deberse al hecho de que las crisis financieras se perciben como el resultado de fallos políticos o de decisiones que han favorecido a una minoría de privilegiados, y no como la consecuencia de acontecimientos externos al propio sistema político, como guerras o subidas del precio del petróleo, por ejemplo. También podría obedecer a que las crisis financieras quizás tengan repercusiones sociales más graves que las de las otras crisis: podría ocurrir que los conflictos entre deudores y acreedores generen una mayor desigualdad. Y quizás pueda deberse también a que las crisis financieras suelen venir acompañadas por el rescate de los bancos quebrados, una medida que suele generar rechazo popular.
Basándose en las conclusiones de este estudio empírico hay quien cree que pronto se disiparán las consecuencias políticas de la crisis de 2008, puesto que ya han pasado 10 años desde entonces. Otros no lo ven tan claro, porque entre 1950 y 1970, aproximadamente, votaban el 80% de los europeos que podían hacerlo. Y sin embargo, desde 1970 no ha dejado de bajar ese porcentaje: ahora es del 65%. Entre tanto, la extrema derecha no ha dejado de crecer. En otras palabras, bien podría ocurrir que, además de las alteraciones que las crisis financieras provocan a corto plazo en los sistemas políticos, los europeos estemos experimentando en el último medio siglo una apatía electoral creciente, acompañada por la pujanza de la extrema derecha. Resulta, sin duda, inquietante.
Fuentes:
Funke, M., Schularik, M., Trebesch Ch. (2016): Going to extremes: Politics after financial crises, 1870–2014. European Economic Review 88: 227-260.
Oxenham, Simon (2017): The rise of political apathy in two charts. Nature doi:10.1038/nature.2017.22106 (comentario de un trabajo en curso por Simon Hix y Giacomo Benedetto)
——————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 7 de octubre de 2018.
El artículo El extremismo político tras las crisis financieras se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Muchos adultos son incapaces de realizar operaciones financieras básicas
- “Ciencia y crisis, ¿examen de conciencia?” por Luis A. Martínez Sáez
- Identificada la proteína que provoca la inflamación tras un ictus
Las primeras manifestaciones de las funciones ejecutivas y la acción educativa en el aula 0-1
Las pruebas de la educación es un evento que en su tercera edición tuvo lugar por primera vez en Donostia-San Sebastián, el pasado 9 de noviembre, en el Centro Carlos Santamaría de la UPV/EHU, organizado por el Consejo Escolar de Euskadi, con la colaboración de la Cátedra de Cultura Científica de la UPV/EHU.
Este evento tiene el objetivo de abordar distintos temas educativos desde la evidencia científica. Para ello, reúne a personas del ámbito educativo para que expliquen y debatan acerca de las pruebas (o su ausencia) que sustentan las afirmaciones, propuestas y prácticas educativas que están en boga o, en su caso, las pruebas que sustentan otras posibles prácticas. La dirección del evento corrió a cargo de la doctora en Psicología Marta Ferrero.
Cintia Rodríguez es coordinadora del Grupo de Desarrollo Temprano y Educación (DETEDUCA) de la Universidad Autónoma de Madrid. Reflexiona en esta charla sobre la importancia que tiene disponer de control ejecutivo sobre el propio comportamiento tanto para la salud mental y física como para el éxito escolar. Para ello se basará en estudios de caso realizados en en el aula de 0 a 1 año.
Edición realizada por César Tomé López
El artículo Las primeras manifestaciones de las funciones ejecutivas y la acción educativa en el aula 0-1 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Criterios de eficacia escolar y factores asociados a la misma
- Educación basada en la evidencia: retos y propuestas de mejora
- La intervención en la dislexia: de la evidencia científica a la práctica educativa
Hacia la decisión compartida en los programas de cribado de cáncer de mama
El profesor de la Facultad de Medicina y Enfermería de la UPV/EHU, Sendoa Ballesteros, y el médico del Consultorio Rural Mirabel de Cáceres, Enrique Gavilán, han analizado la información que reciben las mujeres en las comunidades autónomas de España para decidir si participan en el programa de cribado de cáncer de mama.

El programa de cribado de cáncer de mama consiste en la realización de mamografías a mujeres aparentemente sanas con el objetivo de diagnosticar la enfermedad en un estadio incipiente, tal y como aparece en la Guía de la OMS para desarrollar programas de detección temprana. En el estado se desarrolla este tipo de programas y se invita a las mujeres a participar en ellos mediante información facilitada, generalmente, a través de cartas, folletos, trípticos y la documentación que aparece en las webs oficiales.
Sendoa Ballesteros y Enrique Gavilán han analizado las cartas de invitación, dípticos y trípticos, los folletos y las webs de las 17 comunidades autónomas. No han accedido a la documentación que se publica en Ceuta y Melilla. Tras el examen de la información, los investigadores consideran que “los documentos entregados a las mujeres para que tomen decisiones informadas son mejorables; aunque lo más adecuado sería impulsar las decisiones compartidas”.
Entre otros aspectos, los autores del estudio proponen homogeneizar la cantidad y calidad del material informativo y unificar los formatos de presentación de los programas ya que difiere en cada comunidad. En cuanto al contenido, hay temas a mejorar o incluir como los derechos de las usuarias, los riesgos potenciales del cribado, los daños emocionales o una información más detallada sobre la frecuencia y razones para realizar pruebas de confirmación diagnóstica.
En este sentido, Sendoa Ballesteros y Enrique Gavilán estiman necesario que los documentos sobre estos programas respondan a las siguientes preguntas: ¿qué es el cáncer de mama? ¿en qué consiste el programa y sus objetivos? ¿cuáles son los derechos de las mujeres? ¿cuál es el impacto del programa, los beneficios y los riegos? y ¿cuál es la probabilidad de necesitar pruebas adicionales de confirmación?
Además del proceso de decisión informada, los investigadores describen alternativas como el método de decisión compartida. “Sería deseable que el personal sanitario informe de manera individualizada a las mujeres, les expliquen las opciones que hay y evalúen las preocupaciones y objetivos de cada una. De este modo se facilita que la decisión sea acorde con su nivel de riesgo, sus valores y preferencias personales”, señalan Ballesteros y Gavilán
Aunque los investigadores han encontrado lagunas en el actual material informativo, han observado una mejora en comparación con el que se facilitaba hace diez años. Han tomado como referencia el estudio Información a usuarias sobre el cribado de cáncer en la mujer, del año 2007, único de características similares elaborado en el estado.
Referencia:
Sendoa Ballesteros-Peña y Enrique Gavilán-Moral. (2018) Contenido de los documentos informativos dirigidos a las mujeres sobre el cribado de cáncer de mama en España Rev Esp Salud Pública e201810076
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Hacia la decisión compartida en los programas de cribado de cáncer de mama se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Qué hago yo si papá viaja hacia al norte y mamá hacia el sur?
- Consumo de carnes rojas y ubicación del cáncer en mujeres
- Detección precoz del cáncer de colon por métodos no invasivos
¿Qué son las expectativas musicales?
We know what it’s like to “think a phrase”, to be mentally gripped by imagined music. When we know what’s coming in a musical excerpt, the listening becomes a motion, an enactment, it “moves” us. We are constantly in the future as we listen, such that we can seem to embody it […]. My claim is that part of what makes us feel that we’re a musical subject rather than a musical object is that we are endlessly listening ahead, such that the sounds seem almost to execute our volition, after the fact.
Elizabeth Hellmuth Margulis. On Repeat
Sólo hay dos cosas invariables en este universo. Una es la velocidad de la luz, la otra es el final de esta secuencia de notas:
Pues bien, eso que acaba de sonar en tu cabeza (solo en tu cabeza) es una expectativa. Y podría agravarse hasta la crueldad, diría, añadiendo algunas notas más (no las suficientes):
¿Qué tal?, ¿cómo te sientes? Es posible que te cueste hasta seguir leyendo sin resolver la frase. La última nota genera una anticipación tan específica y urgente del final que simplemente necesitas oírlo sonar. Esa sensación es clave para entender el placer que nos causa la música: bien saciando nuestras expectativas o bien sorprendiéndonos con alguna alternativa inesperada, los compositores son capaces de jugar con nuestras emociones y mantenernos en vilo hasta el acorde final.
No es de extrañar que los psicólogos de la música estén interesados en estudiar este fenómeno. El problema es que las “expectativas” no son, precisamente, algo fácil de observar. Más allá del nudo que cada cual sienta en su propio estómago (más allá de los qualia), intentar objetivar y cuantificar una sensación difícil de definir incluso, requiere métodos experimentales de lo más diverso y medidas, en general, indirectas.
La opción más inmediata consiste, cómo no, en preguntar directamente a los oyentes. Pero la pregunta no debe ser demasiado abierta: “oye, tú qué te esperas”, porque igual la gente deposita grandes esperanzas en la música (desde amansar a las fieras a conquistar a su gran amor) y es preciso acotar el rango de respuestas posibles. Normalmente, se escogen secuencias de sonidos que forman el comienzo de una melodía y se dan a elegir al oyente varias continuaciones posibles. Resulta que no todas las partituras de Babel son igual de apetecibles: dada una serie de sonidos, los oyentes tienden a preferir otros con unas características determinadas.
El problema de preguntar de manera directa es que, en el peor de los casos, los sujetos pueden mentir y en el mejor, pueden no entender lo que se les está pidiendo en absoluto. Pero existen maneras de eludir esta elección consciente por parte del oyente. Un método consiste en utilizar señales sonoras muy ruidosas, o difíciles de desentrañar por algún motivo. Cuando una determinada secuencia musical satisface las expectativas del oyente (es decir, cuando contiene los sonidos que el este, de manera inconsciente, espera oír), le resulta mucho más fácil percibirlos. Esto se debe a que, aun sin saberlo, toda su atención se dirige hacia donde (en tiempo y en frecuencia) prevé que el sonido va a aparecer.
Es algo similar a lo que sucede con esta ilusión óptica:
Decía Gombrich que “nadie ve lo que son las cosas si no sabe lo que deberían ser” y es posible que tú no hayas visto más que una maraña informe de puntos hasta saber que esta imagen debería ser un dálmata. Pero una vez lo sepas, no podrás dejar de verlo. Es lo que se suele denominar “top-down processing” y viene a decir que los procesos cognitivos de alto nivel (expectativas, contexto, conocimientos musicales o de cualquier otro tipo, etc), condicionan los procesos perceptivos de bajo nivel. Lo que sabemos condiciona lo que oímos y vemos.
El efecto es tan poderoso que puede llevarnos a percibir sonidos e imágenes que ni siquiera se están produciendo. La ilusión del espeleólogo, por ejemplo, lleva a personas en completa oscuridad a creer ver sus propias manos. Y sucede lo mismo con los sonidos, como este sonido tan grave… que no deberías oír en absoluto porque la imagen, de hecho, es un gif.
Basándose en este mismo principio, es también posible evaluar las expectativas musicales midiendo la velocidad de respuesta ante un sonido determinado. Por ejemplo, se le puede preguntar al oyente si, dentro de una melodía, una nota es más aguda, más grave o igual a la que la precede. Si la nota era la que se esperaba oír, le resultará más fácil procesarla y responderá con mayor rapidez.
Pero incluso estos métodos, basados en respuestas perceptivas espontáneas, requieren oyentes que puedan verbalizar sus respuestas y entender una serie de instrucciones. ¿Qué sucede si queremos evaluar las expectativas musicales de bebés, por ejemplo, o de otras especies animales? En estos casos no queda más remedio que recurrir a respuestas fisiológicas o, incluso, a señales neuronales.
Existen, de hecho, respuestas espontáneas indicativas de sorpresa: por ejemplo, un giro de la cabeza hacia la dirección de la que procede el sonido (este método es especialmente útil cuando se trata de bebés) o un cambio en el ritmo cardiaco. La neurología, por su parte, examina los potenciales eléctricos del sistema nervioso en busca de determinados componentes que acompañan a los cambios en una señal percibida.
Sea cual sea el método experimental utilizado, lo cierto es que escuchar música demuestra ser una actividad mucho menos pasiva de lo que a priori pudiera parecer. Siempre que escuchamos, lo hacemos a bordo de nuestras propias expectativas, intentando anticipar cada sonido que nos llega y ajustando nuestros modelos a la nueva información. Aunque todo esto suceda de manera inconsciente, dichos modelos, nuestras famosas expectativas, describen sorprendentemente bien las características generales de la música de nuestra cultura. Quizás la musicalidad no sea más que una forma de inferencia estadística. Pero de esto hablaremos en otra ocasión.
Por lo pronto y si has llegado hasta aquí, esto te lo has ganado:
Referencias:
David Huron (2008) Sweet anticipation: music and the psychology of expectation. The MIT Press
Jonathan Berger (2013) Composing your thoughts. Nautilus
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo ¿Qué son las expectativas musicales? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Louis Antoine: el destello en medio de una larga noche
Tenemos muy pocos doctores en matemáticas en Francia, aunque nuestros agregados tengan una gran cultura. Es porque los franceses huyen de lo mediocre y, temiendo no hacerlo más que pasablemente, muchos no hacen nada que podrían hacer muy bien. A pesar de sus brillantes cualidades, sin la guerra, el Sr. Antoine quizá nunca habría hecho un trabajo personal. Su ejemplo invita a atreverse.
Henri Lebesgue, informe sobre la tesis de Louis Antoine (traducida de la original en [6]).
A Louis Antoine (1888-1971) le citamos en el artículo Haciendo matemáticas en la oscuridad como uno de los matemáticos que realizaron grandes contribuciones a la ciencia a pesar de su ceguera.

Antoine comenzó sus estudios en la École normale supérieure en 1908, graduándose en 1912. El matemático Gaston Julia (1893-1978) ingresó en 1910 en aquella universidad y ambos se hicieron grandes amigos.
Antoine era subteniente en reserva en el 72 regimiento de infantería y, al declararse la Primera Guerra Mundial, fue movilizado. Desde el 2 de agosto de 1914 combatió como comandante de la segunda sección de ametralladoras del 151 regimiento de infantería. Fue herido por metralla el 25 de agosto y el 30 de octubre cuando se encontraba en una trinchera cerca de Ramscapell (Bélgica). Fue condecorado en varias ocasiones por su valentía.
Durante la ofensiva de Nivelle, el 16 de abril de 1917, su grupo atacó la plaza de Brimont. Fue herido por tercera y última vez: una bala le alcanzó la cara, perdió los dos ojos y el sentido del olfato. Su amigo Gaston Julia le acompañó durante su larga recuperación: compartían habitación en el sanatorio ya que una grave herida en la cara había hecho perder la nariz a Julia. El matemático Henri Lebesgue (1875-1941) les visitaba con frecuencia.
Antoine tuvo que dejar su trabajo como docente en enseñanza secundaria. A pesar de que recibía una pensión como inválido de guerra, deseaba retomar su actividad. Así que Louis Antoine comenzó a estudiar braille. Sus amigos Henri Lebesgue, Marcel Brillouin (1854-1948) y Gaston Julia hicieron copiar en braille los principales tratados matemáticos de la época. Las fórmulas matemáticas no tenían manera de transcribirse en este sistema de lectura, así que Antoine y un alumno de la École normale supérieure de Saint-Cloud, inventaron signos, aun utilizados en nuestros días, para los símbolos matemáticos.
Lebesgue sugirió a Antoine que se pasara a la enseñanza superior. Pero para ello debía defender una tesis doctoral. Como había poca bibliografía en Analysis Situs (topología) –y por lo tanto pocas publicaciones para traducir– Lebesgue le orientó hacia esa rama, proponiéndole extender al espacio tridimensional un resultado que se verificaba en el plano: el teorema de Jordan-Schönflies. Este teorema afirma que cualquier curva cerrada simple del plano lo divide en dos regiones, una acotada y otra no acotada, regiones que son además homeomorfas a las dos regiones delimitadas por la circunferencia unidad.
El 9 de julio de 1921, tras grandes esfuerzos, Antoine defendió su tesis de estado en Estrasburgo: Sur l’homéomorphie de deux figures et de leurs voisinages, memoria que contiene lo esencial de sus trabajos científicos. Antoine se dio cuenta de que el teorema de Jordan-Schönflies era falso en dimensión 3 –de hecho solo funciona en dimensión 2–, construyendo el denominado collar de Antoine, un conjunto homeomorfo al conjunto de Cantor y embebido en el espacio tridimensional.
El collar de Antoine se construye de manera inductiva: se parte de un toro sólido –el producto de una circunferencia y un disco cerrado, es decir, una rosquilla– X1. En el interior de X1 se embeben cuatro toros sólidos enlazados, más pequeños, que forman los eslabones de una cadena: X2 es la unión de estos cuatro toros. Dentro de cada toro sólido que forma X2 se repite la misma operación, y así sucesivamente. En la etapa n-ésima, Xn estará formado por 4n-1 toros enlazados, en cada uno de los cuales se embeben otros cuatro toros más pequeños aún, y la unión de los 4n toros enlazados definirá Xn+1.

El collar de Antoine A es la intersección de esos Xn: A es un conjunto no vacío (por ser la intersección de conjuntos cerrados encajados), cerrado, totalmente disconexo (no tiene subconjuntos conexos con más de un punto), no posee puntos aislados y tiene el cardinal del continuo. Es decir, A es (homeomorfo a) el conjunto de Cantor. Además, R3–A no es simplemente conexo. Los detalles de la prueba pueden verse en [1] o en [3].
James W. Alexander (1888-1971) construyó en 1924 la denominada esfera de Antoine-Alexander –no es la misma que la esfera con cuernos de Alexander–, una esfera salvaje que contiene al collar de Antoine. se trata de un contraejemplo a la conjetura de Schoenflies en el espacio euclídeo de dimensión tres.
Probablemente Lebesgue tenía razón al afirmar que sin la guerra, Louis Antoine no habría construido ese bello y complejo ejemplo que lleva su nombre. Como comenta Gaston Julia en [5], esta frase resume el esfuerzo de Antoine en su lucha por seguir adelante:
El pensamiento es solo un destello en medio de una larga noche, pero este destello lo es todo.
Henri Poincaré
Referencias
[1] Louis Antoine, Sur l’homéomorphie de deux figures et de leurs voisinages, Thèse présentée à la Faculté des Sciences de Strasbourg, 1921
[2] Beverly L. Bechner and John C. Mayer, Antoine’s necklace or how to keep a necklace from falling apart, College Mathematics Journal 19 (4) (1988) 306-320
[3] H. Ibish, L’oeuvre mathématique de Louis Antoine et son influence, Expositiones Mathematicae 9 (3) 1991 251-274
[4] Allyn Jackson, The World of Blind Mathematicians, Notices of the AMS 49 (10) (2002) 1246-1251
[5] Gaston Julia, Notice nécrologique sur Louis Antoine, Comptes Rendus de l’Académie des Sciences de Paris 272 (1971) 71–74
[6] Jean Lefort, Louis Antoine, un mathématicien aveugle, Pour la Science 352, 2007
[7] Marta Macho Stadler, Louis Antoine y su fabuloso collar, ::ZTFNews, 2013
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Louis Antoine: el destello en medio de una larga noche se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El número nueve en una noche de verano
- Pierre Fatou, un matemático poco (re)conocido
- Ilustraciones artísticas de un matemático
Ondas estacionarias

Si una compañera y tú sacudís ambos extremos de una cuerda tensa con la misma frecuencia y la misma amplitud, observaréis un resultado interesante. ¡La interferencia de las ondas idénticas provenientes de extremos opuestos hace que ciertos puntos de la cuerda no se muevan en absoluto! Entre estos puntos nodales toda la cuerda oscila hacia arriba y hacia abajo. Pero no hay propagación aparente de los patrones de onda en ninguna dirección a lo largo de la cuerda. Este fenómeno se llama onda estacionaria. Pero démonos cuenta de una cosa: la oscilación estacionaria que se observa es realmente el resultado de dos ondas que sí se propagan.
Veámoslo primero empíricamente (fenomenológicamente, dirían los filósofos) para en la próxima anotación analizarlo con lo que ya sabemos de ondas.
Comencemos con el caso más simple. Para conseguir una onda estacionarias en una cuerda no es necesario que haya dos personas agitando los extremos opuestos. Un extremo se puede atar a un gancho en una pared o al picaporte de una puerta. El tren de ondas enviado por la sacudida del extremo libre de la cuerda se reflejará en el extremo fijo. Estas ondas reflejadas interfieren con las nuevas que se desplazan en el sentido opuesto, y es esta interferencia la que puede producir un patrón estacionario de nodos y oscilaciones.

Pero no hace falta sacudir un extremo. De hecho podemos atar ambos extremos de la cuerda a puntos fijos y pulsar la cuerda, como la de un arco. Desde el punto pulsado, un par de ondas salen en direcciones opuestas y luego se reflejan en los extremos. La interferencia de estas ondas reflejadas que viajan en direcciones opuestas puede producir un patrón estacionario como antes. Las cuerdas de guitarras, violines, pianos y todos los demás instrumentos de cuerda actúan de esta manera. La energía dada a las cuerdas crea ondas estacionarias. Parte de la energía se transmite entonces desde la cuerda vibrante al cuerpo del instrumento; las ondas de sonido enviadas desde allí tienen esencialmente la misma frecuencia que las ondas estacionarias de la cuerda.
Las frecuencias de vibración a las que pueden existir las ondas estacionarias dependen de dos factores. Uno es la velocidad de propagación de la onda a lo largo de la cuerda. El otro es la longitud de una cuerda. La conexión entre la longitud de la cuerda y el tono musical que puede generar esta cuerda se ha conocido durante milenios y contribuyó indirectamente a la idea de que la naturaleza se basa en principios matemáticos.
Al comienzo del desarrollo de los instrumentos musicales, los músicos reconocieron y empezaron a saber producir ciertas armonías agradables al pulsar una cuerda cuya longitud se modificaba por la existencia de diferentes puntos fijos, ya fuesen cuerdas de una longitud dada atadas a extremos de madera como en una lira, ya una cuerda en la que se hacía una presión con los dedos de la mano que no pulsaba (o usaba un arco para inducir la vibración) a distintas longitudes premarcadas. Las armonías se producen si la cuerda es pulsada mientras está restringida a longitudes que corresponden a proporciones de números enteros pequeños. Así, la relación de longitud 2: 1 da la octava, la 3: 2 la quinta, y la 4: 3 la cuarta.
Esta sorprendente conexión entre armonía musical y números simples (enteros) animó a los pitagóricos a buscar otras relaciones numéricas o armonías en el Universo. Este ideal pitagórico influyó mucho a la ciencia griega, y muchos siglos más tarde inspiraron gran parte del trabajo de Kepler. En general, el ideal se mantiene vivo a día de hoy en muchas aplicaciones de las matemáticas a la experiencia física que son consideradas bellas, habiendo quien incluso establece la belleza como guía de descubrimiento.
En este vídeo puede verse un uso creativo de armonías usando ondas estacionarias en cuerdas dispuestas de diferente manera. En él aparece mi admirada Cynthia Miller Freivogel (solista) que usa un instrumento de ondas estacionarias para uso con arco (un violín barroco) construido por Schorn en Salzburgo en 1715, antes de que se supiese mucho sobre la física de las ondas.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Ondas estacionarias se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Las ondas están por todas partes
- Cuando las ondas se encuentran
- Patrón de interferencia en ondas periódicas
El estómago (u órgano equivalente)
El estómago u órgano equivalente es donde se inicia realmente la digestión del alimento, ya que la digestión bucal es de mínima importancia cuantitativa y suele completarse, de hecho, en el estómago.
El estómago de bivalvos
El estómago de los bivalvos tiene interés porque tene características muy diferentes a los del resto de animales.
Como en muchas otras especies, el estómago sigue al esófago que trae el alimento desde la boca. Además, en el sistema digestivo de bivalvos hay una glándula cuyos divertículos se abren a la luz estomacal. Estos divertículos contienen células que realizan digestión intracelular, pero los materiales que son incoprorados por ellas han sufrido un tramiento previo en el estómago.
El tratamiento en cuestión corre a cargo del llamado estilo cristalino, una barra sólida o semisólida de apariencia cristalina formada por una matriz glucoprotéica que contiene enzimas digestivas. El estilo, que se proyecta desde el llamado “saco del estilo”, gira de forma permanente impulsado por baterías de cilios presentes en el saco. La rotación ejerce una acción doble sobre el cordón de alimento: por un lado muele las partículas alimenticias (microalgas y detritos microscópicos) al aplastarlas contra la pared del estómago, y por el otro, las enzimas del estilo realizan la digestión enzimática.
Los productos de ese primer tratamiento mecánico y enzimático pasan a los divertículos de la glándula donde son absorbidos e, intracelularmente, sometidos a ulterior digestión en el interior de lisosomas digestivos. El material no digerido, así como los restos de la digestión intracelular son evacuados al intestino para su posterior expulsión de forma compactada.
Los bivalvos carnívoros tienen un estilo mucho más pequeño que el de los suspensívoros y cuentan con una molleja quitinosa, que ayuda a triturar el alimento antes de su digestión
El mesenterón de insectos

En insectos al sistema digestivo medio también se le denomina mesenterón y es el órgano en el que se inicia la digestión del alimento. A diferencia del estómago de vertebrados, el mesenterón es solo ligeramente ácido. Uno de los rasgos más característicos del de muchas especies de insectos es la presencia de la membrana peritrófica, que separa el alimento del epitelio. Se trata de una red porosa (permeable) de filamentos de quitina embebida en una matriz de proteínas y mucopolisacáridos. Aunque sus funciones no están bien establecidas, se le atribuyen las siguientes:
- Protección. Quizás proteja el epitelio de la acción abrasiva del alimento.
- Motilidad. Quizás contribuya a empujar el alimento a lo largo de esta parte del sistema digestivo.
- Defensa. Puede evitar que patógenos presentes en el alimento alcancen el epitelio y, por lo tanto, los tejidos del huésped. El tamaño de poro es inferior al de las bacterias, pero estas cuentan a menudo con enzimas y toxinas que pueden superar esa barrera.
- Digestión. La membrana peritrófica genera dos espacios en el interior del mesenterón, el ectoperitrófico (entre la membrana y el epitelio) y el endoperitrófico (en el interior de la membrana) y de esa forma se puede llevar a cabo una digestión especializada. La tripsina (proteasa) y la amilasa se localizan en el espacio endoperitrófico, donde inician la digestión del alimento. En el ectoperitrófico se localizan la aminopeptidasa y la trehalasa, donde completan la digestión.
En insectos hemípteros, como los áfidos, que se alimentan de grandes cantidades de jugos vegetales, el digestivo medio presenta una “cámara de filtración”, que es una modificación del canal cuya función es extraer el exceso de agua que hay en el alimento.
El estómago de vertebrados
Algunas especies de vertebrados, como lampreas, peces bruja, ciertos osteictios y algunas larvas de anfibios anuros carecen de estómago. En los mamíferos monogástricos el estómago es una cámara muscular en forma de saco que se encuentre entre el esófago y el intestino delgado. Hay variantes de este modelo general que se diferencian por la composición del epitelio que tapiza el interior del estómago. Algunas especies tienen un estómago multicameral, como el de las ratas, por ejemplo. Y el estómago digástrico de los rumiantes de caracteriza porque sus compartimentos desempeñan funciones distintas.
El estómago desempeña tres tareas principales:
- Almacenamiento. Mantiene el alimento ingerido en su interior hasta que puede ser evacuado al intestino delgado a un ritmo tal que su digestión y absorción se puedan producir de manera óptima.
- Digestión. La secreción de ácido clorhídrico y determinadas enzimas dan comienzo al proceso digestivo.
- Formación del quimo. La comida es pulverizada y mezclada con los jugos gástricos mediante movimientos de la pared muscular, dando lugar a un fluido líquido y espeso conocido como quimo. Hasta que tal mezcla no se produce, el contenido estomacal no pasa al duodeno.
En anotaciones próximas iremos viendo con funcionan los estómagos, principalmente los de mamíferos porque son los que mejor conocemos.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El estómago (u órgano equivalente) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Faringe, esófago y buche
- Modalidades de alimentación
- H. pylori crea túneles en la mucosa del estómago
Historias de la Malaria: La vacuna
Las investigaciones para encontrar una vacuna contra la malaria comenzaron a principios del siglo XX sin mucho éxito. Una vacuna es la última, más eficaz y mejor solución en la lucha contra una enfermedad. Es un solo producto que, mejor en una que en varias dosis, protege por largo tiempo, quizá durante el resto de la vida del vacunado. La vacuna ideal debe ser sencilla en su aplicación, sin necesidades prácticas excepcionales, y que se pueda aplicar a muchas personas en pocos días. Por otra parte, desarrollar una vacuna lleva muchos años: la vacuna contra la malaria RTS,S tuvo sus primeros ensayos en 1985 y fue aprobada, con la marca Mosquirix, en 2015.
Entre 1910 y 1950 se hicieron muchos ensayos en nuestra especie, primates y aves, pero no funcionaron. Fue en 1967 cuando Ruth Nussenzweig y su grupo, de la Universidad de Nueva York, publicaron sus estudios sobre la inmunidad en ratones después de inyecciones de mosquitos irradiados con rayos X. Sin embargo, todavía en la actualidad solo existe una vacuna con licencia aunque, ya lo veremos, hay ensayos clínicos de varias incluso sobre grandes poblaciones.
La dificultad está en desarrollar una vacuna contra un organismo, el protozoo plasmodio, cuyas células eucariotas, con núcleo, son iguales que las nuestras. Por tanto, cualquier ataque contra estas células puede dañar también al enfermo. Y, además, el plasmodio tiene un ciclo de vida complicado, con varias fases y varios huéspedes, y en todos ellos cambia lo suficiente como para necesitar una vacuna concreta para cada una de esas fases.
Los expertos, con modestia y después de intensos debates, se han marcado dos objetivos no excluyentes entre sí: conseguir una vacuna con una eficacia del 75% y que se mantenga activa durante dos años; y, también, que tenga una respuesta rápida a la malaria, con una eficacia mayor del 50% y que se mantenga más de un año.
Para 2013 ya existían, por lo menos, 58 vacunas en diferentes fases de desarrollo y, de ellas, 17 estaban en ensayos clínicos. En la revisión de Simon Draper y sus colegas, el número de vacunas en ensayo clínico ha subido hasta 24 en 2018.
Las vacunas se busca que actúen, como decía, contra diferentes fases del ciclo vital. En primer lugar, debe actuar sobre los esporozoitos, la fase que entra en la sangre con la picadura del mosquito. Los esporozoitos entran en las células del hígado o hepatocitos y se reproducen. Después, en la fase merozoito, invaden los glóbulos rojos o hemocitos en la sangre y se siguen dividiendo. Cuando se reproducen tanto que destruyen los glóbulos rojos y se liberan en la sangre provocan los accesos de fiebre típicos de la malaria. Por lo tanto, se buscan vacunas contra los esporozoitos, cuando entran en la sangre por la picadura, y contra los hepatocitos infectados para que no liberen más merozoitos, en la sangre que puedan invadir los glóbulos rojos. Cuando el parásito está en los glóbulos rojos, la vacuna no bloquea la infección pero consigue atenuar su número y bajar la severidad de la enfermedad.
En esta fase el parásito libera gametos, masculinos y femeninos, pues está en la fase sexual del ciclo. Otro objetivo es evitar que libere estos gametos que son los que, en nuevas picaduras, vuelven a los mosquitos y extenderán la enfermedad en la población.
En resumen, se buscan vacunas contra los esporozoitos, los merozoitos en el hígado y los gametocitos. Y, más en detalle, para los esporozoitos está en bloquear la entrada o el crecimiento en las células del hígado. En los merozoitos se intenta bajar la severidad de la enfermedad, disminuir la división en las células del hígado y evitar la salida a la sangre y la entrada en los glóbulos rojos. Y, en los gametocitos, se buscan anticuerpos que alteren el desarrollo en el tubo digestivo del mosquito donde se alojan.
Otro objetivo, muy actual, es conseguir inactivar al parásito en el propio mosquito. Los gametos llegan al tubo digestivo del insecto, se une y dan lugar a los esporozoitos que se almacenan en las glándulas salivares e irán a otro enfermo con la picadura. Así comienza de nuevo el ciclo del plasmodio. Ahora se busca una vacuna que impida la formación de esporozoitos o los atenúe en el mosquito. Conseguirá evitar que la enfermedad se propague por las picaduras de los insectos.

En 1967, Ruth Nussenzweig publicó que habían logrado una inmunización parcial en roedores con la inyección de plasmodios debilitados obtenidos de mosquitos irradiados con rayos X. El método es laborioso pues, para conseguir los esporozoitos tenía que irradiar los mosquitos y después, hacer la disección y extraer las glándulas salivares donde se acumulan los plasmodios. Fue la primera investigación que trató mosquitos para conseguir esporozoitos debilitados.
Entre los intentos anteriores al estudio de Nussenzweig destaca el publicado en 1942, en plena Guerra Mundial y llegado desde la India, cuando la malaria era el principal problema médico de las tropas aliadas en Asia. Paul Russell y Badri Nath Mohan, del Instituto Pasteur del Sur de la India en Coonoor, utilizaron esporozoitos atenuados para una vacuna que impedía la llegada del parásito a los glóbulos rojos. La ensayaron en aves, como malaria aviar, y en gallinas. Consiguieron una disminución de la mortalidad del 21%. Preparaban los esporozoitos atenuados exponiendo a rayos ultravioleta las glándulas salivares de mosquitos infectados. Allí se encuentran los esporozoitos que se transmiten con la picadura. Disolvían las glándulas irradiadas en suero y lo inyectaban a las gallinas. Para los historiadores de la lucha contra la malaria es la primera publicación con un método con el que se sigue trabajando en la actualidad.
El hallazgo de Ruth Nussenzweig sirvió al grupo de David Clyde, de la Universidad de Maryland, para conseguir, en 1975, una cierta inmunización contra la malaria. Expuso a los voluntarios a la picadura de insectos irradiados y consiguió activar su sistema inmune contra el plasmodio, pero solo duró tres meses para falciparum y seis meses para vivax.
Fue también en los setenta cuando Richard Carter y David Chen, de los Institutos Nacionales de la Salud en Bethesda, ensayaron una nueva vacuna para la malaria en aves que, en un doble paso por el mosquito y el pollo, conseguía una efectividad interesante. Inyectaban a los pollos con sangre que llevaba Plasmodium gallinaceum irradiado con rayos X y tratado con formol. Cuando los mosquitos picaban a estos pollos y se alimentaban con su sangre, absorbían los plasmodios irradiados. En esos pollos, el número de parásitos en su tubo digestivo eran un 95%-98% menor que en los pollos control. La caída llegaba al 99% si se utilizaban gametos del plasmodio irradiados.
Años más tarde, entre 1989 y 1999, el grupo de Stephen Hoffman, del Centro de Investigación Médica de la Armada de Estados Unidos, ensayó una vacuna con picaduras de insectos irradiados con rayos gamma procedentes de cobalto o cesio radioactivos. Consiguieron, con once voluntarios, atenuar la enfermedad. Los esporozoitos del plasmodio entraban en las células del hígado pero no se reproducían y no llegaban a los glóbulos rojos. La protección, con nuevas dosis, duraba en algunos voluntarios hasta las 42 semanas.
Años antes, en 1980, el grupo de Nussenzweig había conseguido identificar una de las proteínas que recubre la superficie del plasmodio. Con este hallazgo se inició una línea de investigación todavía muy actual. Estas proteínas de la superficie del plasmodio, aisladas, pueden provocar una respuesta inmune en el enfermo y ser la base para una vacuna eficaz. Como siempre, son la eficacia de la vacuna y su duración condiciones esenciales para conseguir que sea útil. Sin embargo, el ciclo vital del plasmodio implica que estas proteínas de la superficie cambian en cada fase y, por ello, solo se pueden conseguir, por ahora, vacunas contra una fase concreta y no contra el ciclo completo.

Estas proteínas de superficie son la base de una de las vacunas más desarrolladas en este momento, la llamada RTS,S, desarrollada por el grupo de Pedro Alonso, del Centro de Salud Internacional del Hospital Clínic de Barcelona y fundador del Centro de Investigación en Salud de Manhiça, en Mozambique. Está dirigida contra la especie Plasmodium falciparum, la más extendida y letal de las especies del parásito de la malaria. Utiliza, para activar el sistema inmune, dos proteínas de la superficie del plasmodio llamadas RTS y S, y de ahí el nombre de la vacuna. Son de la fase anterior a la entrada de los esporozoitos en las células del hígado y los anticuerpos también pueden destruir los hepatocitos infectados.
Desde 2010, con el nombre comercial de Mosquirix y desarrollada con financiación de la empresa farmacéutica GlaxoSmithKline y de la Fundación Bill y Melinda Gates, la vacuna está en ensayos clínicos muy adelantados. Recibió la aprobación de la Agencia Europea de Medicamentos el 24 de julio de 2015.
La fase clínica II se ensayó en 2022 niños, en Mozambique y en el año 2004, con una reducción del 58% de niños enfermos con malaria severa, con el 77% en menores de dos años y, en general, del 30%. Ahora se está probando en un ensayo poblacional en varios países africanos con 15460 niños de 5 a 17 meses de edad. Los países son Burkina Faso, Ghana, Gabón, Kenia, Tanzania, Malawi y Mozambique. Toman tres dosis de la vacuna, con un mes de intervalo entre dosis, y un refuerzo a los 18 meses. La eficacia es del 55.8% en 2011 y del 31.3% en 2012. La conclusión final es que la eficacia es del 31% en niños de 6 a 12 meses. La duración de la inmunidad está por los 40 meses. Con parecidos métodos y objetivos se está ensayando una vacuna contra la especie Plasmodium vivax.
Otra vacuna en ensayos clínicos es la PfSPZ, de la compañía Sanaria, que utiliza esporozoitos atenuados de falciparum para provocar la inmunidad del vacunado. Se ha ensayado en 2016 con 33 adultos voluntarios, todos hombres de 18 a 35 años, en la isla de Bioko, en Guinea Ecuatorial. Reciben tres dosis de la vacuna o de un placebo con intervalos de ocho semanas. La aparición de anticuerpos contra falciparum se detecta en el 70% de los voluntarios. Ahora se está ensayando en 135 voluntarios con edades de 6 meses a 65 años.
Es una vacuna segura y bien tolerada, pero los investigadores buscan conseguir una respuesta inmune más fuerte contra falciparum, quizá con más dosis.
También es conocida y tema de muchos debates científicos y en los medios la vacuna que desarrolló el investigador colombiano Manuel Elkin Patarroyo en los años noventa. Utilizó una proteína de pequeño tamaño y sintética similar a las que recubren el plasmodio. La vacuna se llama SPf66 y se ensayó en los noventa en Sudamérica y África. Tuvo una eficacia del 26% en Sudamérica y prácticamente nula en los ensayos africanos. El debate sobre esta vacuna es intenso pues los datos de efectividad, según el ensayo de que se trate, llegan hasta el 82% con falciparum y el 60% con vivax o caen al 26% como ya he mencionado.
Un enfoque diferente y original es el de Rhoel Dinglasan y sus colegas, de la Universidad Johns Hopkins, que pretende inmunizar al mosquito para evitar que el plasmodio complete su ciclo vital. El parásito utiliza una enzima concreta para unirse a la pared del tubo digestivo del insecto y continuar su desarrolla. Dinglasan aisló el enzima y provocó inmunidad ante él de manera que el plasmodio, al no poder utilizar el enzima, no completó su ciclo. Consiguió una eficacia del 100% para falciparum y del 98% para vivax. Sin embargo, el método está en sus primeros pasos de investigación y pruebas. El mismo grupo ha encontrado un metabolito aislado de líquenes que también bloquea la maduración del plasmodio en el mosquito.
Referencias:
Alonso, P.L. et al. 2004. Efficacy of the RTS,S/ASO2 vaccine against Plasmodium falciparum infection and disease in Young African children: randomised controlled trial. Lancet 364: 1411-1420.
Amador, R. et al. 1992. Safety and immunogenicity of the synthetic malaria vaccine SPf66 in a large field trial. Journal of Infectious Diseases 166: 139-144.
Amador, R. et al. 1992. The first field trials of the chemically synthesized malaria vaccine SPf66: safety, immunogenicity and protectivity. Vaccine 10: 179-184.
Ballou, W.R. & C.P. Cahill. 2007. Two decades of commitment to malaria vaccine development: GlaxoSmithKline Biologicals. American Journal of Tropical Medicine and Hygiene 77 Suppl 6: 289-295.
Carter, R. & D.H. Chen. 1976. Malaria transmission blocked by immunisation with gametes of the malaria parasite. Nature 263: 57-62.
Clyde, D.F. et al. 1975. Immunization of man against falciparum and vivax malaria by use of attenuated sporozoites. American Journal of Tropical Medicine and Hygiene 24: 397-401.
Draper, S.J. et al. 2018. Malaria vaccines: Recent advances and new horizons. Cell Host & Microbe 24, July 11.
Hoffman, S.L. et al. 2002. Protection of humans against malaria by immunization with radiation-attenuated Plasmodium falciparum sporozoites. Journal of Infectious Diseases 185: 1155-1164.
Nussenzweig, R.S. et al. 1967. Protective immunity produced by the injection of X-irradiated sporozoites of Plasmodium berghei. Nature 216: 160-162.
Olotu, A. et al. 2018. Advancing global health through development and clinical trials partnerships: A randomized placebo-controlled, doublé-blind assessment of safety, tolerability, and immunogenicity of PfSPZ vaccine for malaria in healthy Equatoguinean men. American Journal of Tropical Medicine and Hygiene 98: 308-318.
Pastrana-Mena, R. et al. 2016. A malaria transmission-blocking (+)-usnic acid derivative prevents Plasmodium zygote-to-ookinete maturation in the mosquito midgut. ACS Chemical Biology 11: 3461-3472.
Russell, P.F. & B.N. Mohan. 1942. 1942. The immunization of fowls against mosquito-borne Plasmodium gallinaceum by injection of serum and of inactivated homologous sperozoites. Journal of Experimental Medicine 76: 477-495.
Vaughan, A.M. & S.H.I. Kappe. 2017. Genetically attenuated malaria parasites as vaccines. Expert Review of Vaccines 16: 765-767.
Wikipedia. 2018. Malaria vaccine. 14 July.
Yoshida, N. et al. 1980. Hybridoma produces protective antibodies directed against the sporozoite stage of malaria parasite. Science 207: 71-73.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Historias de la Malaria: La vacuna se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Historias de la malaria: El parásito
- Historias de la malaria: Las drogas sintéticas
- Historias de la malaria: El mosquito