Asociación evolutiva entre la higuera común y las avispas
La relación simbiótica entre la higuera común, Ficus carica, y la avispa Blastophaga psenes se remonta a unos ochenta millos de años atrás.
La avispa hembra sale del higo en el que ha nacido, cargada de polen y huevos fecundados, en busca de otra higuera de la misma especie. Tras encontrarla entra en el interior del higo, deja en él el polen y los huevos que lleva adheridos. Los huevos crecen y nacen las avispas. Los machos fecundan a las hembras y tras hacerlo mueren. Las hembras, sin embargo, vuelan en busca de una nueva higuera donde se repite de nuevo el proceso.

Una vez que las avispas dejan el higo, éste crece y cambia de tonalidad, se vuelve rojizo y se llena de azúcar. Así se transforma en el dulce alimento que conocemos.
———————————-
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
Autora: Paulina Peña Matamala, alumna del Postgrado de Ilustración Científica de la UPV/EHU – curso 2017/18
Artículo original: Árbol sagrado, árbol maldito. Juan Ignacio Pérez Iglesias, Cuaderno de Cultura Científica, 22 de octubre de 2017.
———————————-
El artículo Asociación evolutiva entre la higuera común y las avispas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las dos culturas de las matemáticas: construir teorías o resolver problemas
El matemático británico William Timothy Gowers, fellow del Trinity College, de la Universidad de Cambridge, y Medalla Fields en 1998, en su magnífico ensayo Las dos culturas de las matemáticas, divide a las personas que hacen matemáticas, principalmente dentro del ámbito de la matemática pura, en dos grupos, aquellas “cuyo objetivo central es resolver problemas” y las que están “más interesadas en construir y comprender teorías”.
William T. Gowers utiliza la expresión “las dos culturas de las matemáticas”, en referencia a la famosa conferencia del físico y escritor Charles Percy Snow, de 1959, sobre la brecha existente entre las ciencias y las humanidades, la falta de comunicación entre ambas y la asimetría entre los conocimientos considerados como parte de la cultura (sobre las dos culturas escribí una pequeña reflexión al respecto para la revista CIC-Network, La cultura científica o la misteriosa identidad del señor Gauss). Para este matemático, que estaría entre los que resuelven problemas, existe una situación similar dentro de las matemáticas, entre estas “otras dos culturas”, estas dos formas de entender la ciencia de Pitágoras.
Por si algún matemático o matemática no está segura de a cuál de los dos grupos pertenece, Gowers plantea un sencillo test. Se trata de leer las dos afirmaciones que aparecen más abajo, A y B, y en función de con cuál de las dos se esté de acuerdo se pertenecerá a una u otra clase.
A. La finalidad de resolver problemas es comprender mejor las matemáticas.
B. La finalidad de comprender las matemáticas es estar más capacitados para resolver problemas.

Muchas personas del ámbito de las matemáticas, al leer ambas afirmaciones, es probable que piensen que en ambas hay parte de razón, pero también es cierto, como comenta Gowers, que la mayoría se decantarán más por una u otra forma de ver las matemáticas.
Como ejemplo de matemático de la clase de los que construyen teorías, Gowers cita al británico Sir Michael F. Atiyah, uno de los grandes geómetras de la segunda mitad del siglo XX, en abril (de 2019) cumplirá 90 años, que entre otros muchos premios recibió la Medalla Fields en 1966 y el Premio Abel en 2004, y que además, desarrolló su investigación matemática en instituciones como las universidades británicas de Cambridge y Oxford, o el Instituto de Estudios Avanzados de Princeton (EE.UU.).

Para ilustrar su afirmación utiliza la siguiente reflexión del propio Sir Michael Atiyah, aparecida en una entrevista en Mathematical Intelligencer en 1984, sobre su forma de trabajar en matemáticas.
“Hay quien piensa: “Quiero resolver este problema”, y se sienta y dice: “¿Cómo resuelvo este problema?” Yo no. Simplemente me muevo entre las aguas matemáticas, pienso en cosas, soy curioso, me intereso, hablo con la gente, doy vueltas a las ideas; entonces surge algo y yo lo sigo. O quizá veo algo que conecta con algo que conozco, intento ponerlo junto y se desarrolla. Prácticamente nunca he empezado con una idea de lo que voy a hacer o de dónde me va a llevar. Me interesan las matemáticas; hablo, aprendo, discuto y simplemente surgen preguntas interesantes. Nunca he empezado con un fin particular, excepto el de entender las matemáticas.”
Es esta “cultura”, la de personas que están más interesadas en construir y comprender teorías, la que predomina en la actualidad. Una visión de las matemáticas que muestra esta ciencia como un gran árbol cuyas fuertes ramas son las grandes teorías matemáticas, con sus estructuras y sus teoremas.
Por ejemplo, si fijamos nuestra atención en el listado de las personas que han sido galardonadas con el Premio Abel de las Matemáticas (que a día de hoy podríamos considerar como el “Premio Nobel” de esta ciencia y que se concede desde 2003) encontramos muchos constructores de teorías, entre otros, el matemático francés Jean-Pierre Serre (que recibió el Premio Abel en 2003 “por jugar un papel esencial en dar forma a la visión moderna de muchas partes de las matemáticas, incluyendo la topología, la geometría algebraica y la teoría de números”), el matemático ruso Mijail Gromov (en 2009 “por sus revolucionarias contribuciones a la geometría”), o el matemático británico Andrew Wiles (en 2016 “por su asombrosa demostración del último teorema de Fermat por medio de la conjetura de modularidad para curvas elípticas semiestables, abriendo una nueva era en la teoría de números”).
Dentro del grupo de quienes resuelven problemas, W. T. Gowers cita a la más famosa de todas las personas de esta categoría, al matemático húngaro Paul Erdös (1913-1996), a quien el matemático germano-estadounidense Ernst Straus (1922-1983) describió, con motivo de la celebración de su 70 cumpleaños, como “el príncipe de los que resuelven problemas y el monarca absoluto de quienes saben proponer problemas”.
Los problemas que plantea Erdös, o en los que suele fijar su atención, suelen tener un enunciado relativamente sencillo o fáciles de entender, pero muy difíciles de resolver, y además, muchos de ellos acaban teniendo una gran profundidad matemática y científica. Por citar un ejemplo que aparece en una entrada del Cuaderno de Cultura Científica, cierto problema sobre cómo colorear las aristas de un grafo con dos colores, acabó dando lugar a una importante teoría de la combinatoria, como es la teoría de Ramsey. Véase la entrada El juego del Sim, o alguno de los dos libros Del ajedrez a los grafos, la seriedad matemática de los juegos o How to count, an introduction to combinatorics.

Dentro de los galardonados con el Premio Abel también nos encontramos algún matemático que comparte la filosofía de Paul Erdös, como el húngaro Endré Szemerédi (en 2012 “por sus contribuciones fundamentales a la matemática discreta y a las ciencias de la computación teóricas”), aunque no son mayoría.
De hecho, las personas “cuyo objetivo central es resolver problemas” suelen ser criticadas por el colectivo defensor de la construcción de teorías porque en opinión de estas, las primeras simplemente se dedican a resolver o jugar con divertimentos matemáticos. En palabras de Atiyah “se dedican simplemente a mariposear. Si se les pregunta que persiguen con ello, cuál es la relevancia, con qué se relaciona, veremos que no lo saben”.
Sin embargo, sin pretender profundizar sobre la cuestión, una de las grandes aportaciones de las personas que se dedican a resolver problemas, independientemente de si estos llevan o no a profundos resultados, teoremas o estructuras, como realmente ocurre en muchas ocasiones, podríamos decir que es transversal. Por ejemplo, esta forma de trabajar en matemáticas aporta unas capacidades, unas metodologías, unas técnicas, unos tipos de argumentos y unas maneras de afrontar la resolución de problemas o la demostración de resultados matemáticos, de teoremas, que una vez desarrolladas se convierten en potentes herramientas en diferentes ramas de las matemáticas. Por mencionar algún ejemplo, a riesgo de parecer un poco simple, pensemos en el principio del palomar (una pequeña introducción sobre el mismo se puede encontrar en las entradas El principio del palomar, una potente herramienta matemática, parte 1 y parte 2) o en los grafos, de una gran sencillez, pero profundas herramientas en muchos campos de las matemáticas y de la ciencia.
Pero volviendo al brillante matemático Paul Erdös y su relación con la resolución de problemas, Ernst Straus, otro de los pertenecientes a la cultura de la resolución de problemas y que durante un tiempo fue ayudante del físico germano-estadounidense Albert Einstein (1879-1955), explicó que el motivo por el cual Einstein eligió la física sobre las matemáticas era que las matemáticas estaban repletas de cuestiones tan bellas y atractivas que uno podía tirar a la basura su vida trabajando en los problemas “equivocados” y no en las cuestiones realmente importantes, “centrales”, las cuales eran más fácil de identificar dentro de la física.

Sin embargo, la filosofía de Paul Erdös no coincidía con la de Albert Einstein, como explica Straus.
“Erdös ha violado sistemáticamente y de forma exitosa cada una de las prescripciones de Einstein. Ha sucumbido a la seducción de todos los problemas que ha encontrado –y una gran cantidad de ellos han sucumbido a su vez a él. Esto mismo me demuestra que en la búsqueda de la verdad hay lugar para Don Juanes como Erdös y Sir Galahads como Einstein”
Es decir, las matemáticas necesitan personas de las dos culturas dedicadas a la investigación matemática, las que construyen teorías y las que resuelven problemas.

Este es solamente un pequeño apunte sobre el interesante debate existente sobre las dos culturas de las matemáticas y recomiendo a quienes puedan estar interesadas en el mismo, que vayan a la fuente original, al artículo de W. T. Gowers, ya sea en su versión original en inglés o su traducción al castellano en la GACETA de la RSME.
Terminamos con una cita del excéntrico matemático, del que hablaremos en una próxima entrada del Cuaderno de Cultura Científica, Paul Erdös.
“¿Por que los números son hermosos? Es como preguntar por qué la novena sinfonía de Beethoven es hermosa. Si no ves por qué lo es, nadie puede decírtelo. Yo sé que los números son hermosos. Si ellos no lo son, nada lo es.”
Bibliografía
1.- William Timothy Gowers, Las dos culturas de las matemáticas, La GACETA de la RSME, vol. 7.2, pag. 371–386, 2004 (publicado originalmente como The Two Cultures of Mathematics, en Mathematics: Frontiers and Perspectives, V.I. Arnold, M. Atiyah, P. Lax y B. Mazur (eds.), AMS, 1999).
2.- Raúl Ibáñez, La cultura científica o la misteriosa identidad del señor Gauss, CIC-Network, n. 8, pag. 14-17, 2010. (versión online en el Cuaderno de Cultura Científica)
3.- Exposición Faces of Mathematics, por Marc Atkins (fotografía y producción de video) y Nick Gilbert (coordinador del proyecto). Faces of Mathematics ha sido organizada por el Engineering and Physical Sciences Research Council (Gran Bretaña).
4.- El Premio Abel de las Matemáticas
5.- Joel Spencer, Erdös Magic, perteneciente al libro The Mathematics of Paul Erdös I, editado por R. L. Graham, J. Nesetril, S. Butler, Sringer, 2013.
6.- Raúl Ibáñez, Albert Einstein-primera parte, sección Publicidad y Matemáticas de la web DivulgaMAT, 2012.
7.- Béla Bollobás, Paul Erdös: Life and Work, perteneciente al libro The Mathematics of Paul Erdös I, editado por R. L. Graham, J. Nesetril, S. Butler, Sringer, 2013.
8.- Raúl Ibáñez, Del ajedrez a los grafos, la seriedad matemática de los juegos, colección El mundo es matemático, RBA, 2015.
9.- R. B. J. T. Allenby, Alan Slomson, How to count, an introduction to combinatorics, CRC Press, 2011.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Las dos culturas de las matemáticas: construir teorías o resolver problemas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un kilogramo de novelas y matemáticas
- El rostro humano de las matemáticas
- Artistas que miran a las matemáticas
La evolución de los perros
Los humanos hemos participado en la historia evolutiva de los perros desde el origen de la relación entre ambos. Hemos favorecido, por un proceso de domesticación, la aparición de las distintas razas de perro. Hoy en día, la mayoría de nuestras mascotas son perros de raza. Sin embargo, estos perros solo representan el 15% de todos los canes que existen en la actualidad, el 85% restante son chuchos o perros callejeros.
En general, se cree que los chuchos proceden del cruce entre perros de raza, pero no es así. Estos perros han surgido de la evolución por selección natural de los primeros cánidos que se asociaron a los humanos.

La selección natural ha dotado a los chuchos de facilidades para acercarse a nosotros, estos privilegios les permiten aprovecharse de recursos que, directa o indirectamente, ponemos a su disposición. Es decir, la mayoría de los perros han seguido su propio camino evolutivo y se han adaptado para convivir con nosotros y obtener beneficios.
———————————-
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
Autora: Raquel Morales Aguilera, alumna del Postgrado de Ilustración Científica de la UPV/EHU – curso 2017/18
Artículo original: Domesticados. Juan Ignacio Pérez Iglesias, Cuaderno de Cultura Científica, 16 de abril de 2017.
———————————-
El artículo La evolución de los perros se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Domesticados
- Los primeros pasos de la evolución darwiniana y sesgos cognitivos y evolución (Día de Darwin 2018)
- Un ornitisquio emplumado
Patrones de difracción
Podemos comprender todos los patrones de difracción de ondas si tenemos en cuenta tanto el principio de Huygens como el principio de superposición. Por ejemplo, consideramos una apertura más ancha que una longitud de onda. En este caso, el patrón de ondas difractadas no contiene líneas nodales a menos que el ancho de la rendija sea aproximadamente la longitud de onda, λ (Figura 1).

La figura 2 nos ayudará a entender por qué aparecen las líneas nodales. Debe haber puntos como P que estén más alejados del lado A de la apertura que del lado B; es decir, debe haber puntos P para los ques la distancia AP difiere de la distancia BP exactamente λ. Para esos puntos, AP y OP difieren en una media longitud de onda , λ/2. Por el principio de Huygens, podemos considerar los puntos A y O como fuentes puntuales en fase de ondas circulares. Pero como AP y OP difieren en λ/2, las dos ondas llegarán a P completamente fuera de fase. Entonces, de acuerdo con el principio de superposición, las ondas de A y O se cancelarán en el punto P.

Este argumento también es válido para el par de puntos que consiste en el primer punto a la derecha de A y el primero a la derecha de O. De hecho, sigue siendo cierto cierto para cada par de puntos emparejados de forma equivalente, a lo largo de toda la apertura. Las ondas que se originan en cada uno de estos pares de puntos se cancelan en el punto P. Por lo tanto, P es un punto nodal, ubicado en una línea nodal. Por otro lado, si el ancho de la apertura es menor que λ, entonces no puede haber un punto nodal. Esto es obvio, ya que ningún punto puede estar más alejado una distancia λ de un lado de la apertura que del otro. Las aperturas de anchos menores a λ se comportan casi como fuentes puntuales. Cuanto más estrechas son, más se parece su comportamiento al de las fuentes puntuales.
Podemos calcular la longitud de onda de una onda a partir del patrón de interferencia donde se superponen las ondas difractadas. Esta es una de las razones principales por las que la interferencia de las ondas difractadas es tan interesante. Al localizar las líneas nodales formadas más allá de un conjunto de aperturas, podemos calcular λ incluso para ondas que no podemos ver. Esta es una manera muy importante de identificar si una serie de rayos desconocidos consisten en eso que solemos llamar partículas o en lo que solemos llamar ondas.

Para el caso la interferencia de dos aperturas, cuanto mayor es la longitud de onda en comparación con la distancia entre las rendijas, más se extiende el patrón de interferencia. Es decir, a medida que λ aumenta o d disminuye, las líneas nodales y antinodales forman ángulos cada vez más grandes con la dirección normal a la línea que forman las rendijas. De manera similar, para la difracción de una sola apertura, el patrón se propaga cuando aumenta la relación de la longitud de onda con el ancho de la apertura. En general, la difracción de longitudes de onda más largas se detecta más fácilmente. Por eso, cuando escuchas a una banda tocar a la vuelta de una esquina, escuchas los bombos y las tubas mejor que los piccolos y las cornetas, incluso si en realidad están tocando con la misma intensidad.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Patrones de difracción se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Difracción de ondas: el principio de Huygens
- Patrón de interferencia en ondas periódicas
- Cuando las ondas se encuentran
El ciclo de una infección
La borreliosis de Lyme es la enfermedad que más se contagia a través de una picadura. La enfermedad se transmite mediante garrapatas infectadas con la bacteria Borrelia. Al menos 365.000 personas en el hemisferio norte se contagian al año y puede ser bastante grave.
La garrapata causante es la conocida popularmente como garrapata dura (la garrapata Ixodidae) cuyo ciclo de vida suele ser de tres años. La infección se desarrolla en la garrapata desde su estadio larvario hasta la edad adulta.

Se ha comprobado que el aumento de temperaturas y la abundancia de alimento, sobre todo bellotas, incide directamente en la población de roedores, principales huéspedes de la ninfa de la garrapata. Las ninfas adquieren las bacterias cuando se alimentan de pequeños roedores ya infectados con la enfermedad y, posteriormente, transmitirán esa enfermedad a los nuevos huéspedes que tenga, incluido los humanos.
———————————-
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
Autora: Ruth Escobar Arranz, alumna del Postgrado de Ilustración Científica de la UPV/EHU – curso 2017/18
Artículo original: La ecología de una enfermedad. Juan Ignacio Pérez Iglesias, Cuaderno de Cultura Científica, 9 de julio de 2017.
———————————-
El artículo El ciclo de una infección se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un ornitisquio emplumado
- La podredumbre noble: Cuando una infección mejora un vino
- La contribución global de los ríos intermitentes al ciclo del carbono
¿2018 un mal año? Los ha habido mucho peores

Bueno, pues ya está. El 31 de diciembre damos por terminado un año más, el 2018 desde que fechamos el nacimiento de Jesús (más o menos) y el que corresponda en la vida de cada uno. ¿Qué tal le ha ido a usted este 2018? ¿Bien? ¡Me alegro! ¿No tan bien? Vaya, lo lamento. Si este es su caso, le traigo dos buenas noticias: la primera, ya la hemos dicho, es que el año ha terminado.
La segunda es que se mire como se mire, 2018 no ha sido un mal año, o no tan malo, en cualquier caso, si lo comparamos con otros años pasados que sí fueron malos. Pero malos, malos, malos.
536, el peor año de la Historia
Por ejemplo el año 536, que según el historiador medieval Michael McCormick merece recibir el título del peor año de la Historia. Casi nada. Ese año una enorme erupción volcánica en Islandia (a la que siguieron otras en 1540 y 1547) cubrió Europa de nubes de ceniza que impidieron que la luz del Sol llegase y calentase el suelo. Nevó en lugares donde no solía hacerlo, como China, las cosechas no salieron adelante, hubo hambrunas y enfermedades que diezmaron a la población del antiguo imperio romano.
Para rematar la faena, en 541 surgió y comenzó a extenderse una plaga de peste bubónica que en 2 años había terminado con entre el 35 y el 50% de la población del Mediterráneo, acelerando la caída del imperio romano del Este.
Si bien los años de oscuridad estaban recogidos en documentos de la época, la causa fue descubierta por el equipo de McCormick este 2018 analizando los contaminantes atrapados en el hielo de Groenlandia y la Antártida hace siglos.
¿Verdad que su 2018 de pronto no parece tan malo?
1520: la viruela llega a América
Pero espere, que le traigo algún otro ejemplo. Podemos, por ejemplo, poner la vista en 1520 y la década a la que ese año dio comienzo. Ese año, cuando la conquista de las Américas por parte de los Europeos se encuentra en pleno frenesí, el virus de la viruela cruza el Atlántico y llega por primera vez a México. A causa de su aislamiento en los siglos anteriores, las poblaciones americanas no habían sufrido enfermedades provenientes del ganado europeo. Esta fue su primera vez.

Se calcula que costó la vida de entre 3 y 3,5 millones de indígenas y que fue un factor clave en la conquista española de muchas ciudades, como Tenochtitlan. Según algunos historiadores, sin la viruela y otras enfermedades víricas que llevaron los españoles, algunos hechos históricos habrían ocurrido de otra manera, como por ejemplo la victoria de Francisco Pizarro con 120 soldados sobre los 80,000 soldados indígenas de Atahualpa.
Así que dependiendo de dónde le hubiese tocado vivir, 1520 también habría sido un año terrible.
1914 y 1918: el hombre (y los virus) contra el hombre
Tenemos otros ejemplos más cercanos. Por ejemplo 1914. Ese año dio comienzo la Primera Guerra Mundial y aunque Europa ya había tenido previamente generosas dosis de guerras y matanzas, nada nos había preparado para algo así: las grandes potencias del mundo alineadas en dos bandos enfrentados con la tecnología más puntera del momento a su alcance pensada para matar cuanto más, mejor. Lo que hasta entonces era un continente próspero quedó convertido en ruinas y regado de muertos. Y entre ellos, los jóvenes de todos los países involucrados, que ya no pudieron volver para convertirse en ciudadanos productivos.

La Primera Guerra Mundial no fue solo un conflicto destructivo, también sentó las bases de lo que vendría después: el auge de los fascismos en Europa (¿le suena esto de algo?), la Segunda Guerra Mundial, la Guerra Fría, las guerras de Vietnam y Corea… Vivir en 1914 no solo supuso las penurias de la guerra, también la frustración de ver que el ser humano rara vez aprende de sus errores.
Claro que si 1914 fue un mal año para vivir, probablemente 1918 lo fue aun más. No solo Europa había vivido ya 4 años de guerra total con millones de muertos entre las ruinas, es que en ese momento otro enemigo, mucho más pequeño pero imparable puso pie en escena: una pandemia de influenza o gripe española causó ese año entre 40 y 100 millones de muertos. A diferencia de otros brotes de gripe que afectan principalmente a niños ancianos, está atacó también a jóvenes y adultos saludables, así como a perros y gatos.

No está claro el origen del brote, aunque sí se sabe que no fue España a pesar de su nombre. La pandemia se llamó gripe española ya que fue la prensa de nuestro país la que más atención le dedicó, ya que España no participaba en la guerra y no se censuraron las noticias al respecto.

No está claro qué hizo de esta versión de la gripe un asesino tan eficaz. Algunos historiadores sugieren, a partir de los documentos científicos de la época, que no es que este tipo de gripe fuese más infeccioso que otros, sino que las condiciones en las que se encontraba la población europea en aquel momento (malnutrición, hacinamiento, falta de higiene…) se lo puso mucho más fácil.
1945: siempre podemos hacernos más daño
No podemos dejar de mencionar en esta lista 1945. Todos los años que van de 1939 a 1945 fueron duros para ser vividos especialmente en los países que participaron directamente en la Segunda Guerra Mundial, y más aun para los que vivían bajo regímenes totalitarios en los que las diferencias era perseguidas y aniquiladas. Miles de personas asesinadas, heridas y traumatizadas, masas de gente desplazada y cicatrices físicas y mentales que tardarían décadas en desaparecer, si es que algunas cicatrices pueden desaparecer alguna vez. Si citamos en concreto 1945 es porque la explosión de dos bombas nucleares en Japón son el símbolo perfecto de todo el empeño que podemos llegar a poner en hacernos un poquito más de daño.

1582: a este año le faltan 10 días
Si a usted estas catástrofes humanas y naturales, acostumbrado a leerlas en libros de historia y a verlas en las películas, ya no le conmueven quizá pueda convencerle de que mucho peor que el 2018 fue el año 1582. Ese año se instauró el calendario gregoriano, según el cual al 4 de octubre le siguió el 15 de octubre, haciendo desaparecer 10 días para compensar el desfase del anterior calendario juliano. Con lo que nos cuesta a algunos el cambio de hora, imagínese el caos de acostarse un día y levantarse 10 días después.
En resumen, queridos lectores, mucho ánimo con el año que acaba de empezar y muchos deseos de que lo que venga sea, siempre, mejor que lo que se va. Y si no, piense que podría ser peor. Al menos, no vivimos en el año 536.
Referencias:
Why 536 was ‘the worst year to be alive’ – Science
Epidemia de viruela en Tenochtitlán – Wikipedia
Perspectiva histórica de la viruela en México: aparición, eliminación y riesgo de reaparición por bioterrorismo – Gaceta médica de México
“La viruela y el sarampión fueron perfectos aliados en el éxito de conquista española de América” – Agencia Sinc
The Deadly Virus. The Influenza Epidemic of 1918 – The National Archives
An Epidemic of Pneumococcus Bronchopneumonia – The Journal of Infectious Disease
1582 – Wikipedia
Pragmática de los diez días – Biblioteca digital mundial
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo ¿2018 un mal año? Los ha habido mucho peores se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Mucho más hermoso
- Los padres mienten a sus hijos… mucho y en todo el mundo
- #Naukas15 Somos mucho más que dos
Un ornitisquio emplumado
El Kulindadromeus zabaikalicus, un pequeño herbívoro del Jurásico, fue descubierto en 2014 en Kulinda, Rusia, por el paleontólogo Pascal Godefroit y su equipo.

Hasta ahora se ha sabido de la existencia de dinosaurios emplumados en saurisquios, el grupo de dinosaurios del que descienden las aves. Sin embargo, este pequeño dinosaurio pertenece al segundo gran grupo en el que se clasifican los dinosaurios: los ornitisquios. Además, se trata de un ser primario dentro de este grupo, por lo que el plumaje podría ser algo que el resto de los dinosaurios del grupo podrían haber heredado.
———————————-
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
Autor: Álvaro Gutiérrez Martín, alumno del Postgrado de Ilustración Científica de la UPV/EHU – curso 2017/18
Artículo original: Las plumas estaban en los dinosaurios desde el principio. @paleofrank, Cuaderno de Cultura Científica, 25 de julio de 2014.
———————————-
El artículo Un ornitisquio emplumado se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El duelo de los pecaríes
- El mecanismo de la vida, mejor vídeo de divulgación joven “On zientzia”
- Las aves de Prometeo
Tamaño del encéfalo e inteligencia

El encéfalo de los primates aumentó de tamaño en el curso de la evolución; también el de los homininos, grupo al que pertenece nuestra especie. Homo habilis, que vivió hace unos 2 millones de años, tenía un encéfalo de unos 600 ml de volumen, no mucho mayor que el de los chimpancés –nuestros parientes más próximos-, que es inferior a 500 ml. El de Homo erectus, que vivió entre hace 1,8 millones y 600.000 años, era de unos 900 ml, y el nuestro tiene alrededor de 1350 ml.
Con el transcurso del tiempo, a la vez que aumentó el tamaño encefálico, también varió la importancia relativa de unas áreas por comparación con las de otras. Experimentaron una expansión mayor las que integran y procesan información procedente del resto de áreas encefálicas, o sea, las que desempeñan funciones consideradas de mayor nivel. Y lo mismo ocurre si se compara el encéfalo de adultos y el de niños de corta edad. Al crecer no se desarrollan de la misma forma unas regiones y otras, sino que son las que realizan tareas de integración superior las que, al crecer, experimentan un mayor crecimiento relativo.
Pero resulta que puede haber importantes diferencias en el tamaño encefálico de personas de la misma edad, y las diferencias no se limitan solamente al tamaño; también difieren en la proporción relativa de unas áreas y otras. En otras palabras, ciertas regiones son proporcionalmente mayores en los encéfalos más grandes. Y se da la circunstancia, por otro lado, de que son las mismas que crecen relativamente más a lo largo del desarrollo de las personas y que más han aumentado de tamaño en el curso de la evolución. Se trata, en concreto, de redes corticales de los lóbulos parietal y frontal, así como de ciertas regiones subcorticales relacionadas. Son áreas que integran información de múltiples procedencias, áreas “que piensan”. A cambio, en los encéfalos de mayor tamaño ocupan un menor espacio relativo regiones implicadas en la elaboración de emociones -como el sistema límbico-, así como las dedicadas a procesar información sensorial –áreas sensoriales- y a generar los impulsos que provocan la ejecución de movimientos, las áreas motoras.
Además de lo anterior, las áreas que experimentan un mayor crecimiento relativo conforme progresa el desarrollo encefálico y que ocupan un mayor espacio en los cerebros más grandes son regiones especialmente dotadas estructural y funcionalmente para establecer conexiones de largo alcance con otras zonas de la corteza cerebral. Y son áreas que experimentan, además, un mayor gasto energético, puesto que están formadas por células más activas que el resto, lo que conlleva más consumo de oxígeno, mayor gasto de glucosa, y mayor actividad metabólica.
Ahora bien, ¿significa esto que las personas con encéfalos más grandes son más inteligentes? No parece ser el caso, no al menos en una medida significativa. Es cierto que si se considera la historia de nuestro linaje cabe suponer que los seres humanos actuales somos más inteligentes que los pertenecientes a especies anteriores a la nuestra, como H. habilis o H. erectus. Pero cuando se analiza la variación del cociente de inteligencia (IQ) con el tamaño encefálico se observa que éste solo explica un 5% de la variación de IQ.
Es posible que las diferencias de tamaño puedan, en determinadas comparaciones, estar asociadas con ligeras diferencias en alguna capacidad intelectiva en concreto. Pero no olvidemos que aunque hombres y mujeres tenemos tamaños encefálicos algo diferentes, no hay diferencias de inteligencia entre los dos sexos. O que los neandertales tenían un encéfalo aún mayor que el nuestro y, muy probablemente, no eran más inteligentes.
Fuente: P. K. Reardon et al., Science doi:10.1126/science.aar2578 (2018)
——————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 21 de octubre de 2018.
El artículo Tamaño del encéfalo e inteligencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Sistemas nerviosos: evolución del tamaño de las regiones encefálicas
- El gran encéfalo humano es un “encéfalo social”
- El nivel socioeconómico familiar influye en el desarrollo del encéfalo infantil
El error como ocasión de aprendizaje
Las pruebas de la educación es un evento que en su tercera edición tuvo lugar por primera vez en Donostia-San Sebastián, el pasado 9 de noviembre, en el Centro Carlos Santamaría de la UPV/EHU, organizado por el Consejo Escolar de Euskadi, con la colaboración de la Cátedra de Cultura Científica de la UPV/EHU.
Este evento tiene el objetivo de abordar distintos temas educativos desde la evidencia científica. Para ello, reúne a personas del ámbito educativo para que expliquen y debatan acerca de las pruebas (o su ausencia) que sustentan las afirmaciones, propuestas y prácticas educativas que están en boga o, en su caso, las pruebas que sustentan otras posibles prácticas. La dirección del evento corrió a cargo de la doctora en Psicología Marta Ferrero.
La jornada concluye con la charla de Gregorio Luri, maestro y licenciado en pedagogía, con numerosos premios y publicaciones en su haber, que nos habla del el error como ocasión para el aprendizaje: “En un diálogo educativo el que gana es el que pierde, porque es el único que ha aprendido algo”; “El niño suele dar una respuesta correcta a la pregunta que se hace él mismo. La diferencia entre esta pregunta y la que le ha dirigido el profesor marca con precisión la carga cognitiva de su aprendizaje”.
Edición realizada por César Tomé López
El artículo El error como ocasión de aprendizaje se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El papel de la memoria en el proceso de enseñanza-aprendizaje
- Del mito al hecho: hemisferios, gimnasia cerebral y estilos de aprendizaje
- Cómo destruir un buen sistema de educación. El ejemplo sueco
Puntos cuánticos encapsulados con fluorescencia de meses

La nanotecnología y la nanociencia son disciplinas en las que se diseñan, fabrican y estudian estructuras moleculares de diminutas dimensiones con propiedades físicas y químicas especiales. Uno de los tipos de partículas que se estudian en estas disciplinas son los puntos cuánticos, unos nanocristales semiconductores de un tamaño que oscila entre los 2 nm y los 10 nm, que tienen excelentes propiedades ópticas y electrónicas. Entre ellas, cabe destacar que emiten luz de colores diferentes dependiendo de su tamaño, es decir, “varía la longitud de onda de emisión variando únicamente el tamaño del nanocristal, sin modificar su composición”, explica Alicia de San Luis, investigadora de Polymat y autora del trabajo.
Sus propiedades hacen que los puntos cuánticos puedan ser útiles para diversas aplicaciones como la detección en biomedicina, la producción de placas solares y LEDs, el uso como sensores de compuestos orgánicos volátiles (COVs) y como fotosensibilizadores. Sin embargo, ”también hay que tener en cuenta sus inconvenientes: son difíciles de manipular, por su pequeño tamaño, y son tóxicos, dado que los puntos cuánticos de mayor calidad están mayoritariamente compuestos por metales pesados”, apunta la investigadora.
Para sacar el mayor partido a las excelentes propiedades ópticas de estas nanopartículas, pero sin olvidar los problemas de toxicidad que presentan, en el instituto de investigación Polymat de la UPV/EHU han conseguido encapsular eficientemente puntos cuánticos comerciales en partículas de polímero dispersas en agua, manteniendo la fluorescencia de los puntos cuánticos durante largos periodos de tiempo. “El principal objetivo era encapsular los puntos cuánticos en partículas de polímero un poco más grandes, para protegerlos y facilitar, a su vez, su manipulación sin que perdieran sus propiedades”, apunta la autora de la investigación. “Hemos puesto en marcha un método sencillo con buenos resultados: partículas de polímero con fluorescencias estables durante un mínimo de 9 meses”, añade.
Una vez alcanzado el primer objetivo, “el siguiente paso fue lograr la encapsulación de combinaciones de puntos cuánticos de diferentes tamaños para crear un código de barras que se pudiera utilizar para la detección múltiple en sistemas biológicos”, explica. Así, han conseguido controlar la fluorescencia de estas combinaciones, ya que utilizando puntos cuánticos que emiten a diferentes longitudes de onda, “se pueden detectar sus señales simultáneamente, sin que se superpongan una a otra”. Esto puede servir para detección biomédica, ya que existe la posibilidad de modificar la superficie de la partícula de polímero con diferentes analitos (o diferentes anticuerpos o antígenos). En opinión de la investigadora, “se trata de una técnica de detección bastante potente, sencilla y rápida. La mayoría de los laboratorios cuentan con un fluorímetro, y, además, no habría que esperar días para procesar la muestra”.
Por otra parte, también han investigado la combinación de los puntos cuánticos con otras nanopartículas inorgánicas (CeO2), coencapsulándolas en las mismas partículas de polímero. En este estudio han podido observar “un incremento de la emisión de fluorescencia durante el tiempo de exposición a la luz solar”.
Por último, en la investigación se ha abordado la posible aplicabilidad de diversas combinaciones sintetizadas como sensores ópticos y eléctricos de compuestos orgánicos volátiles (COVs), mediante la producción de nanofibras y su posterior contacto con COVs. Esta parte de la investigación, está llevándose a cabo en colaboración con Tecnalia. “En este caso trabajamos tanto en fluorescencia como en medidas de conductividad de las nanofibras”, explica Alicia de San Luis.
Referencia:
A. de San Luis et al (2018) Toward the minimization of fluorescence loss in hybrid cross-linked core-shell PS/QD/PMMA nanoparticles: Effect of the shell thickness Chemical Engineering Journal doi: 10.1016/j.cej.2016.12.048
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Puntos cuánticos encapsulados con fluorescencia de meses se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Nanocompuestos poliméricos funcionalizados con puntos cuánticos
- Simuladores cuánticos de sistemas complejos
- Cómo de cuánticos son los fenómenos cuánticos en los seres vivos
El legado de Fisher y la crisis de la ciencia

En 2005, John Ioannidis, prestigioso profesor de medicina de la Universidad de Stanford, publicó uno de los artículos más citados e influyentes de la literatura científica: Why Most Published Research Findings are False (Por qué la mayor parte de los resultados de investigación son falsos). Posteriormente, se acuñó el término “crisis de replicabilidad” para referirse al hecho de que un gran número de estudios científicos (especialmente en ciencias sociales y medicina) no han podido ser replicados, algo fundamental en ciencia. Este problema ha saltado a la opinión pública en diversas ocasiones, como cuando en mayo de 2016 una encuesta de la revista Nature desvelaba que el 90% de los científicos reconocen que esta crisis existe.
Muchos de los análisis apuntan, como Ioannidis, a que gran parte del problema reside en que muchos resultados de investigación no siguen un buen estándar de evidencia científica, lo cual se deriva de un mal uso o una mala interpretación de los métodos estadísticos utilizados. En particular, los contrastes de hipótesis y los p-valores están en el ojo del huracán. Estas herramientas son ampliamente usadas en campos como psicología y medicina en los que las preguntas típicas de investigación tienen una estructura similar, del tipo ¿es B diferente a A? Por ejemplo, obtengo un nuevo fármaco y quiero saber si tiene un efecto más allá del placebo, o quiero comprobar si un nuevo tratamiento es superior a otro. Las metodologías son asimismo similares, y consisten en medir el efecto en un grupo de sujetos con respecto a otro grupo de control. Y ahí es donde entra en juego la estadística.
Pero ¿qué es un contraste de hipótesis y un p-valor? ¿Qué es la significancia estadística y qué es eso de “p
La ciencia es un ejercicio de inferencia inductiva, esto es, hacemos observaciones y tratamos de inferir reglas generales que las expliquen. Esto es lo contrario a lo que hacen las matemáticas, que a partir de un conjunto de reglas generales deducen resultados particulares, y estos son ciertos por definición si la deducción es formalmente correcta. La inducción es más compleja y requiere la acumulación de evidencia, por lo que nunca podemos estar completamente seguros en sentido estricto. En los años 20 del siglo pasado, Ronald Fisher abogó por evitar el problema filosófico de la inducción al promover métodos que cambian la pregunta de investigación para convertir la inducción en deducción. En lugar de responder ¿es B diferente a A?, suponemos que A y B son iguales, deducimos lo que esperaríamos observar y lo comparamos con lo observado.
Esta aproximación frecuentista se materializa en lo que se conoce como contrastes de hipótesis. En ellos se define una hipótesis nula (A y B son iguales) contraria a lo que se pretende demostrar (A y B son distintos) y se calcula un estadístico llamado p-valor que representa la probabilidad de obtener los datos observados (u otros más raros). En el uso común, si la probabilidad es suficientemente baja (típicamente menor que 0.05, el 5%, lo cual es un límite completamente arbitrario), se dice que hay significancia estadística y se acepta que las observaciones son suficientemente raras dada la hipótesis nula. Por tanto, se rechaza la hipótesis nula y se abraza la hipótesis alternativa en su lugar.
El p-valor es probablemente uno de los conceptos más escurridizos y malinterpretados de la estadística. A menudo lleva a falsos descubrimientos y afirmaciones directamente incorrectas en las que continuamente caen incluso los expertos, hasta tal punto que la American Statistical Association se vio en la obligación en 2016 de publicar una declaración oficial con una guía sobre qué son (y qué no son) los p-valores, sobre qué se puede afirmar con ellos y para qué se pueden utilizar. Algunas voces van más allá y afirman que si incluso aquellos versados en estadística a menudo utilizan mal y malinterpretan un método, significa que este es defectuoso en esencia.
Desde luego, la maniobra popularizada por Fisher es brillante, y los métodos son sencillos y metodológicamente atractivos, pero, aparte de las dificultades de interpretación,se esconden graves problemas que cuestionan su aplicación indiscriminada. Fundamentalmente, como hemos dicho, la pregunta de investigación cambia, por lo que no se responde a lo que verdaderamente nos interesa, i.e., ¿es B diferente a A, dados estos datos? En su lugar, se responde a cómo de raros son los datos si damos por bueno que A=B: ¡hemos dado la vuelta al objetivo!
En definitiva, el contraste de hipótesis se basa en recolectar evidencia indirecta en contra de una hipótesis nula, no evidencia directa a favor de la hipótesis alternativa, que es lo que se pretende comprobar realmente. Según los usos comunes, cuando no se encuentra evidencia en contra de la hipótesis nula (p-valor alto), esta se suele aceptar, lo cual es incorrecto: el mismo Fisher argumentaba que un p-valor alto significa que no aprendemos nada de las observaciones, y que por tanto solo significa que se requieren más datos. Por otro lado, cuando sí se encuentra evidencia en contra de la hipótesis nula (p-valor bajo), no solo se rechaza esta, sino que se acepta la hipótesis alternativa, lo que es todavía más problemático.
Como ya puso de manifiesto Jacob Cohen en su clásico artículo The earth is round (p , allá por 1994, esta especie de prueba por contradicción funciona bajo las reglas de la lógica en las que las afirmaciones son ciertas o falsas, sin ningún tipo de incertidumbre: “si la hipótesis nula es correcta, estos datos no serían posibles; tenemos estos datos, luego la hipótesis es falsa”. Pero la naturaleza probabilística de los fenómenos que estudia la ciencia añade una incertidumbre que vuelve el razonamiento inválido: “si la hipótesis nula es correcta, estos datos serían poco probables; tenemos estos datos, luego la hipótesis es poco probable”. Antes que Cohen, Pollard y Richardson desmontaron esta aparente transitividad de la improbabilidad con un simple ejemplo concreto: “si una persona es americana, probablemente no es miembro del Congreso; esta persona es miembro del Congreso, luego no es americana”.
El famoso artículo de Ioannidis de 2005 causó una gran impresión en la opinión pública, pero no debería sorprender a ningún científico. Como hemos visto, ya en 1994 Cohen se quejaba amargamente de que, tras cuatro décadas de duras críticas, el método de Fisher y ese criterio sagrado de “p decía del mágico y arbitrario valor “p
Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute
El artículo El legado de Fisher y la crisis de la ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La ciencia y la duda
- “Ciencia y crisis, ¿examen de conciencia?” por Luis A. Martínez Sáez
- Ciencia: es complicado
El tobogán parabólico de Garching
A finales del mes de noviembre, mi hermana Inés me mandaba unas fotos de la revista Ling que estaba ojeando en el avión de vuelta a Barcelona. Quería mostrarme un reportaje que hablaba del Parabelrutsche, un singular tobogán “muy matemático” situado en el interior de uno de los edificios de la Universidad Técnica de Múnich. Me pareció una propuesta muy ingeniosa, así que me puse a buscar información.

El proyecto Kunst am Bau –Arte dentro del edificio– es una iniciativa que deben seguir los edificios públicos en Alemania. Las leyes alemanas obligan al utilizar un porcentaje de los costos de edificación de las construcciones estatales –normalmente un 1%– al arte en cualquiera de sus formas. Es parte de su responsabilidad en la promoción de la cultura arquitectónica.
Teniendo en cuenta esta norma, en 2002, la Universidad Técnica de Múnich eligió las Facultades de Matemáticas e Informática del campus de Garching para combinar ciencia y arte. El equipo formado por los artistas Johannes Brunner y Raimund Ritz ganó el concurso de ideas lanzado por la universidad con un proyecto insólito para un centro universitario: dos enormes toboganes uniendo el tercer piso y la planta baja –separados por trece metros de altura– del edificio.
Pero estos toboganes no poseen una forma estándar. En realidad, la propuesta artística tiene muchas ideas matemáticas subyacentes. Esos toboganes son en realidad las dos partes de una formidable parábola hueca colocada en el vestíbulo del edificio, dos inmensos tubos curvos de acero que permiten evitar las escaleras y ahorrar tiempo.
Parece que la primera idea de Brunner y Ritz fue la de construir una escalera parabólica; pero la pendiente era demasiado brusca, incumpliendo las normas de seguridad. Así que no podía realizarse. Optaron entonces por un tobogán parabólico: dos piezas de aluminio, dos conductos huecos y curvos de un metro de diámetro, formando la parábola de ecuación z = y = x² h/d², donde xyz representa las coordenadas cartesianas del espacio, h es la altura desde la planta baja hasta la entrada en los toboganes (en el tercer piso) y d es la distancia (en horizontal) entre la entrada al tobogán en el tercer piso y la salida en la planta baja (ver la imagen 2).

Para descender por los toboganes, unas alfombrillas deslizantes están a la disposición de toda aquella persona que decida utilizar este “transporte rápido”. Usarlas evita rozaduras y el descenso es eficaz, ya que el interior de los tubos está revestido por un material antideslizante.
El Parabelrutsche forma ya parte del paisaje de este edificio universitario. Parece que su utilización es impecable: un cartel anuncia en las entradas de los toboganes que su mal uso puede llevar a la retirada de la matrícula o a la expulsión de la universidad.
Además de ser un remplazo a las “aburridas” escaleras, esta magnífica escultura “suaviza” el “frío” aspecto del interior del edificio. He leído que, antes de colocar el Parabelrutsche, algunas y algunos estudiantes comparaban la apariencia del edificio alojando las Facultades de Matemáticas e Informática con la de la cárcel de Alcatraz. La verdad, sí que la recuerda un poco…
Referencias:
Daniel Martorell, ‘Mates’ al servicio del arte, Revista Ling, noviembre 2018, págs. 38-41
Parabelrutsche am Neubau Mathematik/Informatik der TUM auf dem Campus Garching, TUM
Imágenes del tobogán parabólico, TUM
Parabelrutsche, TUMcampus, Das Magazin der Technischen Universität München 2, 2018, pág. 63
Projekte am Bau, 2002 Parabel, Brunner/Ritz
Parabelrutsche: Is This the Coolest Slide in the World? , Kuriositas, 8 junio 2013
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo El tobogán parabólico de Garching se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El investigador fantasma: ¿P=NP?
- Patatas ‘perfectas’ con el método ‘Edge Hotel School’
- Zorn, su lema y el axioma de elección
Difracción de ondas: el principio de Huygens
A diferencia de de las pelotas de tenis, las balas, y otras trozos de materia en movimiento, las ondas sí puden rodear una esquina. Por ejemplo, podemos oír una voz que viene desde el otro lado de una colina, a pesar de que no haya nada que refleje el sonido hacia nosotros. Estamos tan acostumbrados al hecho de que las ondas de sonido sean capaces de hacer esto que ni nos damos cuenta. Esta propagación de la energía de las ondas a lo que cabría esperar que fuese una región inaccesible se llama difracción. De nuevo, las ondas en el agua ilustran este comportamiento con mayor claridad. Seguro que ahora ves esta fotografía de otra manera.

La fotografía muestra uno de los casos en los que se produce difracción; en ella vemos que las ondas en el agua se difractan a medida que pasan a través de una apertura estrecha ranura en una barrera. Añadamos que el tamaño de la apertura es menos de una longitud de onda de ancho. Observemos que la ranura es menor que una longitud de onda de ancho. La onda aparece en la laguna y se propaga en todas direcciones. Si observamos el patrón de la onda difractada vemos que es básicamente el mismo patrón que establecería una fuente puntual de vibración si se coloca donde está la ranura apertura. Quizás lo veamos mejor con la ayuda de un esquema:

Veamos ahora la posibilidad de que, en vez de una, tengamos dos aperturas estechas. De lo que hemos visto para una apertura cabe esperar lo que se observa realmente, esto es, que el patrón resultante que forman las ondas difractadas en ambas rendijas es el mismo que el producido por dos fuentes puntuales que vibran en fase. Así lo ilustró Thomas Young en su comunicación a la Royal Society al respecto en 1803:

De forma general, si hay n aperturas estrechas (menores que una longitud de onda) en una barrera, el patrón de ondas observado después de la barrera se corresponde con el que habría en el medio si hubiese n fuentes puntuales en fase, cada una en la posición de una apertura.
Pero, ¿por qué ocurre esto?
Podemos describir estos y todos los demás efectos de la difracción a partir de una característica básica de las ondas. Esta característica se conoce como principio de Huygens, ya que la expresó por primera vez Christiaan Huygens en 1678. Necesitamos para entenderlo un concepto previo, el de frente de onda. Para una onda en el agua, un frente de onda es una línea imaginaria a lo largo de la superficie del agua, con cada punto a lo largo de esta línea exactamente en la misma fase de la vibración; es decir, todos los puntos de la línea están en fase. Dicho de otra manera y en general: un frente de onda es el lugar geométrico de todos los puntos adyacentes en los que la perturbación está en fase. Así, las líneas de cresta son frentes de onda, ya que todos los puntos de la superficie del agua a lo largo de una línea de cresta están en fase. Cada uno acaba de alcanzar su máximo desplazamiento hacia arriba, está momentáneamente en reposo, y comenzará a bajar un instante más tarde.
Como las ondas de sonido no se propagan sobre una superficie sino en tres dimensiones, sus frentes de onda no forman líneas sino superficies. Los frentes de onda para las ondas de sonido emitidas desde un fuentes muy pequeñas son superficies casi esféricas, de a misma forma que los frentes de onda de las ondulaciones en el agua a partir de una fuente muy pequeña son círculos.
El principio de Huygens, puede expresarse así: cada punto de un frente de onda puede considerarse que se comporta como una fuente puntual de ondas generadas en la dirección de propagación de la onda original y con su misma velocidad y frecuencia. Traduciendo libremente a Huygens:
Existe la consideración adicional en la emanación de estas ondas de que cada partícula de materia en la que una onda se propaga, no debe comunicar su movimiento solamente a la siguiente partícula que está en la línea recta trazada desde la [fuente], sino que también impartirá algo de él necesariamente a todas las otras que la tocan y que se oponen ellas mismas a su movimiento. Así ocurre que alrededor de cada partícula se crea una onda de la que la partícula es el centro.
Seguiremos explorando las consecuencias del principio de Huygens en próximas entregas.
Como ilustración musical, aquí vemos como Leonora confunde, olvidando el principio de Huygens, las ondas difractadas emitidas originalmente por Manrico (fuera de escena) como si hubiesen sido emitidas por el Conde de Luna (en escena), con trágicas consecuencias.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Difracción de ondas: el principio de Huygens se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cuando las ondas se encuentran
- Patrón de interferencia en pulsos de ondas
- Patrón de interferencia en ondas periódicas
La motilidad estomacal
El estómago tiene una capacidad enorme para albergar cantidades muy diferentes de alimento, para lo cual puede modificar su volumen con facilidad. Algunos casos, como el de muchas sanguijuelas, son extraordinarios: en media hora pueden ingerir una cantidad de sangre equivalente a nueve veces su masa corporal. Eso sí, necesitan días para digerirla y puede que no vuelvan a comer hasta pasados unos meses, años o nunca.

Sin llegar a esos extremos, el estómago humano también tiene una capacidad muy variable: su volumen interno va de los 50 ml, cuando está vacío, a albergar 1 l tras la comida. Multiplica por 20 su volumen al comer. Su interior contiene pliegues profundos que, al comer, se van haciendo cada vez más pequeños conforme el estómago se va relajando. A este fenómeno se le denomina relajación receptiva y permite albergar un volumen importante de comida sin que la presión se eleve demasiado en el interior del estómago.
Un conjunto de células intersticiales de Cajal (células marcapasos, aunque no son contráctiles) ubicadas en la parte superior del estómago generan un ritmo eléctrico básico (a razón de tres ondas por min, aproximadamente) que se extiende hacia abajo hasta alcanzar el esfínter pilórico. Dependiendo del grado de excitabilidad de la musculatura lisa del estómago, esa actividad eléctrica puede dar lugar a potenciales de acción que, a su vez, generarían las correspondientes ondas de contracción peristáltica al mismo ritmo que el básico de las células marcapasos.
La musculatura lisa es relativamente fina en la zona superior (fundus) y media (cuerpo), pero es gruesa en la zona inferior (antro), por lo que las contracciones son leves en el fundus y fuertes en el antro. El fundus no suele contener más que algo de gas, el cuerpo cumple la función de almacenamiento, y la mezcla se produce en el antro. De hecho, son las contracciones fuertes de su musculatura lisa las que posibilitan que se mezclen las secreciones gástricas con la comida, formándose así el quimo. Ello ocurre cuando el esfínter pilórico se encuentra cerrado. En ese caso, al no poder pasar al duodeno, el quimo retrocede produciéndose así la mezcla. Ahora bien, si el píloro no está del todo cerrado, deja pasar parte del quimo hacia duodeno y de ahí al intestino delgado. Normalmente solo deja pasar agua y partículas de menos de 2 mm de diámetro. Tanto la intensidad de las contracciones estomacales como el estado del esfínter pilórico están sometidos a la influencia de diferentes factores tanto dependientes del estómago como del duodeno. Veremos a continuación esos factores y cómo contribuyen a regular la función digestiva.

Los dos principales factores que influyen en la fuerza de la contracción peristáltica son la cantidad y fluidez del quimo. Cuanto mayor es el volumen de quimo, más rápidamente es evacuado al duodeno. De hecho, la motilidad gástrica aumenta en respuesta a la distensión estomacal, y lo hace a través de varios mecanismos: efecto directo del grado de estiramiento del músculo liso sobre sí mismo, intervención del plexo nervioso intrínseco, del nervio vago (división parasimpática) y de la gastrina (hormona estomacal). Ahora bien, si el duodeno no se encuentra en condiciones de recibir más quimo, éste no pasará aunque el estómago esté muy lleno. Las condiciones que provocan una inhibición del vaciado gástrico son las siguientes:
- El principal factor que impide el paso del quimo al duodeno es la presencia de grasa. Dado que es el sustrato más difícil de digerir, es el último en ser digerido y absorbido. Por esa razón, hasta que toda la grasa no ha sido procesada, no pasa más quimo; su presencia en el duodeno inhibe la motilidad gástrica.
- Por otro lado, la gran acidez del quimo recién salido del estómago se neutraliza en el duodeno con bicarbonato sódico procedente del páncreas. De otro modo, el ácido irritaría el epitelio duodenal. Por esa razón, la acidez duodenal inhibe el vaciado del contenido gástrico hasta que tal acidez es neutralizada.
- Otro factor inhibidor es la hipertonicidad del contenido duodenal. La digestión de proteínas y carbohidratos da lugar a la aparición de numerosas moléculas de aminoácidos (también dipéptidos) y de azúcares simples; tales moléculas ejercen un efecto osmótico muy superior al de las macromoléculas de las que proceden. Por ello, si no son absorbidas con la suficiente celeridad, su acumulación en la luz duodenal provocaría flujo osmótico de agua desde el medio interno, lo que debe ser evitado porque puede entrañar riesgo de deshidratación. Por esa razón, también una concentración osmótica elevada en el duodeno inhibe el vaciado estomacal.
- La distensión duodenal también incide sobre el vaciado del estómago. Un exceso de distensión, por sí mismo, indica que el duodeno se encuentra lleno, por lo que ha de vaciarse antes de poder aceptar más quimo del estómago. Y lo mismo ocurre cuando esa distensión obedece al flujo de osmótico de agua al que nos hemos referido antes.
Los mecanismos a través de los que se produce la regulación son nerviosos y hormonales, y en ambos casos actúan inhibiendo la evacuación gástrica. En la respuesta nerviosa pueden participar los plexos nerviosos intrínsecos (reflejo corto) y los nervios del sistema autónomo (reflejos largos). Se les denomina de forma conjunta reflejo enterogástrico. Y la respuesta hormonal se produce mediante la liberación desde la mucosa duodenal de varias hormonas denominadas genéricamente enterogastronas. Llegan al estómago a través de la sangre. Se han identificado tres enterogastronas: secretina, colecistoquinina (CCK) y péptido inhibidor gástrico (o péptido insulinotrófico dependiente de glucosa).
Por último, hay factores independientes de la digestión en sí que pueden afectar a la motilidad gástrica. Bajo condiciones de estrés, por ejemplo, la motilidad del estómago se puede ver modificada porque su musculatura lisa se encuentra bajo el control de los nervios del sistema autónomo. Se trata de efectos que varían de unos animales a otros por lo que no hay un modelo común de respuesta, aunque en general el miedo tiende a reducir la motilidad y las emociones agresivas a aumentarla. El dolor intenso también reduce la motilidad, aunque su efecto no se limita al estómago ya que lo hace en todo el sistema digestivo.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La motilidad estomacal se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El estómago (u órgano equivalente)
- Faringe, esófago y buche
- Peces capaces de respirar en aire y anfibios
El caso de Wolfgang Amadeus Mozart

Tenía 35 años, 10 meses y 8 días cuando murió. O eso aseguran las crónicas. Fue en Viena, la ciudad en que triunfó y le dio fama. Era el 5 de diciembre de 1791. Había nacido en Salzburgo en 1750, el 27 de enero. Y su muerte o, mejor, la causa de su muerte es un enigma y provoca un intenso debate. Se llamaba Wolfgang Amadeus Mozart y, Wikipedia dice, es uno de los músicos más influyentes y destacados de la historia. Y su muerte se ha convertido en un mito.
Era joven, 35 años, pero unos meses antes de su muerte, en septiembre, se sintió mal. Y un mes más tarde, en octubre, paseando con su mujer Constanze por el Prater de Viena, se sintió mal y desfallecido, sentado en un banco, le dijo a su mujer que alguien le estaba envenenando. En noviembre empeoró y, ya en cama, sufrió hinchazón, dolores y vómitos. El 5 de diciembre perdió el conocimiento y, de madrugada, murió.
La historia clínica de Mozart está llena de enfermedades, algo habitual en aquella ápoca. En la misma familia del músico, de siete hermanos solo sobrevivieron dos. Según Martin Hatzinger y sus colegas, del Hospital Markus de Frankfurt, Mozart había tenido escarlatina, anginas, tifus, reúma, viruela, gripe, cólicos renales, hipertensión y depresión.
A pesar de tanta enfermedad, su muerte, inesperada en alguien tan joven, provocó dudas y fue la base de muchas hipótesis desde que ocurrió. En el certificado de defunción se menciona como causa lo que se podría traducir como una “fiebre aguda con erupciones cutáneas”, términos muy generales que no ayudan a identificar el mal según la medicina actual.
Después de más de dos siglos de hipótesis y debates, hay quien ha revisado lo publicado hasta ahora y ha recopilado 118 posibles causas para la muerte de Mozart que han propuesto varios autores. Según Margaret Lyttle, de Liverpool, en Inglaterra, entre esas causas están, entre muchas otras, fiebre reumática, infección por estreptococos, fallo renal, glomerulonefritis aguda, triquinosis, gripe, infección por flebitis, sífilis, envenenamiento con mercurio, antimonio o plomo, y asesinato. Veamos algunas de estas causas en detalle.
Para empezar, Edward Guillery, de la Universidad de Iowa y partiendo de su posición como especialista del riñón, repasa varias de las causas de la muerte de Mozart para concluir que se pueden extraer pocas conclusiones de lo que sabemos hasta ahora.
Según la familia del músico, testigo directo de sus últimos momentos, tenía el cuerpo tan hinchado que no se podía mover en la cama, una fiebre muy alta y se quejó de que tenía “el sabor de la muerte en la lengua”.
Guillery revisa la hipótesis de una fiebre reumática de la que, por lo que cuenta el padre de Mozart, el músico ya había tenido dos episodios a los 10 y a los 28 años, pero era un diagnóstico muy general para aplicar a todos los enfermos con fiebre alta y dolores en las articulaciones. Es posible que un corazón dañado por fiebres reumáticas sufra una infección y un fallo cardiaco. Sin embargo, para Guillery el tiempo de la enfermedad mortal de Mozart, unos 10 días, es demasiado corto para apoyar esta hipótesis. Martin Hatzinger también menciona el fallo renal.
El doctor Simon Jong-Koo Lee, de la clínica del mismo nombre de Seúl, en Corea del Sur, apoya esta causa para la muerte del artista. Añade que la infección del corazón provocó una flebitis que, a su vez, causó la hinchazón que impedía moverse a Mozart. De todo ello llegó el fallo cardiaco que le llevó a la muerte.
También se ha mencionado como causa de la muerte algún tipo de golpe en la cabeza. A finales de los ochenta se examinó el cráneo de Mozart y se encontró que tenía una fractura antigua, ya curada, en el lado izquierdo que, además, mostraba que en su momento hubo un hematoma epidural ya calcificado.
Sin embargo, todo ello se basa en que el cráneo examinado sea realmente el de Mozart. Fue enterrado en una fosa “económica” con otros cadáveres en el cementerio de St. Marx, en Viena. Se asegura que el cuerpo fue marcado con un alambre por el sepulturero del lugar. La tumba se abrió en 1801, unos años después de la muerte, y se recuperó el cráneo marcado que se guardó como una “reliquia sagrada”. El profesor de Anatomía Joseph Hyrtl lo conservó y quedó en su familia hasta 1899 en que fue adquirido por el Mozartmuseum de Salzburgo.

El examen del cráneo demuestra que pertenece a alguien que murió entre los 25 y los 40 años. La reconstrucción del rostro a partir del cráneo lleva a una imagen que se parece a Mozart según los retratos que de él se conservan. Sin embargo, Orlando Mejía, de la Universidad de Caldas, en Colombia, cuenta que, en los 2000, se hizo un análisis de ADN de dos dientes de este cráneo, de unos mechones de pelo atribuidos a Mozart y de los cadáveres de una sobrina y de la abuela materna del músico. No se encontró relación genética entre los restos y, por tanto, se descarta que el cráneo pertenezca a Mozart. E. Vicek y su grupo, del Museo Nacional de Praga, siguen apoyando la hipótesis de la fractura craneal puesto que consideran que el estudio del ADN es poco concluyente.
La hipótesis plantea que la fractura del cráneo se produjo por una caída un año antes de la muerte cuando, y hay escritos que lo atestiguan, comenzaron los dolores de cabeza del músico, con debilidad y síntomas de parálisis. Pero parece que faltan mejores evidencias para aceptar esta hipótesis, sobre todo si hay dudas de que el cráneo sea el de Mozart.

Poco después de la muerte de Mozart comenzaron a circular rumores de que había sido envenenado, como él mismo sospechaba, según el testimonio de su mujer de aquel paseo por el Prater en octubre de 1791. Además, Mozart le dijo a su mujer que le estaban envenenando con “acqua tofana” y hasta había calculado la fecha de su muerte. Se rumoreó que por esta creencia compuso su Réquiem en las últimas semanas de su vida.
El “acqua tofana” era un veneno muy popular en aquellos tiempos, de acción lenta y compuesto de arsénico y óxido de plomo. Se cuenta que lo inventó una napolitana, llamada Tofana, y descubrió su composición un policía romano, hacia 1650, al investigar a un numeroso grupo de mujeres que habían enviudado en un momento oportuno y a conveniencia.
Cuando se recopila la lista de venenos que pudieron matar a Mozart vemos que es casi un tratado erudito de un siglo que gustó de los venenos. Incluso se habló de que el intento de suicidio de Antonio Salieri, el músico adversario de Mozart, era una confesión de su culpabilidad en la muerte del artista. Sin embargo, aunque la leyenda dice que se odiaban, parece ser que más bien se veían poco y eran casi amigos. Pero el rumor sobre Salieri ha crecido durante décadas. Incluso se publicó que existe una carta de Salieri admitiendo su culpa, carta que, por cierto, nadie reconoce haber visto.
Hasta los nazis tienen algo que ver con la muerte de Mozart. Era francmasón, algo muy popular en su tiempo y en Viena. Se contaba que, por ser francmasón, fueron los franceses quienes lo asesinaron. Esta leyenda fue muy útil para los nazis pues, siglo y medio después, cuando se anexionaron Austria acusaron a los masones, comunistas y judíos, de ser los asesinos de un héroe alemán, el músico Mozart.
Según algunos expertos, también se ha propuesto que Mozart pudo morir a causa del antimonio que se le recetó para aliviar su melancolía y depresión, o por el mercurio, que tomó para curar de la sífilis, aunque nadie ha demostrado que Mozart la padeciera.
Un enfoque diferente utilizaron Richard Zegers y su equipo, de la Universidad de Amsterdam, que revisaron los fallecimientos en Viena entre 1791 y 1793, alrededor de la fecha de la muerte de Mozart. Encontraron, semanas antes y después de la muerte, muchas muertes con síntomas parecidos. Proponen que, partiendo de un hospital militar de Viena, se extendió una epidemia de infección con estreptococos que llevaba a una glomerulonefritis aguda y a un fallo renal con el fallecimiento de los contagiados, tal como le ocurrió a Mozart.
La última frase del escrito de Guillery sobre la muerte de Mozart señala que, aunque no conocemos con exactitud la causa de su muerte, debemos sentirnos agradecidos de que su música siga viva entre nosotros.
Referencias:
Guillery, E.N. 1992. Did Mozart die of kidney disease? A review from the bicentennial of his death. Journal of the American Society of Nephrology 2: 1671-1676.
Hatzinger, M. et al. 2013. Wolfgang Amadeus Mozart: The death of a genius. Acta Medico-historica Adriatica 11: 149-158.
Jong-Koo Lee, S. 2010. Infective endocarditis and phlebotomies may have killed Mozart. Korean Circulation Journal 40: 611-613.
Lyttle, M. 2017. Kidney or conspiracy? Was renal failure the cause of Mozart’s death? A brief review of the composer’s illnesses and theories surrounding his death. Journal of Urology 197: e1061.
Mejía, O. 2013. La historia clínica de Wolfgang Amadeus Mozart. Acta Médica Colombiana 38: 244-254.
Puech, P.-F. 1991. Forensic scientists uncovering Mozart. Journal of the Royal Society of Medicine 84: 387.
Vicek, E. et al. 2006. The skull of Wolfgang Amadeus Mozart predicates of his death. Acta Chirurgiae Plasticae 48: 133-140.
Wikipedia. 2017. Wolfgang Amadeus Mozart. 6 abril.
Zegers, R.H.C. et al. 2009. The death of Wolfgang Amadeus Mozart: An epidemiological perspective. Annals of Internal Medicine 151: 274-278.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo El caso de Wolfgang Amadeus Mozart se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La adquisición de la lectura desde la evidencia científica: una hoja de ruta para educadores
Las pruebas de la educación es un evento que en su tercera edición tuvo lugar por primera vez en Donostia-San Sebastián, el pasado 9 de noviembre, en el Centro Carlos Santamaría de la UPV/EHU, organizado por el Consejo Escolar de Euskadi, con la colaboración de la Cátedra de Cultura Científica de la UPV/EHU.
Este evento tiene el objetivo de abordar distintos temas educativos desde la evidencia científica. Para ello, reúne a personas del ámbito educativo para que expliquen y debatan acerca de las pruebas (o su ausencia) que sustentan las afirmaciones, propuestas y prácticas educativas que están en boga o, en su caso, las pruebas que sustentan otras posibles prácticas. La dirección del evento corrió a cargo de la doctora en Psicología Marta Ferrero.
En esta conferencia Joana Acha, profesora en el departamento de Procesos Psicológicos Básicos y su Desarrollo de la UPV/EHU establece un puente entre el conocimiento científico existente sobre el proceso de adquisición de la lectura y la aplicabilidad de ese conocimiento a la práctica educativa. Aborda cuestiones desde en qué consiste exactamente aprender a leer a cómo es posible optimizar las estrategias de intervención en función de la edad y la habilidad lectora de cada persona.
Edición realizada por César Tomé López
El artículo La adquisición de la lectura desde la evidencia científica: una hoja de ruta para educadores se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Educación basada en la evidencia: retos y propuestas de mejora
- La intervención en la dislexia: de la evidencia científica a la práctica educativa
- Las primeras manifestaciones de las funciones ejecutivas y la acción educativa en el aula 0-1
El impacto de la actividad humana sobre los ecosistemas fluviales
Presas, embalses, canalizaciones, extracciones de agua… son muchas las formas en las que la actividad humana explota los recursos hídricos. “Desde hace tiempo se sabe que la actividad humana tiene un gran impacto en los ecosistemas fluviales; existen multitud de investigaciones al respecto”, comenta Arturo Elosegi Irurtia, catedrático de ecología del Departamento de Biología Vegetal y Ecología de la Facultad de Ciencia y Tecnología de la UPV/EHU. Las investigaciones realizadas sobre el tema, sin embargo, “son parciales y están muy dispersas, lo cual impide poder tener una visión general del impacto de la actividad humana”, continúa.

Con el objetivo de crear esa visión general, miembros de 6 centros de investigación y universidades de Cataluña, Holanda y Portugal, junto con la UPV/EHU, han realizado un metaanálisis de numerosos casos de estudio. El propósito ha sido conocer qué componentes y funciones de los ecosistemas fluviales se ven afectados por el estrés hídrico de origen antrópico, y en qué medida se alteran, realizando para ello una recopilación y reanálisis de la información de esos estudios individuales. “En la búsqueda inicial reunimos más de mil artículos, pero, finalmente, fueron 44 los que cumplieron con las condiciones que requeríamos para el análisis. En total, en nuestro análisis estadístico hemos trabajado con 262 casos, relativos a ríos de todo el mundo”, detalla Elosegi.
La variabilidad es inherente a los ríos, donde se suceden cíclicamente periodos de inundación y estiaje, pero las intervenciones humanas alteran ese ciclo, y eso afecta directamente al ecosistema. “Por ejemplo, una de las consecuencias más claras que hemos observado ha sido el crecimiento excesivo de las algas. Esto se da principalmente en los tramos que se encuentran debajo de embalses y tomas de agua, debido a que se estabiliza mucho el flujo de agua”, explica. Los invertebrados fluviales, por su parte, disminuyen notoriamente debajo de los puntos de estrés, tanto en abundancia como en riqueza.
Además de las comunidades biológicas, estudiaron las variables físico-químicas de los ríos, así como el funcionamiento de los ecosistemas, es decir, “cómo funciona el ecosistema fluvial con la estructura y comunidad encontrada. Entre las variables estructurales, ha destacado el aumento de la concentración de fármacos en los lugares afectados por el estrés hídrico, como debajo de los embalses o los ríos de los que se extrae agua”.
En lo que respecta al funcionamiento de los ecosistemas, por su parte, Elosegi ha subrayado que han podido ver “alteraciones que hasta ahora no eran evidentes” en zonas afectadas por el estrés hídrico: por un lado, se reduce la descomposición de la materia orgánica, lo que quiere decir que los ríos pierden capacidad de degradar la materia orgánica, y, por otro, se acelera el metabolismo: “aumenta tanto la producción primaria como la respiración, como consecuencia del excesivo crecimiento de las algas”, añade.
Las alteraciones y consecuencias mencionadas, aunque son generales, varían en importancia o gravedad en función de las características del lugar, como el tamaño del río, el clima o el régimen hídrico. De la misma forma, dependiendo de cuál es el causante del estrés hídrico, las consecuencias son más graves o leves, y según han visto, “los embalses, sobre todo los grandes, son los que provocan mayor cantidad de cambios o alteraciones en la estructura y función de los ecosistema fluviales”. Y, precisamente, los embalses son las intervenciones y causantes del estrés más habituales en estos ecosistemas: más de la mitad de los casos estudiados tuvieron en cuenta la alteración provocada por embalses.
No obstante, no han conseguido conclusiones claras en todas las variables tenidas en cuenta en el metaanálisis. “Unas veces ha sido por falta de datos, es decir, porque se estudiaron en pocas de las investigaciones que teníamos entre manos, y, otras, por la gran variabilidad que existe en la respuesta de algunas variables, lo cual nos ha llevado a no poder deducir nada claro en el metaanálisis realizado. Nos ha pasado eso con la temperatura, entre otras: debajo de unos embalses la temperatura es mayor de lo que debería, pero en otros es menor. En el caso de las comunidades, hemos observado esas fluctuaciones en los peces, lo que seguramente se deba a que en cada lugar les afectan diferentes factores”. El grupo de investigación considera indispensable continuar con los estudios para rellenar esos vacíos.
Referencia:
Sergi Sabater, Francesco Bregoli, Vicenç Acuña, Dami Barceló, Arturo Elosegi, Antoni Ginebreda, Rafael Marcé, Isabel Muñoz, Laia Sabater-Liesa, Verónica Ferreira (2018) Effects of human-driven water stress on river ecosystems: a metaanalysis Scientific Reports (2018) doi: 10.1038/s41598-018-29807-7
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El impacto de la actividad humana sobre los ecosistemas fluviales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los ecosistemas acuáticos de África y el cambio climático
- Los sedimentos fluviales, una reserva dinámica de metales contaminantes
- Verdín, eucaliptos y cambio climático
Estas Navidades no engordarás medio kilo
Durante las fiestas de Navidad solemos ganar entre 0,4 y 0,9 kilos. Aunque estas ganancias son pequeñas, la realidad es que muchas personas nunca llegan a perder ese peso extra. La consecuencia de las copiosas comidas de estas fiestas y de los eventos que las rodean es que, de seguir esta tendencia, en 10 años habríamos ganado entre 5 y 10 kg. Es lógico que sea así. Durante estas fiestas solemos aumentar el sedentarismo, llegamos a consumir 6000 Kcal en una única comida (tres veces la cantidad diaria recomendada), disponemos de más cantidad y variedad de alimentos, generalmente alimentos muy calóricos y consumimos más alcohol.
Sabemos cómo perder peso y cómo mantenerlo. Se han hecho muchos estudios científicos al respecto. La alternativa sería centrarse en estrategias de prevención del aumento de peso. Sin embargo, la evidencia científica sobre esto es más limitada. Por eso un grupo de investigadores de la Universidad de Birmingham ha realizado un estudio científico que ha sido recientemente publicado en la revista BMJ (Britsh Medical Journal) sobre cómo afecta una breve intervención conductual en la prevención del aumento de peso durante las vacaciones de Navidad. El resultado del estudio fue que los participantes sometidos a la intervención conductual no solo no ganaron peso durante las Navidades, sino que lo perdieron.
La intervención conductual que los llevó a no engordar medio kilo durante las fiestas de Navidad se basó en estos tres puntos:
-
Pesarse al menos dos veces por semana.
Los participantes del estudio debían pesarse a la misma hora, desnudos o con un atuendo similar cada vez, y anotar el resultado de la báscula en una tabla.
No hay consenso científico cómo afecta pesarse al control de peso. Hay estudios que indican que no hay correlación. Y también hay publicaciones que apuntan a que pesarse con frecuencia nos hace tomar conciencia de las fluctuaciones de peso, lo que repercute en nuestra conducta alimentaria y en consecuencia favorece la pérdida de peso.
-
Información básica sobre estrategias de control de peso.
A los participantes se les proporcionó información sobre estrategias para el control de peso durante las vacaciones de Navidad. Esta información se fundamentaba en una lista de 10 recomendaciones, como mantener los horarios de comida habituales, dar al menos 10.000 pasos al día, si tienes hambre entre horas optar por fruta o lácteos, revisar las etiquetas de los alimentos y descartar aquellos que contengan altos niveles de azúcar, grasas de mala calidad o harinas refinadas, tomar raciones de comida pequeñas, o no comer mirando la televisión.
Hay evidencia científica de que seguir estas sencillas recomendaciones favorece la pérdida de peso.
-
Conocer cuánta actividad física necesitas hacer para gastar las calorías de cada alimento.
A los participantes se les entregó una tabla PACE de alimentos típicos de Navidad. La tabla PACE, por las siglas de physical activity calorie equivalent, es una tabla que muestra las calorías de una serie de alimentos típicos que se consumen en Reino Unido durante las vacaciones de Navidad, su contenido calórico, y el equivalente en actividad física para gastar esas calorías. Por ejemplo, gastar las calorías de una ración de pastel de carne requiere 21 minutos de carrera, y de un vaso de vino requiere 32 minutos de caminata.
Hay evidencia científica de que el conocimiento de PACE repercute positivamente en el control de peso.
El estudio se realizó alrededor de las Navidades de 2016 y de 2017. Para ello se escogieron 272 adultos mayores de 18 años con un índice de masa corporal de 20 o más. El 78% eran mujeres, y también el 78% de los participantes eran de etnia blanca. La edad media era de 44 años. La mitad de los participantes fueron sometidos a la intervención conductual, y la otra mitad tan solo recibió un folleto sobre vida saludable. En noviembre y diciembre se hicieron las evaluaciones previas de los participantes, y tras las Navidades, entre enero y febrero, se hicieron las evaluaciones de seguimiento.
El resultado del estudio fue que los participantes sometidos a la intervención conductual no solo no ganaron peso durante las Navidades, sino que de media perdieron 130 g. El grupo de comparación, los que solo recibieron el folleto y no fueron sometidos a la intervención conductual, ganaron 370 g de media.
Además del control de peso, en este estudio se valoraron otros parámetros relacionados con la alimentación: la restricción cognitiva, la alimentación emocional y la alimentación no controlada. Se le llama restricción cognitiva al hecho de querer restringir de manera consciente la alimentación para adelgazar. La alimentación emocional es aquella que se mueve por impulsos y emociones que no son realmente hambre, al menos no en sentido fisiológico, como bien pueden ser el estrés, la ansiedad, e incluso el enfado, la tristeza o el aburrimiento. La alimentación no controlada es aquella que no sigue una dieta bien balanceada, que no mantiene una proporción saludable de grupos alimenticios ni sigue una rutina.
El resultado del estudio sobre estos parámetros fue que los participantes que fueron sometidos a la intervención conductual sí mejoraron su restricción cognitiva, es decir, mantuvieron cierta privación de alimentos poco saludables más allá de las fiestas de Navidad. Sin embargo, la intervención conductual no mejoró significativamente la alimentación emocional ni la alimentación no controlada.
Otro dato que podemos extraer de este estudio es que los participantes sometidos a la intervención conductual consumieron un 10% menos de bebidas alcohólicas. Sabemos que las bebidas alcohólicas perjudican la salud, y la perjudican en varios sentidos. Además, las bebidas alcohólicas contribuyen al aumento de peso, ya que entre otras cosas son altamente calóricas y generalmente ricas en azúcares libres. Por eso los autores del estudio apuntan a que las campañas de prevención de la obesidad deberían estar más enfocadas a evitar el consumo de alcohol.
-
Conclusión
Conocer qué nos hace ganar peso en las fiestas de Navidad, evita que lo ganemos.
-
Bonus track
Si tienes como objetivo no ganar peso durante las fiestas de Navidad sin amargarte la existencia, estos cinco consejos podrían ser útiles:
-
No des la turra con el turrón.
Durante estas fiestas tendrás alrededor de seis comidas importantes y copiosas. No es para tanto. Disfruta de ellas. Si tienes una cena, procura desayunar y comer ligero, y en la cena, si te gustan los dulces navideños, es el momento para disfrutar de ellos. Ya tienes el resto del año para dar la turra con lo insaludable que es el turrón.
-
No seas cutre y no te alimentes de sobras.
En casa van a sobrar turrones, mazapanes, polvorones, cóctel de gambas, cordero… Conserva lo que puedas hasta la próxima festividad, y no te pases tres días comiendo turrón de postre. Los días más críticos son del 26 al 31. No los conviertas en una cutre-fiesta extendida de lo que fue la Navidad.
-
No, no controlas.
Barra libre no significa que tengas que beberte hasta el agua de los floreros. Si te gusta el vino, tómatelo y disfrútalo. Pero ten en cuenta que a partir de la tercera copa probablemente no estés bebiendo por placer, sino que el alcohol ya ha hecho mella y estés bebiendo por inercia.
Lo mismo con los dulces navideños. Si te gusta el turrón, disfrútalo. Pero no te tienes que terminar la tableta y aderezarlo con una docena de mazapanes. Céntrate en disfrutar, en saborear, no en engullir como si fuesen los juegos del hambre.
-
Lle-lle-lle-llena tu nevera con-con-con-con kilos de peras.
Planifica las comidas no festivas y, si no sabes si podrás, ten en casa frutas, verduras, legumbres en conserva, huevos, atún. Ese tipo de alimentos sanos, que se conservan fácilmente y que se preparan en un periquete. Olvídate de precocinados y de alimentos cargados de azúcares, harinas refinadas y grasas de mala calidad, que de eso ya vas a ir sobrado estas Navidades.
-
La peña y las risas son lo importante.
Lo importante de estas fiestas es estar con la gente con la que estás a gusto y disfrutar de ellos. Si no es tu caso, y lo que te toca es aguantar, no ahogues tus penas en azúcar y alcohol. A lo mejor deberías replantearte con quién pasas las fiestas. Tu problema no es cómo no ganar medio kilo, sino cómo librarte de esos kilos de peña chunga.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Estas Navidades no engordarás medio kilo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Si estás embarazada, mejor no consumas alcohol
- La supervivencia del más fuerte… ¿estás seguro?
- Louis Antoine: el destello en medio de una larga noche
Contar hasta un millón con los dedos de las manos
En las dos primeras entradas de la serie Y tú, ¿cómo cuentas con los dedos? (parte 1 y parte 2) de la sección Matemoción del Cuaderno de Cultura Científica hemos hablado de algunas de las formas de contar con los dedos de las manos que se utilizan en la actualidad a lo largo de todo el mundo, algunas de las cuales tienen un origen muy antiguo.
La práctica de contar con los dedos de las manos es tan antigua como el propio origen de los números, seguramente hace más de cuarenta mil años. Cada pueblo fue desarrollando sus propias técnicas para contar utilizando sus manos, e incluso sus pies o partes de su cuerpo. Se contaron dedos, falanges, nudillos o las zonas entre los dedos, también se utilizaron diferentes posiciones de los dedos para expresar los diferentes números, se desarrollaron sistemas de numeración asociados con diferentes bases, como 5, 10, 12 o 20, entre otras, o se inventaron sistemas más artificiales como el chisanbop o la expresión digital de los números binarios.

Antes de entrar en el tema de hoy, expliquemos brevemente qué es eso de la expresión digital de los números binarios, que utilizan para contar algunas personas apasionadas de las matemáticas. Como se explica en este vídeo de Una de Mates, Los números binarios, todo número tiene una expresión binaria, como una serie de 1s y 0s, y toda expresión binaria se corresponde con un número en nuestro sistema de numeración decimal. Si tenemos en cuenta que cada posición en un número binario se corresponde con una potencia de 2 (1, 2, 4, 8, 16, 32, etcétera), al igual que en nuestra base decimal se corresponde con una potencia de 10 (unidades, decenas, centenas, unidades de mil…), entonces podemos conocer el valor, en nuestro sistema decimal, de una expresión binaria cualquiera sin más que conocer qué potencias de 2 están (cuando hay un 1) y cuales no (cuando hay un 0). Así, el número binario, de cinco dígitos, 11010 se corresponde con el número 1 x (24) + 1 x (23) + 0 x (22) + 1 x (21) + 0 x (20) = 1 x (16) + 1 x (8) + 0 x (4) + 1 x (2) + 0 x (1) = 26.
Podemos utilizar nuestras manos para realizar la expresión digital de los números binarios teniendo en cuenta que un dedo abierto simbolizará un 1 y un dedo cerrado un 0. Si utilizamos solo una mano, podremos representar del 0 al 31 mediante las expresiones binarias con cinco dígitos, cada uno de los cuales será un 1 o un 0, es decir, un dedo abierto o cerrado. Así, las potencias de 2 se expresarán digitalmente como: la mano cerrada es 0 (en expresión binaria 00000), solo el meñique abierto 1 (00001), solo el anular abierto 2 (00010), solo el corazón 4 (00100), solo el índice 8 (01000) y el pulgar 16 (10000), como se muestra en la siguiente imagen.

Y combinando los cinco dedos podemos representar todos los números entre 0 y 31. Como ejemplo se muestra la expresión digital de algunos números en la siguiente imagen. Si se utilizasen las dos manos, es decir, diez dedos, se podrían representar del 0 al 1023. Os planteo un pequeño juego “contad, en orden, los números del 0 al 31”.

En la entrada de hoy, tercera de la serie Y tú, ¿cómo cuentas con los dedos?, vamos a explicar un método muy antiguo que permitió contar hasta 10.000, pero más aún, hasta un millón, y cuyo uso estuvo muy difundido tanto en Occidente, como en Oriente, llegando a ser utilizado en muchas zonas hasta en época reciente. Esta forma de representar los números se utilizaba ya en el antiguo Egipto, aunque quienes sí la utilizaron ampliamente fueron los romanos, griegos, árabes, persas y estuvo muy difundida en Europa en la edad media y la moderna.
La primera publicación conocida en la que se recoge la explicación de este método de contar con los dedos fue la obra, escrita en latín, De temporum ratione (Sobre la división del tiempo), en su capítulo primero De computo vel loquela digitorum (Sobre la manera de contar y hablar mediante los dedos), del monje benedictino inglés Beda el Venerable (aprox. 672 – 735).

Beda inicia al primer capítulo De computo vel loquela digitorum de la obra De temporum ratione de la siguiente forma:
“Antes de que empecemos, con la ayuda de Dios, a hablar de cronología y su cálculo, consideramos necesario primero mostrar brevemente la muy necesaria y disponible técnica de contar con los dedos”.
A continuación, el monje benedictino explica cómo hay que colocar los dedos de la mano izquierda para representar los primeros números. Veamos lo que está escrito para los números más pequeños, del 1 al 9, tanto en latín, como su traducción al castellano (pueden compararse los textos con la imagen que se incluye después de estos).
1 “Quum ergo dicis unum, mínimum in laeva digitum inflectens, in médium palmae artum infiges”
1 “Cuando digas uno, doblando el dedo pequeño (meñique) izquierdo, colócalo en la articulación media de la palma”
2 “quum dicis duo, secundum a minimo flexum ibídem impones”
2 “cuando digas dos, dobla el segundo dedo colocándolo en el mismo lugar”
3 “quum dicis tria, tertium similiter afflectes”
3 “cuando digas tres, pliega el tercero de la misma manera”
4 “quum dicis quatuor, ibidem minimum levabis”
4 “cuando digas cuatro, levanta el meñique de dicho lugar”
5 “quum dicis quinque, secundum a minimo similitier eriges”
5 “cuando digas cinco, levanta el segundo dedo de forma similar al meñique”
6 “quum dicis sex, tertium nihilominus elevabis, medio duntaxat solo, qui Medicus appellatur, in medium palmae fixo”
6 “cuando digas seis, levanta del mismo modo el tercero, manteniendo solo el llamado medicinal (anular) unido al centro de la palma”
7 “quum dicis sepiem, mínimum solum, caeteris interim levabis, super palmae radicem pones”
7 “cuando digas siete, levanta los demás dedos, mientras colocas el pequeño sobre la base de la palma”
8 “juxta quem, quum dicis octo, medicum”
8 “haz lo mismo, cuando digas ocho, con el medicinal”
9 “quum dicis novem, impudicum e regione”
9 “cuando digas nueve, añade el impúdico (el dedo corazón) al mismo lugar”

Como hemos podido leer, Beda llama minimum al dedo meñique, que era una de las formas de referirse al dedo pequeño de la mano. Por otra parte, según el Diccionario de la lengua española de la RAE, la expresión meñique es un “cruce de menino ‘niño’ y el dialectal mermellique o margarique, variantes de margarite, procedentes del francés antiguo margariz ‘renegado’, ‘traidor’, papel a veces atribuido a este dedo en dichos y consejas”. También se le conoce como dedo auricular, por la costumbre de hurgarse el oído (aurícula) con ese dedo, como ya menciona San Isidoro de Sevilla (556-636) en sus Etimologías (véase la cita en Antiquitatem).
El siguiente dedo, secundum, es el dedo anular, que Beda llama también medicus. Según San Isidoro de Sevilla se debe a que “con él aplican los médicos los ungüentos”, aunque varios autores lo relacionan con el hecho de que en la antigüedad se creía que existía una vena, llamada vena amoris (vena del amor), que conectaba directamente ese dedo con el corazón. Este podría ser el motivo por el cual ese es el dedo elegido para colocar el anillo de boda, y de ahí el otro nombre para ese dedo, el dedo anular. La costumbre de utilizar anillos de boda se remonta al Antiguo Egipto, de donde pasó a Grecia y Roma.
Existe otra explicación (véase, por ejemplo, el libro Number words and number symbols de Karl Menninger), conectada con la anterior, basada en el hecho de que los egipcios, que ya utilizaban esta práctica de contar con los dedos de las manos, representaban el número 6, como explica Beda, doblando el dedo anular. El número 6 es un número perfecto, por lo que en la antigüedad se consideraba un número divino, lo que hacía que el mencionado dedo tuviera un valor añadido, sobre los demás dedos, para ser elegirlo para colocar el anillo matrimonial. En matemáticas los números llamados perfectos son aquellos números que son iguales a la suma de sus divisores, por ejemplo, el 6 es un número perfecto (6 = 1 + 2 + 3) y también el 28 (= 1 + 2 + 4 + 7 + 14). Lo siguientes son 496 y 8128. Precisamente se les denominó “perfectos” por ese carácter mágico y divino que les atribuyeron en tiempos antiguos.
Al tercer dedo que menciona el monje inglés lo llama impúdico. Y ya lo explica San Isidoro de Sevilla en sus Etimologías, el motivo es “porque con frecuencia se expresa con él alguna burla infamante”. Ya entonces era, como lo sigue siendo hoy en día, el dedo utilizado para ese gesto obsceno que comúnmente se llama “sacar un dedo”, “hacer la peineta” o “hacer una peseta”, cuyo significado viene a ser algo así como “¡que te jodan!” o “¡que te den por culo!”. Este gesto ya era conocido en las antiguas Grecia y Roma. Por ejemplo, se encuentra en la comedia Las nubes [PDF] del dramaturgo griego Aristófanes (444 – 385 a.c.):
ESTREPSÍADES: ¿El digital? Por Zeus, ése lo conozco.
SÓCRATES: Pues dilo.
ESTREPSÍADES: Antes, cuando yo era niño, era éste de
aquí. (Levanta el dedo corazón)
SÓCRATES: Eres un patán y un imbécil.
Este dedo del que estamos hablando también se conoce con otros nombres, dedo medio, dedo mayor, dedo corazón, dedo cordial o digitus tertius (tercer dedo), por motivos obvios.

Volviendo al antiguo método de contar con los dedos descrito por Beda el Venerable en su libro De temporum ratione (Sobre la división del tiempo), hemos de destacar que, con tan solo tres dedos, el meñique, el anular y el corazón, de la mano izquierda, cuenta las unidades, del 1 al 9. Mientras que, como explicaremos ahora, con los otros dos dedos de esa misma mano, el índice y el pulgar, va a representar las decenas, 10, 20, así hasta 90, de forma que tan solo con la mano izquierda podrán representar todos los números entre el 1 y el 99.

Quizás se entienda un poco mejor con las explicaciones del propio monje, las primeras también en latín.
10 “quum dicis decem, ungem indicis in medio figes artu pollicis”
10 “cuando digas diez, coloca la uña del índice en la articulación media del pulgar”
20 “quum dicis viginti, summitatem pollicis inter medios indicis et impudici artus inmittes”
20 “cuando digas veinte, coloca la punta del pulgar entre el índice y el impúdico”
30 “cuando sigas treinta, junta en dulce abrazo el índice y el pulgar”
40 “cuando digas cuarenta, coloca el interior del pulgar sobre el lateral o el dorso del índice, con ambos dedos levantados”
50 “cuando digas cincuenta, inclina el pulgar hacia la palma, con la falange bajada al máximo, a semejanza de una letra griega (gamma mayúscula)”
60 “cuando digas sesenta, dobla el pulgar como antes, con el índice envolviendo la parte que se encuentra ante la uña”
70 “cuando digas setenta, estando el índice como antes, es decir, envolviendo estrechamente la convexidad de la uña del pulgar, tendrá este la uña erguida hasta la articulación media del índice”
80 “cuando digas ochenta, estando el índice doblado como antes y el pulgar recto, coloca la uña de este (el pulgar) en la articulación media del índice”
90 “cuando digas noventa, coloca la uña del índice en la base del pulgar”

Para la descripción de las decenas, Beda utiliza los dedos índice y pulgar, que él llama indicis y pollicis. Respecto al índice, volviendo a las Etimologías de Isidoro de Sevilla, este dice así “El segundo [dedo] índice (index), y también salutaris o demonstratorius, precisamente porque con él saludamos o señalamos”. Efectivamente, este dedo se conoce con los nombres dedo índice (index) o dedo mostrador (demonstratorius), ya que es el que se utiliza para indicar, señalar o mostrar algo, y dedo saludador (salutaris).
Respecto al pulgar dice Isidoro de Sevilla “El primero se llama pulgar (pollex) porque entre los otros goza de poder (pollere) y potestad”. Según la RAE, el nombre de pulgar procede del nombre latino pollicaris, que a su vez viene de pollex, como lo llama Isidoro de Sevilla, quien ya nos da la idea de la procedencia de pollex, que no sería otra que la palabra latina pollere, poder. De pollicaris habría derivado a polgar y de ahí a pulgar. Además, el dedo pulgar también recibe el nombre de pólice, del mismo origen.
Este dedo también recibe el nombre de matapulgas o matapiojos, por ser el dedicado a tales fines. Así una de las variantes de una canción infantil donde se mencionan los cinco dedos dice así: “Este el chiquitillo, este el del anillo, este el de la mano, este el escribano, y este, el matapulgas y piojos de todo el año”. Hay quienes afirman, por ejemplo, el filólogo español Joan Corominas (1905-1997), autor del Diccionario crítico etimológico castellano e hispánico, que la “u” de pulgar derivó de la palabra pulga, que motivó el cambio de una “o” a una “u”. Hay quienes piensan que quizás el orden fue el inverso. De hecho, la RAE nos dice que pulga viene de la palabra latina pullex.
Al pulgar también se le denomina, dedo gordo.

Pero sigamos con la descripción del método para contar números del 1 al 9.999. Como hemos comentado, los dedos meñique, anular y corazón de la mano izquierda se utilizaban para representar las unidades, mientras que los dedos índice y pulgar para representar las decenas. Por otra parte, para las centenas (100, 200, 300, …) se utilizaban los dedos índice y pulgar de la mano derecha, con los mismos signos que los descritos arriba con esos mismos dedos, pero de la mano izquierda. Mientras que los dedos meñique, anular y corazón de esa misma mano derecha se utilizaban, con los mismos gestos descritos para los de la izquierda, para representar las unidades de mil (1.000, 2.000, 3.000, …).
Así, si una persona, frente a nosotros, nos quiere representar un número de hasta cuatro cifras, levantará sus dos manos frente a nosotros, como se muestra en la imagen de abajo. Y podemos observar que esta forma de representar los números mediante los dedos de las manos es una representación posicional, similar a la que utilizamos nosotros en nuestro sistema de numeración moderno, puesto que el orden de las unidades, decenas, centenas y millares es de izquierda a derecha.

Veámoslo con un ejemplo concreto. Para representar con los dedos de las manos el número 2.539 se colocarán los dedos como se indica en la siguiente imagen.


Pero el monje benedictino Beda el Venerable, que sería proclamado Doctor de la iglesia en 1899 por el papa León XIII, va más allá en el capítulo De computo vel loquela digitorum (Sobre la manera de contar y hablar mediante los dedos) explicando no solo cómo se puede contar hasta 10.000, sino hasta un millón. Para representar las decenas de mil se describen 9 posiciones diferentes de la mano izquierda respecto al cuerpo, de forma similar se utiliza la mano derecha para las centenas de mil.
En la obra Theatrum Arithmetico Geometricum (1727) del matemático, físico y fabricante de instrumentos alemán Jacob Leupold (1674-1727) se incluye una ilustración con el método de contar con los dedos de las manos que Beda recogía en su libro De temporum ratione.

Veamos las explicaciones del monje Beda para expresar las distintas decenas de mil (y que, más o menos, aparecen en la ilustración anterior):
10.000 “Para cuando digas diez mil, coloca el dorso de tu mano izquierda en medio del pecho con los dedos extendidos y apuntando al cuello”
20.000 “cuando digas veinte mil, coloca sobre el pecho la mano izquierda ampliamente extendida” [nota: En la ilustración de Leupold se expresa 20.000 de una forma diferente]
30.000 “cuando digas treinta mil, coloca la misma mano (hacia la derecha y de perfil) con el pulgar apuntando al cartílago central del pecho”
40.000 “cuando digas cuarenta mil, coloca el dorso de la mano sobre el ombligo”
50.000 “cuando digas cincuenta mil, manteniendo la misma posición, apunta con el pulgar de esa mano al ombligo”
60.000 “cuando digas sesenta mil, agarra el fémur izquierdo con esa mano siempre dirigida hacia abajo”
70.000 “cuando digas setenta mil, toca el mismo sitio con el dorso de la mano”
80.000 “cuando digas ochenta mil, coloca la mano sobre el fémur”
90.000 “cuando digas noventa mil, te tocas los riñones con la palma de la mano, con el pulgar apuntando hacia la ingle”
Para las centenas de mil, es decir, entre 100.000 y 900.000, se realiza la misma operación, pero en el lado contrario, es decir, con la mano derecha.
Teniendo en cuenta todos los gestos explicados hasta ahora, se pueden representar todos los números entre 1 y 999.999, aunque la verdad es que para los números muy grandes hay que hacer un verdadero ejercicio de contorsionismo con el cuerpo.

Finalmente, existe un símbolo para un millón, 1.000.000, que consiste en entrelazar los dedos de ambas manos.
Una descripción completa de este sistema para contar con los dedos de las manos, similar a la descrita por el monje inglés Beda en su libro De temporum ratione (725), nos la encontramos bastante lejos, tanto en el espacio como en el tiempo. Se trata del Farhangi Djihangiri, diccionario persa del siglo XVI, traducido al francés y comentado por el lingüista y orientalista francés Sylvestre de Sacy (1758-1838). La diferencia entre ambos textos está en que en el texto persa las unidades y decenas se representan con la mano derecha, mientras que se utiliza la izquierda las centenas y las unidades de mil, al revés que en el texto latino.
Existe una importante cantidad de textos y objetos que atestiguan el uso de esta técnica de contar con los dedos de las manos desde la antigüedad hasta hace relativamente poco tiempo. Para quienes puedan estar interesados, pueden encontrar una amplia información tanto en los mencionados libros de George Ifrah y Karl Menninger, como en los interesantes artículos Digital Reckoning among the Ancients, de Leon J. Richardson, y Numbers in the Greco-Roman World and the Early Middle Ages, de Burma P. Williams y Richard S. Williams.
Aunque no podemos abordar aquí, por falta de espacio, estos significativos objetos y textos, al menos vamos a citar un ejemplo de cada conjunto de referencias. Por una parte, existen muchos ejemplos de téseras (según la RAE, “Tésera: pieza cúbica o planchuela con inscripciones que los romanos usaban como contraseña, distinción honorífica o prenda de un pacto”) romanas antiguas (aproximadamente, del siglo I a.c.), por ejemplo, en el Museo Británico (Londres), la Biblioteca Nacional de Francia (París) o el Museo Egipcio (El Cairo), en las cuales se puede observar en una de las caras un número romano, por ejemplo, el VII o el XIIII, y en la otra la forma en la que se representaba ese número con los dedos de las manos. Podemos especular sobre la función de estas téseras de marfil, aunque se desconoce cuál era realmente.

Los textos que he elegido para terminar esta entrada no son quizás los más significativos, pero los he elegido por estar relacionado con otro de los gestos de las manos. Me refiero al gesto relacionado con el hecho de que una persona sea tacaña, el puño cerrado. Se suelen utilizar expresiones del tipo “tiene el puño cerrado” o “es de la hermandad del puño cerrado”.
Algunos poetas árabes y persas relacionaban ser tacaño con el número 93, puesto que este se representa, según lo que hemos explicado en esta entrada, con la uña del índice izquierdo apoyada sobre la articulación inferior del dedo pulgar (para representar al 90) y los otros tres dedos, corazón, anular y meñique plegados (para representar el 3). Ese mismo gesto, pero en la mano derecha, sería el número 9.300. Por ejemplo, el poeta árabe Yahya ibn Naufal al Yamani (siglo VII) escribía
“Noventa seguido de tres, que un tacaño representa mediante un puño cerrado presto a golpear, no es tan miserable como tus dádivas, oh Yazid”
O el escritor, filólogo y gramático árabe Khalil ibn Ahmand (aprox. 718-791), que publicó el primer diccionario de la lengua árabe y fue uno de los fundadores de la poesía árabe, escribió
“Vuestras manos no han sido creadas para la generosidad, y su avaricia es notoria: una es 3.900 y la otra está tan desprovista de generosidad como un 100 al que le falta 7”
Y uno de los grandes poetas persas, Abu’l Kassim Firdussi (aprox. 940-1020), en su libro Shahnama o Libro de los reyes, que es una gran epopeya del mundo persa, ironiza sobre la avaricia del sultán Mahmud el Ghaznavida, diciendo
“La mano del rey Mahmud, de origen augusto, es nueve veces 9 y tres veces 4”

Bibliografía
1.- Página web de la artista Veera Pfaffli
2.- Jose Antonio Pérez (dirección), Raúl Ibáñez (guión), Los números binarios, Una de mates, Órbita Laika (TVE2) y Cátedra de Cultura Científica
3.- Georges Ifrah, Historia universal de las cifras, Ensayo y pensamiento, Espasa, 2002 (quinta edición).
4.- Karl Menninger, Number words and number symbols, Dover, 1969.
5.- Página web de la Biblioteca Apostolica Vaticana
6.- Página web de la Bibliotheca Laureshamensis digital
7.- Diccionario de la lengua española de la RAE
8.- Antonio Marco Martínez, Antiquitatem, Los nombres de los dedos de la mano
9.- Public Delivery, Ai Weiwei gives world his middle finger
10.- Leon J. Richardson, Digital Reckoning among the Ancients, The American Mathematical Monthly, vol. 23, no. 1, pp. 7-13, 1916.
11.- Burma P. Williams, Richard S. Williams, Numbers in the Greco-Roman World and the Early Middle Ages, Isis, vol. 86, no. 4, pp. 587-608, 1995.
12.- Página web del fotógrafo Jim Marshall
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Contar hasta un millón con los dedos de las manos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La morra, jugando a contar con los dedos
- Y tú, ¿cómo cuentas con los dedos? (1)
- Y tú, ¿cómo cuentas con los dedos? (2)
Física de las ondas estacionarias: frecuencia fundamental y sobretonos
La razón física de la aparición de notas armoniosas y la relación entre ellas no eran cosas conocidas por los griegos. Pero utilizando el principio de superposición podemos comprender y definir las relaciones armónicas de manera mucho más precisa.

Primero, debemos enfatizar un hecho importante sobre los patrones de onda estacionarios producidos al reflejarse las ondas en los límites de un medio. Podemos imaginar una variedad ilimitada de ondas viajando de un lado a otro. Pero, de hecho, solo ciertas longitudes de onda (o frecuencias) pueden producir ondas estacionarias en un medio dado. En el ejemplo de un instrumento de cuerda, los dos extremos de cada cuerda están fijos (por los enganches de cada cuerda, en el caso de un arpa, o por el enganche y la presión de un dedo en el caso de una guitarra) y, por lo tanto, deben ser puntos nodales.
Este hecho pone un límite superior a la longitud de las ondas estacionarias posibles en una cuerda fijada en ambos extremos de longitud l. Dada la condición de que los extremos son puntos nodales, es evidente que dicho límite se corresponde con aquella onda para la que la mitad de su longitud de onda coincide con la de la cuerda o, expresado matemáticamente, l = λ/2 (Figura 1, arriba-izquierda).

Ondas más cortas también pueden producir patrones estacionarios pero, eso sí, teniendo más nodos. En cualquier caso debe cumplirse siempre que algún número entero n de medias longitudes de onda media coincide con la longitud de la cuerda, de modo que l = nλ/2 .
Visto de otro modo, la imagen arriba-izquierda de la Figura 1 podemos decir que representa una onda de λ = 2l (fíjate que es idéntico a lo que hemos dicho arriba, pero dado la vuelta). La de arriba-derecha una de λ = 1/2 (2l); la de centro-izquierda λ = 1/3(2l); y así sucesivamente.
La relación matemática general que da la expresión para todas las longitudes de onda posibles de las ondas estacionarias en una cuerda fija es, por tanto, λn = 2l /n, donde n es un número entero. También podemos decir, simplemente que la longitud de onda es inversamente proporcional a n, es decir, λ ∝ 1/n.
Es decir, si λ1 es la longitud de onda más larga posible, las otras longitudes de onda posibles serán 1/2 λ1, 1/3 λ1, …, (1/n) λ1. Las longitudes de onda más cortas corresponden a frecuencias más altas. Por lo tanto, en cualquier medio acotado solo se pueden establecer ciertas frecuencias concretas de ondas estacionarias. Dado que la frecuencia f es inversamente proporcional a longitud de onda, f ∝ 1 / λ, podemos reescribir la expresión para todas las posibles ondas estacionarias en una cuerda pulsada como fn ∝ n.
En otras circunstancias, fn puede depender de n de alguna otra manera. La frecuencia más baja posible de una onda estacionaria es generalmente la que está más presente cuando la cuerda vibra después de ser pulsada o arqueada. Si f1 representa la frecuencia más baja posible, entonces las otras ondas estacionarias posibles tendrían las frecuencias 2f1 , 3f1 ,. . . , nf1 . Estas frecuencias más altas se denominan “sobretonos” de la frecuencia “fundamental” f1. En una cuerda “ideal”, hay en principio un número ilimitado de estas frecuencias, pero cada una de ellas es un múltiplo simple de la frecuencia más baja.
En los medios reales existen límites superiores prácticos para las posibles frecuencias. Además, los sobretonos no son exactamente múltiplos simples de la frecuencia fundamental; es decir, los sobretonos no son estrictamente “armónicos”. Este efecto es aún mayor en los sistemas más complejos que las cuerdas tensas. En una flauta, saxofón u otro instrumento de viento, se crea una onda estacionaria en una columna de aire. Dependiendo de la forma del instrumento, los sobretonos producidos pueden no ser ni siquiera aproximadamente armónicos.
Como podemos intuir a partir del principio de superposición, las ondas estacionarias de diferentes frecuencias pueden existir en el mismo medio al mismo tiempo. Una cuerda de guitarra fuertemente pulsada, por ejemplo, oscila en un patrón que es la superposición de las ondas estacionarias de muchos sobretonos. Las energías de oscilación relativas de los diferentes instrumentos determinan la “calidad” del sonido que producen. Cada tipo de instrumento tiene su propio equilibrio de sobretonos. Es por eso que un violín suena diferente a una trompeta, y ambos suenan diferente a una voz de soprano, incluso si todos suenan a la misma frecuencia fundamental.
Como ilustración sonora, Xaver Varnus juega con columnas de aire de distinta longitud en las que se provocan ondas estacionarias de distintas longitudes de onda y, por tanto frecuencias fundamentales, con los sobretonos particulares del órgano de la catedral de Berlín, interpretando a Bach.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Física de las ondas estacionarias: frecuencia fundamental y sobretonos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: