Humildemente, el mundo es mejor gracias a mí
Tenemos más y mejor acceso a la información, sin embargo, tenemos la impresión de que estamos más desinformados que nunca. Hay medios de comunicación con un equipo editorial y de revisores que nos ofrecen garantías. Hay comunicadores con un historial impecable de honestidad y saber hacer. Pero en cuanto ponemos un ojo fuera de estos lugares de confianza, estamos perdidos. A ver si se citan las fuentes, a ver si quien firma es una voz autorizada, a ver si está publicado en un medio serio, a ver si lo que cuenta coincide con lo que yo ya sé. Todo eso está muy bien, pero en estos tiempos de posverdad, para decidir si algo es información o desinformación, es tan importante el qué se cuenta como el cómo se cuenta.
Una de las técnicas más persuasivas es el storytelling, es decir, contar historias y con ellas establecer conexiones emocionales. Esta técnica a menudo se emplea en divulgación científica y, sobre todo, en publicidad. Los desinformadores también conocen su poder de persuasión, pero hay un formato en concreto del que abusan y nos facilita la tarea de identificarlos: el relato heroico. De ahí el título de este artículo.
-
Las fuentes no lo son todo.
Si en un artículo se citan o se enlazan las fuentes de información, es más probable que lo que ahí se cuente sea cierto. No obstante, no es un criterio implacable. Las fuentes pueden ser o no fuentes de calidad. En los artículos sobre temas científicos suelen enlazarse estudios científicos, los llamados papers. El sistema de publicaciones científicas funciona mediante un método de revisión y verificación de datos que nos ofrece garantías. Aun así, es difícil identificar si realmente estamos ante un paper o un artículo cualquiera, si el paper es bueno, si la metodología el paper se corresponde con el tema del artículo… Es decir, casi tienes que ser experto para comprobar si la fuente es fiable y coherente o no. Así que eso de “comprobar las fuentes” no sirve para todos.
De hecho, casi cualquiera puede publicar un post citando fuentes que corroboren su tesis. Es tan fácil como entrar en Google Scholar y buscar algún estudio que confirme, o al menos no contradiga, lo que quieres contar. A esto se le llama cherry piking: filtrar la información para quedarnos exclusivamente con la que nos da la razón. Esto solemos hacerlo de forma inconsciente, puesto que todos padecemos, en mayor o menor medida, un sesgo de confirmación. Algunos filtran para engañar, pero la mayoría filtran sometidos a su sesgo de confirmación. Los lectores también.
-
Todos tenemos sesgos de confirmación y los desinformadores lo saben.
Es más probable que demos por cierta una información si esta se corresponde con lo que ya sabemos. Nuestros conocimientos previos sobre el tema pueden ser un arma de doble filo. Por un lado, pueden ayudarnos a discernir, y por otro pueden servir de semilla para la desinformación. Depende de la calidad de lo que sepamos, de si son conocimientos o de si son prejuicios, y a veces es difícil identificarlos.
Por ejemplo, una de las razones por las que el movimiento antivacunas ha calado es porque se fundamenta en prejuicios sobre el sector farmacéutico. El rechazo a los aditivos alimentarios se fundamenta en prejuicios sobre el sector alimentario. La creencia de que los cosméticos contienen tóxicos se fundamenta en prejuicios hacia el sector. ¿Cómo es posible que una persona con estudios superiores decida no vacunar a sus hijos? ¿Cómo es posible que alguien que sepa la química suficiente como para identificar los aditivos de un alimento, los rechace? ¿Cómo es posible que alguien tenga los conocimientos como para reconocer cuáles son los tensioactivos en la fórmula de un champú y crea que son tóxicos?
A menudo pronuncio la frase “Cuantas más cosas sabemos, mejores decisiones tomamos”. Esto es falso. No se trata de saber más cosas, sino de tener conocimientos de calidad. No se trata de saber más, sino de saber mejor.
De hecho, siguiendo con el ejemplo de los antivacunas, estos manejan más información que el resto. Esa es una de las razones por las que resulta tan complicado debatir con un antivacunas, porque son gente muy informada, o mejor dicho, muy desinformada.
En este sentido puede resultar interesante el documental de Netflix “La Tierra es plana”. Los terraplanistas también son gente muy desinformada, hacen sus propios experimentos tratando de confirmar su teoría. Los diseñan para tal fin. Buscan papers que confirmen sus hipótesis. Tienen el sesgo de confirmación a tope. Los que no somos terraplanistas también. Y demás no hacemos experimentos para corroborarlo. Por eso me parece especialmente brillante la intervención del físico Lamar Glover en el documental: “Conspiracionistas, antivacunas, terraplanistas… Cuando dejamos gente atrás, mentes brillantes mutan y se anquilosan. Son científicos en potencia totalmente equivocados”.
Si entramos en foros de conocidos anticientíficos, como antivacunas, o como quienes afirman que un desinfectante industrial es la cura del cáncer, veremos que en sus publicaciones enlazan fuentes y que además se apoyan fuertemente en los prejuicios que existen sobre el sector farmacéutico. No es de extrañar que su desinformación pueda parecer información ante ojos inexpertos.
Quien tiene demasiado presentes los traspiés de la industria farmacéutica, es probable que infravalore todos sus logros, y que le resulte convincente cualquier idea conspiranoica sobre este sector. Por este motivo gran parte del relato de los anticientíficos y charlatanes se fundamenta en reiterar los errores de la industria. Su propaganda depende del menosprecio hacia un sector entero.
-
El relato heroico como fórmula del éxito desinformador.
Pensemos en cualquier charlatán anticientífico que nos venga a la mente. Hecho.
Seguramente se presenta como alguien sin demasiado poder pero muy motivado para luchar contra algo más grande que él. La industria farmacéutica, la industria alimentaria, el gobierno. Cualquier cosa grande. Hace hincapié en definirse como un donnadie. Un simple agricultor, un simple investigador, un simple ciudadano de a pie. Los héroes de nuestro tiempo son, con frecuencia, autoproclamados mindundis. Esto les da mucha credibilidad, por aquello de la empatía, y por aquello de que nos hacen sentir partícipes. Todos podemos ser héroes y tal.
Su historia empieza de la nada. Abriendo un blog como cualquier hijo de vecino. Sin ánimo de lucro, por supuesto. El voluntarismo es súper importante para mantener la credibilidad. Simplemente empezó a investigar y a escribir sus cosillas para despertar el sentido crítico de la gente. Porque la educación es súper importante y se fragua en un blog. Porque una entrada en un blog puede desarmar a toda una industria. Lo hace por la gente. Para que la gente sea libre y viva en un mundo mejor.
Su obra benefactora se abre camino. Un día sale en la tele. Y luego publica un libro y da charlas. Va por ahí contando la verdad y, según él, poniendo súper nerviosa a la industria de nosequé. A veces cuenta que se ponen en contacto con él para reñirle muy fuerte. Es importante contarlo, porque si el malo no te amenaza, eres un héroe de mierda.
Es muy importante que el malo sea un ente. No es una persona, es un ente. La industria, los gobiernos, el gran hermano que te vigila. A veces es una empresa, pero suficientemente grande como para que entre dentro de la categoría de ente. Una multinacional. Eso, eso, multinacional, que son todas el demonio rojo.
Nadie se convierte en héroe relatando su batalla contra las patatas fritas Manolo. A ver si van a pensar que es una rencilla personal con Manolo y no una lucha súper importante en defensa de los derechos fundamentales y esas cosas serias. Además, a quién le importan las patatas de Manolo, habiendo multinacionales y gobiernos del mal.
El charlatán es un rebelde. Es indomable. Es el azote de lo preestablecido. Su historia es convincente porque es una historia que mola. El relato heroico funciona, con un malo muy malo y muy grande, y con un bueno cargado de buenas intenciones. Un tipo humilde, como tú y como yo. Un tipo que humildemente está haciendo nuestro mundo mejor.
-
Conclusión
Los desinformadores resultan convincentes porque sus intervenciones lo tienen todo: fuentes, prejuicios y un relato heroico.
La tarea de identificar la veracidad de lo que cuentan es complicada a través de las fuentes y a través de la identificación de nuestros propios prejuicios. Por eso, el formato cobra protagonismo a la hora de detectar la desinformación. Si una información se nos presenta en forma de relato heroico, con toda probabilidad, estamos ante un impostor.
Igual que criticamos a los charlatanes que sueltan lindezas sobre las farmacéuticas para venderse a sí mismos y sus pseudoterapias, apliquemos el mismo detector de charlatanería sobre aquellos que dicen enfrentarse a “la perversa industria alimentaria”. Cualquiera que con orgullo diga enfrentarse al “eje del mal”, ya sea la industria, los gobiernos, o el lado oscuro, es un donnadie con ínfulas. Un desinformador que ha convertido su lucha inventada en su empresa, en una cuestión identitaria, en su cometido vital.
El relato heroico es una vaga maniobra de persuasión propia de la posverdad. Detectarlo es, probablemente, la mejor estrategia de identificar la desinformación.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Humildemente, el mundo es mejor gracias a mí se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¿Pueden los números enamorarse de su propia imagen?
En la entrada Los números enamorados del Cuaderno de Cultura Científica, habíamos presentado algunas familias de números naturales que deben su propiedad definitoria al comportamiento de sus divisores, en concreto, de sus divisores propios, es decir, entre los divisores no se considera al propio número. Estuvimos hablando de los números perfectos, abundantes, deficientes, casi perfectos, multi-perfectos, ambiciosos, sublimes, amigos, novios, sociables, intocables, prácticos, raros, e incluso, poderosos.
Detalle de la obra “CITY VIEW” (2003), de la artista japonesa, que vive en Nueva York, Kumi Yamashita. La obra pertenece a la colección permanente de Namba Parks Tower, en Osaka (Japón). Fotografía de la página web de la artistaEn esta entrada vamos a hablar de una serie de familias de números que podríamos denominar en su conjunto como narcisistas, aunque esta sea la denominación particular de una de esas familias. Estos números tienen la propiedad de que, si se toman las cifras que componen cada uno de ellos, después se elevan estas a ciertas potencias y se suman los resultados, se obtiene de nuevo el número.
Recordemos que una persona narcisista es aquella que “cuida demasiado de su arreglo personal, o se precia de atractivo, como enamorado de sí mismo” y el concepto viene del mito griego en el cual el joven y apuesto Narciso se enamoró de su propia imagen reflejada en el agua. En el concepto de números narcisistas la imagen reflejada sería la suma de las potencias de sus cifras, que, al ser el propio número, sería como el enamoramiento de Narciso de su propia imagen reflejada.
Narciso (1594-1596), del artista italiano Caravaggio, perteneciente a la colección de la Galeria Nazionale d’Arte Antica. Imagen de Wikimedia CommonsEmpecemos este recorrido por la familia de números que recibe precisamente el apelativo de números narcisistas. Esta familia está formada por aquellos números que son iguales a la suma de las potencias de sus cifras elevadas a la cantidad de cifras que tiene el número. Por ejemplo, el número 153 es un número narcisista, puesto que, teniendo 3 cifras, que son 1, 5 y 3, se cumple que 13 + 53 + 33 = 1 + 125 + 27 = 153; o también, el número 1634, ya que 14 + 64 + 34 + 44 = 1 + 1296 + 81 + 256 = 1.634.
Los números narcisistas menores que 100.000 son: 1, 2, 3, 4, 5, 6, 7, 8, 9, 153, 370, 371, 407, 1.634, 8.208, 9.474, 54.748, 92.727 y 93.084.
Fijémonos en uno en concreto, el número narcisista 8.208. Este ha alcanzado una cierta fama por haber aparecido en la serie televisiva Los Simpson. Como puede leerse en el libro Los Simpson y las matemáticas del matemático y divulgador Simon Singh, la historia de ese y otros dos números que aparecen en un capítulo de la temporada 17 de esta serie es muy curiosa.
Dentro de la comunidad matemática es conocido que algunos de los guionistas y productores de la serie Los Simpson, así como de la serie Futurama, tienen estudios de matemáticas, y en general, de ciencias, lo que ha motivado que en ambas series aparezcan muchísimas referencias matemáticas. Simon Singh cuenta como, en particular, la profesora Sarah Greenwald, de la Universidad Estatal de los Apalaches, y el profesor Andrew Nestler, de la Universidad de Santa Mónica, empezaron a recoger todas esas referencias y a utilizarlas en sus clases de matemáticas. Cuando esto llegó al oído de los guionistas de la serie Los Simpson, en 2005, decidieron invitarlos a la lectura de un futuro episodio, ese que tendría el título Marge, Homer y el deporte en pareja. Cuando los dos invitados se marcharon, los guionistas se percataron de que en ese episodio no habían incluido ninguna referencia matemática, lo cual les pareció que había sido algo descortés hacia sus invitados y decidieron revisar el guion e incluir un guiño a las matemáticas.
Imagen del episodio Marge, Homer y el deporte en pareja, en la que aparecen tres números curiosos, uno de ellos un número narcisista, 8.208Como se puede ver en la anterior imagen de ese capítulo, decidieron incluir en la pantalla del estadio de béisbol, una mención a la cantidad de público asistente, dando cuatro opciones. La primera 8.191, que es lo que se conoce como un número primo de Mersenne, los cuales son de la forma 2p – 1, en concreto, 213 – 1 = 8.191. La segunda es 8.128, que es un número triangular (véase la entrada El asesinato de Pitágoras, historia y matemáticas (y II)). La tercera cantidad era el número narcisista 8.208, que verifica que 8.208 = 84 + 24 + 04 + 84. La última opción era simplemente que no se podía conocer esa cantidad.
Es fácil observar que solo existe un número finito de números narcisistas. Veámoslo. Si tomamos un número con n cifras, se tiene que ese número es mayor que 10n – 1 y menor que 10n. Por otra parte, la suma de las potencias de sus cifras elevadas a la cantidad de cifras del número alcanza como mucho el valor de 9n + … + 9n (sumado n veces) = n x 9n. Pero resulta que para n > 60, se tiene que n x 9n n – 1, luego la suma de las potencias de las cifras del número elevadas a la cantidad de cifras nunca podrá alcanzar al número. Es decir, no existen números narcisistas con más de 60 cifras.
De hecho, solamente hay 88 números narcisistas (puede verse aquí la lista completa), como fue demostrado por D. T. Winter, en 1985. Además, el mayor de ellos solamente tiene 39 cifras, es
115.132.219.018.763.992.565.095.597.973.971.522.401.
El matemático británico G. H. Hardy (1877 – 1947), en su libro Apología de un matemático, dice en referencia a estos números…
Se trata de hechos excepcionales, ideales para las columnas de acertijos y similares que aparecen en la sección de pasatiempos del periódico para entretener a los aficionados a las matemáticas, pero no hay nada en ellos que atraiga mucho a un matemático.
Portada de la edición en castellano, de la editorial Capitán Swing, del libro Apología de un matemático, de G. H. HardyEste concepto puede extenderse a una familia un poco más amplia, la de los números que son iguales a la suma de las potencias de sus cifras elevadas a una cantidad fija cualquiera, no necesariamente la cantidad de cifras del número, que es el caso de los números narcisistas. Por ejemplo, el número 4.150, que puede expresarse como la suma de las potencias quintas de sus cifras (que son solo cuatro), así 45 + 15 + 55 + 05 = 1.024 + 1 + 3.125 = 4.150. En una nota en la revista Mathematical Gazette, de 1968, se sugiere el nombre de “powerful numbers”, que es el mismo nombre que reciben los números que en la anterior entrada del Cuaderno de Cultura Científica, Los números enamorados, se denominaron poderosos, por lo que llamaremos a estos otros, números potentes. Por otra parte, en el libro Mathematics on vacation, su autor, el químico, editor y matemático recreativo Joseph Madachy (1927 – 2014), les llama números “invariantes digitales perfectos”.
Los números potentes menores de 100.000 son: 1, 2, 3, 4, 5, 6, 7, 8, 9, 153, 370, 371, 407, 1.634, 4.150, 4.151, 8.208, 9.474, 54.748, 92.727 y 93.084, solamente dos más que los narcisistas, a saber, 4.150 y 4.151. El siguiente número poderoso, que además no es narcisista, es 194.979 = l5 + 95 + 45 + 95 + 75 + 95.
En la enciclopedia on-line de sucesiones de números enteros, en la información sobre la sucesión A023052, aparece un listado de los 255 números potentes conocidos. El más grande, que además no es narcisista, tiene 105 cifras y se obtiene al elevar cada una de sus cifras a la potencia 109 y sumarlas. Es …
926.141.173.758.288.802.620.975.817.393.837.795.715.817.835.556.117.230.343.321.424.553.048.655.411.019.641.033.929.959.544.403.221.763.375
A raíz del concepto de número invariante digital perfecto, Joseph Madachy define los “números invariantes digitales recurrentes”, que podríamos denominar también números potentes recurrentes. Un número es un invariante digital recurrente, de orden k, si al construir la sucesión de números, empezando por el mismo, formados por las sumas de las potencias k-ésimas de las cifras del número anterior, se llega de nuevo al número original en un número finito de pasos, llamado longitud del ciclo. Por ejemplo, el número 55 es un invariante digital recurrente de orden 3, ya que 53 + 53 = 250, 23 + 53 + 03 = 133 y 13 + 33 + 33 = 55, siendo longitud del ciclo igual a 3.
Veamos un ejemplo de orden 4, el número 1.138. Calculemos la sucesión asociada, 14 + 14 + 34 + 84 = 4.179, 44 + 14 + 74 + 94 = 9.219, 94 + 24 + 14 + 94 = 13.139, 14 + 34 + 14 + 34 + 94 = 6.725, 64 + 74 + 24 + 54 = 4.338, 44 + 34 + 34 + 84 = 4.514 y regresamos al origen, después de un ciclo de longitud 8, 44 + 54 + 14 + 44 = 1.138.
Tabla de números invariantes digitales recurrentes de órdenes, entre 2 y 8Otra familia de números relacionada con los números narcisistas, pero a la que nadie parece haber bautizado, son aquellos números que son iguales a la suma de las potencias de sus cifras elevadas a la posición que ocupan en el número, empezando por la izquierda. Por ejemplo, los números 89, 175, 2.427 y 2.646.798 son de estos números, ya que:
81 + 92 = 8 + 81 = 89,
11 + 72 + 53 = 1 + 49 + 125 = 175,
21 + 42 + 23 + 74 = 2 + 16 + 8 + 2.401 = 2.427, y
21 + 62 + 43 + 64 + 75 + 96 + 87 =
2 + 36 + 64 + 1.296 + 16.807 + 531.441 + 2.097.152 = 2.646.798.
De nuevo, se puede demostrar que esta familia de números es finita. Más aún, no puede haber números de esta familia con más de 22 cifras. Veámoslo.
Si tenemos un número con n cifras, entonces el número es mayor que 10n – 1 y si además pertenece a esta familia, será menor que 9 + 92 + … + 9n, pero, por la fórmula para la suma de los primeros números de la serie geométrica, esta suma es igual a 9 x (9n – 1) / 8 n + 1 / 8. En consecuencia, 10n – 1 n + 1 / 8, que nos lleva, tomando logaritmos, a que n
De hecho, solo hay 19 números que verifiquen esta propiedad: 1, 2, 3, 4, 5, 6, 7, 8, 9, 89, 135, 175, 518, 598, 1.306, 1.676, 2.427, 2.646.798 y 12.157.692.622.039.623.539, y el mayor tiene 20 cifras.
Otra familia de números relacionada con los números narcisistas es la formada por los números de Munchausen, aquellos números que son iguales a la suma de sus cifras elevadas a ellas mismas. Por ejemplo, el número 3.435 es un número de Munchausen, ya que 33 + 44 + 33 + 55 = 3.435.
El nombre fue sugerido por el matemático e ingeniero de software holandés Daan van Berkel, en su artículo On a curious property of 3435 (2009), en referencia al barón de Munchausen. En los números de Munchausen cada cifra se eleva a sí misma, de la misma forma que el barón de Munchausen se eleva a sí mismo, tirando de su coleta, con lo cual consigue volar y evita caer en una ciénaga.
Ilustración de la edición francesa de 1862 del libro Las aventuras del barón de Munchausen de Rudolf Erich Raspe (1785), realizada por el ilustrador francés Gustave Doré (1832 – 1883), en la que el barón de Munchausen sale volando de una ciénaga tirando de su coleta hacia arriba. Imagen de Wikimedia Commons.Esta es una propiedad muy rígida. El único número de Munchausen, salvo el número 1 que lo es trivialmente, es el número 3.435, como demostró Daan van Berkel. Luego, podemos decir que este es un número muy especial.
Aunque si observamos la definición nos encontramos con un problema. Si una de las cifras del número es el 0, entonces tenemos que sumar 00 y esto es un problema. ¿Cuánto vale 00? Aunque es una polémica no cerrada del todo, la posición de la comunidad matemática es que ese valor debe ser 1. En ese caso, como demostró Daan van Berkel, solo hay dos números de Munchausen 1 y 3.435.
Sin embargo, si admitiésemos que 00 = 0, o modificamos la definición para que solo se considerasen las cifras no nulas, entonces habría otro número de esta familia, el 438.579.088, que verifica que
44 + 33 + 88 + 55 + 77 + 99 + 88 + 88 = 438.579.088.
Número 3.435 realizado con las Tarjetas de Cumpleaños Art Nouveau de la diseñadora estadounidense Laura Beckman. Imágenes de la página de Laura BeckmanTambién se pueden definir los números de Munchausen opuestos, es decir, aquellos números que son iguales a la suma de sus cifras elevadas a ellas mismas, pero no cada una con la suya, sino en el sentido opuesto. Por ejemplo, si consideramos el número 325, sus cifras son 3, 2 y 5, y vamos a tomar sus potencias elevadas a las cifras, pero en el orden opuesto, 5, 2, 3, quedando 35 + 22 + 53 = 243 + 4 + 125 = 372, luego este número no es de Munchausen opuesto. De nuevo, existen solamente dos números en esta familia:
48.625 = 45 + 82 + 66 + 28 + 54,
397.612 = 32 + 91 + 76 + 67 + 19 + 23.
Escultura Passing Time (2011), del artista neozelandés Anton Parsons, en Christchurch (Nueva Zelanda). Imagen de la página web de Anton ParsonsLo cierto es que el concepto de número narcisista ha generado una enorme familia de generalizaciones. A continuación, haremos un breve repaso por algunas de ellas.
A. Suma de dos cuadrados. Si existiera un número narcisista con dos cifras, lo cual ya sabemos que no existe, entonces este sería igual a la suma de los cuadrados de sus cifras. Se puede generalizar este concepto para números de más de dos cifras, pero dividiendo al número en dos “mitades” de cifras. Es decir, a esta familia pertenecen los números que son iguales a las sumas de los cuadrados de dos “mitades” del número. Veamos algunos ejemplos:
1233 = 122 + 332, 8833 = 882 + 332, 5.882.353 = 5882 + 23532,
1.765.038.125 = 17.6502 + 38.1252, 116.788.321.168 = 116.7882 + 321.1682.
B. Suma de tres cubos. De forma análoga, se pueden considerar aquellos números que son iguales a la suma de los cubos de tres “tercios” del número.
22 18 59 = 223 + 183 + 593,
166 500 333 = 1663 + 5003 + 3333.
C. Números factoriones. Estos números son aquellos que son iguales a la suma de los factoriales de sus cifras. Por ejemplo, 145 es un factorión, ya que
1! + 4! + 5! = 1 + 24 + 120 = 145.
Los números 1 y 2 son trivialmente números factoriones, ya que 1! = 1 y 2! = 2. Y el número 40.585 también es un número factorión, ya que
4! + 0! + 5! + 8! + 5! = 24 + 1 + 120 + 40320 + 120 = 40.585.
Resulta que estos son los únicos factoriones que existen. Supongamos que tenemos un número de n cifras, entonces este es mayor que 10n – 1, pero si es un número factorión, entonces es menor que la mayor suma posible de los factoriales de sus dígitos, que es n x 9!, de donde, 10n – 1 n x 9!. Pero resulta que, para n = 8 se obtiene que 107 = 10.000.000 > n x 9! = 2.903.040, luego no existen números factoriones de 8 cifras. Y, por inducción, se puede demostrar que ocurre para todos los n mayores o iguales que 8. Para n = 7, la suma máxima de los factoriales de las cifras que se puede obtener es 7 x 9! = 2.540.160, luego solo hay que comprobar los que son menores que esta cantidad. Y solo existen los cuatro anteriores.
D. Pares de números, o números “amigos”, para estas propiedades.
Por ejemplo, un par de números tales que la suma de los cuadrados de dos “mitades” de cada uno de ellos da el otro número, como los números 3.869 y 6.205, para los cuales
382 + 692 = 1.444 + 4.761 = 6.205 y 622 + 052 = 3844 + 25 = 3.869,
o el par de números
5.965 = 772 + 062 y 7.706 = 592 + 652.
Lo mismo para los cubos,
13 + 33 + 63 = 244 y 23 + 43 + 43 = 136,
o los factoriales, donde los tres números 169, 36.301 y 1.454 forman una cadena:
1! + 6! + 9! = 36.301, 3! + 6! + 3! + 0! + 1! = 1.454 y 1! + 4! + 5! + 1! = 169.
E. Números narcisistas salvajes. Estos números, al igual que los narcisistas, pueden ser expresados a partir de sus cifras, pero de una forma particular, las cifras deben de aparecer en el orden que aparecen en el número y pueden utilizarse las operaciones siguientes, suma, resta, multiplicación, división, potencia, radical y factorial.
Mostremos una pequeña colección de distintos números narcisistas salvajes
E incluso, se puede considerar que el orden de las cifras sea cualquiera, en cuyo caso se habla de números selfie. Un par de ejemplos serían
34.562 = 2 − (3 − 5) x6! x4!y87.369 = (3! + 7) x8! / 6 + 9.
Social circle (2011), del artista neozelandés Anton Parsons. Imagen de la página web de Anton ParsonsBibliografía
1.- Clifford A. Pickover, El prodigio de los números. Desafíos, paradojas y curiosidades matemáticas, Ma Non Troppo (ediciones Robinbook), 2002.
2.- Clifford A. Pickover, La maravilla de los números. Un viaje por los secretos de las matemáticas, sus desafíos y caprichos, Ma Non Troppo (ediciones Robinbook), 2002.
3.- Joseph Madachy, Mathematics on vacation, Charles Scribner’s sons, 1966.
4.- Wolfram Mathworld: Narcissistic Number
5.- Simon Singh, Los Simpson y las matemáticas, Ariel, 2013.
6.- G. H. Hardy, Apología de un matemático, Capitán Swing, 2017.
7.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A0230052 (números potentes o invariantes digitales perfectos)
8.- Wolfram Mathworld: Recurring Digital Invariant
9.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A032799
10.- Daan van Berkel, On a curious property of 3435 (2009) (arXiv:0911.3038)
11.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A046253 (números de Munchausen)
12.- Harvey Heinz, Narcissistic numbers
13.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A014080 (números factoriones)
14.- George D. Poole, Integers and the sum of the factorials of their digits, Mathematics Magazine, vol. 44, n. 5, p. 278-279 (1971).
15.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A193069 (números narcisistas salvajes)
16.- I. J. Taneja, Different Types of Pretty Wild Narcissistic Numbers: Selfie Representations-I, RGMIA Research Report Collection, n. 18, Article 32, pp. 1-43 (2015).
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo ¿Pueden los números enamorarse de su propia imagen? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los colores del cielo
Newton sugirió que los colores aparentes de los objetos dependen de qué color se refleja o dispersa más fuertemente para quien observa el objeto. En general, no hay una forma sencilla de predecir a partir de la estructura de la superficie, de la composición química o de cualquier otro factor qué colores reflejará o dispersará una sustancia. Eso no quiere decir que existan, sino que se basan en modelos matemáticamente muy complejos. Sin embargo, algo que la mayoría de nosotros vemos todos los días se puede explicar de una forma bastante simplificada a la par que instructiva: los colores del cielo
Thomas Young demostró experimentalmente que diferentes longitudes de onda de la luz corresponden a diferentes colores. La longitud de onda de la luz se puede especificar en unidades de nanómetros (nm; 1 nm = 10-9 m) o, alternativamente, en ångstroms (Å), el nombre de Anders Jonas Ångstrom, un astrónomo sueco que, en 1862, utilizó técnicas espectroscópicas para detectar La presencia de hidrógeno en el Sol. Un ångstrom es igual a 10-10 m. El rango del espectro visible para los humanos es de aproximadamente 400 nm (4000 Å) para luz violeta a, aproximadamente, 700 nm (7000 Å) para la luz roja.
Los pequeños obstáculos pueden dispersar la energía de una onda incidente de cualquier tipo en todas las direcciones, y la cantidad de dispersión depende de la longitud de onda. Como regla general, cuanto mayor sea la longitud de onda en comparación con el tamaño del obstáculo, menor será la dispersión de la onda por el obstáculo. Para partículas más pequeñas que una longitud de onda, la cantidad de dispersión de luz varía inversamente con la cuarta potencia de la longitud de onda. Por ejemplo, como la longitud de onda de la luz roja es aproximadamente el doble de la longitud de onda de la luz azul, la dispersión de la luz roja es solo alrededor de un dieciseisavo* de la dispersión de la luz azul.
Imagen: PixabayCon este simple dato ya sabemos por qué el cielo de mediodía de un día despejado es azul. La luz del Sol se dispersa por las moléculas y las micropartículas partículas de polvo presentes en las capas altas de la atmósfera. Todos estos obstáculos tienen dimensiones muy pequeñas en comparación con las longitudes de onda de la luz visible. Por lo tanto, en un día claro, la luz dispersa mucho más la luz de longitud de onda corta (luz azul) que la luz de longitudes de onda más largas y, por así decirlo, llena la luz azul llena el cielo de punta a punta. Debemos ser conscientes de que el color depende del observador. Cuando miras hacia arriba en un cielo despejado, es principalmente esta luz dispersada la que entra en tus ojos. El rango de longitudes de onda cortas dispersas (y la sensibilidad al color del ojo humano) conduce a la sensación de azul.
Imagen: PixabayPero, ¿qué ocurre un día con neblina cuando observamos la puesta de sol o el amanecer? Lo que nuestro ojo recibe directamente del Sol es un haz de luz en el que las longitudes de onda más cortas se han dispersado completamente por el camino, no así las longitudes de onda más largas. De esta forma percibes el cielo alrededor del Sol poniente como rojizo.
Imagen: PixabaySi la Tierra no tuviera atmósfera, no habría dispersión de la luz, el cielo aparecería negro y las estrellas serían visibles durante el día. De hecho, comenzando en altitudes de aproximadamente 16 km, donde la atmósfera se vuelve bastante fina, el cielo se ve negro y las estrellas se pueden ver durante el día, como han descubierto los que hayan volado a gran altitud, incluidos los astronautas [2].
Imagen: PixabaySi la luz es dispersada por partículas considerablemente más grandes que una longitud de onda (como las gotas de agua en una nube), no hay mucha diferencia en la dispersión de diferentes longitudes de onda. Como todas las longitudes de onda se dispersan, el resultado de su mezcla es blanco. Blanco color nube.
Imagen: Sergio Cambelo / flickrEse azul grisáceo o parduzco que a menudo cubre las grandes ciudades es causado principalmente por partículas emitidas por motores de combustión interna (automóviles, camiones, calderas de calefacción [3]) y por plantas industriales. La mayoría de estas partículas contaminantes son invisibles, y varían en tamaño, desde los 10-6 m hasta los 10-9 m. Dichas partículas proporcionan una base a la que se adhieren gases, líquidos y otros sólidos. Estas partículas más grandes dispersan la luz y producen neblina. La gravedad tiene poco efecto sobre las partículas [4] hasta que se vuelven muy grandes. Pueden permanecer en la atmósfera durante meses si no se limpian por la lluvia, nieve o el viento en cantidad y tiempo suficientes.
Más información en Y el Sol se volvió azul
Notas:
[1] Un dieciseisavo (1/16) es 1 dividido entre 24.
[2] Por eso en la Luna, donde no hay atmósfera el cielo se ve negro y se ven las estrellas aun estando al sol. Los conspiranoicos suelen citar las imágenes del cielo lunar negro pero sin estrellas como prueba de que los viajes a la Luna fueron un montaje. Lo único que demuestran es que no saben de fotografía: si el sol está presente tienes que tener muy poco tiempo de exposición y el obturador casi cerrado para que se vean cosas que son muchísimo más brillantes para la cámara que las estrellas.
[3] Estas calderas funcionan con gasóleo, biomasa o…carbón. Por ejemplo, se estima que en Madrid Central a comienzos de 2019 aun estaban operativas 200 calderas de carbón y unas 4000 de gasóleo (fuente). Las calderas generan la mitad de las partículas que contaminan el aire (EEA).
[4] Que están en un fluido, en el aire, no en el vacío.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Los colores del cielo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¡Salvad a las ranas!
Si un hongo llamado Batrachochytrium dendrobatidis no les tiene a usted y a toda su familia asustados y amenazados es porque no son ustedes una rana, un sapo u otro tipo de anfibio. Porque si lo fuesen, lo estarían. El Bd (acortemos) ha sido declarado recientemente como el patógeno más peligroso para la biodiversidad del que se tiene noticia hasta ahora: es responsable de la desaparición de 90 especies de anfibios y amenaza a más de 500. De ellas, 124 han reducido el número de sus ejemplares hasta en un 90% y no está claro que puedan llegar a recuperarse nunca. Los especialistas no saben a día de hoy cómo detenerlo.
Un estudio llevado a cabo en 2018 sugiere que el hongo se originó en la península de Corea y desde allí se diseminó por todo el mundo en animales infectados que se colaron en las cargas de exportación, ya fuese como polizones o como mercancías alimenticias o como mascotas. Hoy se puede encontrar en más de 60 países de todo el mundo y está causando estragos en América Latina, Asia y África.
Este patógeno se transmite por contacto directo o a través de aguas infectadas y ataca a los animales a través de la keratina presente en su piel, que forma parte del sistema respiratorio de los anfibios. Así, causa que se vayan asfixiando a la vez que deteriora su sistema inmune y termina causándoles un ataque cardíaco.
Suena terrible, y lo es, pero el Bd ha tenido al menos un aspecto positivo para las ranas y similares: estamos hablando de ellas y de las amenazas que sufren. Como les pasa a muchos animales menos agraciados que tigres, pandas, delfines, águilas y elefantes, sus penurias, incluidas aquellas que el ser humano les causa, pasan más desapercibidas y se les defiende menos, a pesar de ser parte imprescindible de muchos ecosistemas, necesarios para que se mantengan los equilibrios tróficos y dependientes de la conservación de los recursos naturales.
Y eso que son unos animales fascinantes de los que la mayoría no sabemos lo suficiente. Por si es su caso, aquí van algunas cosas sobre las ranas que quizá usted no sepa.
¿En qué se diferencia una rana de un sapo?
En lo que a su taxonomía se refiere, ranas y sapos forman parte del género Anuro y de forma generalizada se les llama anuros a ambos. A partir de aquí, las diferencias entre ambos son a nivel coloquial y popular, pero taxonómicamente no hay una categorización establecida.
Rana Silverstoneia flotator, originaria de Costa Rica y Panamá. Imagen: Wikimedia Commons
Se considera que las ranas son, en general, más pequeñas, de piel suave y brillante, y más gráciles, con patas más finas que les permiten dar mayores saltos. Por el contrario los sapos son más rugosos, de colores más discretos y más corpulentos, con saltos más pequeños. Las ranas ponen sus huevos en racimos mientras que los sapos los ponen en forma de ristras.
Sin embargo, no todas las especies cumplen todas estas características, y por eso no es una división oficial.
¿Por qué las ranas no se congelan en invierno?
Los anfibios han colonizado prácticamente todos los hábitats del mundo, y en algunos de ellos puede llegar a hacer mucho frío. Dado el porcentaje de agua que contiene su cuerpo, y que son por naturaleza animales de sangre fría, ¿cómo lo hacen para no congelarse en invierno?
Las ranas hibernan, como hacen otros animales, como respuesta al frío del invierno. Para hibernar, buscan un espacio que les proteja del tiempo y de los depredadores y se acomodan en él. Entonces su metabolismo se ralentiza de forma drástica y consiguen dormir durante meses utilizando para ello las reservas de energía que van acumulando durante las estaciones cálidas. Cuando vuelve a hacer calor, despiertan y salen de su escondrijo para volver a alimentarse y dedicarse a la gustosa tarea de aparearse.
Sapo común en plena reproducción. Imagen: Wikimedia Commons
Las ranas acuáticas pueden hacer esto bajo el agua, pero a diferencia de otros animales acuáticos, como las tortugas, que se pueden enterrar bajo el barro y obtener de él las pequeñísimas cantidades de oxígeno que requieren durante la hibernación, las ranas deben situarse cerca de corrientes de agua ricas en oxígeno e hibernar sobre el barro no bajo él. Muchas salen ligeramente del letargo y nadan lentamente de vez en cuando.
Las ranas terrestres hibernan en tierra, a menudo enterrándose bien bajo el suelo para situarse a salvo de depredadores y también huyendo del nivel de congelación. Otras se evitan el esfuerzo de cavar y enterrarse ubicándose en grietas lo suficientemente profundas de troncos o rocas para quedar fuera del alcance de cualquiera que pretenda darles un bocado.
Para evitar que el frío les haga daño mientras hibernan cuentan con un efectivo sistema anticongelante: una alta concentración de glucosa en sus órganos vitales evitan que se congelen. Pueden llegar a formarse algunos cristales de hielo en algunas partes del cuerpo, como por ejemplo la vejiga, y el animal parecerá muerto durante semanas pero cuando llegue la primavera y las temperaturas suban, esos cristales desaparecerán, el cuerpo de la rana estará intacto y ésta recuperará su actividad sin problema.
¿Cómo evitan deshidratarse en las estaciones secas?
Si bien la mayoría de los anfibios viven en lugares donde ninguna estación es tan seca como para suponer un problema, unas pocas se han adaptado para conquistar esos hábitats. En esos casos, practican la estivación, la versión veraniega de la hibernación: el animal entra en un estado durmiente como respuesta a las condiciones extremas temporales del entorno.
Para hacerlo, se entierran en el suelo, allí donde aun se conserva un poco de humedad y mientras duermen ponen en marcha un ingenioso truco: generan varias capas de piel muerta, formando una especie de capullo impermeable que les envuelve y les ayuda a conservar su propia humedad, dejando expuestos al exterior solamente los agujeros respiratorios para evitar asfixiarse. Cuando termina la estación seca y vuelven las lluvias, se liberan de su caparazón y regresan a la superficie para rehidratarse.
¿Por qué pasan de renacuajos a ranas?
Cuando nacen, las ranas no son ranas más pequeñas, sino un renacuajo, que a simple vista parece un animal de una especie totalmente distinta: una cabeza grande y redondeada con una ancha cola que les permite desplazarse y alimentarse en el agua. Pocas semanas después desarrollan las poderosas patas traseras que les ayudan a saltar fuera del agua y alimentarse en un terreno nuevo. No son las únicas que practican la metamorfosis, muchos peces e insectos lo hacen también. Pero ¿por qué?
Renacuajo de la rana bermeja, días antes de su metamorfosis. Imagen: Wikimedia CommonsSegún la investigadora holandesa Anna ten Brink, se trata de una estrategia que permite a una especie aumentar potencialmente sus opciones de alimentación, y es una estrategia tan eficaz que, sin bien ha aparecido contadas veces a lo largo de la evolución, una vez que lo hace rara vez desaparece.
Ten Brink y su equipo partieron de la idea de que los animales que no se metamorfosean y siempre tienen el mismo tipo de cuerpo adaptado al mismo tipo de entorno, están bien preparados para comer un tipo de alimento durante toda su vida. Pero si ese entorno contiene otro tipo de alimento, ¿podrían los adultos incorporarlo si durante su crecimiento su anatomía cambiaba de una forma distinta?
La respuesta que observaron es que los animales esto rara vez ocurre, ya que entonces las crías tendrían más dificultad para nutrirse del primer alimento y un mayor porcentaje moriría antes de llegar a la edad adulta.
Aquí, la metamorfosis es una solución evidente: los animales jóvenes siguen adaptados al alimento original y los adultos cambian completamente de cuerpo para poder consumir el segundo. Claro que esto supone pagar un alto precio en forma de una gran cantidad de calorías y el riesgo de que el proceso salga mal y el animal sufra defectos que acorten notablemente su vida.
Incluso aunque salga bien, el periodo de metamorfosis es un momento de especial vulnerabilidad en el que no pueden huir ni defenderse en caso de ataque de un depredador. Por eso ten Brink especula que la metamorfosis sale adelante cuando la recompensa evolutiva es realmente buena, cuando los que la completan tienen a su alcance una alimentación muy nutritiva que les permite reproducirse numerosamente con éxito.
Referencias:
A deadly amphibian disease goes global – Science
The Evolutionary Ecology of Metamorphosis – The American Naturalist
¿Por qué un animal cambiaría su cuerpo por otro? – The New York Times
How do frogs survive winter? Why don’t they freeze to death – American Scientist
What’s The Difference Between a Frog and a Toad? – Live Science
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo ¡Salvad a las ranas! se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Tega enseña lenguaje
Tega cuenta historias a niños y niñas leyéndoles libros ilustrados. De vez en cuando les hace preguntas para conocer su opinión acerca de lo que les ha contado, saber si le entienden, interesarse por el significado de alguna palabra o conocer sus ideas sobre algún aspecto en particular de lo que les ha leído.
Al contar historias se mueve, adopta posturas diferentes y pone caras. También ilustra lo que cuenta con imágenes que proyecta en una pantalla. Además, se fija y registra la expresión facial y la disposición corporal de quien escucha el cuento; de esa forma sabe si le interesa y está atento a lo que dice. Y al acabar de leerle el libro, le pide que se lo cuente con sus propias palabras.
Tega es un robot con cubierta de peluche que ha sido desarrollado por un equipo del Massachusetts Institute of Technology (MIT) formado por ingenieros, informáticos y artistas. Lo han diseñado para que enseñe lenguaje a niños y niñas de corta edad, y fue presentado a finales de enero pasado en Hawai, en la AAAI Conference on Artificial Intelligence.
Tega ha demostrado ser competente en la tarea para la que fue creado. En el marco de un experimento leyó cuentos a niños y niñas de entre 4 y 6 años de edad. Lo hizo en sesiones semanales de una hora de duración. En un grupo las lecturas eran personalizadas. Cada vez que interactuaba con los chiquillos Tega aprendía, sabía más de sus habilidades y conocimientos verbales. De esa forma, para la siguiente sesión escogía un cuento más adecuado al nivel de competencia verbal de cada uno de ellos, tanto por las estructuras que eran capaces de manejar como por el vocabulario que conocían. Y además, iba sustituyendo algunas palabras por sinónimos menos conocidos.
En un segundo grupo las lecturas no eran personificadas. Tega escogía al azar la historia de una biblioteca de cuentos. Eso sí, cada dos semanas elevaba la dificultad del texto. Además de los dos grupos que interactuaron con el robot, el equipo utilizó un grupo de control que no interactuó con Tega.
Varias semanas después de terminar las sesiones, el equipo evaluó el conocimiento de vocabulario en los dos grupos experimentales y en el control. Todos los que habían interactuado con el robot habían mejorado sus conocimientos verbales, pero los del grupo con los que Tega se había relacionado de forma personalizada mejoraron más. En un test de conocimiento verbal cometieron un 23% menos de errores que antes de las sesiones con el robot. Y la tasa de error de quienes no habían interactuado de forma personalizada con él solo se redujo la mitad que la del grupo anterior. Los del grupo control no mejoraron.
Además de saber más vocabulario, los pequeños que habían interactuado con Tega de forma personalizada contaban historias más largas y más complejas que los otros niños, y su lenguaje corporal indicaba que prestaban una mayor atención al robot durante las sesiones.
No han creado Tega para que enseñe lenguaje como lo harían maestros y maestras. Lo han hecho para que sirva de apoyo al personal docente y para su uso bajo circunstancias especiales. Pero uno no puede dejar de pensar que cada vez son más los ámbitos en los que se diseñan robots para sustituir o “complementar” actividades humanas. Antes pensábamos que los robots se limitarían a la manufactura, limpieza y tareas repetitivas, en general. Pero ya hay muñecas sexuales robóticas, se proyectan androides que cuiden a personas y, como acabamos de ver, se crean robots capaces de enseñar porque, entre otras habilidades, pueden aprender.
Fuentes: Tega, a New Social Robot Platform; Tega; Smart and fluffy storytelling robot to be trialled in US classrooms
——————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Tega enseña lenguaje se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¿Qué pasa en tu cerebro cuando duermes?
De la misma forma que el hígado, el corazón, los pulmones o los riñones no dejan de funcionar cuando duermes, el encéfalo tampoco lo hace. Si alguno de estos órganos lo hiciese el resultado es el mismo: la muerte. Pero, si la consciencia no está operativa, ¿a qué se dedica el cerebro mientras dormimos?
Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.
Edición realizada por César Tomé López
El artículo ¿Qué pasa en tu cerebro cuando duermes? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Geología, Antropoceno y cambio climático
La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.
Nauru. Fuente: Wikimedia CommonsTras su lanzamiento por Paul Crutzen en el año 2000, el alcance social y académico del Antropoceno ha crecido de una manera sorprendente. Este concepto se acuñó para materializar nuestra percepción de que las actividades humanas han cambiado el Sistema Tierra. El comportamiento de los océanos, la atmósfera, la superficie terrestre, la criosfera, la biosfera y el clima ya no es el mismo que ha caracterizado durante más de 11.000 años la época geológica en la que formalmente aún vivimos, el Holoceno.
El hecho de que los humanos podamos afectar de modo tan significativo el curso de la evolución geológica de nuestro planeta dio pie en 2009 a la creación del Grupo de Trabajo sobre Antropoceno que está examinando la posibilidad de la formalización e inclusión del término en la Tabla Cronoestratigráfica Internacional (conocida como la Escala del Tiempo Geológico). Ya que la historia de la Tierra anterior a la documentación humana sólo se puede reconstruir a partir de su registro en las rocas, este enfoque centrado en el análisis de las evidencias contenidas en los sedimentos recientes es fundamental para comparar adecuadamente las historias moderna y antigua de nuestro planeta y, por lo tanto, para medir la magnitud y la velocidad de la perturbación planetaria provocada por los humanos.
El Antropoceno se caracteriza por un conjunto de señales de naturaleza sedimentaria, biológica y química que se pueden encontrar en la mayor parte de la superficie terrestre. Algunas de estas evidencias tienen equivalentes en unidades geológicas más antiguas (por ejemplo, el enriquecimiento en metales), pero otras señales son completamente novedosas (como los radioisótopos artificiales o los plásticos dentro de los sedimentos). Estas evidencias reflejan una fase distinta en la historia de la Tierra, que se alejó de su estabilidad general holocena a partir de la Revolución Industrial y, en particular, desde la “Gran Aceleración” en el crecimiento de la población humana, la industrialización y la globalización a mediados del siglo XX, momento que se considera como el límite más adecuado para marcar su inicio.
Desde el punto de vista climático, el rápido aumento de los gases de efecto invernadero desde el siglo XIX (Figura 1) ha provocado un creciente ascenso de la temperatura y del nivel del mar, acompañados por una pérdida de hielo en los continentes. Este calentamiento ha alcanzado ya niveles más altos que los detectados durante el Holoceno y se acerca a los de otras etapas interglaciares del periodo Cuaternario.
Figura 1. Tasas de cambio en las concentraciones de gases de efecto invernadero desde el inicio de la Revolución Industrial. La década de 1950 marca una aceleración de su crecimiento (gráficos originales en W. Steffen, W. Broadgate, L. Deutsch, O. Gaffney y C. Ludwig (2015) “The trajectory of the Anthropocene: The Great Acceleration” The Anthropocene Review 2, 81-98). Imagen tomada de WWF (2018) “Informe Planeta Vivo-2018: Apuntando más alto”. M. Grooten y R.E.A. Almond (Eds.), Suiza.La asociación de los humanos con las regiones costeras se remonta a las primeras civilizaciones, cuando nos concentramos en las desembocaduras de los ríos, deltas y estuarios, debido a la disponibilidad de alimentos abundantes y accesibles. Durante el siglo XX, la zona costera ha cambiado profundamente a medida que las poblaciones humanas iban creciendo y los ambientes costeros se ocupaban para la agricultura, la urbanización y la industria. Gran parte de la población mundial vive hoy en las áreas costeras con una densidad 3 veces superior al promedio mundial y la mayoría de las megaciudades planetarias también se encuentran en la costa. Sin embargo, los registros instrumentales y geológicos muestran que la velocidad de aumento reciente del nivel marino es anómala con respecto a los últimos miles de años y muchas zonas costeras se encuentran ahora amenazadas. Se ha observado globalmente una transición en el ascenso marino desde valores relativamente bajos durante el Holoceno superior (3 mm/año.
El estudio del nivel marino es un campo muy interdisciplinar y de creciente importancia. En el 1º informe de evaluación del IPCC (1990) no había referencia alguna a los cambios en el nivel del mar anteriores al siglo XX. Ya en el 3º informe de evaluación (2001) se incorporó el cambio del nivel marino a escalas de tiempo más largas, pero sólo en el 4º informe (2007) se agrupó la información geológica sobre el paleoclima en un solo capítulo, como asimismo se ha hecho en el 5º y último informe de evaluación (2013). Los registros instrumentales del nivel del mar comenzaron con el mareógrafo de Ámsterdam en 1682 y la altimetría de precisión por satélite se inició tras el lanzamiento del TOPEX/Poseidon a finales de 1992. Estos datos han demostrado que las velocidades de cambio del nivel del mar varían regionalmente y a escalas temporales de décadas debido a cambios en la densidad del océano. Es ahí donde los datos geológicos se hacen necesarios para poder situar estas estimaciones instrumentales en un contexto temporal a más largo plazo (Figura 2).
Figura 2. Fotografía del testigo, contenido en arena, principales especies de microfósiles (1: Entzia macrescens; 2: Trochammina inflata), elevación de la paleomarisma (PME), actividad de los radioisótopos Pb-210 y Cs-137 y distribución del Pb y Zn durante los últimos 300 años en un sondeo perforado en la marisma de Murueta (Reserva de la Biosfera de Urdaibai). Imagen modificada de A. García-Artola, A. Cearreta y E. Leorri (2015) “Relative sea-level changes in the Basque coast (northern Spain, Bay of Biscay) during the Holocene and Anthropocene: The Urdaibai estuary case” Quaternary International 364, 172-180. DOI: 10.1016/j.quaint.2014.06.040Durante el siglo XX, el nivel del mar ha aumentado globalmente unos 30 cm y la magnitud del ascenso del nivel marino previsto para este siglo es un tema muy controvertido. Las últimas proyecciones del IPCC (2019) auguran un aumento medio del nivel del mar a finales del siglo XXI de 28–57 cm para un escenario con reducción drástica de las emisiones de efecto invernadero, y de 55–140 cm si hubiese un crecimiento de estas emisiones. Otras estimaciones recientes sugieren que el ascenso medio global del nivel del mar podría incluso superar los 150-200 cm en el año 2100 (Figura 3). Esta diferencia en las previsiones refleja las grandes incertidumbres que existen sobre el comportamiento futuro de los casquetes glaciares de Groenlandia y Antártida.
Figura 3. Las distintas proyecciones del nivel marino para el año 2010 realizadas a partir de modelos han variado mucho a lo largo del tiempo desde la publicación del Primer Informe de Evaluación del IPCC (AR1) en 1990 hasta el último Informe Especial sobre el Océano y la Criosfera (SROC) de 2019. Imagen modificada de M. Oppenheimer y R.B. Alley (2016) “How high will the seas rise?” Science 354, 1375-1377. DOI: 10.1126/science.aak9460El aumento del nivel del mar tiene una amplia gama de efectos sobre las zonas costeras que incluyen la inundación y pérdida de marismas, la erosión de playas, dunas y acantilados, la incursión de agua salada en acuíferos y centros urbanos, y el desplazamiento general de los ecosistemas costeros hacia tierra. La magnitud de estos impactos y sus consecuencias estarán asociadas, además, con los efectos de otros procesos humanos que han estado operando en el litoral durante décadas, como la disminución del aporte fluvial de sedimentos, la extracción de aguas subterráneas o la ocupación de las tierras costeras.
La duración del Antropoceno hasta ahora ha sido geológicamente muy breve, equivalente a una vida humana, pero sus impactos ya han cambiado de manera irrevocable el curso futuro de la historia de nuestro planeta. Algunos de estos cambios son irreversibles, incluso si la humanidad y sus efectos ambientales desaparecieran mañana mismo, y sus consecuencias persistirán durante siglos, milenios y millones de años.
Para saber más:
C.N. Waters, J. Zalasiewicz, C. Summerhayes, A.D. Barnosky, C. Poirier, A. Gałuszka, A. Cearreta, M. Edgeworth, E. Ellis, M.A. Ellis, C. Jeandel, R. Leinfelder, J.R. McNeill, D. deB. Richter, W. Steffen, J. Syvitski, D. Vidas, M. Wagreich, M. Williams, A. Zhisheng, J. Grinevald, E. Odada, N. Oreskes, y A.P. Wolfe (2016) “The Anthropocene is functionally and stratigraphically distinct from the Holocene” Science 351, 137 (aad2622.1-aad2622.10). DOI: 10.1126/science.aad2622
C. Summerhayes y A. Cearreta (2019) “Chapter 6. Climate Change and the Anthropocene” En: J. Zalasiewicz, C.N. Waters, M. Williams y C.P. Summerhayes (Eds.), The Anthropocene as a geological time unit: A guide to the scientific evidence and current debate. Cambridge University Press, 200-241. DOI: 10.1017/9781108621359
Sobre los autores: Alejandro Cearreta y Ane García Artola pertenecen al Departamento de Estratigrafía y Paleontología de la Facultad de Ciencia y Tecnología de la UPV/EHU.
El artículo Geología, Antropoceno y cambio climático se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Por qué nos fascinan los neandertales
Entre los muchos enigmas de la ciencia prehistórica que provocan fascinación, tanto a científicos como al público interesado, la desaparición de los neandertales ocupa un lugar privilegiado.
Los neandertales poblaron Europa y Asia occidental desde hace unos 300.000 años y desaparecieron hace poco más de 40.000, coincidiendo con la llegada a Europa de los Humanos modernos –nuestra especie– tras su salida de África. Este último es uno de los períodos más críticos en la Prehistoria humana, pues no sólo incluyó un cambio de poblaciones definitivo, sino también una importante transformación cultural.
Dicha transformación supuso el asentamiento en todo el viejo mundo de los comportamientos complejos que caracterizarían el posterior desarrollo de las formas de vida asociadas a nuestra especie. Los prehistoriadores llevamos más de un siglo discutiendo sobre los factores y características de estos procesos de cambio, sin haber consensuado aún interpretaciones plenamente satisfactorias.
Las implicaciones ideológicas que supone el estudio de un pariente evolutivo tan cercano a la humanidad actual, y por tanto vital para entendernos a nosotros mismos, han provocado que la investigación de los neandertales haya estado históricamente cargada de prejuicios y mitos diversos. Sin embargo, los avances teóricos y metodológicos de las últimas décadas han permitido que actualmente el problema sobre su desaparición se plantee como una de las controversias científicas de mayor complejidad en el campo de la Prehistoria.
“El mito”, o la historia de la investigación sobre los neandertales
La investigación de Homo neanderthalensis, como se denominó la especie definida a partir de los restos humanos encontrados en 1856 en el valle de Neander (Alemania), es uno de los mejores ejemplos de cómo en ocasiones la ciencia puede verse influida por el contexto histórico en el que se desarrolla.
Las implicaciones ideológicas y sociales que conllevó el reconocimiento de una humanidad remota, distinta pero emparentada con la actual, inauguraron una tradición investigadora sobre los Neandertales en la que éstos, de forma más o menos directa, han sido objeto de prejuicios e ideologías de distinto pelaje.
Valle de Neander. Cordula / Wikimedia CommonsLas primeras interpretaciones que acusaron estas influencias externas a la ciencia se dieron ya desde finales del siglo XIX y principios del XX, en un contexto de fuerte oposición a la teoría de la evolución formulada por Darwin solo tres años después del descubrimiento de los restos de Neander. Entonces, una compleja mezcla de ideas racistas, colonialistas y religiosas contribuyeron a dibujar un neandertal troglodítico y animalizado, esencialmente distinto a nosotros, para el que en todo caso se tenían aún muy pocas evidencias arqueológicas y paleontológicas.
Tras la Segunda Guerra Mundial, las ideologías dominantes viraron para fomentar la imagen de un neandertal más humanizado y capaz. Sin embargo, durante los años 80 el péndulo volvió a oscilar y la visión del neandertal basculó hacia interpretaciones que le volvían a alejar de la humanidad moderna, tanto en capacidades culturales como en naturaleza biológica.
Es esta última visión, y en cierto modo las reminiscencias de las imágenes animalizadas de principios de siglo, la que cuestionan la mayoría de los investigadores desde hace tres décadas, y a la cual suelen enfrentar sus investigaciones.
Podemos situar en la última década del siglo XX el comienzo de una etapa historiográfica, la actual, en la que la investigación sobre los neandertales ha alcanzado una verdadera madurez científica. Aunque las implicaciones ideológicas que supone el estudio de este tipo humano siguen flotando en el ambiente, el asentamiento de la Prehistoria como una ciencia interdisciplinar, con métodos y técnicas avanzados, ha hecho que nuestro conocimiento actual de esta especie humana se encuentre fundamentalmente basado en evidencias y pruebas empíricas. Algunas de ellas presentan una solidez científica que apenas podía ser imaginada pocos años atrás.
Por ello, el enigma de la desaparición de los neandertales, históricamente cargado de tópicos y prejuicios, es hoy investigado como un complejo problema científico de primera magnitud. Arqueólogos, paleoantropólogos, geólogos, ecólogos o físicos, entre otros, aúnan esfuerzos para recomponer un puzle poliédrico y, como siempre en Prehistoria, parcial e incompleto.
Por tanto, puede concluirse sin ambages que, en los últimos años, las influencias externas a la investigación meramente científica han perdido fuerza para dejar paso a marcos de trabajo cada vez más objetivos. Hemos pasado del mito al logos.
“El logos”, o la investigación interdisciplinar de un problema científico
El planteamiento tradicional del problema de la desaparición neandertal se hacía en términos simples y dicotómicos. O bien nuestra especie, superior en biología y tecnología, protagonizó un proceso de suplantación poblacional, más o menos violento y a escala continental, o bien los neandertales evolucionaron cultural y anatómicamente hacia las formas modernas de Homo sapiens.
Hoy en día se da la situación paradójica (en realidad bastante habitual en ciencia) de que, sabiendo bastante más sobre el problema, somos incapaces de defender teorías tan definidas. Las nuevas evidencias arqueológicas, paleontológicas, geológicas, paleoecológicas y paleogenéticas nos han empujado progresivamente a abandonar la idea de un proceso de cambio único y monolítico, y valorar, por el contrario, marcos interpretativos basados en la variabilidad regional y cronológica.
Hoy sabemos que neandertales y Humanos modernos tuvieron descendencia fértil en varios momentos y regiones geográficas, pero aún desconocemos si esos procesos de hibridación fueron responsables de la desaparición (en este caso asimilación) de los neandertales en toda su extensión geográfica. Sabemos también que los neandertales fueron capaces de desarrollar tecnologías y estrategias de subsistencia complejas durante el Paleolítico medio, pero no tenemos aún la seguridad de que dichas estrategias contribuyeran directamente al posterior desarrollo cultural del Paleolítico superior.
Sabemos que los neandertales tuvieron la inteligencia e inquietudes necesarias para desarrollar comportamientos simbólicos, incluyendo probablemente la creación de las primeras grafías pintadas en cuevas, pero se discute si dichos comportamientos fueron recurrentes, o incluso si los métodos utilizados para su verificación son fiables.
Comparación de un cráneo de Homo sapiens y de un neandertal. Wikimedia CommonsHasta hace poco creíamos saber que neandertales y Humanos modernos convivieron durante milenios en distintas regiones europeas, pero el refinamiento de los métodos de datación nos ha obligado a cuestionar fuertemente esa idea. Igualmente, creíamos saber que los neandertales estaban especialmente adaptados a climas fríos, pero hoy se baraja la hipótesis de que la variabilidad climática fuera un factor relevante para su desaparición.
Nos encontramos en un momento de grandes cambios teóricos e interpretativos, en el que el final de los neandertales se estudia desde un marco interdisciplinar alejado de los mitos y prejuicios del pasado, por más que en ocasiones estos traten de volverse a incluir en escena. Al obtener evidencias cada vez más certeras en distintos ámbitos, el problema se hace aún más complejo, y evitamos las respuestas simplistas y viciadas que se han propuesto en el pasado.
Son especialmente relevantes los proyectos de investigación a escala regional realizados con metodologías modernas e interdisciplinares, cada vez más numerosos y relevantes en la península ibérica. Precisamente, esta macro región geográfica se ha revelado clave para estudiar el final de los neandertales y el primer poblamiento europeo de Humanos modernos, pues es probable que aquí se produjeran los últimos episodios de este complejo proceso de cambio biocultural.
Y aunque nuestras respuestas probablemente nunca serán definitivas, si mantenemos el pensamiento crítico y el método científico como guías, sin duda se acercarán cada vez más a la realidad prehistórica.
Sobre el autor: Manuel Alcaraz Castaño es investigador en arqueología del Paleolítico en la Universidad de Alcalá
This article is republished from The Conversation under a Creative Commons license. Original article.
El artículo Por qué nos fascinan los neandertales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Datos que entran por los ojos
Si uno le pregunta a Google Images qué es un una gráfica, puede encontrarse con un esperpento como el siguiente:
Más allá de la fealdad generalizada y los colores estridentes, la web y los medios de comunicación están plagados de ejemplos de malas representaciones de datos. Ejemplos donde el artificio y la ornamentación pervierten la función de estas poderosas herramientas.
¿Qué es una gráfica entonces? Dado que Google no parece ser de gran ayuda en este caso, yo os propongo la siguiente definición: una gráfica es una representación de datos numéricos mediante recursos visuales que permite interpretarlos y extraer información de ellos. Las gráficas son herramientas de comunicación para un tipo de mensaje muy determinado (los datos) y un tipo de receptor muy determinado (monos con buenos ojos), y como tal, utilizan un código muy especializado.
Los ojos son nuestra principal fuente de información. Se estima que nuestras retinas reciben unos 10 Gbps de información, de los cuales, pasan por el nervio óptico unos 100 Mbps hasta nuestro córtex visual. De hecho, según calculan los neurocientíficos, al menos un tercio de nuestro cerebro está ocupado procesando información visual. Por eso, a veces, cerramos los ojos cuando intentamos concentrarnos: para ser capaces de destinar más recursos a pensar o recordar mejor. En realidad, no es que tengamos una vista muy buena en comparación con otras especies. En lo que realmente somos buenos es en el análisis de la imagen, en extraer información útil a partir de lo que vemos… como caras de otros monos o un león camuflado en las hierbas.
En cambio, nuestra memoria de trabajo es bastante más modesta. Quizás resulte familiar la conocida como ley de Miller: “the magic number seven, plus or minus two1”. Es uno de los artículos más citados en psicología y, aunque ha sido revisada y matizada posteriormente, viene a decir que, en general, los humanos no podemos retener más de 7 elementos o grupos en nuestra memoria a corto plazo. Es decir, que si nos dan un listado de, pongamos, 10 cosas, nos va a resultar difícil retenerlas todas a la vez en nuestra cabeza y hacer comparaciones entre ellas mentalmente.
Por tanto, la magia de la visualización de datos consiste en convertir “cifras” (números abstractos que requerirían nuestra pobre memoria para ser comparados) en estímulos visuales, de esos que somos tan buenos en analizar.
Por poner un ejemplo, os proponemos encontrar el número más alto en tres tipos de representaciones distintas:
En la primera representación, habréis tenido algunos problemas para encontrarlo, y probablemente hayáis escaneado varias veces la lista, hacia arriba y hacia abajo, para recordar un número o comprobar otra vez dónde estaba la coma de los decimales. En la segunda representación, las cifras están estandarizadas para mostrar dos posiciones decimales. Una vez visto este detalle, la alineación a la derecha hace que encontrar el número más grande sea prácticamente inmediato, dado que “sobresale” hacia la izquierda más que los demás. Pero fijaos que ya hemos recurrido a un truco visual, tomando un atajo que nos permite evitar la memorización, y esto se hace especialmente evidente en la representación final en forma de gráfica.
Existe otro ejemplo muy representativo del poder de nuestros ojos procedente, en este caso, del mundo de los juegos. El juego es como sigue:
- Hay 2 jugadores.
- Cada jugador escoge un número del 1 al 9 en su turno.
- Una vez un número es escogido, nadie puede volver a usarlo.
- Gana el jugador que primero sume 15 usando 3 números.
Planteado de esta manera, es posible que al lector le cueste hacerse a una idea de en qué consiste el juego o qué estrategia elegir. Parece ciertamente complejo. Jugar requiere retener en la memoria una lista de los números escogidos, las posibles sumas que se forman con ellos y los números eliminados por el otro jugador. Todo un dolor de cabeza. Sin embargo, este mismo juego puede presentarse de manera visual, simplificándose enormemente:
Esta representación visual resume todas las posibles combinaciones, ya que cualquier fila, columna o diagonal suma 15; nos revela, además, algunas propiedades interesantes de estos números. Por ejemplo, el 5 participa en más sumas cuyo resultado es 15 que ningún otro número (ya que se encuentra en el centro de la distribución). Los números pares participan, cada uno, en 3 sumas. Los números impares sólo pueden formar 2 sumas. Son propiedades matemáticas que podríamos haber deducido de haber analizado en detalle el problema inicial. Pero la representación visual nos permite pensar de manera visual, sin abstracciones previas.
En definitiva, la gracia de las gráficas y de las representaciones visuales de cualquier tipo de problema es que convierten datos abstractos, que nuestra memoria de trabajo no puede retener, en estímulos perceptivos, que entran en nuestra cabeza sin necesidad de mediación, sin necesidad de que comprendamos y retengamos cada uno de esos numeritos. Esto las convierte, a su vez, en un arma enormemente peligrosa. Precisamente porque las gráficas hacen innecesario el proceso de lectura (de interpretación mediada y meditada de los datos), es muy fácil engañar y distorsionar los datos recurriendo a su poder.
Referencia:
1Miller, G. A. (1956). “The magical number seven, plus or minus two: Some limits on our capacity for processing information”. Psychological Review. 63(2): 81–97
Sobre los autores: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica. Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute.
El artículo Datos que entran por los ojos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Cuatro leyes consumadas siguiendo una banda de Möbius
La escritora danesa Solvej Balle (1962) publicó en 1983 Ifølge loven Fire beretninger om mennesket,novelatraducida al castellano como Según la ley. Cuatro relatos sobre el ser humano (Seix Barral, 1995).
Como indica el título, cuatro historias componen este libro. Son cuatro metáforas sobre la búsqueda de la verdad. Son cuatro relatos sobre las obsesiones de otras tantas personas que realizan su peculiar búsqueda para llegar a entender la naturaleza del ser humano.
La banda de Möbius estructura la novela que, a priori, podría parecer formada por relatos independientes. Pero cada historia lleva a la siguiente, y la cuarta conduce inevitablemente a la primera, que reanuda el ciclo interminable del libro. La habitual metáfora de la banda de Möbius, pensada como la cinta del eterno retorno, se muestra de este modo en la novela.
Cuatro son también las leyes que actúan como hilo conductor de esta singular narración, algunas de ellas conocidas leyes científicas. Describimos brevemente cada relato.
1. Ley sobre examen forense y autopsia
De acuerdo con la ley, el cuerpo que después del óbito ofrece dudas sobre la causa de la muerte deberá ser sometido a autopsia.
Ley sobre examen forense y autopsia (Dinamarca)
El bioquímico canadiense Nicholas S. investiga sobre el misterio de la verticalidad del cuerpo humano. Presencia la autopsia de una joven que ha fallecido de hipotermia –se ha suicidado– y que ha donado su cuerpo a la ciencia. Estudia con minuciosidad el cerebro del cadáver en cuya corteza busca ‘un determinado color verde’ que probaría la existencia de una sustancia denominada filodoxa-tri-fosfato que –según una teoría muy controvertida– desempeñaría un papel fundamental en el movimiento bípedo del ser humano…
Si esta sustancia era un error, éste era de la evolución, no suyo. Si la naturaleza había cometido un error, su misión no era ocultarlo.
2. Ley del talión
El que maltrate a su prójimo será tratado de la misma manera; fractura por fractura, ojo por ojo y diente por diente, es decir, recibirá lo mismo que él ha hecho al prójimo.
Levítico, 24:19-21
Tanja L., estudiante de Derecho en Suiza, posee poderes paranormales y sospecha que provoca –en contra de su voluntad– caídas y accidentes, causando de este modo dolor y sufrimientos a otras personas. Desea descubrir la naturaleza del dolor, y para ello viaja a Barcelona, Madrid y París, buscando señales que le ayuden a descifrarlo.
Su búsqueda había sido un malentendido. Había aprendido bastante sobre la fragilidad y la fuerza destructora del ser humano, pero no podía lastimarse con tanta facilidad a una persona.
3. Ley de la gravedad
Dos cuerpos de diferente peso se moverán a la misma velocidad de caída en el vacío.
Ley de la caída de los cuerpos de Galileo
René G. es un matemático danés con un único deseo: no ser nadie.
Deseaba saber hasta qué punto podía acercarse un ser humano a la transparencia del no ser y estaba seguro de que, una vez hubiese alcanzado ese punto cero, podría hacer lo que se esperaba de él, proseguir sus estudios, realizar su trabajo sobre las relaciones entre los teoremas de incompletitud de Gödel y los postulados paralelos no euclidianos, y después pasar el resto de su vida describiendo sosegados círculos alrededor del punto cero humano.
Pero, no es tan fácil…
4. Ley de la termodinámica
En un sistema aislado, los procesos en los que interviene el calor suceden sólo en una dirección
Segunda ley de la termodinámica
Alette V. es una escultora canadiense que se dedica a realizar bustos a los transeúntes. Adora la materia inanimada y sueña con fundirse con ella. En ese afán por desprenderse de su parte humana, decide suicidarse dejándose morir de hipotermia. Así, su cadáver pasará a ser un objeto más en su habitación.
Trasladaba las personas al mundo de los objetos. […] Ella pertenecía a los objetos, pero ¿qué era?
Alette ha donado su cuerpo-objeto a la ciencia… un bioquímico canadiense llamado Nicholas S. conseguirá el cerebro de la fallecida para avanzar en sus investigaciones sobre el misterio de la verticalidad del cuerpo humano…
Nota: Adaptado de “Según la ley. Cuatro relatos sobre el ser humano”, de Solvej Balle, en DivulgaMAT, 2013
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Cuatro leyes consumadas siguiendo una banda de Möbius se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Descomposición de la luz
Los agentes colorantes encontrados en la pintura y la cerámica prehistóricas muestran que los humanos han apreciado el color desde los tiempos más antiguos. Pero, increiblemente, no existió ninguna hipótesis científica sobre el hasta Newton. Hasta entonces, la mayoría de las ideas aceptadas sobre el color procedían de artistas y técnicos como da Vinci, que basaban sus ideas en su experiencia con la mezcla de pigmentos.
Desafortunadamente, las lecciones aprendidas con la mezcla de pigmentos rara vez se aplican a la mezcla de haces de luz de diferentes colores. En la antigüedad, se pensaba que la luz del Sol era “pura”. El color resultaba de la adición de impurezas, como los casos en los que un rayo de “luz pura” se refracta en una pieza de vidrio y emerge con bordes de colores.
Fuente: Smithsonian LibrariesNewton se interesó por los colores cuando todavía era estudiante en la Universidad de Cambridge. En 1672, a la edad de 29 años, Newton publicó un modelo del color en las Philosophical Transactions de la Royal Society de Londres. Este fue su primer artículo científico publicado. En él escribió:
In the beginning of the Year 1666, at which time I applyed myself to the grinding of Optick glasses of other figures than Spherical, I procured me a Triangular glass-Prisme, to try therewith the celebrated Phaenomena of Colours. And in order thereto haveing darkened my chamber, and made a small hole in my window-shuts, to let in a convenient quantity of the Suns light, I placed my Prisme at his entrance, that it might be thereby refracted to the opposite wall. It was at first a very pleasing divertisement, to view the vivid and intense colours produced thereby. . . .
[A comienzos del año 1666, momento en el que me apliqué al pulimiento de lentes ópticas de formas diferentes a la esférica, me hice de un prisma triangular de vidrio para comprobar el famoso fenómeno de los colores. Para ello, tras oscurecer mi habitación y hacer un pequeño agujero en mis contraventanas para dejar entrar una cantidad conveniente de la luz del Sol, coloqué mi prisma en su entrada, para que así pudiera ser refractada hacia la pared opuesta. Al principio fue un divertimento muy agradable ver los colores vívidos e intensos producidos así. . . .] (Traducción propia)
El haz cilíndrico de luz solar “incolora” de la abertura circular pasaba a través del prisma y producía una mancha alargada de luz coloreada en la pared opuesta. Esta mancha era violeta en un extremo, rojo en el otro y mostraba una gradación continua de colores en el medio. Para este patrón de colores Newton inventó un nombre: espectro.
Pero, ¿de dónde vienen los colores? ¿Y por qué la imagen se extiende en una mancha alargada en len vez de ser un círculo? Newton pasó la luz a través de diferentes espesores de vidrio, cambió el tamaño del agujero en la contraventana e incluso colocó el prisma fuera de la ventana.
Fuente: Wikimedia CommonsNinguno de estos cambios tuvo ningún efecto en el espectro. Tal vez alguna rugosidad o irregularidad en el vidrio era lo que producía el espectro, pensó Newton. Para probar esta posibilidad pasó los rayos de colores de un prisma a través de un segundo prisma similar puesto del revés. Si alguna irregularidad en el vidrio causaba que el haz de luz se extendiera, entonces pasar este haz a través del segundo prisma debería extenderlo aún más. En cambio, el segundo prisma, cuando se colocaba en determinada posición, volvía a juntar los colores bastante bien. Ahora se formaba un punto de luz blanca, como si la luz no hubiera pasado a través de ninguno de los prismas.
Fuente: Wikimedia CommonsSiguiendo un proceso de eliminación, Newton se convenció a sí mismo de lo que probalmente creía desde el principio era cierto: la luz incolora (blanca) está compuesta de colores. El prisma no fabrica ni añade los colores; estaban allí todo el tiempo, pero mezclados no se podían distinguir. Cuando la luz incolora pasa a través de un prisma, cada uno de los colores componentes se refracta en un ángulo diferente. Como consecuencia el haz se despliega en un espectro.
Como prueba adicional de esta hipótesis, Newton cortó un pequeño agujero en una pantalla en la que proyectó un espectro. De esta manera, la luz de un solo color podría separarse y pasar a través de un segundo prisma. Encontró que el segundo prisma no tenía ningún efecto adicional en el color de este haz, tan solo cambiaba su dirección, lo refractaba, aún más. Es decir, una vez que el primer prisma había hecho su trabajo de separar los componentes de color de la luz incolora, el segundo prisma no podía cambiar el color de los componentes. Resumiendo sus conclusiones, Newton escribió:
Colors are not Qualifications of Light derived from Refraction or Reflection of natural Bodies (as ’tis generally believed) but Original and Connate Properties, which in divers Rays are divers. Some Rays are disposed to exhibit a Red Colour and no other; some a Yellow and no other, some a Green and no other, and so of the rest. Nor are there only Rays proper and particular to the more Eminent Colours, but even to all their intermediate gradations.
[Los colores no son calidades de la luz producidas por la refracción o reflexión de los cuerpos (como se cree en general), sino propiedades originales inherentes, que en los diferentes rayos son distintas. Algunos rayos exhiben un color rojo y ningún otro; algunos uno amarillo y ningún otro; otros uno verde y ningún otro, e igualmente el resto. Tampoco hay rayos propios y concretos de los colores primarios, sino iguales para todas sus gradaciones intermedias.] (Traducción propia)
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Descomposición de la luz se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Estructura y motilidad del intestino delgado
Estructura
El intestino delgado es un tubo que se extiende desde el estómago hasta el intestino grueso. Se encuentra alojado en la cavidad abdominal, y recibe secreciones del páncreas y del sistema biliar. En la mayor parte de los vertebrados el intestino delgado es el principal órgano de digestión y absorción del alimento. En los terrestres se subdivide en tres áreas: duodeno, yeyuno e íleon.
Una sección transversal del tubo digestivo a la altura del intestino delgado revela la existencia de cuatro capas principales: mucosa, submucosa, muscular (muscularis externa) y serosa.
La mucosa se subdivide en tres láminas. La primera es el epitelio, denominado también membrana mucosa1, una lámina epitelial interior que contiene células exocrinas (secretan jugos digestivos), endocrinas (secretan hormonas) y epiteliales (especializadas en la absorción de nutrientes). La segunda es la lámina propia, una capa un tanto difusa de tejido conjuntivo en el que se insertan las células epiteliales de la membrana mucosa. La lámina propia se encuentra atravesada por finos vasos sanguíneos, conductos linfáticos y fibras nerviosas. Alberga además el tejido linfoide asociado al intestino, que es la barrera de defensa inmunitaria frente a los patógenos del intestino. La mucosa muscular es una fina capa de músculo liso que se encuentra entre la lámina propia y la submucosa.
La submucosa es una gruesa capa de tejido conjuntivo, al que debe la pared del intestino delgado su elasticidad. Contiene vasos sanguíneos y linfáticos cuyas ramificaciones se proyectan hacia la mucosa y hacia la capa muscular más externa. La submucosa también alberga una red nerviosa, llamada plexo submucoso o plexo de Meissner.
Por el exterior de la submucosa se encuentra la capa muscular. En la mayor parte del intestino delgado esta capa tiene dos subcapas, una interna, circular, y otra externa, longitudinal. La contracción de la subcapa interna provoca la constricción del tubo allí donde se produce, mientras que la contracción de la exterior provoca el acortamiento del tubo. La contracción combinada y coordinada de ambas subcapas es lo que produce la mezcla de los contenidos intestinales y su propulsión a lo largo del tubo. Entre ambas subcapas se encuentra otra red nerviosa, el plexo mientérico que junto al plexo submucoso ayuda a regular la actividad intestinal local.
La serosa es la capa de tejido conjuntivo que cubre el tubo digestivo. Secreta un fluido seroso de efecto lubricante que previene la fricción entre el aparato digestivo y los órganos adyacentes. No hay discontinuidad entre la serosa y el mesenterio que ancla el tubo digestivo a la pared de la cavidad abdominal.
Imagen: Wikimedia CommonsLa estructura del intestino delgado es tal que da lugar a un área superficial de gran extensión, muy superior a la que tendría un simple tubo de la misma longitud y diámetro luminal. La existencia en la mucosa de pliegues, vellosidades y microvellosidades es lo que permite que la superficie interior sea muy superior a lo que cabría esperar de un tubo sin esas particularidades, y gracias a ello el área disponible para la absorción alcanza una gran magnitud.
La superficie interior de la mucosa se dispone en pliegues circulares que multiplican por tres la superficie interna del tubo. De los pliegues salen proyecciones similares a dedos microscópicos; son los villi (villus en singular) o vellosidades, y dan una apariencia aterciopelada a la superficie interna del intestino. Multiplican por diez el área superficial. La superficie de cada villus se halla cubierta por células epiteliales, de las que salen las microvellosidades (o microvilli); estas forman lo que se denomina borde en cepillo (brush border). Cada célula epitelial puede contener en su parte apical entre 3000 y 6000 microvillosidades, y permiten multiplicar por veinte el área superficial de las células. El borde en cepillo alberga enzimas que participan en la digestión y la absorción simultánea de sus productos. En total, la superficie efectiva para la absorción es seiscientas veces mayor de lo que sería en un tubo cuya pared interna fuese lisa.
Las uniones estrechas (o zonulae occludentes) entre las células epiteliales de los villi mantienen herméticamente aislados la luz intestinal y el medio intersticial. La absorción se produce gracias al concurso de transportadores específicos de cada nutriente o electrolito en el borde en cepillo, y a la acción de las enzimas allí insertas que completan la digestión de carbohidratos y proteínas.
Por otro lado, cada villus recibe una arteriola que se ramifica en una red de capilares en su interior. Además, el centro de cada vellosidad está ocupada por un vaso linfático ciego que denominado vaso quilífero. La absorción consiste en la transferencia de los nutrientes digeridos a los capilares y al vaso linfático terminal, para lo que han de atravesar las células epiteliales de la mucosa, difundir a través del fluido intersticial que baña el tejido conjuntivo del núcleo de las vellosidades y atravesar el endotelio de algún capilar o del vaso quilífero.
Motilidad
Al llegar el quimo al duodeno, las contracciones de la musculatura lisa provocan su mezcla con las secreciones procedentes de páncreas e hígado, y lo impulsan a lo largo del tubo. La forma primaria de motilidad es la segmentación, proceso que consiste en contracciones anulares de la muscula lisa circular a lo largo del intestino delgado. Las contracciones obliteran el tracto intestinal, de manera que entre cada dos zonas contraídas, las relajadas albergan porciones discretas de quimo. Esas contracciones no se desplazan de la forma en que lo hacen las peristálticas, sino que se alternan con momentos de relajación. Contracciones y relajaciones se suceden en cada zona, lo que provoca que el quimo que se hallaba entre dos zonas contraídas se divida en dos partes y se mezcle con el de las zonas adyacentes. La reiteración de esa secuencia de contracciones y relajaciones sucesivas da lugar a una mezcla completa del contenido intestinal. Además, de esa forma se expone todo ese contenido a la superficie interna de la mucosa, lo que permite la absorción homogénea de todos los nutrientes.
Las contracciones de la segmentación empiezan debido a la acción de las células marcapasos del intestino delgado, células que generan un ritmo eléctrico básico similar al del estómago. Si el potencial eléctrico que produce esas células supera un determinado umbral, provoca la contracción de la capa de musculatura lisa circular a la frecuencia propia de las células marcapasos.
La intensidad de la respuesta de la musculatura no es constante, por lo que la intensidad de las contracciones de segmentación depende del grado de distensión de la pared intestinal, de la acción de la gastrina y de la acción nerviosa extrínseca. Entre comidas, la segmentación es mínima o, sencillamente, no se produce. Pero cuando llega la comida al tracto digestivo se producen fuertes contracciones de segmentación. Las contracciones duodenales empiezan en respuesta a la distensión producida por la presencia de quimo procedente del estómago. Pero las que se producen más adelante, en el íleon, son estimuladas por la gastrina, que se libera en respuesta a la presencia de quimo en el estómago. Además, la estimulación parasimpática (y por lo tanto, extrínseca), refuerza la segmentación, mientras que la simpática provoca el efecto contrario.
La progresión del quimo a lo largo del intestino delgado no se produce mediante peristaltismo, como ya se ha señalado. El quimo avanza porque la frecuencia de la segmentación se reduce a lo largo de su recorrido. De lo contrario no ocurriría, dado que las contracciones provocan el desplazamiento del quimo tanto hacia delante como hacia atrás. Las células marcapasos del duodeno se despolarizan espontáneamente con una frecuencia mayor que las más alejadas, siendo las del íleon terminal las que lo hacen a menor frecuencia. Las segmentaciones del intestino delgado humano pasan así de ser 12 por minuto en el duodeno a solo 9 por minuto en el íleon terminal. Esa diferencia hace que se desplace algo más quimo hacia delante que hacia atrás, dando lugar a un lento avance. De ese modo se va produciendo la mezcla a la vez que los nutrientes son absorbidos, habiendo tiempo suficiente para ello. Normalmente, el quimo tarda entre 3 y 5 horas en recorrer el intestino delgado humano.
Cuando ya se ha absorbido la mayor parte del alimento la segmentación cesa y es sustituida por lo que se denomina complejos mioeléctricos migratorios (o complejo motor migrante, CMM), también denominados “amo de casa intestinal”. Consiste este complejo en ondas de actividad eléctrica que se desplazan a lo largo del intestino delgado entre comidas. Las ondas eléctricas generan contracciones peristálticas. Y de esa forma, los restos de alimento no digerido, junto con bacterias, sustancias difíciles de digerir y restos de mucosa son transportadas hasta la válvula ileocecal y el interior del colon para su expulsión final como restos fecales. Un complejo motor migrante se desarrolla a lo largo de unas dos horas, y una vez finalizado vuelve a producirse hasta que vuelve a llegar quimo al estómago.
La válvula ileocecal permanece abierta mientras los contenidos del intestino delgado son impulsados a su través hacia el intestino grueso. Pero se cierra ante la mínima señal que amenace con retrotraer los restos de la digestión al intestino delgado. Por otro lado, la musculatura lisa del último tramo del íleon se encuentra engrosada y, por lo tanto, en condiciones, al contraerse, de formar un esfínter que se encuentra bajo control hormonal y nervioso. Normalmente ese esfínter se encuentra prácticamente cerrado, y se cierra con más intensidad si hay alguna presión en el lado del intestino grueso; por el contrario, si el lado del íleon se encuentra distendida, entonces ese esfínter se mantiene abierto. Mediante esos dos mecanismos (válvula ileocecal y musculatura lisa engrosada) permiten controlar el posible retroceso de los restos de alimento no digerido y, lo que es más importante, la invasión de patógenos procedentes del intestino grueso.
Nota:
1 Aunque esa denominación se presta a confusión porque a la mucosa también se la suele denominar así.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Estructura y motilidad del intestino delgado se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La tabla periódica en el arte: Cobre
El cobre debe su nombre a la isla de Chipre de donde en la Antigüedad se extraían abundantes cantidades del metal que los romanos llamaron aes cyprium yque posteriormente derivó en cuprum. De ahí proviene también el símbolo químico de este metal que ocupa el número 29 en la tabla periódica (Cu). Por ser fácil de obtener y por su maleabilidad, su relativa estabilidad y su atractivo color se ha empleado desde tiempos inmemoriales para realizar ornamentos. El vestigio más antiguo que se conoce es un pendiente encontrado en el norte del actual Iraq y se estima que fue elaborado hace la friolera de 10 700 años. La cantidad de objetos elaborados con cobre es inmensa e incluye desde brazaletes y collares a obras escultóricas como el friso que decoraba el templo de Tell al-`Ubaid hacia 2500 AEC. (también en la actual Iraq, Imagen 1). Y más inmensa hubiese sido si el ser humano no hubiese descubierto que añadiendo estaño al cobre se lograba un material mucho más resistente: el bronce. El dominio de la metalurgia de esta aleación nos permitió un entrar en una nueva edad en la que se produjo un cambio social como no se había visto desde que dejásemos de perseguir animales y recoger bayas para desarrollar la ganadería y la agricultura.
Imagen 1. El relieve de Imdugud del templo de Tell al-`Ubaid (2500 AEC) (260 x 107 cm). Fuente: British Museum (CC BY-NC-SA 4.0)
Esculturas de bronce
El bronce se empleó en muchos ámbitos del arte, pero su uso más conocido es el de material escultórico, que se sigue manteniendo en nuestros días. Como profundizar en el uso del bronce en escultura daría para varias entradas, conformémonos con un somero repaso a algunas obras célebres. Una de las piezas más fascinantes es el Carro solar del Trundholm (Imagen 2), un caballo sobre ruedas que arrastra un disco solar dorado y pertenece a la Edad del Bronce Nórdica (hacia 1400 a.e.c.). Pero eso no lo sabía el granjero danés que lo encontró en 1902 y se lo llevó a sus hijos ¿Quién no ha tenido un juguete de más de 3000 años de antigüedad? Claro que para los escandinavos que lo realizaron tuvo un papel diferente, ya fuera ceremonial, ya fuese una especie de calendario.
Imagen 2. El Carro Solar de Trundholm (1050 AEC) (54 cm × 35 cm × 29 cm). Fuente: National Museum of DenmarkSi hay una cultura que ha destacado por el uso del bronce en la escultura, esa es la griega. En el imaginario colectivo todas las estatuas griegas son de níveo mármol, pero eso se debe a que en la época helenística se empleó ese material para realizar una gran cantidad de copias de originales de bronce. El problema es que como la propia materia prima era muy apreciada, muchas esculturas fueron fundidas y se perdieron para siempre. Afortunadamente obras como el Auriga de Delfos y el Poseidón de Artemisón (o Zeus de Artemisón) sobrevivieron para dar fe de la maestría alcanzada.En el Renacimiento quisieron recuperar la gloria clásica y también retomaron el uso del bronce, dejando para la posteridad obras de la talla del David y la Judith de Donatello o el Perseo con la cabeza de Medusa de Cellini. De época más cercana es el Pensador de Rodin o las célebres obras de Giacometti o Botero.
Imagen 3. El Auriga de Delfos (ca. 475 AEC) y David de Donatello (ca. 1440). Fuente: Wikimedia Commons.
Verdes y azules. Los pigmentos con cobre
El cobre metálico tiene un color rojizo tan característico que hasta lo adjetivamos para definir un tipo de tonalidad. Pero este omnipresente metal también se encuentra en numerosos pigmentos, entre otros en dos de los más trascendentales de la historia del arte: la azurita (2CuCO3·Cu(OH)2) y la malaquita (CuCO3·Cu(OH)2). Ambos se obtenían moliendo minerales formados por carbonatos básicos de cobre. Si reparamos en su forma química observaremos que son muy similares y, de hecho, la azurita puede transformarse en malaquita con el paso del tiempo. De ahí que estos minerales suelan aparecer conjuntamente, como si la naturaleza jugase a ser una artista que combina colores (Imagen 4).
Imagen 4. Una mezcla de azurita y malaquita hallada en Arizona. Fuente: Wikimedia Commons.
La azurita era abundante en las montañas germanas, por lo que también se conoce como azul de Alemania o azul de las montañas. Es cierto que existía un pigmento azul mucho más deseado conocido como azul ultramar, pero su altísimo coste impedía que se usase habitualmente y de ahí que la azurita fuese tan popular durante la Edad Media y el Renacimiento.
La malaquita es posiblemente el primer pigmento verde jamás empleado. Quizás por eso los griegos le pusieron ese nombre que significa “del color de las hojas de la malva”. Resulta curioso que las flores y hojas de una misma planta den nombre a colores tan diferentes. Antes que los griegos, los egipcios habían dado buen uso del mineral, tanto en maquillajes del periodo predinástico como en la decoración de sarcófagos y papiros. Debido al escaso número de pigmentos verdes naturales que existen, la malaquita se ha empleado desde Japón a Occidente con todo tipo de técnicas pictóricas. En Europa se usó abundantemente en frescos y temples, aunque no tuvo el mismo éxito en óleos, quizás porque su color podía resultar demasiado pálido. Eso explicaría que se usase en veladuras y que otros pigmentos verdes tuviesen mayor aceptación para ser usados al óleo.
Entre estos pigmentos verdes se encontraba otro en el que el cobre juega un papel predominante: el verdigrís. Este pigmento está estrechamente relacionado con la pátina que se forma sobre los objetos de cobre y bronce conocida como cardenillo. Si dibujas en tu mente obras como La Estatua de la Libertad o El Pensador, seguramente las pintes de color verde. Pero ese tono sólo lo adquieren con el paso de los años por la degradación del cobre para formar ciertas sales (sulfatos, cloruros, etc.) Históricamente se han empleado procesos de degradación similares para lograr el verdigrís. Las recetas antiguas cuentan que se exponían planchas de cobre a una fuente de ácido acético como vinagre o heces de uvas. El contacto del cobre con el ácido acético hace que se forme una costra verdiazulada compuesta por diferentes acetatos de cobre que pueden tener naturaleza neutra (Cu(CH3COO)2·H2O) o básica (Cu(CH3COO)2·Cu(OH)2·5H2O).
Imagen 5. Verdigrís producido por el contacto entre vinagre y cobre. Fuente: Por gentileza de Yaiza Lascorz (CC-BY-SA-4.0).
Un pigmento estrechamente ligado al verdigrís fue el resinato de cobre, con cuyo nombre se engloban a las sales que forma el metal con las resinas de ciertos árboles. Esa combinación que une lo inorgánico y lo orgánico, lo vegetal y lo metal, la explicó mejor que nadie Théodore de Mayerne, médico genovés que vivió a caballo entre los siglos XVI y XVII. Al parecer esa profesión se le quedaba corta, ya que también desarrolló varias recetas para la síntesis de pigmentos. Cuenta de Mayerne en un célebre manuscrito que hay que mezclar dos onzas de verdigrís (fuente de cobre), dos de trementina de Venecia y media de trementina y llevar a ebullición. Luego se va probando el color que se obtiene sobre un trozo de vidrio hasta lograr el tono deseado, se filtra la mezcla con un paño de lino y se deja secar antes de moler. Como vemos, llamarlo receta está más que justificado. En este caso la resina es la trementina que exudan ciertas pináceas y que son fuente de ácido abiético (C20H30O2), uno de los principales componentes del resinato de cobre.
Imagen 6. Detalle del Políptico de Gante de Jan van Eyck (1432) que conserva veladuras de resinato de cobre. Fuente: Wikimedia Commons.
El cobre como soporte pictórico
Acrílico sobre lienzo, óleo sobre tabla o acuarela sobre papel son combinaciones de palabras que estamos acostumbrados a encontrar en los museos. Sin embargo, es posible que el uso de metales como superficie donde realizar una pintura sea menos conocido. Pese a lo que se pueda pensar, el cobre ofrece ciertas ventajas, ya que está menos expuesto al deterioro biológico y a las tensiones provocadas por los cambios de humedad y temperatura que los tejidos. Otra gran ventaja desde el punto de vista de ejecución es la posibilidad de trabajar directamente sobre la superficie, que se trataba con abrasivos para lograr cierta rugosidad y que la pintura se adhiriese mejor. La correcta adhesión al cobre es precisamente el factor más importante para la conservación de este tipo de obras y explica que en algunas ocasiones la pintura se descascarille. Aunque estas pérdidas vengan provocadas normalmente por factores mecánicos, la pintura sobre cobre no es ajena a los ataques químicos. Acabamos de ver que el cobre reacciona con la atmósfera y se forma la pátina verde que conocemos como cardenillo. Obviamente esto también sucederá en las láminas de cobre, aunque la pintura protegerá al soporte de esta degradación que sólo se observará en las partes no cubiertas. Por último, si hablamos del cobre como soporte, es imposible no acordarse de la serie Oxidation de Andy Warhol, creada a base de mear sobre planchas de cobre. ¿Quién necesita vinagre teniendo orina?
Imagen 7. Autorretrato (15 x 12 cm) de Rembrandt (1630). Óleo sobre cobre. Fuente: Wikimedia Commons.
Grabando al aguafuerte
Para realizar un grabado es necesaria una plancha en la que se realiza un dibujo que luego se estampará en un soporte, normalmente papel. Esa plancha (también llamada matriz) puede ser de madera (xilografía), de piedra (litografía) o de metal, en cuyo caso el cobre es el más empleado. En este último tipo de grabados el dibujo se realiza sobre la plancha de forma incisa. Al aplicar tinta sobre la matriz, la tinta entrará en los huecos y al presionar sobre el papel pasará a éste para producir la imagen. Pero, ¿cómo se realiza el dibujo inciso en una plancha de cobre? La manera más sencilla es grabar sobre el metal empleando un instrumento afilado de acero como el buril o la punta seca. Ahora bien, existe una manera de realizar ese grabado muchísimo más interesante desde el punto de vista químico: el aguafuerte. En este procedimiento se emplea la capacidad del ácido nítrico (HNO3) para oxidar el cobre. Para conseguir el grabado se tiene que proteger la plancha de cobre con un barniz que sea resistente al ácido. Después de realizar el dibujo arañando el barniz con una punta, se introduce la plancha en un baño que contiene ácido nítrico en la concentración deseada. El ácido corroerá solo las partes que no están cubiertas con barniz de modo que se formará el dibujo inciso en la plancha. Este procedimiento facilita la labor de realizar el dibujo, ya que trabajar con el buril sobre el metal es mucho más complicado. En cambio, se necesita controlar adecuadamente la concentración del ácido nítrico para lograr la penetración deseada. Artistas de la talla de Rembrandt o Canaletto emplearon el aguafuerte, pero puede que sea Piranesi el que mejor refleje el éxito de la técnica. Él solito grabó cerca de 2000 planchas de la ciudad de Roma.
Imagen 8. Grabado de Piranesi (1773). Fuente: Wikimedia Commons.Para saber más:
Natalia Sancho Cubino “Verdigrís, pigmento histórico de cobre: estudio de su composición y color a partir de reproducciones de antiguas recetas” Universidad Complutense Madrid (2016).
Antonio J. Sánchez Fernández y Beatriz Prado-Campos “Pintura sobre cobre: estudio técnico-material, indicadores de alteración y conservación” Cuadernos de los Amigos de los Museos de Osuna (2014) 16, 139-145).
Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.
El artículo La tabla periódica en el arte: Cobre se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¿Cómo demonios funcionan las copas musicales?
Mozart y Beethoven compusieron para las copas musicales, pero ¿cuál es el fundamento físico de su funcionamiento? Aquí te lo explicamos en poco más de un minuto, pero si quieres saber algo más quizás esto te ayude.
Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.
Edición realizada por César Tomé López
El artículo ¿Cómo demonios funcionan las copas musicales? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La FCT viaja a Marte
La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.
Oxia Planum, lugar de aterrizaje de Exomars 2020. Fuente: NASAEl próximo año 2020 se lanzarán dos misiones a Marte en la que participan investigadores del Departamento de Química Analítica de la Facultad de Ciencia y Tecnología (FCT) de la UPV/EHU, la misión Exomars2020 de la Agencia Espacial Europea (ESA) y la misión Mars2020 de la NASA. Ambas misiones comparten objetivos similares ya que van a estudiar la geoquímica de las zonas de aterrizaje, para entender cómo han sido los procesos de transformación de minerales volcánicos en filosilicatos debido a la acción del agua, cómo han sido los procesos de sedimentación y compactación de materiales alterados y cómo se han podido conservar moléculas orgánicas sean o no precursoras de formas de vida microbiana. Pero son misiones complementarias, no son misiones competidoras, ya que van a aterrizar en dos sitios geológicamente muy diferentes y los experimentos que van a realizar son distintos, aunque ambas pretender avanzar en el conocimiento de los tres aspectos mencionados.
Nosotros nos incorporamos al equipo de ciencia del instrumento Raman Laser Spectrometer (RLS), de la misión Exomars2020 en 2014, por invitación del Profesor Fernando Rull Pérez, de la Universidad de Valladolid, Investigador Principal del instrumento RLS. Este instrumento va en un Laboratorio Analítico Limpio, junto con un espectrómetro infrarrojo (micrOmega) y un cromatógrafo de gases con detección por espectrometría de masas (MOMA), instalado en el interior del rover al que llegarán las muestras que van a ser tomadas en superficie y en profundidad (desde 0 a 2 metros) mediante un taladro de perforación.
Exomars 2020 rover. Fuente: ESA/ATG medialabCuando la muestra llega al Laboratorio Analítico, se tritura hasta tener un tamaño de grano de 50 micras o menor. Antes de hacer la medida de espectroscopia Raman, el funcionamiento del RLS se optimiza con la muestra de calibrado. La definición y construcción de esa muestra de calibrado fue una de las primeras tareas que tuvimos en la Misión Exomars2020.
El instrumento de vuelo ya ha sido entregado a la ESA y ahora el equipo de ciencia del RLS estamos preparando las bases de datos espectroscópicas para poder interpretar la información que llegue desde Marte a partir de 2021. También estamos trabajando en un análogo de Marte que tenemos en Meñakoz y en Armintza. Son los restos de un volcán submarino que emergió a través de sedimentos marinos hace 100 millones de años y que tras la erupción continuaron los procesos de deposición de nuevos sedimentos. De modo que ahora tenemos estratos sedimentarios en la parte inferior, con capas volcánicas en la parte intermedia, y con otras capas sedimentarias en la parte superior, alcanzando una distancia vertical de unos 25 metros. Esa distribución es muy similar a la observada para Oxia Planum, el sitio de aterrizaje de la misión Exomars2020.
En ese análogo estamos estudiando en qué condiciones ambientales las fases minerales originales del volcán se han transformado a otros compuestos de alteración, en concreto a filosilicatos. Los filosilicatos, junto con fases minerales de origen volcánico, son los componentes principales de lo observado por los orbitadores al analizar espectroscópicamente la superficie de Oxia Planum. Pretendemos que los procesos que estudiemos en nuestros análogos sirvan para interpretar las observaciones experimentales que en su día nos envíe el rover desde Marte. Este trabajo se realizará dentro de un equipo multidisciplinar compuesto por grupos de investigación de España, Francia, Alemania, Inglaterra y Estados Unidos.
La otra misión en la que participamos es Mars2020, donde formamos parte desde 2015 del equipo de ciencia del instrumento SuperCam, un instrumento que integra cinco técnicas espectroscópicas: Visible, Infrarrojo Cercano, Raman, Fluorescencia Resuelta en el Tiempo (TRLS) y LIBS (Laser Induced Breakdown Spectroscopy). Los análisis con estas técnicas se van a hacer a distancia (entre 1 y 7 metros) mediante un conjunto de rayos láser que se envían desde el cabezal del rover a las zonas de interés. La interacción producida en la superficie es captada por detectores telescópicos, obteniéndose los espectros propios de cada técnica espectroscópica.
Mars 2020 rover. Fuente: NASAPara el correcto funcionamiento de este instrumento multianalítico es necesario usar una tarjeta de calibrado compuesta por 27 muestras minerales (para calibrar las medidas LIBS, Raman y TRLS) más 8 muestras metálicas (para calibrar los espectrómetros, la cámara visible y el NIR). La construcción de esa tarjeta fue una labor encomendada por NASA al Profesor Fernando Rull para lo que se creó un equipo multidisciplinar en el que nos integramos. En los últimos dos años hemos estado estudiando diferentes candidatos a las muestras de calibrado. Nuestra misión ha sido verificar que las muestras candidatas cumplían los criterios de homogeneidad química establecidos, de modo que aquellas muestras candidatas que no eran homogéneas se descartaron.
Como todo el hardware de vuelo, se deben construir tres modelos hasta tener el elemento físico final que se integrará en el rover. Cada modelo debe superar una serie de tests físicos (resistencia a choques de 4000 G, resistencia termo-mecánica y ausencia de emisión de gases al pasar de 120ºC) y químicos (mantenimiento de las características químicas tras los tests físicos y ausencia de contaminación durante los mismos). El tercer diseño fue el que superó todos los tests físicos y químicos y ha sido la tarjeta de calibrado que se ha enviado en enero de 2019 a NASA.
En el mes de febrero hemos participado en un ejercicio de operaciones, simulando cómo se trabajaría con el rover y los distintos instrumentos durante seis días marcianos (unos doce días terrestres). En nuestro caso, hemos ayudado a tomar decisiones de dónde dirigir el rover y qué muestras analizar para el día siguiente en función de las respuestas espectroscópicas que “llegaban de Marte” del día anterior y de la interpretación que hacíamos en el día de hoy en cuanto a composición de fases minerales y compuestos orgánicos.
En estos meses, estamos concluyendo los test de calibrado del instrumento SuperCam. Dos de nuestros investigadores van a desplazarse al Laboratorio Nacional de Los Alamos para realizar las medidas de optimización de las distintas técnicas espectroscópicas a -10oC, temperatura promedio de Marte durante el día. Para validar el correcto funcionamiento de los espectrómetros de las cinco técnicas analíticas, se procesarán muestras reales que deberán de ser confirmadas con el conjunto de los resultados proporcionados por SuperCam.
A partir del segundo semestre de 2019 se iniciarán los trabajos de caracterización de análogos marcianos y de Meteoritos de Marte para tener los sistemas de interpretación a punto, de modo que, cuando llegue la información espectroscópica real a partir de 2021, seamos capaces de hacer unas correctas interpretaciones diarias y pasar las mejores ordenes de trabajo al rover para el día siguiente. Y todo ello, dentro de un amplio equipo multidisciplinar de Estados Unidos, Francia, Inglaterra, Canadá, Dinamarca y España.
Sobre el autor: Juan Manuel Madariaga es catedrático en el Departamento de Química Analítica de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo La FCT viaja a Marte se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Así es la química de una buena pizza
La pizza puede ser una comida rica y saludable. El secreto de ambas cosas está en una buena elección de ingredientes. La parte más complicada de encontrar son las bases de pizza precocinadas o masas extendidas elaboradas con 100% harina integral. Sin embargo, en poco más de media hora podemos hacer nosotros mismos una base para pizza excepcional. El secreto de una buena masa de pizza está en la química.
Necesitamos los siguientes ingredientes para 2-4 personas: 250 g de harina integral, 3 cucharadas soperas de aceite de oliva virgen extra, 25 g de levadura de pan, 125 ml de agua (medio vaso) y una cucharadita de sal.
-
¿Por qué es mejor usar harina integral?
Por sabor y por salud.
La harina puede ser refinada o integral. La diferencia entre una y otra es la parte del grano que se usa para su elaboración. En la harina refinada se utiliza sólo el endospermo del grano, mientras que la integral incluye el cereal completo.
Los cereales tienen tres partes: la cáscara del cereal es el salvado, donde está la mayor parte de la fibra; la parte central es el endospermo, compuesto mayoritariamente por almidón; y el núcleo es el germen, donde se concentra la fracción grasa del cereal. Por eso el sabor de las harinas integrales es más intenso y complejo que el de las refinadas.
Las harinas integrales contienen todas la vitaminas y nutrientes del cereal completo, siendo especialmente interesante para nuestra salud su alto contenido en fibra. La fibra favorece el tránsito intestinal y además hace que el pan sea más saciante. No es que el integral tenga menos calorías, de hecho tiene las mismas, pero al resultar más saciante necesitaremos comer menos cantidad.
La fibra hace que el pan integral tenga menor índice glucémico, es decir, hace que metabolicemos los carbohidratos lentamente y que no aumenten repentinamente los niveles de glucosa en sangre. Por el contrario, los panes blancos tienen alto índice glucémico, lo que significa que se metabolizan muy rápido dando elevados y repentinos picos de glucosa en sangre y, en consecuencia, picos de insulina. Este es el motivo por el que el pan blanco es poco saciante y por el que las personas con diabetes limitan su consumo.
Además de la tradicional harina de trigo, se puede obtener harina de distintos cereales ricos en almidón como la espelta, el centeno, la cebada, la avena, el maíz, e incluso de leguminosas como los garbanzos o las judías, o del arroz. La harina está formada básicamente por hidratos de carbono, y en menor proporción proteínas, dependiendo del tipo de harina. El hidrato de carbono de las harinas vegetales es el almidón.
Para elaborar pan y masas de pizza se suele utilizar la harina de trigo porque ésta contiene gluten, un conjunto de proteínas, esencialmente gliadina y glutenina, que le otorgan elasticidad y consistencia a la masa. Las harinas sin gluten como las de trigo sarraceno, maíz o garbanzo, son muy difíciles de manejar. Extenderlas en forma de base de pizza es una tarea muy compleja, precisamente porque no producen masas elásticas.
-
La química del amasado y del fermentado
Cuando hacemos la masa de una pizza tienen lugar varias reacciones químicas que serán las responsables de su textura, color y sabor.
Lo primero que hacemos es poner en un bol los 250 g de harina integral. A continuación desmenuzamos la levadura, añadimos la sal, el medio vaso de agua y las tres cucharadas de aceite de oliva virgen extra. Mezclamos inicialmente todos los ingredientes con ayuda de una cuchara, y a continuación amasamos a mano sobre una encimera durante 5-10 minutos. Después dejamos reposar la masa unos 30 minutos en el bol cubierto por un trapo.
Durante este proceso estarán ocurriendo una serie de reacciones químicas y bioquímicas que determinarán la textura y el sabor de la masa.
El protagonista del amasado es el gluten. La gliadina y la glutenina que componen el gluten se hidratan, captan el agua e interactúan entre sí dando lugar a la formación de un entramado reticular de gluten, que dota a la masa de elasticidad. El agua también hidrata el almidón, provoca la apertura de su estructura y la deja expuesta al ataque de las enzimas. Las enzimas también se activan al hidratarse, entre ellas las amilasas, que actúan rompiendo el almidón en hidratos de carbono simples.
La levadura (saccharomyces cerevisiae) la podemos comprar en el supermercado o en la panadería. La levadura se alimenta de los hidratos de carbono simples liberados y desprende dióxido de carbono y alcohol, responsables de la formación de burbujas. Para acelerar el proceso o crear más burbujas hay quien añade azúcar. La razón es que así la levadura tendrá más alimento con el que generar burbujas de dióxido de carbono. Aunque la textura puede mejorar en tiempo récord, nutricionalmente no es aconsejable añadir azúcar.
En el caso de no tener levadura, podemos hacer la masa con una cerveza, ya que la levadura de la cerveza es la misma que la del pan.
Hay que tener en cuenta que la sal inhibe el crecimiento de la levadura, así que añadir sal hace que el fermentado sea más lento, sin embargo, la fermentación lenta repercute positivamente en la textura final de la masa.
En el mercado tenemos otro tipo de productos que llamamos levaduras químicas que, aunque no son levaduras propiamente dichas, producen un efecto parecido sobre la masa. Se usan más en repostería para no tener que dejar fermentar la masa y poder hornearla inmediatamente. Estas levaduras químicas están compuestas esencialmente por bicarbonato sódico que en contacto con la masa y durante el horneado desprenden dióxido de carbono, responsable de las burbujas.
El aceite protege la masa de la pérdida progresiva de agua, lo que evita que se endurezca demasiado durante el horneado y una vez se enfríe.
Todas estas reacciones se producen durante el amasado y el reposo. Una vez transcurrido el tiempo de reposo, la masa habrá duplicado su volumen.
-
La química del horneado.
Una vez tenemos la masa fermentada, el siguiente paso será extenderla. Si la harina tiene gluten, este proceso será bastante sencillo porque la masa será muy elástica. Podemos extenderla con las manos o con ayuda de un rodillo.
Extendemos la masa sobre una bandeja de horno cubierta con papel de horno. Este papel es un papel vegetal sulfurizado. Se ha tratado químicamente con un baño de ácido sulfúrico -de ahí el nombre- para tapar los poros de la celulosa y hacerlo impermeable y antiadherente. Este proceso también lo hace resistente a las temperaturas que manejamos en los hornos domésticos.
Sobre la masa podemos añadir los ingredientes que nos apetezcan. En este caso he utilizado tomate triturado, orégano, queso mozzarella rallado, champiñones frescos, aceitunas negras, jamón cocido extra y pimientos rojos asados.
Metemos la pizza en el horno y la dejamos a 240oC con calor arriba y abajo entre 20 y 25 minutos.
La levadura de la masa muere como consecuencia de las altas temperaturas, y el alcohol se evapora. El almidón de la harina comienza a gelatinizar, es decir, a formar una estructura diferente a la original en la que es capaz de atrapar el agua de la masa. En este proceso también interviene el gluten, que se pega al almidón creando una red que evita que las burbujas se escapen de la masa. A medida que la temperatura aumenta y la pizza continúa en el horno, empieza a dorarse. Este cambio paulatino de color es debido a la reacción química más famosa de la cocina: la reacción de Maillard entre los hidratos de carbono y las proteínas.
Todas las formas de conocimiento guardan relación entre sí, en mayor o menor medida. Preparar una pizza tiene su fundamento químico detrás. Desde el punto de vista de la salud y desde el punto de vista gastronómico. Conocerlo nos permite disfrutar más de todo el proceso. Esto es así porque el conocimiento es una forma de placer.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Así es la química de una buena pizza se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los números enamorados
El artista futurista italiano Giacomo Balla (1871-1958) pintó una obra titulada Los números enamorados en 1924, asociando una cualidad humana, como es el enamoramiento, a los números. También en el ámbito de las matemáticas nos gusta asociar a los números, en particular, a los números naturales, cualidades humanas. Existen números amigos, sociables, novios, narcisistas, felices, tristes, hambrientos, intocables, ambiciosos, afortunados, poderosos, malvados, odiosos, prácticos o raros, pero también, con otras denominaciones curiosas, como números vampiros, parásitos, perniciosos, apocalípticos, perfectos, poligonales, cíclicos, automorfos, sublimes, abundantes, escasos o intocables.
Números enamorados (1924), del artista futurista italiano Giacomo Balla, MART, Museo d’arte moderna e contemponanea di Trento e Rovereto, Italia. Fotografía de MARTAlgunas de estas familias de números deben su propiedad definitoria al comportamiento de sus divisores propios, es decir, entre los divisores no se considera al propio número. Son a estas familias de números naturales a las que vamos a dedicar la entrada de hoy de la sección Matemoción del Cuaderno de Cultura Científica.
Empecemos con unas familias de números con un origen muy antiguo. Un número se dice que es perfecto si es igual a la suma de sus divisores (propios), como ocurre con los números 6 = 1 + 2 + 3 y 28 = 1 + 2 + 4 + 7 + 14. Se los denominó perfectos porque en tiempos antiguos se dio a esta propiedad una interpretación divina. Por ejemplo, San Agustín relaciona el hecho de que Dios crease el mundo en 6 días, con la perfección de este número.
Los siguientes números perfectos, después de 6 y 28, conocidos ya desde la antigüedad, son
496 = 1 + 2 + 4 + 8 + 16 + 31 + 62 + 248
8.128 = 1 + 2 + 4 + 8 + 16 + 32 + 64 + 127 + 254 + 508 + 1.016 + 2.032 + 4.084
Se desconoce el origen exacto de los números perfectos, aunque ya eran conocidos por los matemáticos griegos. Euclides de Alejandría (aprox. 325 – 265 a.n.e.) los estudia en su obra Los Elementos, aunque antes los había estudiado Pitágoras (aprox. 570 – 495 a.n.e.), e incluso podrían haber sido conocidos por los egipcios.
Euclides demostró que para algunos números primos p, los números de la forma 2p–1 (2p – 1) son perfectos, por ejemplo, para p = 2, 3, 5, y 7, se obtienen los perfectos anteriores. Dos milenios después, el matemático suizo Leonhard Euler (1707 – 1783) demostraría que todos los números perfectos pares son de esta forma, con (2p – 1) un número primo.
El quinto número primo encontrado fue 33.550.336, para p = 13, que aparece en un manuscrito del siglo XV. El sexto y séptimo –para p = 17 y 19– fueron descubiertos por el matemático italiano Pietro Cataldi (1548 – 1626) en 1588, en concreto, 8.589.869.056 y 137.438.691.328. Y Euler, en 1772, descubrió el octavo, que es 230 (231 – 1) = 2.305.843.008.139.952.128.
Obtener números perfectos es una tarea muy difícil, luego podemos decir que “la perfección es difícil de conseguir”. Antes del siglo XX solo se conocían 9 números perfectos. El noveno fue obtenido, para p = 61, por el matemático ruso Iván Pervushin (1827 – 1900), en 1883. De hecho, en la fórmula de Euclides-Euler no basta con que p sea primo, ya que para p = 11, 211 – 1 = 2.047 = 23 x 89, no es primo, con lo cual 210 (211 – 1) no es perfecto.
Con la ayuda de los ordenadores ha sido posible calcular muchos más, pero no demasiados. Solo se conocen, hasta la fecha, 51 números perfectos. El último descubierto, en 2018, fue el correspondiente al primo p = 82.589.933.
Se desconoce si existe un número infinito o finito de números perfectos. Además, todos los números perfectos conocidos son pares, y no se sabe si existen impares. Lo que se ha conseguido demostrar es que de existir tendrían que cumplir una serie de propiedades, como tener al menos 9 divisores primos distintos o ser mayores que 101.500, entre muchas otras.
Veintiocho (modelo para una escultura pública), 1992, del artista estadounidense Jonathan Borofsky. Imagen de su página webYa los griegos dividieron a los números naturales que no son perfectos en dos categorías, los abundantes y los deficientes. Los números que no son perfectos pueden ser abundantes, cuando el número es menor que la suma se los divisores, como el 12 deficientes en el caso contrario, como el 14 > 1 + 2 + 7 = 10 o todos los números primos, cuyo único divisor propio es el 1. Estos conceptos, como la perfección, formaron parte de la numerología griega.
El religioso, teólogo y matemático anglosajón Alcuino de York (735 – 804) relacionaba la “segunda creación” de Dios, el diluvio universal y el Arca de Noé, con el número 8, ya que la humanidad desciende de las 8 almas que se salvaron del diluvio refugiándose en el Arca de Noé. Por lo tanto, esta es una creación imperfecta, puesto que el número 8 es deficiente, 8 > 1 + 2 + 4.
Los números llamados abundantes no son, sin embargo, tan abundantes como su nombre indica. Existen 245 números abundantes menores que 1.000, aunque solo uno de ellos impar, el número 945 = 33 x 5 x 7, los demás son pares, y solo 3 números perfectos (por supuesto, pares), el resto son deficientes. Entre los primeros 50.000 números hay 37.602 deficientes, 4 perfectos y 12.394 abundantes. Entre estos 12.394 números abundantes, solo 114 son impares.
Así como lo bello y lo excelente es raro de encontrar y se cuenta pronto, pero lo feo y lo malo siempre es prolífico, así también los números abundantes y deficientes resultan ser muchos y en desorden, y su descubrimiento no obedece a sistema alguno. Pero los perfectos, son a un tiempo escasos en número y se hallan dispuestos en un orden apropiado.
Nicómaco de Gerasa (aprox. 60 – 120 n.e.), Introducción a la Aritmética
Imagen 3 (Pie de imagen: You know my name (look up the number), acrílico sobre papel, 63 x 90 cm, del artista suizo Eugen Jost. Entre las sucesiones de números que aparecen, están los primeros números perfectos. Imagen de Plus Magazine [https://plus.maths.org/content/postcard-italy])
Entre los números abundantes, es decir, aquellos que son menores que la suma de sus divisores, se considera que son números casi perfectos aquellos tales que la suma de sus divisores es uno menos que el número. Así, el 16 es un número casi perfecto ya que 1 + 2 + 4 + 8 = 15. De hecho, todas las potencias de 2 son casi perfectas:
Los únicos números casi perfectos que se conocen son las potencias de 2, y es un problema abierto demostrar que estos son los únicos que existen.
Otra familia de números relacionada con la perfección, son los números múltiplo-perfectos o multi-perfectos, aquellos tal que la suma de sus divisores (recordemos que todo el tiempo estamos refiriéndonos a los divisores propios) no es el número, sino un múltiplo del mismo. Por ejemplo, los divisores del número 120 = 23 x 3 x 5 son 1, 2, 3, 4, 5, 6, 8, 10, 12, 15, 20, 24, 30, 40 y 60, cuya suma es 240 = 2 x 120. Solo se conocen 6 números multi-perfectos cuya suma sea el doble del número, 120, 672, 523.776, 459.818.240, 1.476.304.896, 51.001.180.160, y todos son pares. O, se conocen 36 cuya suma es el triple, de nuevo todos pares, de los cuales el más pequeño es 30.240.
Hardy’s Taxi, acrílico sobre lienzo, 60 x 60 cm, del artista suizo Eugen Jost. Obra perteneciente a la exposición Everything is numberMás aún, un número se dice que es ambicioso si puede llegar a ser perfecto de la siguiente forma. Dado el número se toma la suma de sus divisores, con este nuevo número se vuelve a considerar la suma de sus divisores, y se continúa así, de forma que el número es ambicioso si llega un momento que se alcanza un número perfecto, como en el caso del número 95, cuyos divisores suman 1 + 5 + 19 = 25, y los divisores de este suman 1 + 5 = 6, que es perfecto. Números no ambiciosos son el 24 o los números primos (cuyo único divisor es el 1).
Veamos que el 24 = 23 x 3 no es ambicioso. Sus divisores son 1, 2, 3, 4, 6, 8 y 12, cuya suma es 1 + 2 + 3 + 4 + 6 + 8 + 12 = 36. Ahora, los divisores de 36 = 22 x 32 son 1, 2, 3, 4, 6, 9, 12 y 18, cuya suma es 55. Ahora este número, 55 = 5 x 11, tiene solo tres divisores 1, 5 y 11, cuya suma es 17, que es primo, luego su único divisor es 1 y se estaciona la sucesión. En consecuencia, el 24 no es ambicioso. Solo se conocen 16 números ambiciosos, 25, 95, 119, 143, 417, 445, 565, 608, 650, 652, 675, 685, 783, 790, 909, 913, e incluso un número tan bajo como 276 se desconoce si es, o no, ambicioso (aunque seguramente no).
Y también relacionados con la perfección están los números sublimes, aquellos tales que tanto el número de sus divisores (incluido ahora el propio número), como la suma de los mismos son perfectos, como el 12, que tiene 6 divisores y su suma es 1 + 2 + 3 + 4 + 6 + 12 = 28, aunque solo se conoce otro número sublime más, que es el siguiente
6.086.555.670.238.378.989.670.371.734.243.169.622.657.830.773.351.885.970.528.324.860.512.791.691.264.
Números amigos (2010), del artista británico Andrew CraneA continuación, vamos a introducir parejas de números con una fuerte conexión entre ellos, desde la perspectiva que estamos analizando en esta entrada. Empecemos por el número 284, que se puede escribir como la multiplicación de los números primos 71 y 2 de la siguiente forma 284 = 71 x 22. Por lo tanto, los divisores propios del 284 son 1, 2, 4, 71 y 142, cuya suma es
1 + 2 + 4 + 71 + 142 = 220.
Si ahora consideramos el número que nos ha salido, 220, y buscamos sus divisores, como 220 = 11 x 5 x 22, entonces estos son 1, 2, 4, 5, 10, 11, 20, 22, 44, 55 y 110, y la suma de ellos es
1 + 2 + 4 + 5 + 10 + 11 + 20 + 22 + 44 + 55 + 110 = 284,
precisamente el primer número. Por este motivo, se dice que los números 220 y 284 son números amigos. Es decir, dos números son amigos si la suma de los divisores (propios) del primero es igual al segundo, y viceversa.
Este par de números amigos (220, 284) ya era conocido por los pitagóricos, quienes les atribuían propiedades místicas. En general, en la antigüedad se pensaba que estos números tenían poderes místicos, y eran utilizados en textos religiosos y de magia, en particular, en relación al amor y la amistad. Los astrónomos griegos los incorporaron en sus horóscopos, talismanes y amuletos.
“Las personas expertas en los talismanes afirman que los números amigos 220 y 284 ejercen una fuerte influencia para establecer una unión o una amistad muy fuerte entre dos personas”
Ibn Jaldún (1332-1406), Muqaddima (prolegómenos), 1377
Cuenta una leyenda que había un sultán aficionado a los puzzles, que al descubrir que tenía a un matemático como prisionero, decidió plantearle la siguiente cuestión. El sultán le dijo al matemático que le planteara un reto, un problema, y que estaría libre durante el tiempo que él necesitara para resolverlo, pero una vez resuelto por el sultán, el matemático sería ejecutado.
El matemático le explicó que los números 220 y 284 son números amigos, y le planteó que buscara otro par de números amigos. El sultán no lo consiguió y el matemático murió de viejo y siendo un hombre libre.
De hecho, calcular más pares de números amigos no es una tarea sencilla. Muchos matemáticos árabes estudiaron los números amigos, entre los siglos IX y XIV, como el iraquí Thabit ibn Qurra (826 – 901) quien dio una fórmula para obtener números amigos. En particular, se obtuvieron dos nuevos pares de números amigos
(17.296, 18.416) y (9.363.584, 9.437.056).
En el siglo XVII los grandes matemáticos franceses Pierre de Fermat (1601 – 1665) y René Descartes (1596 – 1650) redescubrieron la fórmula del matemático árabe, así como los dos anteriores pares de números amigos, que es ocasiones son atribuidos a ellos. Otro gran matemático ya mencionado, Leonhard Euler, extendió la fórmula de Qurra y obtuvo 64 nuevos pares de números amigos.
Curiosamente, a todos ellos se les pasó el siguiente par de números amigos más pequeño, después de (220, 284), el par (1.184, 1.210), descubierto por el adolescente Nicolo Paganini, de 16 años, en 1866.
La tarea siguió siendo compleja y hasta 1946 solo se consiguieron descubrir 390 pares de números amigos, hasta que llegó la era de los ordenadores, y su potencia de cálculo, que, junto a nuevos algoritmos, ha permitido calcular (según la wikipedia) hasta marzo de 2019 exactamente 1.223.386.359 parejas de números amigos. Sin embargo, a día de hoy no se sabe aún si existen infinitos pares de números amigos.
Anillos hexagonales, con oro amarillo y oro rosa, con la pareja de números amigos 220 y 284, de la tienda londinense Comford Station, y la caja con la explicación de la pareja de números amigosOtro nexo de unión entre números. Se dice que dos números son novios o casi-amigos si cada uno de ellos es igual a la suma de sus divisores menos 1, como el 48 = 1 + 3 + 5 + 15 + 25 – 1 y el 75 = 1 + 2 + 3 + 4 + 6 + 8 + 12 + 16 + 24 – 1. Las primeras parejas de números novios son (48, 75), (140, 195), (1.050, 1.925), (1.575, 1.648), (2.024, 2.295) y (5.775, 6.128). Los números de todas las parejas de novios conocidas tienen paridad opuesta, es decir, uno es par y el otro impar.
La propiedad de amistad puede generalizarse a un grupo de números, de forma que la suma de los divisores de cada uno es igual al siguiente, y la del último igual al primero, entonces se habla de números sociables. El grupo de números más pequeños que son sociables son 12.496, 14.288, 15.472, 14.536 y 14.264. Comprobémoslo:
1) 12.496 = 24 x 11 x 71, divisores: 1, 2, 4, 8, 11, 16, 22, 44, 71, 88, 142, 176, 284, 568, 781, 1.136, 1.562, 3.124 y 6.248, cuya suma es 14.288;
2) 14.288 = 24 x 19 x 47, divisores: 1, 2, 4, 8, 16, 19, 38, 47, 76, 94, 152, 188, 304, 376, 752, 893, 1.786, 3.572 y 7.144, cuya suma es 15.472;
3) 15.472 = 24 x 967, divisores: 1, 2, 4, 8, 16, 967, 1.934, 3.868 y 7.736, cuya suma es 14.536;
4) 14.536 = 23 x 23 x 79, divisores: 1, 2, 4, 8, 23, 46, 79, 92, 158, 184, 316, 632, 1.817, 3.634 y 7268, cuya suma es 14.264;
5) 14.264 = 23 x 1.783, divisores: 1, 2, 4, 8, 1.783, 3.566 y 7.132, cuya suma es 12.496.
Se conocen 5.410 grupos de números sociables (véase la lista de números sociables de David Moews), la mayoría formados por 4 números, aunque existe un grupo formado por 28 números.
También existen intocables dentro de la familia de los números naturales, son aquellos que no se pueden expresar como suma de los divisores de ningún número. El número 2 es intocable, el 3 no lo es (3 = 1 + 2, divisores del 4), el 4 tampoco (4 = 1 + 3, divisores del 9) y el 5 sí, ya que solo puede expresarse como 1 + 4, pero si el 4 es divisor del número, también lo es el 2 y la suma sería al menos 7. El siguiente intocable es el 52.
Los números intocables menores de 500 son:
2, 5, 52, 88, 96, 120, 124, 146, 162, 188, 206, 210, 216, 238, 246, 248, 262, 268, 276, 288, 290, 292, 304, 306, 322, 324, 326, 336, 342, 372, 406, 408, 426, 430, 448, 472, 474, 498.
El matemático húngaro Paul Erdös (1913-1996) demostró que existen infinitos números intocables.
“Dice Trece [la protagonista se refiere con números a los hombres que han pasado por su vida] que le ha hecho esos dos regalos –el libro [de Murakami] y lo del segundo cajón [un consolador]– para que se acuerde de él. Sin embargo, por la esencia oriental de uno y las dimensiones del otro, lo que Trece ha conseguido es que Pi, en lugar de acordarse de él, se acuerde de Dos. Por ambas razones.
Dos se ha convertido en una medida (de hecho, es un número intocable, pues no es la suma de los divisores de ningún número). No tiene tanta importancia como persona real en el presente […] sino como recuerdo y, sobre todo, como convención, como medida. Dos es la medida del sistema métrico sentimental”
Juan Pardo Vidal, La luz de la mesita de noche, Sloper, 2012
Por otra parte, un número se dice que es práctico si todos los números naturales más pequeños que él pueden ser expresados como suma de distintos divisores del número. Así, el número 12 es un número práctico ya que todos los números menores que él, desde el 1 al 11, pueden ser expresados como suma de algunos de los divisores de 12. Veámoslo: los divisores de 12 son 1, 2, 3, 4 y 6, luego 1 = 1, 2 = 2, 3 = 3, 4 = 4, 5 = 1 + 4, 6 = 2 + 4, 7 = 1 + 2 + 4, 8 = 2 + 6, 9 = 3 + 6, 10 = 4 + 6 y 11 = 1 + 4 + 6.
Los números prácticos menores que 100 son: 1, 2, 4, 6, 8, 12, 16, 18, 20, 24, 28, 30, 32, 36, 40, 42, 48, 54, 56, 60, 64, 66, 72, 78, 80, 84, 88, 90 y 96.
El concepto fue definido en 1948 por el matemático indio A. K. Srinivasan, números que en su opinión eran interesantes de estudiar por su relación con las subdivisiones del dinero, los pesos y las medidas. Aunque estos números ya fueron utilizados por el matemático italiano Fibonacci (Leonardo de Pisa, 1170 – 1240), en su obra Liber Abaci (Libro del Ábaco, 1202), en relación a las fracciones egipcias (véase la entrada de Marta Macho, Sobre fracciones egipcias).
Claramente, todas las potencias de 2 son prácticas, ya que dado 2n, se puede expresar cualquier número entre 1 y 2n – 1 como suma de potencias de 2, menores que 2n, que son sus divisores. Es solamente una cuestión de divisibilidad y el fundamento del sistema binario. Se conocen muchas propiedades de los números prácticos, como que existen infinitos, el producto de dos números prácticos es un número práctico, los números perfectos pares, luego de la forma 2p–1 (2p – 1), son prácticos, o que, salvo el 1 y el 2, todos los números prácticos son divisibles por 4 o 6, entre otras.
Instalación Forest of numbers – Bosque de números (2017), de la artista francesa Emmanuelle Moureaux. Imagen de su página webY no podían faltar los números raros, o extraños, que son aquellos que son abundantes, es decir, la suma de los divisores es mayor que el número, pero no se puede obtener el número exacto quitando algunos de los divisores, es decir, como suma de un subconjunto de divisores propios. Por ejemplo, el 12 es abundante, pero como 12 = 2 + 4 + 6, no es raro, y el número raro más pequeño es 70 (cuyos divisores son 1, 2, 5, 7, 10, 14, 35).
Aunque se sabe que existen infinitos números raros, estos son relativamente escasos, por ejemplo, solamente hay 7 números raros menores que 10.000, que son 70, 836, 4.030, 5.830, 7.192, 7.912 y 9.272. Todos los números raros conocidos son pares y si existe alguno impar deberá ser, por lo menos, mayor que 1021.
Cerramos este repaso a algunas tribus numéricas con los números poderosos, que son aquellos tales que, si un número primo p es divisor suyo, también lo es su cuadrado p2, como el 36, cuyos divisores primos son 2 y 3, y sus cuadrados también son divisores de 36. Curiosamente, un número m es poderoso si, y sólo si, se puede expresar como m = a2b3, para algún par de números a y b. Claramente, si un número es de la forma a2b3 es poderoso (ya que los cuadrados de los primos de la descomposición en primos de a y b claramente dividen a a2b3), pero, además, todos los números poderosos son de esta forma. Veámoslo:
Por ejemplo, para el número m = 21.600 = 25 x 33 x 52, tendríamos que b = 2 x 3 = 6 y a = 2 x 5 = 10.
Existen algunos problemas interesantes sobre los números poderosos. Como se observa fácilmente, todo número impar es resta de dos cuadrados, luego de dos números poderosos, 2 k + 1 = (k + 1)2 – k2. Lo mismo ocurre con los múltiplos de 4, ya que 4 k + 4 = (k + 2)2 – k2.
Pero, ¿qué pasaba con los números pares no divisibles por 4, podían expresarse como resta de números poderosos? El matemático e ingeniero estadounidense Solomon W. Golomb (1932 – 2016), conocido por sus trabajos sobre juegos matemáticos, observó que algunos sí podían expresarse, como 2 = 33 – 52, 10 = 133 – 37 o 18 = 192 – 73 = 35 – 152, y conjeturó que el número 6 no podía expresarse como resta de números poderosos, así como infinitos otros números pares. El matemático polaco Władysław Narkiewicz demostró que el 6 no solo podía representarse de esta forma, 6 = 5473 – 4632, sino que existían infinitas formas de hacerlo. Más aún, en 1982, el matemático estadounidense Wayne L McDaniel extendió el resultado para todos los números pares, no divisibles por 4.
Por otra parte, Paul Erdös conjeturó, y fue demostrado por el matemático británico Roger Heath-Brown, que todo número natural suficientemente grande puede expresarse como suma de tres números poderosos.
Instalación “SOHO” (2008), del artista japonés Tatsuo Miyajima. Imagen de su página webBibliografía
1.- Clifford A. Pickover, El prodigio de los números. Desafíos, paradojas y curiosidades matemáticas, Ma Non Troppo (ediciones Robinbook), 2002.
2.- Clifford A. Pickover, La maravilla de los números. Un viaje por los secretos de las matemáticas, sus desafíos y caprichos, Ma Non Troppo (ediciones Robinbook), 2002.
3.- Lamberto García del Cid, Números notables. El 0, el 666 y otras bestias numéricas, El mundo es matemático, RBA, 2010.
4.- Howard H. Eves, Mathematical Circles, The Mathematical Association of America (MAA), 2003.
5.- Wikipedia: Perfect number
6.- David G. Kendall, The Scale of Perfection, Journal of Applied Probability, Vol. 19, Essays in Statistical Science, pp. 125-138, 1982.
7.- Eugen Jost, A postcard from Italy, Plus Magazine, 1999
8.- Wolfram Mathworld: Multiperfect number
9.- Wolfram Mathworld: Aspiring number
10.- Wikipedia: Amicable numbers
11.- Wikipedia: Betrothed or quasi amicable numbers
12.- Wikipedia: Untouchable number
13.- Wikipedia: Practical number
14.- Página web de la artista Emmanuelle Moureaux
15.- Wikipedia: Weird number
16.- Wikipedia: Powerful number
17.- Página web del artista japonés Tatsuo Miyajima
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los números enamorados se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Interferencia y difracción de la luz
A principios del siglo XIX, cuando el prestigio de Newton era en gran medida el sostén de la hipótesis corpuscular de la luz, Thomas Young resucitó la hipótesis ondulatoria. En experimentos realizados entre 1802 y 1804 Young descubrió que la luz muestra el fenómeno de interferencia. La hipótesis corpuscular de la luz no puede explicar fácilmente los patrones de interferencia producidos por la luz. El famoso “experimento de doble rendija” de Young proporcionó la prueba convincente de que la luz tiene propiedades que solo se pueden explicar en términos de ondas.
El experimento de Young se puede realizar muy fácilmente. Consiste, básicamente, en dividir un solo haz de luz en dos haces para garantizar que estén en fase. Luego se permite que los haces resultantes de la división se superpongan, y los dos trenes de ondas interfieren, constructivamente en algunos lugares y destructivamente en otros. Para simplificar la interpretación del experimento, podemos suponer que se realiza con luz que tiene una única longitud de onda definida λ.
Young usó una pantalla negra con un pequeño agujero perforado para producir un haz de luz estrecho en una habitación a oscuras. En la trayectoria del haz colocó una segunda pantalla negra en la que había cortado dos rendijas estrechas, muy juntas. Tras esta pantalla colocó otra pantalla más, pero blanca. La luz que entraba por cada rendija se difractó y se extendió por el espacio más allá de la pantalla. La luz de cada rendija interfirió con la luz de la otra, y el patrón de interferencia se mostró en la pantalla blanca. Donde la interferencia era constructiva había una banda brillante en la pantalla. Donde la interferencia era destructiva, la pantalla permanecía oscura.
Reproducción del diagrama de Thomas Young (1807) para explicar el resultado del experimento de la doble rendija (situadas en A y B) que produce mínimos en C,D,E y F, tal y como aparece en T. Young (ed. G. Peacock), 1855, Miscellaneous Works of the late Thomas Young, London: J. Murray, vol. 1. Imagen: Wikimedia CommonsEs una medida del genio de Young el que pudiese encontrar, por experimento, valores numéricos para algo tan pequeño como la longitud de onda de la luz. Él lo expresó así:
From a comparison of various experiments, it appears that the breadth of the undulations constituting the extreme red light must be supposed to be, in air, about one 36 thousandth of an inch, and those of the extreme violet about one 60 thousandth.
A partir de una comparación de varios experimentos, parece que la amplitud de las ondulaciones que constituyen la luz roja extrema debe suponerse que sea, en el aire, aproximadamente una 36-milésima de pulgada. [7·10-7 m], y las del violeta extremo alrededor de una 60-milésima [4·10-7 m].
Al anunciar su resultado, Young hizo un especial esfuerzo por evitar las críticas de los seguidores de Newton, a quien se consideraba un partidario de la hipótesis corpuscular de la luz. Señaló que el propio Newton había hecho varias afirmaciones a favor de una teoría de la luz que tenía algunos aspectos de la hipótesis ondulatoria.
Sin embargo, Young no fue tomado en serio. No fue hasta 1818, cuando el físico francés Augustin-Jean Fresnel propuso su propia hipótesis ondulatoria de base matemática, que la investigación de Young comenzó a ser reconocida como merecía.
Fresnel también tuvo que enviar su trabajo para su aprobación a un grupo de físicos comprometidos con la hipótesis corpuscular de la luz. Uno de ellos, el matemático Simeón Poisson, trató de refutar la hipótesis ondulatoria de Fresnel. Si realmente describía el comportamiento de la luz, argumentaba Poisson, debería suceder algo muy peculiar cuando se coloca un pequeño disco macizo en un haz de luz. La difracción de algunas de las ondas de luz alrededor del borde del disco redondo debería conducir a una interferencia constructiva, produciendo un punto brillante en el centro de la sombra del disco en una pantalla blanca colocada detrás del disco. La hipótesis corpuscular de la luz no permitía ideas como la difracción y la interferencia constructiva. Además, nunca se había informado de la observación de un punto brillante; incluso la idea de un punto brillante en el centro de una sombra parecía absurda. Con estos razonamientos Poisson anunció que había refutado la hipótesis ondulatoria.
Sin embargo, Dominique-François Arago, presidente del comité de la Académie des sciences que entendía del asunto, era un empirist e inmediatamente dispuso que la prueba aparentemente ridícula de Poisson se probara mediante un experimento. ¡El resultado fue que apareció un punto brillante en el centro de la sombra!
Sombra proyectada por un obstáculo de 5,8 mm de diámetro en una pantalla colocada a 183 cm detrás, cuando es iluminado por la luz del sol que pasa a través de un agujero colocado 153 cm por delante. Los colores tenues de las franjas muestran la dependencia de la longitud de onda del patrón de difracción. En el centro está el punto brillante de Poisson / Arago. Imagen: Wikimedia CommonsA partir de entonces, un número cada vez mayor de personas de ciencia valoró como importantísimos los resultados del experimento de Young de la doble rendija y el “punto brillante de Poisson”. Para 1850, con los experimentos de Foucault-Fizeau, la hipótesis ondulatoria de la luz era el consenso científico; los físicos ya habían comenzado a concentrarse en resolver las consecuencias matemáticas de este modelo y aplicarlo a las diferentes propiedades de la luz.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Interferencia y difracción de la luz se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:“Fuego, foca, foto…” ¿Podemos decir estas palabras gracias a la dieta de nuestros antepasados?
Fuego, foca, foto, fofo, fumar, fieltro, feminista… Es gustoso pronunciar el sonido de la efe, ¿verdad? Quizá por eso la palabra malsonante por excelencia en inglés sea “fuck” (disculpen el exabrupto), porque a los anglosajones se les da mejor que a nadie el convertir un sonido u onomatopeya en el centro de sus palabras (“crack” es más sonoro que “crujir”, aunque tampoco está mal, y “ring” es mejor que “llamar al timbre”, ahí sí que no hay discusión).
Pero volvamos al hilo, que me pierdo. Hablábamos del sonido de la efe, y la reflexión viene a cuento de un estudio recientemente publicado en la revista Science que sugiere que si somos capaces de pronunciarlo, así como otras consonantes labiodentales (en el castellano, solo le acompañaría la pronunciación tradicional de la uve, que solo se conserva en algunas regiones), es porque hace miles de años nuestros antepasados cambiaron su alimentación, eso cambió sus mandíbulas y con eso, los sonidos que eran capaces de pronunciar, abriendo la puerta a una variedad lingüística y comunicativa no disponible anteriormente.
Imagen: D. E. Blasi et al (2019) Human sound systems are shaped by post-Neolithic changes in bite configuration Science doi: 10.1126/science.aav3218Comida dura, mandíbulas potentes
Vamos por partes. El estudio ha sido realizado por Balthasar Bickel, Damián Blasi y Steven Moran, del laboratorio de Lingüística de la Universidad de Zúrich, en Suiza. Su intención era poner a prueba una idea propuesta por otro lingüista, el americano Charles Hockett en 1985. Hocket escribió entonces que las lenguas habladas por los cazadores-recolectores carecían de estas consonantes labiodentales y que, al menos en parte, su dieta podía ser responsable.
Según su teoría, consumir y masticar alimentos fibrosos y duros requería de una mayor fuerza en la mandíbula y suponía un mayor desgaste de los molares, y como tal, sus mandíbulas inferiores eran mayores y los molares ocupaban más espacio en ella, empujando las demás piezas dentales hacia delante y causando una alineación entre los dientes delanteros de la mandíbula inferior y la mandíbula superior.
Esto dificultaba, dijo Hockett entonces, que los dientes de arriba tocasen el labio inferior, contacto necesario para pronunciar la gustosa efe. Para hacerse una idea, pruebe a colocar hacia delante su mandíbula inferior hasta que dientes de arriba y abajo coincidan. ¿Verdad que le resulta una postura incómoda? Eso es por la llamada sobremordida, ese espacio que la mayoría tenemos entre los dientes superiores y los inferiores cuando cerramos la mandíbula. Al introducirse la agricultura y técnicas como el molido de los cereales, la fabricación de derivados lácteos y más formas de cocinado para la carne, la postura anterior habría sido menos necesaria y esta sobremordida habría ido haciéndose cada vez más común, hasta el día de hoy.
Imagen: D. E. Blasi et al (2019) Human sound systems are shaped by post-Neolithic changes in bite configuration Science doi: 10.1126/science.aav3218Un 29% menos de energía para pronunciar la F
Blasi y compañía querían poner a prueba esta idea y, esperaban a priori, demostrar que Hockett se había equivocado.
Para empezar, los investigadores utilizaron un modelo informático para calcular que con una sobremordida, producir esas consonantes labiodentales cuesta un esfuerzo un 29% inferior. Después, analizaron las lenguas del mundo y descubrieron que en las civilizaciones de cazadores y recolectores hay un 75% menos de consonantes labiodentales que en las lenguas habladas en sociedades agrícolas. Por último, estudiaron las relaciones y evoluciones lingüísticas y determinaron que las consonantes labiodentales se difunden con rapidez, de forma que esos sonidos podrían haber pasado de ser raros a ser comunes en los 8.000 años que han pasado desde la adopción de la agricultura y otros métodos de manipulación de los alimentos.
Teniendo en cuenta estas averiguaciones. Bickel sugiere que a medida que la comida más blanda se fue haciendo más habitual, más adultos fueron desarrollando sobremordidas y fueron utilizando consonantes labiodentales de forma accidental, y que por ejemplo en la antigua India, el uso de esos sonidos pudo haber sido una señal de estatus al significar un acceso a una dieta más delicada y costosa. A día de hoy hay consonantes labiodentales en el 76% de los idiomas provenientes de lenguas indoeuropeas.
“Una de las conclusiones principales es que el panorama de sonidos que tenemos hoy en día está fundamentalmente afectado por la biología de nuestro aparato fonador. No es solamente una cuestión de evolución cultural”, explicaba Bickel en una rueda de prensa.
Imagen: D. E. Blasi et al (2019) Human sound systems are shaped by post-Neolithic changes in bite configuration Science doi: 10.1126/science.aav3218Si ocurrió así, no ocurrió en todas partes
Aun así, no todo el mundo ve clara la relación que Bickel y su equipo proponen entre dieta, forma de la mandíbula y sonidos del idioma. Inevitablemente, su hipótesis está basada en algunas ideas difíciles de comprobar y también en algunas contradicciones. Por ejemplo, que en la Antigua China también se comenzó a cultivar y procesar arroz de forma que fuese más sencillo de masticar y comer y en las lenguas de esa región los sonidos labiodentales son mucho menos comunes que en las lenguas europeas.
Claro que los autores no defienden que la evolución hacia la sobremordida signifique necesariamente la aparición de las consonantes labiodentales, sino que “la probabilidad de producción de esos sonidos aumenta ligeramente con el tiempo, y eso significaría que es probable que algunas lenguas los adquieran, pero no todas”, explica otro de los autores, Steven Moran, en este artículo de Smithsonian Magazine.
“¿Dónde está la causalidad, que yo la vea?”
Algunos críticos, como el paleoantropólogo Rick Potts, no terminan de aceptar la conclusión del estudio: “En mi opinión, no dan suficientes razones para aceptar que la dieta fue el motivo por el que se hicieron más comunes estos sonidos, porque no tienen en cuenta en ningún momento los componentes anatómicos de producir estos sonidos”, explica en el artículo mencionado.
Potts explica que para hacer el sonido de la efe cuando no hay sobremordida simplemente hay que retraer un poco los músculos de los lados de la mandíbula, que la hacen retroceder ligeramente. “¿Cómo podría una dieta más dura y áspera limitar esa retracción? Esa es la base para hacer esos sonidos. El estudio no demuestra de ninguna forma que una mordida en la que los dientes coinciden impida o haga energéticamente más costoso pronunciar estos sonidos”, señala.
Así que en su opinión, el estudio señala algunas correlaciones que resultan interesantes pero no llega a demostrar una causalidad probable. Es, dice, como si una investigación descubriese que culturas que habiten en el ecuador tienen preferencia por el color rojo y también que esas personas tienen en sus ojos una densidad de receptores de color menor que las personas que habitan en el Ártico, por ejemplo, y concluyesen que la falta de receptores de color es lo que las hace preferir el color rojo.
“Pero ¿cómo íbamos con eso a descartar que fuese una cuestión cultural e histórica lo que hace que los habitantes de una cultura ecuatorial tiendan a elegir el rojo, y los habitantes de culturas del polo no lo hagan?”, argumenta, señalando que el estudio no ha tenido suficientemente en cuenta la acción de la historia, la cultura y la identidad de cada grupo y cada lengua a la hora de favorecer o no los sonidos labiodentales.
Referencias:
Human sound systems are shaped by post-Neolithic changes in bite configuration – Science
Ancient switch to soft food gave us an overbite—and the ability to pronounce ‘f’s and ‘v’s – Science
The Ability to Pronounce ‘F’ and ‘V’ Sounds Might Have Evolved Along With Diet – Smithsonian Magazine
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo “Fuego, foca, foto…” ¿Podemos decir estas palabras gracias a la dieta de nuestros antepasados? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Actos por el 50 aniversario de la Facultad de Ciencia y Tecnología de la UPV/EHU
50 años de ciencia viva
Los actos de conmemoración del 50 aniversario de la Facultad de Ciencia y Tecnología de la UPV/EHU comenzaron el 28 de enero de este año con la plantación de un tilo de hoja pequeña (Tila cordeta Mill.), que representa el Árbol de la Ciencia como símbolo de su unidad fundamental. El acto simbolizó la siembra de la semilla plantada en mayo de 1968, cuando se creó la Facultad de Ciencias de la Universidad de Bilbao, hoy en día Facultad de Ciencia y Tecnología.
Los primeros pasos de la Facultad de Ciencias en el curso 1968/69 se dieron junto al puente de Deusto, en “Botica Vieja, 1”. No fue hasta finales de 1971 cuando se trasladó a su emplazamiento actual en Leioa.
La Facultad de Ciencia y Tecnología ha sido una facultad viva en su oferta de titulaciones. Comenzó ofertando las cinco ramas clásicas de las Ciencias Naturales: Biología, Física, Geología, Matemáticas y Química. Entre los cursos 1994/95 y 2000/01, su oferta se amplía a las licenciaturas de segundo ciclo en Bioquímica, Ingeniería Electrónica, Ingeniería Química y Ciencias Ambientales, pasando a llamarse en el curso 2004/2005 Facultad de Ciencia y Tecnología. Hoy, oferta nueve grados, dos en la rama de Ingeniería (Ingeniería Electrónica e Ingeniería Química), y siete en la de Ciencias (Biología, Bioquímica y Biología Molecular, Biotecnología, Física, Geología, Matemáticas y Química). Se oferta también el doble grado en Física e Ingeniería Electrónica y tres dobles titulaciones internacionales de grado. Esta oferta hace de la Facultad de Ciencia y Tecnología uno de los referentes más importantes del País Vasco en la formación de profesionales capaces de jugar un papel crucial en los retos de nuestra sociedad, desde el desarrollo en nuevas tecnologías, el desarrollo sostenible, la conservación del medio ambiente o la investigación en biociencias.
Los inicios fueron precarios, como se podría esperar ante la difícil situación política de aquellos años. Hoy la facultad es un centro con gran experiencia en docencia, investigación y desarrollo tecnológico, como queda acreditado por las muy buenas posiciones en el ranking de Shanghái de distintas áreas de investigación que se desarrollan en nuestro centro.
La calidad de una facultad no se mide sólo por la excelencia del profesorado, sino también por la calidad de su alumnado: hoy cuenta con estudiantes de primer nivel. Las notas de acceso más elevadas para acceder a las titulaciones universitarias se encuentran en varias de las titulaciones de esta facultad. Un claro ejemplo es la nota de acceso superior a 13, sobre 14, para acceder al doble grado, la más alta de la UPV/EHU.
Tras 50 años de intenso trabajo, 17.500 personas han egresado en licenciatura, ingeniería o grado, y 2.000 se han doctorado. Estas cifras suponen una gran aportación de personal cualificado, profesionales que están trabajando en distintos ámbitos sociales, fundamentalmente en el tejido productivo, pero también en el institucional y el educativo, ocupando muchos de ellos puestos de responsabilidad.
Queremos compartir con la sociedad vasca el trabajo que la Facultad de Ciencia y Tecnología ha desarrollado a lo largo de medio siglo, mediante una investigación de excelencia y una formación rigurosa de profesionales en distintas áreas, mostrando así nuestro orgullo por haber colaborado en el crecimiento económico y social del País Vasco.
Biba Zientzia!, Ciencia Viva.
Todas las actividades programadas las encontrará aquí.
Las actividades programadas en el Bizkaia Aretoa de Bilbao durante los próximos 4 meses son:
Semana de la física
- 20 de marzo
18:30 Conferencia: A. Sanchez-Lavega: “¿Hay mas vida en el universo?
19:00 Mesa redonda: “Ciencia y Tecnología en el siglo XXI”
-Cristina Oyon (Responsable de Iniciativas Estratégicas del Grupo SPRI),
-Jose Maria Pitarke (Director General del CIC-Nanogune),
-Javier García-Abajo (Prof. Investigación CSIC y Research Prof. ICREA)
-Agustin Sanchez Lavega (Catedrático UPV/EHU)
Moderadora: Eva Caballero (Periodista de radio Euskadi)
- 21 de marzo
18:00 Conferencia: Roberto Emparan (Research Prof. ICREA y autor del libro de divulgación reciente “Iluminando el lado oscuro del Universo”): “Stephen Hawking: de los agujeros negros a la Teoría del Todo”
Semana de las matemáticas
- 25 de marzo
18:00 Mesa redonda: “Experiencias Matemáticas en empresa”
Dirigido a: Estudiantes de Bachillerato y de Matemáticas, Orientadores
- 2 de abril
19:00 Evento: Judith Rivas (UPV/EHU); Nagore de las Cuevas y Arkaitz Pascuas; Andoni Aresti Dantza Eskola y Mungiako Udal Dantza Eskola : “Pasos de baile a ritmo de matemáticas”
Dirigido a: Público general
Semana de la geología
- 1 de abril
18:00 Conferencia: Irantzu Guede, doctora de la UPV/EHU en Geología, en Mineralogía Petrología: “Geología en Mitos y Leyendas”.
- 2 de abril
18:00 Conferencia: Humberto Astibia, catedrático de la UPV/EHU: “Los fósiles, documentos de la historia de la Vida archivados en las rocas”.
16:00-20:00 Taller de Geología para familias. Aintzane Goffard (Geologa de la UPV/EHU, ayudante en Estratigrafía-Paleontología) e Irantzu Guede (Doctora de la UPV/EHU en Geología, Mineralogía-Petrología).
- 3 de abril
18:00 Conferencia: Blanca Martínez, doctora de la UPV/EHU en Geología, en Estratigrafía-Paleontología: “Geología y música”.
- 4 de abril
18:00 Conferencia: Ihintza Urain Alberdi, geóloga: “Geologia eta ingurugiroa: Geologoaren papera energia aldaketan eta Lurraren inguruko kultura berri baten aurrean”.
- 8 de abril
18:00 Conferencia: Jose María Tubía, catedrático de Geodinámica de la UPV/EHU: “Riesgo geológico de los tsunamis”.
Acto central
- 11 de abril
18:30 Conferencia: Prado Martín Moruno, 2017 L’Oreal-Unesco awarded Women for Science: “La energía oscura y el destino del Universo”.
Estreno de la obra de baile “GARGANTUA” (basada en el agujero negro GARGANTUA de la película “Interstellar”). Martxel Rodriguez, físico y bailarín profesional. Miembro de “KUKAI dantza taldea”.
Semana de la química
- 29 de abril
18:00 Conferencia: Oskar González. Profesor del Departamento de Química Analítica:“Artelanetan aurkitu diren gauzarik bitxienak”
- 30 de abril
18:00 Conferencia: Pascual Román, profesor emérito. Catedrático de Química Inorgánica: “El sesquicentenario de la tabla periódica de los elementos químicos”
- 2 de mayo
18:00 Conferencia: Jose Luis Vilas, director del Grupo de Química Macromolecular. Departamento de Química Física FCT-EHU: “Hidrogeles: imprimiendo salud”
Semana de la biociencia
- 6 de mayo
18:00 Mesa redonda: “Zientzia, jainkoaren esistentzia, zergatik du gizakiak sinisteko beharra”
Otros actos
- 27 de Junio
19:00 “ZTF/FCTren ekarpena Euskararen Normalizazioan” Conferenciantes: Pedro Miguel Etxenike, Jacinto Iturbe y Jesusmari Txurruka
Acto de clausura. 12 de julio
Bilbao Bizkaia AretoaSe comunicará
Sobre el autor: Fernando Plazaola Muguruza es el decano de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Actos por el 50 aniversario de la Facultad de Ciencia y Tecnología de la UPV/EHU se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: