El nylon lo creó un contable
A finales de los años veinte del siglo pasado la compañía estadounidense DuPont contrataba a un químico llamado Wallace Hume Carothers para dirigir la investigación fundamental en polímeros. El objetivo último de DuPont era intentar conseguir una forma barata y eficiente de sustituir la seda proveniente de Asia, donde el militarismo rampante de Japón estaba limitando cada vez más el suministro a Occidente.
Carothers contabilizando una reacción
Si bien el primer título de Carothers fue en contabilidad y administración, y a pesar de que se matriculase en Inglés (lo que llamaríamos lengua y literatura inglesas) en el Tarkio College, terminó doctorándose en química por la Universidad de Illinois. Su primer objetivo en DuPont era comprender la naturaleza de polímeros naturales como el caucho, la celulosa y la seda y, a partir de ahí, intentar imitarlos. El objetivo no declarado era conseguir el polímero sintético más grande conocido.
Carothers empleó reacciones orgánicas bien establecidas pero las aplicó al estudio de moléculas con dos centros reactivos, uno a cada extremo, que formasen los eslabones de una cadena, porque eso son los polímeros, cadenas de moléculas. Carothers y su grupo aprendieron muchas cosas interesantes acerca de los polímeros pero no consiguieron producir nada parecido a la seda. Bueno, no lo consiguieron hasta que alguien se puso a hacer el tonto en el laboratorio.
Julian Hill en 1930 externamente no parecía un niño precisamente.
Un día uno de los ayudantes de Carothers, Julian Hill, estaba jugando con una masa pastosa de poliéster que había en el fondo de un vaso de precipitados cuando se dio cuenta de que si cogía una porción de la masa con una varilla de vidrio y se dedicaba a estirarla todo lo posible (recordemos que estaba, literalmente, jugando) conseguía unos hilos que recordaban a la seda. Ahí quedó la cosa.
Días más tarde, aprovechando que el jefe había tenido que ir a una gestión a la ciudad, los ayudantes de Carothers decidieron averiguar cuánto podía estirarse aquello (la versión oficiosa dice que fue una competición a ver quien conseguía el hilo más largo): y para ello no tuvieron mejor ocurrencia que correr escaleras abajo portando varitas de vidrio con un pegote de poliéster en la punta (las caras de los que se cruzasen por el camino tuvieron que ser dignas de ver). La cuestión es que terminaron con hilos “muy sedosos”, que hoy sabemos se deben a la orientación (el ordenamiento en una dirección) de las moléculas de polímero.
Eran juguetones, pero eran químicos. Pensaron que si esos hilos sedosos tuviesen que emplearse para confeccionar un tejido no sería muy útil, ya que el poliéster tiene un punto de fusión demasiado bajo (nada de tenerlo mucho rato al sol, ni cerca de un fuego) y una solubilidad en agua demasiado alta (nada de usarlo un día de lluvia). Aunque estos dos problemas del poliéster se solucionarían más tarde, los ayudantes de Carothers subieron de nuevo las escaleras y decidieron volver a bajarlas corriendo, esta vez llevando una poliamida que tenían en la estantería en la punta de sus varitas, a ver si conseguía el mismo efecto. Funcionó.
Nylon 6-6, en lila resaltados los enlaces de hidrógeno que unen las distintas moléculas de polímero orientadas en una dirección
Cuando el jefe volvió se encontró a la gente de su departamento sorprendentemente sudorosa y muy excitada. El grupo de Carothers necesitaría 10 años para transformar la idea tras aquellos hilos sedosos de poliamida en un producto comercializable parecido a la seda: había nacido el nylon. Su fecha de nacimiento oficial como polímero fue el 28 de febrero de 1935 cuando Gerard Berchet, bajo la dirección de Carothers, consiguió obtener poliamida 6-6 a partir de hexametilendiamina y ácido adípico.
El nuevo material, presentado en la Feria Mundial de Nueva York de 1939, fue un éxito inmediato. Aunque se comercializó por primera vez en cepillos de dientes, su gran éxito vino cuando se vendieron más de cuatro millones de pares de medias en unas pocas horas en la primera gran venta masiva que se hizo en la ciudad de Nueva York en 1940. Sin embargo, todo este éxito comercial de cara al público se vería eclipsado cuando casi inmediatamente el acceso al material tuvo que ser restringido por las demandas del mismo en la fabricación de paracaídas.
Ríete tú de las colas para comprar la nueva iCosa.
Carothers, que ya había advertido a los representantes de DuPont cuando fueron a contratarle a Harvard en 1928 que tenía momentos depresivos, no vivió para ver su éxito. Se había suicidado (como químico orgánico que era, usando cianuro de potasio disuelto en zumo de limón) en 1937.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El nylon lo creó un contable se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Depuración conjunta de dioxinas y NOx en incineradoras de basura
La alta generación de residuos y las limitaciones legislativas medioambientales obligan a diseñar programas de prevención, reutilización y reciclado para gestionar la basura. Sin embargo, los residuos sólidos urbanos (RSU) que no entran en estos programas son incinerados, y así pueden generar compuestos perjudiciales —óxidos de nitrógeno y dioxinas, entre otros— que se deben tratar antes de ser liberados a la atmósfera.
La doctora de la UPV/EHU Miren Gallastegi ha investigado las posibilidades de la tecnología catalítica en las plantas incineradoras de residuos sólidos urbanos, para reducir las emisiones de estos contaminantes de manera más eficiente, realizando su depuración a temperatura más reducida y, en consecuencia, de forma más amigable.
El grupo de investigación Tecnologías Químicas para la Sostenibilidad Medioambiental (TQSA) del Departamento de Ingeniería Química de la UPV/EHU investiga las tecnologías catalíticas con el fin de ofrecer alternativas más sostenibles frente a los modelos tradicionales. Hasta ahora se había observado, pero no estudiado científicamente, que es posible eliminar los óxidos de nitrógeno y destruir las dioxinas de forma independiente en dispositivos diferentes y bajo diferentes condiciones. Sin embargo, no se había constatado mediante una investigación científica en qué condiciones y cómo se pueden producir los dos procesos simultáneamente, lo que se denomina “intensificación de procesos”, con el consiguiente ahorro energético.
Miren Gallastegi ha analizado el proceso conjunto, es decir, la manera de depurar de forma simultánea los óxidos de nitrógeno (NOx) y las dioxinas. Estas últimas partículas son especialmente tóxicas a bajos niveles y se generan en la combustión de residuos que llevan cloro en su composición como, por ejemplo, algunos plásticos (polímeros) que quedan fuera de la cadena de reciclaje y reutilización. En su investigación, ha sintetizado y utilizado catalizadores, tanto convencionales (basados en óxidos de vanadio, wolframio y titanio) como nuevas formulaciones alternativas (basadas en óxido de manganeso). Ha conseguido acelerar las reacciones químicas deseadas de eliminación de óxidos de nitrógeno y destrucción de dioxinas a menor temperatura y de forma más eficiente.
Tras analizar los diferentes procesos químicos que ocurren sobre el catalizador, Gallastegi ha constatado es posible por un lado reducir los óxidos de nitrógeno a nitrógeno y, por otro, destruir las dioxinas, transformándolas en compuestos gaseosos inertes. Es decir, a pesar de la distinta naturaleza química y reactividad de ambas moléculas, un mismo catalizador del tipo de los desarrollados, puede realizar al mismo tiempo los dos procesos tan distintos. Es un sistema combinado bautizado con el nombre dDiNOx (depuración conjunta de dioxinas y NOx).
En estos momentos, diez incineradoras del estado están utilizando tecnología catalítica para la transformación de los óxidos de nitrógeno en nitrógeno. Sin embargo, atrapan las dioxinas sobre filtros de carbón activo que, con posterioridad requieren gestión, tratamiento y control adicional. “La introducción de los nuevos catalizadores que hemos desarrollado y la optimización de las variables de proceso, permitiría la utilización de la infraestructura de las actuales plantas de incineración (con escasas modificaciones) para la eliminación simultánea de los contaminantes. Esta nueva disposición presenta la gran ventaja de destruir las dioxinas en lugar de su absorción y posterior gestión de los actuales filtros, que podrían eliminarse. Es una opción muy beneficiosa para el medio ambiente, que requiere escasa inversión en instalación y conlleva un importante ahorro energético”, explica Miren Gallastegi.
Referencia:
M. Gallastegi-Villa, A. Aranzabal, Z. Boukha, J.A. González-Marcos, J.R. González-Velasco, M.V. Martínez-Huerta, M.A. Bañares (2015) Role of surface vanadium oxide coverage support on titania for the simultaneous removal of o-dichlorobenzene and NOx from waste incinerator flue gas Catalysis Today doi: 10.1016/j.cattod.2015.02.029
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Depuración conjunta de dioxinas y NOx en incineradoras de basura se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Superbacterias
El mes de noviembre del pasado año se descubrió en China que un gen bacteriano denominado mcr-1 confiere resistencia a la colistina. Dicho así puede parecer banal. Pero es todo lo contrario: fue un descubrimiento preocupante. La colistina es un antibiótico de último recurso que sólo se administra cuando todos los demás antibióticos no consiguen acabar con una infección. Es, por lo tanto, una de las últimas líneas de defensa frente a las bacterias denominadas multirresistentes, esto es, bacterias que han desarrollado resistencia a muchos antibióticos.
El gen mcr-1 no forma parte del cromosoma bacteriano, sino que se encuentra en un plásmido. Los plásmidos son pequeños fragmentos de ADN independientes del cromosoma, y son capaces de moverse de una bacteria a otra con facilidad -lo que se denomina transferencia horizontal-, expandiendo la resistencia a los antibióticos entre diferentes cepas y especies bacterianas. A partir de su descubrimiento en China, otros países se pusieron manos a la obra en busca de bacterias que contuviesen el mcr-1, y ya ha sido hallado en África, Europa, Norteamérica y Sudamérica.
La resistencia a los antibióticos es un fenómeno lógico a la luz de la selección natural. Cuando se utiliza uno de ellos para combatir una infección bacteriana se está ejerciendo sobre las bacterias una “presión selectiva”. Bajo esas circunstancias, si alguna de las bacterias tiene un gen que confiere resistencia a ese antibiótico, esa bacteria sobrevivirá, se multiplicará, y legará esa resistencia a las bacterias de las siguientes generaciones. La probabilidad de que ocurra tal cosa es muy baja, pero por baja que sea, si un antibiótico es utilizado en un número suficientemente alto de ocasiones, antes o después alguna de las bacterias atacadas resultará ser resistente al mismo. Y entonces esa bacteria se multiplicará, hasta ser combatida mediante otro antibiótico. El problema es que el uso masivo de antibióticos de amplio espectro –que atacan a bacterias de muy diferentes variedades- ha hecho que cada vez sea menor el tiempo que transcurre desde que se empiezan a utilizar hasta que surge alguna cepa resistente. Y así van apareciendo cepas resistentes a más y más antibióticos: son las llamadas bacterias multirresistentes o superbacterias.
Antes se descubrían nuevos antibióticos a un ritmo suficientemente alto como para ir compensando la aparición progresiva de nuevas resistencias. Pero eso ha cambiado. Cada vez aparecen más rápidamente porque cada vez se utilizan los antibióticos de forma más masiva, no solamente para combatir infecciones bacterianas en seres humanos, sino –erróneamente- también para atacar infecciones víricas y, de modo preventivo, en algunos países para tratar al ganado, porque de esa forma engorda más rápidamente.
Hay quien opina que nos dirigimos a un mundo en el que los antibióticos dejarán de ser eficaces. Nos hemos acostumbrado a vivir con ellos. Descartamos casi completamente que las infecciones bacterianas puedan llegar a ser una amenaza real en nuestras sociedades. Y sin embargo, hay motivos para la alarma. Se desarrollarán nuevos antibióticos, por supuesto. Y quizás también se desarrollen nuevas terapias o se recuperen terapias antiguas que han demostrado ser eficaces, como el tratamiento con bacteriófagos –virus que atacan bacterias- como se llegó a hacer en el pasado con éxito en la antigua URSS. Pero la perspectiva de un mundo sin antibióticos eficaces es una perspectiva aterradora en la que la enfermedad, el sufrimiento y la desdicha estarán mucho más presentes entre nosotros que en la actualidad. Para evitar que esos malos augurios lleguen a cumplirse sólo hay dos caminos: hacer un uso más moderado y racional de los antibióticos, e investigar más para desarrollar terapias eficaces, sea con antibióticos o de cualquier otro modo.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————————
Este artículo fue publicado en la sección #con_ciencia del diario Deia el 5 de junio de 2016.
El artículo Superbacterias se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 ¿Esto es una bomba? Esto es una bomba
En la carrera por construir formas eficientes de destrucción nada gana a la imaginación de un físico teórico. Mario Herrero lo ilustra.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 ¿Esto es una bomba? Esto es una bomba se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Proyecto Mohole, un fracaso que no hacía falta
El objetivo del proyecto era simplemente hacer un agujero en el fondo del mar. Pero no un agujero cualquiera, sino el más profundo que jamás hubiese hecho la humanidad. Se llamó proyecto Mohole y comenzó en 1957; en 1966 el Congreso de los Estados Unidos decidió que ya estaba bien de gastar dinero y fue cancelado. Su objetivo: alcanzar la discontinuidad de Mohorovičić, la interfaz entre la corteza terrestre y el manto.
La discontinuidad de Mohorovičić está marcada con el número 2
Esta discontinuidad fue descubierta por el sismólogo croata Andrija Mohorovičić en 1909, quien se dio cuenta de que las ondas sísmicas que volvían de las profundidades indicaban que debía existir una zona a varios kilómetros de profundidad en la que se producía un cambio brusco en la velocidad de estas ondas sísmicas. Esta zona define la base de la corteza terrestre y marca un cambio de composición: la superficie de separación entre los materiales rocosos menos densos de la corteza, formada fundamentalmente por silicatos de aluminio, calcio, sodio y potasio, y los materiales rocosos más densos del manto, constituido por silicatos de hierro y magnesio. La profundidad de Moho (que es como se llama menos formalmente la discontinuidad) varía entre los 25-40 km en los continentes y los 5-10 km bajo el suelo oceánico, y su espesor máximo es de unaos 500 m.
Profundidad de la discontinuidad de Mohorovičić
Antes de seguir conviene señalar que, tras la aceptación universal de la tectónica de placas, los geólogos llegaron a la conclusión que más importantes que los cambios en la composición son los cambios en la manera de deformarse a la hora de entender la estructura de la Tierra. Por eso actualmente dividen la parte más externa del planeta en litosfera (rígida), que incluye la corteza y la parte superior del manto, que cubre la mucho más deformable astenosfera.
El proyecto Mohole (de Moho y “hole”, agujero en inglés) fue una ocurrencia de un grupo, informal, de científicos asociados a la marina de los Estados Unidos y que se creó en los años cincuenta. El grupo lo lideraba Gordon Lill de la Oficina de Investigación Naval y se dedicaba a recopilar ideas y proyectos de investigación de los científicos de la armada que no encajaban en ninguna parte, de ahí el nombre del grupo: Sociedad Miscelánea Americana (AMSOC, por sus siglas en inglés). Para ser aceptado en el grupo solo era necesario que dos o más miembros estuviesen juntos.
Funafuti
Antes del Mohole, todas las perforaciones que se hacían en la corteza terrestre tenían como objetivo encontrar petróleo o gas y se habían limitado a tierra firme y a aguas poco profundas. Perforar con fines científicos era mucho menos común. Este tipo de perforaciones habían comenzado con la idea de determinar la estructura, composición e historia de las islas coralinas. En 1877 la Royal Society de Londres financió una perforación que llegó a los 350 m en Funafuti, el atolón en el que está la capital de Tuvalu, en el Pacífico Sur. En 1947, antes de los ensayos nucleares en Bikini, una perforación llegó en este atolón a los 780 m. Finalmente, en 1952 una prospección en Enewetak consiguió llegar a la corteza basáltica debajo de la roca coralina a una profundidad de 1200 m, aún muy lejos de Moho. A lo largo de los años cincuenta algunos países, notablemente Canadá y la Unión Soviética, anunciaron públicamente proyectos de perforaciones en la corteza terrestre; no se conoce que se llevaran a cabo.
El proyecto Mohole presentado por la AMSOC consiguió financiación pública para la idea de hacer la perforación en el fondo oceánico, todo un reto tecnológico para la época. El proyecto era perforar a una profundidad de agua de miles de metros, algo nunca hecho hasta entonces.
Si bien el proyecto consiguió dos perforaciones notables, primero a una profundidad marina de 950 m y después otra a 3560 m, no llegó ni a aproximarse a Moho. El proyecto Mohole, probablemente uno de los grandes proyectos públicos de gran ciencia (el primero fue secreto y fue el proyecto Manhattan, que creó la bomba atómica) terminó cuando se quedó sin dinero en 1966 siendo considerado un fracaso. Dos años antes AMSOC se había disuelto.
CUSS I
Con todo, el proyecto demostró que la perforación en el suelo oceánico usando barcos era posible (el CUSS I empleado en el proyecto, fue uno de los primeros barcos del mundo capaz de perforar en profundidades de agua de hasta 3.600 m, mientras mantenía la posición en un radio de 180 m) y dio pie, además, al Proyecto de Perforación en Mares Profundos de 1968, que se dedicó a investigar las capas de sedimentos del fondo oceánico.
El principal logro del proyecto Mohole fue convertir la investigación del suelo marino en una empresa multinacional, ya sean prospecciones científicas o llevadas a cabo por compañías transnacionales. En los 50 años transcurridos desde la finalización del proyecto Mohole, sin embargo, ningún proyecto ha llegado a Moho perforando el fondo del mar. Lo soviéticos fueron los que estuvieron más cerca, con una perforación de 12,262 m en tierra firme, en la península de Kola, en 1989.
Según cuentan las crónicas, el proyecto Mohole fracasó por falta de financiación suficiente y porque estuvo mal gestionado. De hecho, puede que la informalidad de AMSOC fuese en parte responsable de iniciar un proyecto que era tecnológicamente interesante pero cuyo objetivo científico era dudoso.
Chert
¿Por qué era dudoso? A finales del siglo XIX varios científicos europeos se habían dado cuenta de que la corteza oceánica afloraba en los Alpes en forma de capas de chert (sedimentos del suelo marino hechos roca, litificados) superpuestas a capas basálticas (que corresponderían con la corteza oceánica), superpuestas a su vez a capas ultramáficas (rocas de alta densidad ricas en hierro y magnesio); esta estructura se conoce como trinidad de Steinmann, en honor de Gustav Steinmann. En general, estas asociaciones de rocas se llaman ofiolitas y la transición de la capa basáltica a la ultramáfica no sería otra cosa que la discontinuidad de Mohorovičić, ahí, a simple vista.
¿Moho a la vista? Ofiolita de Terranova
Para saber más:
El proyecto Mohole – Wikipedia
Project Mohole – National Academies
Este post ha sido realizado por César Tomé López (@EDocet) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Proyecto Mohole, un fracaso que no hacía falta se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 Si Pitágoras fuese nutricionista
El amor de Pitágoras por los triángulos supondría un riesgo para tu salud. Aitor Sánchez sobre las falacias alimentarias.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 Si Pitágoras fuese nutricionista se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Realidad conexa, porque todo está conectado.
Llevamos varias semanas hablando de artistas científicos, de colaboraciones interdisciplinares exitosas y de la necesidad de encontrar caminos transversales entre ciencia y arte.
A veces, para un espectador poco acostumbrado a este enfoque interdisciplinar, esta búsqueda de caminos confluyentes, esas interrelaciones, puede parecer forzada, artificial, pero no lo es. Sencillamente, lo que nos ocurre es que no sabemos verlas, que no nos hemos parado a buscarlas.
Realidad Conexa es una nueva iniciativa del programa Mestizajes, del Donostia International Physics Center (DIPC), destinada a mostrarnos de manera visual, dinámica y accesible para todo tipo de público esas conexiones, esos encuentros que no sabemos ver.
La premisa con la que Gustavo Ariel Schwartz, fundador y director del Programa Mestizajes, y Ana Montserrat Rosel, guionista y directora de TV, se enfrentaron al proyecto es que “todo, absolutamente todo, está conectado”. Se trata de exponer de manera sencilla, visual y comprensible que el conocimiento humano no está formado por compartimentos estancos independientes unos de otros, sino por puntos que se conectan unos con otros a través de líneas que están ahí, a nuestro alcance, y que solo tenemos que aprender a ver. Los caminos para llegar al conocimiento no son únicos, desde distintos puntos de salida se puede llegar a la misma meta, se llega de hecho al mismo punto, y esas rutas distintas son todas igualmente válidas y enriquecedoras.
El proyecto, en esta primera entrega (esperamos que sean muchas más), consta de 8 cápsulas de dos minutos de duración que dejan en el espectador diferentes sensaciones. Primero cierta desconfianza ¿qué van a contarme?, segundo sorpresa ¿en serio, cómo no sabía esto?, tercero asombro, cuarto y último curiosidad por saber más. Esta última reacción es la que Realidad Conexa busca, encender la chispa de la curiosidad es un poderoso acicate para mover hacia el conocimiento.
Hasta ahora se han publicado cuatro cápsulas, la presentación y tres episodios más, en las que con un lenguaje claro, preciso e identificable se nos muestran diferentes conexiones para abordar nuestra realidad.
En Borges y la memoria, la primera frase ya nos deja con ganas de saber qué van a contarnos porque apela a algo que todos conocemos: “Pensar es olvidar. Olvidar para recordar”. Con este gancho la voz en off nos lleva a conocer la historia de la increíble coincidencia entre un personaje de Borges, Funes El Memorioso, y Salomón Shereshesky, el hombre que recordaba todo. Ficción y realidad coincidentes en el tiempo pero no en el espacio, una historia que nos sorprende, nos asombra y, después, nos deja pensando ¿cuánto recuerdo yo?, ¿qué hago con mi memoria?, ¿cómo la utilizo?, ¿recuerdo u olvido?
En Arte, Literatura y Ciencia, el gancho para atraer nuestra atención es la frase que, a mi juicio, es la esencia del enfoque de todo el proyecto: “El pintor comprende la realidad, el escritor controla la historia y el científico describe verdades”. Esta cápsula ilustra una idea que en el Cuaderno de Cultura Científica se ha tratado muchas veces: cómo el conocimiento se abordaba de una manera global en la Antigüedad y el Renacimiento y cómo el siglo XX constituye una ruptura de ese acercamiento.
En Magia y neurociencia, el enfoque de la conexión está centrado en cómo algo tan poco científico como la magia y los trucos puede ayudar a los neurocientíficos a conocer cómo decide nuestro cerebro lo que percibimos y lo que no. ¿Prestamos atención a lo que queremos o creemos prestar atención mientras en realidad nuestro cerebro nos engaña?
El resto de las cápsulas irán publicándose en las próximas semanas en el Canal Mestizajes del DIPC y tratarán temas tan interesantes como la relación entre el poema Eureka de Poe y la infinitud del Universo, la colaboración inesperada entre las proteínas y los videojuegos, o la conexión entre nuestra preferencia al girar la cabeza para besar, los retratos de Rembrandt y el cerebro. También aprenderemos cómo el placer que las grandes obras de la literatura o el desagrado de los peores textos escritos responden a patrones matemáticos o cómo Cezanne intuyó mucho antes que la ciencia que lo que creemos ver no es lo que hay sino una construcción de nuestro cerebro.
Me gustaría señalar, por último, que el aspecto formal de las cápsulas es fabuloso y está muy cuidado. En una época de bombardeo visual una buena idea, como es Realidad Conexa, no puede confiarse en la excelencia de su planteamiento intelectual y debe cuidar su presentación para hacerse atractiva, interesante y tener una imagen característica. Para esto, el lenguaje visual, los grafismos, la música y la locución deben tener una marcada personalidad que les dé continuidad y que sirva para que el espectador, a pesar de estar inmerso en el visionado de una cápsula en concreto, sepa identificar de un solo vistazo cualquier otra.
Realidad conexa es una iniciativa original, atractiva, y esperemos que exitosa, que busca provocar asombro y curiosidad, y que el espectador se plantee preguntas sobre sí mismo, preguntas qué pueden parecer “tontas” pero qué son el camino para querer saber más: ¿hacia qué lado beso? ¿Por qué me gustan más los libros con grandes exposiciones que los que tienen mucho diálogo? ¿Lo que veo es lo que hay?
Otro objetivo del proyecto es buscar que las distintas disciplinas aprendan a mirarse y sobre todo aprendan a verse, que sean capaces de visualizar esas líneas de puntos que los conectan para recorrer esas conexiones y llevar a cabo colaboraciones fructíferas y provechosas para ellos y para todos.
Realidad conexa. No dejéis de verla, os sorprenderá.
Sobre la autora: Ana Ribera (Molinos) es historiadora y cuenta con más de 15 años de experiencia en el mundo de la televisión. Es autora del blog Cosas que (me) pasan y responsable de comunicación de Pint of Science España.
El artículo Realidad conexa, porque todo está conectado. se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Inflación caliente à la Higgs
Casi seguro que has oído hablar del Big Bang, ese acontecimiento, por llamarlo de alguna manera, que marca el comienzo de nuestro universo. Lo que es posible que no sea tan seguro es que estés familiarizado con el concepto de inflación cósmica.
La inflación cósmica es una teoría que afirma que muy poco tiempo después de esa singularidad que es el Big Bang, y por poco tiempo queremos decir 10-36s, y durante solo un momento, porque terminó a los 10-32s del Big Bang, el universo (el espacio) sufrió un crecimiento exponencial enorme. Tras este periodo inflacionario el universo siguió, y sigue, expandiéndose pero a un ritmo muchísimo menor.
La inflación cósmica surgió para explicar el origen de la estructura a gran escala del universo. Muchos físicos creen también que explica por qué es igual en todas direcciones (isótropo), por qué el fondo cósmico de microondas, el rastro más cercano al Big Bang que podemos observar, se distribuye de forma homogénea en el cielo, por qué el universo es plano y por qué no se han observado los monopolos magnéticos (los equivalentes a las cargas eléctricas positivas y negativas que se pueden encontrar por separado).
Pero los científicos no cesan de investigar posibilidades hasta que una de ellas demuestra que es el modelo que mejor describe la realidad. Así, esta descripción que hemos dado se corresponde a la versión “fría” de la inflación cósmica. Pero existe otra versión, la “caliente”. Y estos días se ha publicado un resultado que podría afianzarla como competidora.
Si la inflación fría data de los años ochenta del siglo XX, la versión caliente es de mediados de los noventa. Sin embargo, en veinte años esta versión no ha avanzado tanto como para ser considerada una teoría completa. Ello se debe a que, en este caso, los investigadores no han sido capaces de construir un modelo sencillo de la inflación caliente a partir de primeros principios. De hecho esto se consideraba poco menos que imposible. Hasta ahora.
En un trabajo encabezado por Mar Bastero-Gil, de la Universidad de Granada, y en el que es coautor el padre de la idea de la inflación caliente, Arjun Barera, de la Universidad de Edimburgo (Reino Unido), los autores toman prestado un concepto de las teorías de física de partículas para derivar exactamente eso, un modelo a partir de primeros principios.
En la inflación estándar cualquier radiación preexistente se estira y dispersa durante esta breve fase expansiva y no se produce nueva radiación. La temperatura del universo, por tanto, cae vertiginosamente y es en un periodo posterior en el que el universo recupera su temperatura y se llena de nuevo de radiación (termalización). La inflación caliente es más sencilla. Se produce constantemente nueva radiación por un fenómeno llamado desintegración del campo inflatón (es este campo el que da lugar a la inflación); la temperatura no baja drásticamente, sino que se mantiene alta (de ahí lo de inflación caliente) y no hace falta introducir una fase de recalentamiento. A pesar de ser una idea más sencilla, irónicamente, la inflación cósmica necesitaba echar mano de, literalmente, miles de campos adicionales acoplados al de inflación para justificar su masa.
Lo que Bastero-Gil y sus colaboradores han hecho ha sido utilizar el mecanismo que estabiliza la masa del bosón de Higgs en las teorías de física de partículas, reduciendo de esta manera el número de campos necesario a un muy manejable cuatro y sin tener que introducir correcciones de masa. A este recurso lo llaman “pequeño Higgs”.
La comparación que los autores hacen entre las predicciones observacionales de su modelo con los límites a la inflación que se deducen de las observaciones del satélite Planck del fondo cósmico de microondas indican que encajan bastante bien.
En la teoría inflacionaría todo encajaba salvo algunos flecos. Ahora esto se pone interesante.
Referencia:
Mar Bastero-Gil, Arjun Berera, Rudnei O. Ramos, and João G. Rosa (2016) Warm Little Inflaton Phys. Rev. Lett. doi: 10.1103/PhysRevLett.117.151301
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Inflación caliente à la Higgs se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las matemáticas de ‘La vida instrucciones de uso’
La vida instrucciones de uso es una novela de Georges Perec, uno de los más conocidos componentes del grupo OuLiPo (ver [2]).
Se trata de un texto complejo en el que Perecrelata lo que acontece en cada uno de los espacios de un edificio imaginario de París, en una fecha concreta.
En los noventa y nueve capítulos del libro se recorren sótanos, apartamentos, desvanes, tramos de escalera,… A lo largo de este itinerario se conocen las vidas de los inquilinos –un total de mil cuatrocientos sesenta y siete personajes–, todos ellos relacionados de algún modo con el protagonista, Perceval Bartlebooth, que pasa sus días haciendo y deshaciendo rompecabezas elaborados a partir de fotografías tomadas durante sus viajes.
Perec escribió esta novela entre 1976 y 1978, aunque en el ensayo Especies de espacios(publicado en 1974, ver [5]) el autor ya hablaba sobre lo que en aquel momento era aún un solo un boceto:
La novela –cuyo título es La Vida instrucciones de uso– se limita (si puedo emplear este verbo para un proyecto cuyo desarrollo final alcanzará algo así como cuatrocientas páginas) a describir las habitaciones puestas al descubierto y las actividades que en ellas se desarrollan, todo ello según procesos formales en cuyo detalle no me parece obligado entrar aquí, pero cuyos solos enunciados me parece que tienen algo de seductor: poligrafía del caballero (y lo que es más, adaptada a un damero de 10×10), pseudo-quenina de orden 10, bi-cuadrado latino ortogonal de orden 10 (aquel que dijo Euler que no existía, pero que fue descubierto en 1960 por Bose, Parker y Shrikhande).
Esas tres trabas –ver la definición en [2]– de las que habla Perec aparecen, efectivamente, en su novela; son restricciones matemáticas que el autor se impone para estructurar su texto. Vamos a explicar en que consisten.
PRIMERA TRABA: La poligrafía del caballero
Cada hueco del inmueble –sótanos, apartamentos, desvanes, tramos de escalera, etc.– corresponde a una casilla de un cuadrado 10×10. Cada lector es un visitante que recorre el edificio, leyendo sus capítulos –las casillas del cuadrado 10×10–, pero de manera no convencional. Perec distribuye los capítulos usando como modelo la poligrafía del caballerodel ajedrez. Se trata de un caso particular de camino hamiltoniano: debe recorrerse el tablero 10×10 representando el edificio, pasando una y sólo una vez por cada casilla. Perec encontró por sí mismo este recorrido para su edificio-tablero, ¡con cien casillas en vez de las sesenta y cuatro del ajedrez! El autor introduce un cambio local en la traba, una excepción a la regla: no describe la casilla del desplazamiento 66 –que corresponde a un sótano– sino que salta a la siguiente casilla. Por esta razón el libro tiene noventa y nueve capítulos y no cien.
Solución del problema del caballo en la novela. Imagen extraída de Wikipedia.
Una vez fijado el recorrido del edificio, Perec debe decidir qué colocar y dónde hacerlo. Para ello, procede en dos etapas, introduciendo las otras dos trabas aludidas.
SEGUNDA TRABA: El bicuadrado latino ortogonal de orden 10
Como ya hemos comentado, el edificio se representa como un cuadrado 10×10. Perec asigna a cada casilla-capítulo dos números formando un cuadrado latino –cada dígito está presente una sola vez en cada línea y en cada columna– y ortogonal–los dos números en la misma casilla sólo se emparejan una vez en ese orden–. Usando estos pares de números, el autor llega a un cuaderno de cargas (ver [4]) en el cual, para cada capítulo, se describe una lista de veintiún pares de temas –autores, mobiliario, animales, colores, sentimientos, música, adjetivos, etc.– que deben figurar en él. Es decir, a cada par (a,b) del bicuadrado latino le corresponde el elemento a de la primera lista y el b de la segunda. Perec hace aparecer en cada capítulo los cuarenta y dos términos así obtenidos…
El bicuadrado latino ortogonal usado en la novela. Imagen extraída de Wikipedia.
TERCERA TRABA: La pseudo-quenina de orden 10
Como vimos en [1], no existen queninas –generalización de una sextina–de orden 10. Por ello Perec cambia la permutación propuesta por Raymond Queneau (ver [1]) por otra que denomina pseudo-quenina de orden 10. Este cambio le permite generar de manera no aleatoria bicuadrados latinos diferentes, evitando elegir para cada casilla los términos de la misma lista de los veintiún pares elaborados. Por ejemplo, en el capítulo 23, que corresponde a la casilla (4,8), aparece el par de números (6,5), por lo que debe utilizarse una cita de Verne (sexto autor en la primera lista de autores del cuaderno de cargas) y una de Joyce (quinto autor en la primera lista de autores del cuaderno de cargas), etc.
En el capítulo 23 aparece el par (6,5).
La lectura de La vida instrucciones de uso no es sencilla… pero, ¿a quién le gustan las cosas sencillas?
Bonus
Las matemáticas no sólo aparecen en la estructura de la novela. El capítulo XV se dedica a Mortimer Smautf, el asistente de Perceval Bartlebooth. En uno de los viajes realizados junto al protagonista, un descubrimiento le convierte en un obsesivo calculador (fragmento extraído de [3]):
… Cuando ya le empezaba a resultar aquello demasiado fácil, le entró un frenesí por las factoriales: 1!=1; 2!=2; 3!=6; 4!=24; 5!=120; 6!=720; 7!=5.040; 8!=40.320; 9!=362.880; 10!=3.628.800; 11!=39.916.800; 12!=479.001.600; […]; 22!=1.124.000.727.777.607.680.000, o sea más de mil millones de veces setecientos diecisiete mil millones.
Smautf anda actualmente por el 76, pero ya no encuentra papel de formato suficientemente grande; y, aunque lo encontrara, no habría mesa bastante larga para extenderlo. Cada vez tiene menos seguridad en sí mismo, por lo que siempre está repitiendo sus cálculos. Morellet intentó desanimarlo años atrás diciéndole que el número […] nueve elevado a nueve elevado a nueve, que es el número mayor que se puede escribir usando sólo tres cifras, tendría, si se escribiera entero, trescientos sesenta y nueve millones de cifras; a razón de una cifra por segundo, se tardaría once años en escribirlo; y, calculando dos cifras por centímetro, tendría mil ochocientos kilómetros de largo. A pesar de lo cual Smautf siguió alineando columnas y más columnas de cifras en dorsos de sobres, márgenes de cuadernos y papeles de envolver carne.
Como bien describe Perec, ‘nueve elevado a nueve elevado a nueve’ es un número enorme: en efecto, 99=387.420.489, así que ‘nueve elevado a nueve elevado a nueve’=9387.420.489…
Referencias
[1] Marta Macho Stadler, Los números de Queneau, Cuaderno de Cultura Científica, Matemoción, 7 agosto 2013
[2] Marta Macho Stadler, OuLiPo: un viaje desde las matemáticas a la literatura, Tropelías. Revista de Teoría de la Literatura y Literatura Comparada 25(2016) 129-146
[3] Georges Perec, La vida instrucciones de uso, Anagrama, 1992
[4] Georges Perec, Le cahier des charges de la Vie mode d’emploi, C.N.R.S. et Zulma, 1993 (esta página web está dedicada al libro)
[5] Georges Perec, Especies de espacios, Montesinos, 2001
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Las matemáticas de ‘La vida instrucciones de uso’ se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 Polvo cósmico
Vamos a lo que vamos: ¿ha habido sexo en las misiones tripuladas al espacio? Iván Rivera responde.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 Polvo cósmico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Cuatro páginas para un nobel
Derek Barton, ya setentón, solía levantarse a las 3 de la madrugada pero no para lo que hacen la mayoría de los varones de esa edad. Barton se levantaba a leer. Llevaba al día la lectura de al menos quince revistas científicas, de su especialidad la mayoría, pero también generales. Y las leía de cabo a rabo.
Sin embargo, si alguien le preguntaba, Barton solía decir que su jornada laboral empezaba a las 7 de la mañana (y se extendía hasta las siete de la tarde). Aunque hay rumores de que en ocasiones la interrumpía 20 minutos para almorzar, lo normal para él era comer mientras trabajaba.
Su único hijo, William, viendo la vida que llevaba su padre renunció a estudiar más de lo necesario y terminó montando un pequeño taller mecánico donde fabricaba piezas a medida para vehículos. William anduvo el camino inverso a su padre. Durante dos años tras acabar el instituto Derek trabajó en la carpintería familiar que para él fueron más que suficientes: necesitaba dedicarse a algo que saciara su afán de conocimientos y supusiese un reto.
Debido a esos dos años de carpintero, Derek Barton tenía 20 cuando fue admitido en el Imperial College de Londres para estudiar química en 1938. Su enorme capacidad de trabajo y dedicación le llevaron a graduarse en 2 años, en 1940, en plena Segunda Guerra Mundial y a doctorarse en 1942 en un Londres bombardeado diariamente por la aviación alemana. Nada más terminar pasó a ser investigador del gobierno de su majestad británica. Y lo que hiciese fue secreto. Sí sabemos que en 1945, con el fin de la guerra, reaparece como profesor ayudante en el Imperial College.
En 1949 surgió la oportunidad de sustituir a un profesor de Harvard que se iba a tomar un año sabático y Derek la aprovechó. Allí asistió a una conferencia de Louis Fieser (primero en sintetizar la vitamina k, la cortisona e inventor del napalm durante la guerra). Uno de los ocho libros que Fieser escribiría con su mujer, Mary Peters, trataba sobre la química de los esteroides y sobre ese tema trataba la conferencia. Uno de los temas que trató Fieser en la conferencia fue la lista de problemas sin resolver en lo que respecta a la reactividad de los esteroides.
Los esteroides son una clase de compuestos químicos muy importantes en la actividad biológica: el colesterol es un esteroide y las hormonas sexuales son esteroides también. Desde mediados del siglo XX existe un enorme interés en la síntesis de esteroides para uso médico; un hito importante, por ejemplo, consecuencia de esta búsqueda de rutas de síntesis de esteroides, lo constituyó el desarrollo de la píldora anticonceptiva. Sin embargo, en el momento de la conferencia de Fieser los químicos estaban confundidos por unos comportamientos químicos inexplicados de los esteroides. Esa enciclopedia química ambulante que era Barton, en cuanto oyó la descripción del problema por parte de Fieser lo relacionó con el trabajo de un oscuro profesor noruego de la Universidad de Oslo llamado Odd Hassel, que en los años treinta había estudiado las conformaciones de los anillos de seis átomos de carbono usando cristalografía de rayos X (Hassel publicó solo en alemán y noruego, ojo con Barton). Y Barton se encontró con que podía explicar fácilmente la extraña reactividad de los esteroides.
Conformaciones silla y bote del ciclohexano
Los esteroides están constituidos por anillos (hexágonos realmente) de carbono que se unen por las aristas. Se daba por sentado que los anillos eran planos por lo que todas las posiciones, todos los carbonos, del anillo eran iguales y ninguno se diferenciaba en cuanto a reactividad. Pero si los anillos no eran planos, sino que podían adoptar dos conformaciones distintas, silla y bote (véase imagen), las posiciones dejan de ser equivalentes ya que unas son más accesibles que otras algunos ángulos de ataque son mejores que otros.
Barton demostró que si los esteroides tenían una conformación tipo silla, como Hassel había demostrado que ocurría con el ciclohexano, podía explicarse perfectamente la reactividad observada experimentalmente. Escribió sus conclusiones en un artículo muy breve, cuatro páginas, incluidas imágenes y referencias, que apareció en agosto de 1950 en Experientia. En 1969 este artículo le valió el premio Nobel de química a él y a Hassel.
Cuando terminó en Harvard, Barton buscó y encontró un puesto de profesor en el Birbeck College de la Universidad de Londres, por diferentes razones de las que tuvo Rosalind Franklin*. Birbeck era en la época el único centro universitario que impartía química en clases nocturnas. En palabras de Barton: “Uno puede investigar todo el día y enseñar de 6 de la tarde a 9 de la noche. Este sistema era excelente para la investigación, pero no era muy apreciado por las esposas”. Barton se casó tres veces y solo tuvo un hijo, con su primera mujer.
* “El Birbeck College solo tiene alumnos nocturnos a tiempo parcial y, por tanto, tienen realmente ganas de aprender y trabajar. Y parece que acogen [los administradores de Birbeck] un alto porcentaje de extranjeros en la plantilla lo que es una buena señal. El King’s [se refiere al college donde ella trabaja hasta entonces] no tiene ni extranjeros ni judíos”. Rosalind Franklin era judía.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Cuatro páginas para un nobel se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ciencia, creencias, política y matar al mensajero
Lo sabemos y somos conscientes de ello: vivimos en una sociedad y una cultura con la ciencia y la tecnología como pilares básicos. Y debemos conocer, aunque sea lo fundamental de ambas o, por lo menos, estar dispuestos a confiar en expertos y científicos que nos expliquen lo que significan, sobre todo cuando hay que tomar decisiones. Sin embargo, confiamos más en nuestras creencias que en la ciencia cuando hay que tomar postura y decidir. Por ejemplo, ocurre con las plantas modificadas genéticamente o transgénicas. Son plantas en las que se han introducido uno o varios genes en el laboratorio con un objetivo concreto: resistencia a insectos y otras plagas, producción de algún componente, resistir la escasez de agua,… Pues bien, Brandon McFadden y Jayson Lusk, de las universidades de Florida en Gainesville y Estatal de Oklahoma en Stillwater, han organizado un estudio sobre los conocimientos de los consumidores estadounidenses sobre los transgénicos, en un país donde la polémica sobre su uso como alimento es intensa y continua. Más adelante viajaremos a Europa para conocer la situación en nuestro entorno más cercano.
McFadden y Lusk encuestan a 1004 voluntarios, con el 53% de mujeres, en septiembre de 2015. Las preguntas tratan de los conocimientos sobre transgénicos, sus riesgos como alimento, el número de cromosomas alterados, cuánto se cultivan, si deben llevar un aviso en la etiqueta cuando se comercializan, etc.
Solo el 8% de los encuestados afirma que sabe mucho sobre transgénicos, el 32% sabe algo y el 60% o no sabe o no contesta. El 34% considera que son un peligro como alimento y, en cambio, otro 32% afirma que son seguros. Y el restante 32% no se decide entre ambas opciones. Más o menos la mitad de los encuestados no sabe cuantos genes se alteran en un transgénico (con uno vale), y cerca del 5% afirma que ninguno.
Para no alargarnos vamos a la respuesta más sorprendente. El 84% pide, y es lógico, que en la etiqueta del producto comercializado se avise de que contiene un transgénico pero, es de destacar, que el 80% pide, además, que se indique que contiene ADN, que, como sabemos es un componente básico de los seres vivos, o sea, que todos los productos comercializados deberían incluir esta indicación.
En conclusión, en Estados Unidos los consumidores creen que saben de transgénicos más, bastante más, de lo que realmente conocen de estas plantas y de las técnicas necesarias para conseguirlas. Además, es evidente que deben reciclar sus conocimientos antes de atreverse a tomar decisiones. Excepto si las toman según otros parámetros, quizá por sus creencias más que por sus conocimientos.
Es evidente el consenso científico sobre los transgénicos. En un metaanálisis de lo publicado sobre este tema entre 2002 y 2012, Alessandro Nicolia y sus colegas, de la Universidad de Perugia, en Italia, encuentran 1783 artículos sobre la seguridad de los transgénicos. Estos estudios demuestran el mencionado consenso entre los científicos, su cultivo en todo el mundo y que no se ha detectado ningún riesgo en su utilización. Para los autores, el debate sobre transgénicos y su casi prohibición en la Unión Europea por la enorme cantidad de requisitos a cumplir, se debe a complejos factores sociológicos y psicológicos, a la exageración del cociente entre riesgos y beneficios, a aspectos que tienen que ver con la política, y a la falta de difusión de los conocimientos científicos que lleva, en definitiva, a una gran falta de información entre los ciudadanos.
Es más, en un metaanálisis más reciente y extenso, con trabajos publicados desde 1995, Wilhelm Klumper y Matin Qaim, de la Universidad de Gottingen, en Alemania, revisan 147 estudios elegidos por criterios metodológicos entre más de 25000, y llegan a la conclusión de que la siembra de transgénicos reduce el uso de pesticidas en un 37%, mejora la productividad de los cultivos en un 22% y aumentan los beneficios de los agricultores en un 68%. Además, la productividad y los beneficios son mayores en los países en desarrollo que en los desarrollados.
En Europa, y por acuerdo de la Comisión Europea en 2015, cada país decide si se cultivan transgénicos en su territorio y si se permite su uso como alimento. Hace unos meses, a finales de 2015, la mayoría de los países de la Unión Europea habían decidido no permitir su cultivo. Son 19, del total de 28, los estados que plantean restricciones al cultivo de transgénicos, y España no está entre ellos. En realidad, las plantas autorizadas para el cultivo son muy pocas, más bien solo una, el maíz, pero, en cambio, se permite la importación de 58 plantas transgénicas más, entre ellas el algodón, la soja o la colza.
Para profundizar en esta situación tan sorprendente en que un asunto científico, plenamente aceptado por la comunidad científica, levanta tan encendidos debates como hemos visto en Estados Unidos y, ahora, veamos lo que ocurre en Europa, con un ejemplo muy distinto y, además, muy cercano a nosotros. Fue en octubre de 2013 cuando Juan Segovia, militante de Izquierda Unida y miembro de su Comisión por la Ciencia, publicó en Mundo Obrero, revista de la organización, una propuesta sobre transgénicos titulada “Ecologismo y transgénico: una propuesta desde la izquierda”.
En el texto, Juan Segovia argumentaba que no existen pruebas de que los transgénicos sean peligrosos para la salud y el ambiente. Y, en segundo lugar y ante el argumento más utilizado por la izquierda contra los transgénicos que afirma que su producción y comercialización están controladas por multinacionales como Monsanto, indica que no se diferencia mucho del control que ya existe sobre los cultivos tradicionales. Estas multinacionales son quienes mejoran, producen y venden las semillas y los abonos y pesticidas. La solución, desde la izquierda, no puede ser eliminar la agricultura sino luchar por sistemas públicos y abiertos de mejoras, tanto en la agricultura tradicional como con los transgénicos. Ya hay plantas transgénicas procedentes de organizaciones públicas y no de multinacionales, como el arroz dorado con vitamina A o el trigo sin gluten del Instituto de Agricultura Sostenible del CSIC de Córdoba.
Solo unos días después de la publicación del texto de Juan Segovia en Mundo Obrero, y por presiones de Raúl Ariza, dirigente de IU-Aragón, la propuesta desaparece de la revista. Ahora, si se busca este artículo en la revista a través de Google, aparece una pantalla en blanco y en el vértice superior izquierdo y en letra pequeña, se encuentra la palabra “error”. Es evidente que la censura supone siempre un “error”.
Muchos científicos y divulgadores protestaron por esta conducta censora, sobre todo a través de internet y en sus blogs. Incluso un grupo de ellos, entre los que se encontraba Javier Armentia y Oscar Menéndez, enviaron una carta a Gema Delgado, Redactora Jefe de Mundo Obrero, pidiendo conocer en que argumentos se habían apoyado para retirar la propuesta de Juan Segovia. No conozco la respuesta a esta carta.
Es curioso que una organización que apoya la lucha contra el cambio climático como es Izquierda Unida y, ahora, también la coalición Unidos Podemos, esté en contra de los transgénicos. Ambos temas están apoyados por el mismo consenso científico que afirma que el cambio climático está ocurriendo y está provocado por actividades humanas, y que los transgénicos son seguros. Pero en el caso de las plantas transgénicas el debate, en algunos círculos termina con la censura y, si es necesario, matando al mensajero.
Referencias:
Armentia, J. et al. 2013. Carta abierta a Mundo Obrero. Blog de Javier Armentia.
Cook, J. et al. 2016. Consensus on consensus: a synthesis of consensus estimates on human-caused global warming. Environmental Research Letters doi: 10.1088/1748-9326/11/4/048002
Klumper, W. & M. Qaim. 2014. A meta-analysis of the impacts of genetically modified crops. PLOS ONE 9: e111629
McFadden, B.R. & J.L. Lusk. 2016. What consumers don’t know about genetically modified food, and how that affects beliefs. FASEB Journal doi: 10.1096/fj.201600598
Nicolia, A. et al. 2014. An overview of the last 10 years of genetically engineered crop safety research. Critical Reviews in Biotechnology 34: 77-88.
Segovia, J. 2013. Ecologismo y transgénicos: una propuesta desde la izquierda. Mundo Obrero octubre.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Ciencia, creencias, política y matar al mensajero se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Hidrógeno a partir de composites de fibra de carbono
Los composites o materiales compuestos de fibra de carbono son muy utilizados hoy en día en la fabricación de aeronaves, palas de aerogeneradores, artículos deportivos y automóviles, entre otros, debido a que presentan unas propiedades mecánicas muy similares a las de muchos metales y al mismo tiempo pesan muy poco. Esto ha producido un aumento muy importante en la utilización de estos materiales en los últimos años (por ejemplo, más del 50% en peso de los dos últimos modelos de Airbus y Boeing es de composite de fibra de carbono). Todos los estudios de mercado prevén un crecimiento casi exponencial en su utilización para los próximos años.
La utilización de estos materiales genera los consiguientes residuos, que pueden ser derivados de la propia fabricación de los componentes de los aviones, aerogeneradores, etc., o pueden ser generados al finalizar su vida útil, por ejemplo, al reciclar las partes de aviones compuestas de fibras de carbono.
“Los composites de fibra de carbono se componen principalmente de filamentos de carbono impregnados y aglomerados con una resina. El reciclado de estos materiales es difícil de realizar por tres motivos fundamentales: 1) la gran mayoría están formados por resinas termoestables, que no se funden por aplicación de calor, luego no se pueden volver a moldear; 2) están compuestos por múltiples ingredientes de naturaleza muy diversa (resina, fibras, aditivos de relleno) etc.); y (3) pueden estar mezclados o llevar incorporados otros materiales (insertos metálicos, film termoplástico protector, pinturas, etc.)”, detalla Isabel de Marco, directora del Grupo de Pirólisis y Gasificación perteneciente al Grupo de Investigación Consolidado Sustainable Process Engineering (SuPrEn), formado por miembros del departamento de Ingeniería Química y del Medio Ambiente de la Escuela de Ingeniería de Bilbao de la UPV/EHU.
La fibra de carbono virgen tiene un precio de mercado muy elevado, por lo que empiezan ya a construirse algunas plantas de recuperación de las fibras, con el objetivo, “aún en vías de investigación”, de reciclarlas en nuevos composites. En estas plantas, se separan las fibras de la resina a través de un proceso térmico (pirólisis) que hace que la resina se descomponga, formando vapores, y las fibras queden libres de la matriz, lo que permite su recuperación. En estas plantas los vapores de la descomposición de la resina son eliminados por incineración, sin aprovechar su valor y con el consiguiente problema de emisiones contaminantes.
La patente publicada por el grupo de investigación de la UPV/EHU define un método para tratar estos vapores de forma que a partir de ellos se pueda obtener un gas valioso con una alta proporción de hidrógeno, lo que permite la separación de este compuesto y su venta. “El hidrógeno está llamado a ser el combustible del futuro por no ser contaminante, ya que en su combustión solo se produce agua. Además, puede utilizarse para síntesis química en múltiples aplicaciones”, explica De Marco.
En consecuencia, este método patentado permite la revalorización de la resina polimérica y no solo de la fibra de carbono, tal y como se hace actualmente. Por tanto, se trata de un método que mejora el estado de la técnica actual y la hace más rentable y sostenible. “Se podría instalar en las plantas actuales de tratamiento de composites residuales, o incorporarlo en nuevos diseños. El balance económico preliminar indica que la combinación del precio de venta del hidrógeno y el de las fibras de carbono recuperadas hace que el proceso sea rentable”, explica Alexander Lopez-Urionabarrenechea, co-director de este trabajo de investigación.
Esta patente puede interesar a las empresas constructoras de elementos fabricados con composites de fibra de carbono, como manera de gestionar sus propios residuos, así como a las empresas gestoras de estos residuos. “Las posibilidades de monetizar la patente pasan por ahondar aún más en la investigación de laboratorio y hacer un estudio del cambio de escala. De hecho el grupo se encuentra ya actualmente en conversaciones con una empresa interesada en el proceso”, precisa Lopez-Urionabarrenechea.
Patente:
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Hidrógeno a partir de composites de fibra de carbono se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 Endosimbiontes
Los organismos endosimbiontes llegan a compartir fases de su metabolismo. Lo contó J.J. Gallego es una de las charlas más sorprendentes (para los no biólogos al menos) de esta edición.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 Endosimbiontes se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 El año que descubrimos Plutón
Javier Pedreira “Wicho” nos cuenta cómo se descubrió Plutón, entonces y ahora.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 El año que descubrimos Plutón se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Miedo
El miedo nos ha moldeado. Nos ha hecho como somos.
No son pocas las personas que tienen miedo a las alturas. Ese miedo era aquello que nos salvaba de caer de las ramas cuando, siendo unos pequeños primates arborícolas, nos encontrábamos ante un salto que no nos veíamos capaces de superar.
El sonido de un siseo nos hace saltar y ponernos en estado de alerta, y la oscuridad nos recuerda con frecuencia que allí se esconden cosas peligrosas. Es el miedo el que nos previene de ser mordidos por la serpiente o devorados por el león.
El miedo es un salvavidas al que, evolutivamente, nos hemos agarrado. Tan importante es para nosotros que a cada miedo particular incluso le ponemos nombre. Y es que, si bien es cierto que «correr es de cobardes», hay que recordar que «el cementerio está lleno de valientes». Porque el primate que sobrevivía lo suficiente para reproducirse era aquél que nunca era mordido por una serpiente, aquél que no se mataba de una caída, y aquél que se salvaba de ser devorado por un león.
El miedo es una emoción que ha sido clave en nuestra evolución. El miedo nos permitía sobrevivir evitando los peligros o huyendo de ellos. El miedo en ese aspecto, es bueno, es útil. Nos ayuda a sobrevivir.
Pero también el miedo es muy peligroso: nadie está libre de padecerlo, y esto puede volver vulnerable a la población. Y muchos grupos y organizaciones sociales se han aprovechado de ello a lo largo de la historia. Las poblaciones humanas son, para nuestra propia desgracia, muy fáciles de influenciar. Sobre todo de cara al miedo.
Obra: «El Infierno», de Ted Larson
Las religiones nos convencen de que hagamos lo que ellas dicen; si no nos acogemos a unas estrictas normas propias de las poblaciones casi tribales de la edad de bronce; si no aceptamos unos mitos y tomarlos como si fueran verdad; si pretendemos tomar matrimonio sin tener en cuenta la iglesia; si tenemos una orientación sexual distinta de la de la mayoría o toleramos e incluso defendemos a los que la tienen de las injusticias cometidas hacia ellos; si luchamos por la igualdad social y de derechos entre hombres y mujeres y no toleramos que ellos sean considerados superiores a ellas; si rechazamos los viejos dogmas establecidos y aceptamos la evolución biológica tal y como las evidencias empíricas nos muestran que, en realidad, sucede; si hacemos esas cosas, que todo el mundo hace alguna de ellas, somos pecadores. Nos infunden miedo amenazándonos, en tiempos antiguos, con duros castigos físicos y con la muerte, en ocasiones muy violenta y enormemente agónica, y antes y también ahora, con un castigo eterno. Y algo eterno, generalmente, es algo que dura mucho, mucho tiempo.
Encontramos personas que rechazan las vacunas e incluso promulgan la realización de actividades como la «fiesta de la varicela» porque unos pocos intentan asustar a la gente afirmando que sus hijos van a sufrir graves problemas de salud si las recibiesen. Ahí vemos el miedo.
Famosa escena de Los Simpsons en que se trata el tema de las “fiestas de la varicela”.
Nos encontramos con grandes movimientos de personas que rechazan el avance biotecnológico de la transgénesis y demás manipulaciones genéticas provocando el miedo en los demás, y promulgando las maravillas milagrosas de «lo natural», ignorando que en realidad llevamos más de diez mil años modificando los genes de lo que nos comemos, y también que dentro de lo que llamamos «natural» están incluidas cosas como la cicuta, los terremotos, la malaria o algo tan sencillo como la muerte. Miedo. Más miedo.
Y no pocas asociaciones y organismos de diversa índole nos intentan convencer de que las nuevas tecnologías de la comunicación o esas estelas de condensación que se producen tras los aviones son la causa de muchos de los problemas de salud de hoy, y lo hacen mediante diferentes usos del miedo, que incluye desde mentir a la población mediante la simple desinformación hasta las duras amenazas que ciertas personas emiten a las voces racionales discordantes. Por supuesto, no faltan los que se dedican a vender hipotéticos e ineficaces remedios a este tipo de falsos males, siempre aprovechandose del miedo. Más miedo.
Hay quienes te intentan convencer de que la medicina, la de verdad, la que ha demostrado eficacia, no funciona, que los medicamentos causan más problemas de los que solucionan, o que las grandes empresas son las que crean las enfermedades, y así vemos crecer pseudomedicinas como la homeopatía, la acupuntura, el reiki, las flores de Bach, la quiropráctica, la sanación con cristales o la reflexología podal. Todo alrededor del mismo concepto: el miedo.
Nos dicen que los muertos pueden aún tener conciencia, y se lucran con nuestro miedo a una muerte definitiva y absoluta mientras nos venden envuelto en un oscuro papel para regalo una falsa comunicación banal con nuestros seres queridos fallecidos, o se aprovechan del temor a lo desconocido para hablar de nuestro futuro con promesas vacías y ambigüedades vagas, siempre a cambio de un cuantioso donativo que, de negarnos a proporcionar, suele desembocar en maldiciones, males de ojo y ataques psíquicos y espirituales. ¿Eficaces? No, pero que buscan lo mismo: fomentar y aprovecharse del miedo. Más miedo.
Y muchos de ellos aprovechan la ocasión para vendernos remedios de mentira contra esos miedos infundados que ellos mismos promueven, y que en realidad no sirven para nada. Ya sean cachivaches que te convierten las ondas “malas” en ondas “buenas”, pastillas de azúcar para curar el catarro, sesiones de tarot para que nos digan nuestra buenaventura, o sesiones de acupuntura con láser para dejar de fumar.
A mi son ellos los que me dan miedo. Ellos son la serpiente agazapada en la oscuridad.
Crotalus atrox, una de las serpientes que llaman “de cascabel”. Fotografía de Clinton & Charles Robertson from Del Rio, Texas & San Marcos, TX, USA – Western Diamondback Rattlesnake (Cortalus atrox), CC BY 2.0,
Para defendernos de todos esos engaños, de toda esa «cultura del miedo» tenemos una herramienta. Una linterna que arroja luz en la oscuridad, y nos desvela y desenmascara esas serpientes, enseñándonos cómo realmente son. Una herramienta que es, a la vez, la única fuente conocida de explicaciones verificables de la realidad. Se llama método científico.
Gracias al método científico, gracias a la ciencia, hemos llegado donde estamos. Gracias a la ciencia yo estoy escribiendo este artículo y gracias a la ciencia usted lo está leyendo.
Ninguna religión ha hecho que pongamos un pie en la Luna ni ha colocado satélites en órbita —algunas personas que han logrado eso eran religiosas, pero ninguna de ellas lo consiguió empleando como herramienta ninguna religión—.
Buzz Aldrin caminando por la superficie de la luna durante la misión Apolo 11 (NASA).
Ningún negacionista de las vacunas ha eliminado la viruela de la faz de la tierra. Las vacunas lo hicieron, y salvan millones de vidas cada año. La ciencia lo hizo.
Ningún homeópata ha conseguido desarrollar un antibiótico, nunca, ni tampoco ningún remedio que resulte eficaz más allá del efecto placebo. La ciencia sí.
Ningún practicante de acupuntura ha conseguido doblar la esperanza de vida en menos de 150 años. Lo ha hecho la medicina. Lo ha hecho la ciencia.
Ningún vidente, echador de cartas del tarot ni astrólogo ha conseguido predecir con éxito y precisión la llegada de tormentas, la próxima visita del cometa Halley ni el próximo eclipse solar. La ciencia lo consigue.
Ningún «anti-transgénicos» ha conseguido una variedad de trigo que pueda ser consumida sin riesgo por personas celíacas ni una variedad de arroz que aporte vitamina A a la dieta, con la posibilidad de prevenir muchos casos de ceguera infantil en países subdesarrollados. Ambos productos se han conseguido gracias a la biotecnología. Gracias a la ciencia.
Y ningún tecnófobo anti-antenas ha conseguido comunicarse con éxito con un robot colocado en la superficie de un distante cometa.
Eso es lo que sucede si nos quedamos sin ciencia. Sin ciencia quedamos a merced de los mercaderes del miedo.
Me parece algo importante para pensar. Y para eso hemos venido aquí, ¿no?
Este post ha sido realizado por Alvaro Bayón (@VaryIngweion) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Miedo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 Mosquito tigre
Aitana Oltra habla del mosquito tigre, sí. Pero también de ciencia ciudadana.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 Mosquito tigre se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¿Eso qué es? Y otras formas de ser curioso
Hace unos días, mi ahijada estuvo visitando la Biblioteca Regional de Murcia con su padre. Mara cumple tres años a finales de diciembre, tardó un poco en empezar a hablar pero llegado ese momento no ha parado su boca. En pocos meses ha desarrollado un vocabulario más propio de una abuela que de una niña. Su maestra dice que es muy madura para su edad, yo le digo que es una vieja.
No para de preguntar por todo lo que no conoce, su pregunta favorita es “¿eso qué es?”. Y eso fue precisamente lo que le dijo a su padre cuando al entrar a la biblioteca se encontraron con una exposición fotográfica sobre Chernóbil. La respuesta rápida fue esa: “una exposición de fotos sobre Chernóbil” y a continuación la conversación siguió así:
- ¿Pero eso qué es?
- Pues eso, una exposición de fotos sobre Chernóbil
- Pero papá, ¿eso qué es?
- Mara, otra vez, una exposición de fotos sobre Chernóbil
- Papá, ¿pero eso, Chernóbil?
Y ahí el quiz de la cuestión, ella lo que estaba interesada en saber era qué significaba esa palabra que nunca había oído.
Y a eso se agarró mi primo (el papá de Mara) para contarle no solo la historia de lo que pasó en Chernóbil sino otros datos como: qué es una central nuclear, los distintos tipos de energía, que son los elementos radioactivos, etc. De hecho, siguió preguntando un buen rato y cuando llegaron a casa estuvieron buscando información juntos en Internet.
Ahora le puedes preguntar a Mara qué sabe sobre Chernóbil y ella te da una lección magistral. Porque no pregunta por preguntar sino que realmente le interesa y se aprende las historias. Asimismo te habla de la fundación de Roma, de las obras de Leonardo Da Vinci o de María Antonieta y la toma de la Bastilla.
Claro está que mi ahijada es una niña excepcional (si no lo digo yo no sé quién lo va a decir) pero la clave de todo esto estriba en una capacidad que muchos perdemos con los años: la curiosidad.
A día de hoy la ciencia no ha podido explicar qué es, más allá de saber que se trata de un impulso innato que no solo experimentamos los humanos sino también algunos animales y que nos permite aprender.
Porque es esa curiosidad la que nos lleva a querer saber más, la que ha hecho que se invente la rueda, que se avance en medicina, que se sepa que la Tierra es redonda o que nos encontramos en un universo que se expande, por mencionar algunos ejemplos.
Actualmente existen diferentes equipos de científicos investigando en torno a esta capacidad y, obviamente, los trabajos se centran en el cerebro. Si bien no se trata tanto de descubrir qué es sino de conocer los mecanismos por lo que se produce y para ello se han basado en imágenes tomadas mediante resonancia magnética.
Los resultados muestran que cuando tratas de dar con la respuesta de algo que desconoces, en tu cerebro se activan al menos dos áreas: una ubicada en el estriado ventral, la cual está relacionada con la motivación y la recompensa y otra situada en el hipocampo e implicada en la memoria.
Los científicos creen que la curiosidad es la forma que tiene el cerebro de destacar la información que merece la pena recordar, es decir, que cuando aprendemos algo como fruto de nuestro interés personal, lo recordamos más fácilmente. Es más, se sabe que aprender motivados por el deseo de adquirir nuevos conocimientos provoca que la memoria funcione con mayor precisión, incluso a corto plazo.
Lo que no se sabe todavía es por qué durante la infancia somos más curiosos que de mayores o por qué, a medida que vamos creciendo, unos adultos pierden esa capacidad más que otros, ni si hay algo que se pueda hacer para que no sea así o si esto podría tener alguna repercusión en el cerebro y por tanto en la lucha contra algunas enfermedades neurodegenerativas, entre otras cosas.
De lo que no cabe duda es de que el saber no ocupa lugar y además es importante estar informados para ser capaces de tomar nuestras propias decisiones por lo que hay que ponerse manos a la obra.
Centrándonos en el ámbito científico, que es el que nos ocupa, hay que señalar que la semana pasada numerosos lugares celebraron la Noche Europea de los Investigadores, el próximo mes de noviembre tendrá lugar la Semana de la Ciencia, también en muchas ciudades españolas; los museos, las bibliotecas y otros muchos centros públicos cuentan con una variada oferta de actividades para todas las edades y durante todo el año.
Desde aquí os animo a que acudáis con vuestros hijos, sobrinos, alumnos, o simplemente solos, como adultos pero con curiosidad de niño, a ver qué sucede. Y sobre todo, la próxima vez que alguien os pregunte ‘¿eso qué es?’ no os quedéis en lo evidente, tratad de profundizar y dejaros sorprender por las respuestas.
Ojalá que Mara os sirva a muchos de inspiración, como me ha ocurrido a mi con este post.
Sobre la autora: Maria José Moreno (@mariajo_moreno) es periodista
El artículo ¿Eso qué es? Y otras formas de ser curioso se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El entrenamiento mental solo sirve para entretenerse un rato
Cada cierto tiempo revive el interés en juegos, pasatiempos y aplicaciones específicas que se supone que mejoran nuestro rendimiento mental. Según la publicidad que los acompaña jugar y practicar con estos entretenimientos puede mejorar nuestra memoria, nuestra atención y, ¿por qué no?, nuestra inteligencia. ¿Es esto realmente así? El pasado día 3 se publicó una revisión de la literatura científica al respecto y sus resultados no pueden ser más contundentes: no existen pruebas que indiquen que el llamado entrenamiento mental (brain-training) funcione.
Siete científicos coordinados por Daniel J. Simmons, de la Universidad de Illinois en Urbana-Champaign (EE.UU.), revisaron los más de 130 estudios citados por las páginas web y el material promocional de las compañías que comercializan estos productos. Como resultado encontraron pocos indicios de que los juegos de entrenamiento mental mejoren el rendimiento en tareas cognitivas diarias. No solo eso, los revisores encontraron fallos metodológicos en todos y cada uno de los estudios que analizaron.
Los juegos de entrenamiento mental suelen incluir tareas basadas en el tiempo de reacción o en la memoria que se suponen que mejoran estas funciones cognitivas en nuestro día a día. Los autores de la revisión señalan que una idea-fuerza de la publicidad de estos juegos es que la mejora en rendimiento en la tarea que realizas en la pantalla se traduce (transfiere, es el verbo que se usa en la jerga) en una mejora en el rendimiento en situaciones de la vida real similares.
Si bien existen muchos estudios bien realizados que indican que el entrenamiento mental mejora la capacidad de la persona para jugar al juego concreto (una persona que suela hacer crucigramas, se hará mejor haciendo crucigramas; una que haga sudokus, lo será resolviendo sudokus y una que juegue habitualmente al ajedrez será mejor al ajedrez, por nombrar actividades mentales clásicas), no existen sin embargo aquellos que indiquen que existe una transferencia hacia otro tipo de actividad diaria.
Los autores también han considerado las buenas prácticas de investigación, en concreto el establecimiento de grupos de control y las pruebas doble-ciego. De forma muy llamativa encontraron que muy pocos estudios de los analizados se aproximaban al cumplimiento de los estándares mínimos. Ninguno de los estudios estaba libre de fallos.
En este análisis se ha cuidado en extremo la atención a las pruebas objetivas y es un modelo al que cualquier evaluación de las pruebas escéptica pero de mente abierta debería parecerse. Sus conclusiones abundan en las que ya expuso un grupo de científicos en 2014 en una carta abierta y que, como ahora, provocó las reacciones airadas de la industria del entrenamiento mental.
Quizás convenga recordar que el único entrenamiento mental que sepamos con seguridad que tiene transferencia a las situaciones de la vida real es aquel que te dota de una mente crítica y abierta, pero no tanto como para que se te caiga el cerebro.
Referencias:
Simmons, D.J. et al (2016) Do “Brain-Training” Programs Work? Psychological Science in the Public Interest doi: 10.1177/1529100616661983
Yong, E (2016) The Weak Evidence Behind Brain-Training Games The Atlantic
Henry B.A. (2016) Evidence Lacking for Brain-Training Products The Scientist
“A Consensus on the Brain Training Industry from the Scientific Community”(2014) Max Planck Institute for Human Development and Stanford Center on Longevity
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo El entrenamiento mental solo sirve para entretenerse un rato se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los huesos de Napier, la multiplicación árabe y tú
En este paseo que hemos iniciado en mis dos anteriores entradas del Cuaderno de Cultura Científica, sobre diferentes métodos de multiplicación que se desarrollaron a lo largo de la historia de la humanidad, y que nos ha llevado de los algoritmos que utilizaron los babilonios y los egipcios a los métodos de multiplicar que hasta recientemente han continuado utilizando los campesinos rusos, ha llegado el momento de hablar de la llamada multiplicación por celosía, o multiplicación árabe, y su relación con nuestro algoritmo de multiplicación moderno.
Quienes no pudieron leer las anteriores entradas, lo pueden hacer aquí:
1) ¿Sueñan los babilonios con multiplicaciones eléctricas?
2) Multiplicar no es difícil: de los egipcios a los campesinos rusos
Pero iniciemos esta nueva jornada del paseo en la sala 28 (dedicada a la edad moderna) del Museo Arqueológico Nacional en Madrid. Esta sala contiene el denominado Ábaco neperiano, que consiste, como se ve en la imagen de abajo, en un pequeño mueble de madera con incrustaciones de hueso con 30 cajones en su interior, en los cuales se guardan las fichas de los dos ábacos que diseñó el matemático escocés John Napier (1550-1617), cuyo nombre latinizado es Johannes Neper y que fue el matemático que inventó los logaritmos, el conocido como huesos de Napier, del que hablaremos en esta entrada, y uno de tarjetas llamado promptuario (este es el único ejemplo conocido de este tipo de ábaco). Sobre este último podéis leer el artículo de Ángel Requena de la bibliografía.
Estuche de madera que contiene los dos ábacos que diseñó John Napier. Su interior consta de 30 cajones, los de arriba contienen las 60 fichas del ábaco huesos de Napier, y los de abajo las 300 fichas del ábaco promptuario. Foto de Raúl Fernández para el Museo Arqueológico Nacional
Estos dos ábacos fueron descritos por John Napier en su obra Rabdologiae, seu numerationis per virgulas libri duo: cum appendice expeditissimo multiplicationis promptuario, quibus accesit et arithmetica localis liber unus –Rabdología, numeración o varillas a través de los dos libros: apéndice con el repositorio de ejecución multiplicación, que entró un local gratuito y aritmética– (1617).
Portada y dos páginas interiores del texto Rabdologiae (1617) de John Napier
Los huesos de Napier, también conocidos como varillas o bastones de Napier, fueron desarrollados por el inventor de los logaritmos para realizar multiplicaciones, divisiones y raíces cuadradas. Los huesos de Napier consistían en una versión individualizada y particular de las tablas de multiplicar. Cada varilla contenía la tabla de multiplicar de una de las 10 cifras básicas de nuestro sistema de numeración decimal, 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9, donde el resultado de cada multiplicación individual se escribía en un cuadrado con una diagonal que separaba la parte de las decenas, arriba de la diagonal, de la parte de las unidades, debajo de la diagonal (como se puede ver en la imagen de abajo). Así, la varilla del 7, empieza con el 7 (que es 7 x 1), después 14 (que es 7 x 2), con el 1 encima de la diagonal y el 4 debajo, a continuación, 21 (7 x 3), con el 2 encima de la diagonal y el 1 debajo, y así hasta 7 x 9, que es 63.
Versión moderna, en madera, de las 10 varillas de Napier, que contienen las tablas de multiplicar
Aunque, en realidad los huesos de Napier (que deben su nombre al material con el que fueron realizados) eran diez prismas cuadrados en los que se utilizaban las cuatro caras del prisma. Cada cara tenía los múltiplos de una cifra básica, es decir, la tabla de multiplicar de ese número, de forma que en caras opuestas estaban los múltiplos de dos números cuya suma fuese 9, por ejemplo, 3 y 6. De esta forma se disponían de varias caras con los múltiplos de un mismo número, lo cual era necesario para las diferentes operaciones aritméticas, por ejemplo, para multiplicar 355 x 7 se necesitaban dos varillas con la tabla del 5.
Detalle de los huesos de Napier, prismas cuadrados de marfil, del mueble denominado Ábaco neperiano que se conserva en el Museo Arqueológico Nacional
Pero veamos cómo se multiplicaba con la ayuda de los bastones de Napier. Para empezar, veamos una multiplicación sencilla, en la que uno de los números, el multiplicador, es de una sola cifra, por ejemplo, 673 x 5. Se disponen, como se muestra en la siguiente imagen, las varillas de las cifras del número que multiplicamos, el multiplicando, en el orden en el que aparecen en este 6, 7 y 3, y puestas a continuación de una varilla fija con los números del 1 al 9. Como vamos a multiplicar el número 673 por 5, consideramos la fila correspondiente al número 5, como se muestra en la imagen, es decir, 3/0, 3/5 y 1/5. Para obtener el resultado de la multiplicación, se empieza por la derecha y se van sumando en diagonal los números que aparecen en la fila del 5. Así, se obtiene el resultado, 673 x 5 = 3.365.
En el siguiente ejemplo consideramos números de más de una cifra. Vemos cómo se realiza la multiplicación con los huesos de Napier de los números 4.392 y 175. Como en el ejemplo anterior se disponen las varillas de las cifras del multiplicando 4.392, en el orden en el que aparecen en el número (como se muestra en la siguiente imagen). Después nos fijamos en las filas de las cifras del multiplicador, 1, 7 y 5, que deben de “considerarse” en el orden en el que aparecen en el número, 175. Finalmente, empezando por la derecha, se suman los números de cada una de las diagonales que aparecen (entendiendo que en la fila del 1, aunque solo aparezcan los números, sería como 0 arriba y la cifra abajo, en este caso, 0/4, 0/3, 0/9 y 0/2). En cada paso nos quedamos con la cifra de las unidades y sumamos a la siguiente diagonal la cifra de las decenas (la “llevada”).
Veamos cómo se obtiene el resultado. En la primera diagonal, que nos dará las unidades del resultado, solo tenemos un 0, luego 0 es la cifra de las unidades. La siguiente diagonal nos dará la cifra de las decenas, que como la suma es 4 + 1 + 5 = 10, la cifra para las decenas es 0, y nos llevamos el 1 a la siguiente diagonal. La suma de la tercera diagonal, junto con la llevada, es 2 + 1 + 3 + 4 + 5 [+1] = 16, luego el 6 está en la posición de las centenas y nos llevamos 1 para la siguiente diagonal. Y así hasta el final. En consecuencia, se obtiene que 4.392 x 175 = 768.600.
La técnica de multiplicar de los bastones de Napier fue utilizada para desarrollar algunos mecanismos de cálculo. Por ejemplo, el médico y escritor Pierre Petit (1617-1687) tomó los bastones de Napier y diseñó un cilindro aritmético, el tambor de Petit, con tiras de papel, que contenían los múltiplos de las varillas de Napier, pegadas sobre el cilindro.
Tambor de Petit, cilindro aritmético basado en los huesos de Napier
Un ejemplo más avanzado es el “reloj calculador”, desarrollado por el matemático alemán Wilhelm Schickard (1592-1635) en 1623. Como se explica en la página del Museo de la Ciencia de la Universidad Pública de Navarra “se compone de dos mecanismos diferenciados: un ábaco de Napier de forma cilíndrica en la parte superior y un mecanismo en la inferior tipo pascalina para realizar las sumas parciales de los resultados obtenidos con el aparato de la parte superior. De este modo, se pueden efectuar las cuatro operaciones aritméticas fundamentales de forma manual y mecánica”. Recordemos que la “pascalina” es la primera calculadora mecánica (funcionaba a base de ruedas y engranajes), diseñada en 1642 por el matemático francés Blaise Pascal (1623-1662).
Calculadora Schickard, o “reloj calculador”, del Museo de la Ciencia de la Universidad Pública de Navarra
Sobre otros mecanismos de cálculo que hicieron uso de los huesos de Napier se puede leer en el volumen 3 de las Recreaciones matemáticas de Édouard Lucas.
El sistema de multiplicación de los huesos de Napier está basado en la multiplicación árabe, también llamada multiplicación por celosía. Este nombre se debe a que la cuadrícula, con diagonales, sobre la que se realiza la multiplicación recuerda a los enrejados de madera, hierro u otro material que permitían ver sin ser vistos.
Como podemos leer en el excelente libro Historia universal de las cifras (2002), de Georges Ifrah, este es un procedimiento que inventaron los árabes alrededor del siglo XIII, y que posteriormente fue transmitido a Europa, China o India. Este algoritmo fue descrito por primera vez, que tengamos conocimiento de ello, en el texto Talkhis a’mal al hisab –Exposición sumaria de las operaciones aritméticas– (1299), del matemático marroquí Ibn al-Banna al-Marrakushi al-Azdi (1256-1321). Un comentario de este libro se debe al matemático árabe del Reino nazarí de Granada Al-Qalasadi (1412-1486). Entre las obras originales de aritmética de Al-Qalasadi se encuentra su libro Hadha al-kitab kashf al-asrar fi’ilm al-ghubar –Revelación de los secretos de la ciencia aritmética- (1486), que es una simplificación de una obra anterior más completa, en el cual describe el método de multiplicar que los árabes llamaban “multiplicación en cuadro” (ad darb bi’l jadwal).
Página del libro Hadha al-kitab kashf al-asrar fi’ilm al-ghubar –Revelación de los secretos de la ciencia aritmética- (1486), del matemático Al-Qalasadi, que contiene dos multiplicaciones “en cuadro”, arriba 64 por 3 y abajo 534 por 342. Imagen de la Hathi Trust Digital Library
Expliquemos el método de multiplicación empleado por los árabes mediante un sencillo ejemplo, 934 x 314. Las diagonales de la multiplicación pueden tomarse en dos sentidos, pero empezaremos la explicación de este algoritmo considerando el mismo sentido que en el texto árabe de Al-Qalasadi.
Como vamos a realizar la multiplicación de dos números de 3 cifras, se realiza una cuadrícula 3 x 3, en la que se dibujan las diagonales que van de arriba a la izquierda hacia abajo a la derecha. Se escriben los dos números a multiplicar, el multiplicando, 934, escrito arriba (de izquierda a derecha) y el multiplicador, 314, en el lado derecho (escrito de abajo hacia arriba), como se muestra en la imagen.
Entonces se empieza la multiplicación. En cada cuadrado de la cuadrícula 3 x 3 se escribe el producto de las cifras que determinan ese cuadrado, como en el juego de los barcos, con la cifra de las decenas debajo de la diagonal y la cifra de las unidades encima. Por ejemplo, en el cuadrado de arriba a la derecha, que se corresponde con el producto de 9 por 4, que es 36, se colocará 36. Y así con el resto, como se muestra en la imagen.
Por último, de una forma similar a la vista para los huesos de Napier, pero con las diagonales en el sentido opuesto, se van sumando las diagonales de números desde la derecha-arriba a la izquierda-abajo. La primera diagonal, que nos aporta las unidades, solo consta de un número, el 6, que será la cifra de las unidades. La siguiente diagonal nos dará las decenas, y su suma es 2 + 1 + 4 = 7. La tercera diagonal suma 6 + 1 + 3 + 0 + 2 = 12, por lo que la cifra de las centenas es 2, y el 1 se suma a la siguiente diagonal (es la “llevada”), a la de los millares. Y así se continúa con el resto. Estos resultados, 6, 7, 2, etc, que hemos ido obteniendo se van escribiendo cerca del final de la diagonal correspondiente, como se muestra en la imagen. El resultado del producto será el número formado por estas cifras que hemos ido obteniendo, leídas de izquierda a derecha y de abajo a arriba, 293.276.
En la imagen anterior hemos escrito todos los elementos del proceso para que quede más claro, sin embargo, lo único que escribiría sobre la cuadrícula 3 x 3 una persona que tuviese que realizar la multiplicación 934 x 314 es lo siguiente:
Aunque en los textos árabes se suelen escribir las sumas de las diagonales en un segmento inclinado en el vértice superior izquierdo de la cuadrícula 3 x 3, como se muestra la siguiente imagen.
Otra disposición para este método de multiplicar es considerar las diagonales ascendentes, en lugar de descendentes, de forma que en el resultado del producto de dos cifras en la cuadrícula 3 x 3 se coloca la cifra de las decenas encima de la diagonal del cuadrado y la de las unidades debajo, y los dos números a multiplicar se colocan, el multiplicando arriba (de izquierda a derecha) como antes, pero el multiplicador, que va a la derecha, de arriba abajo, como se muestra en la imagen siguiente. Precisamente, es esta disposición la que han heredado los huesos de Napier.
Como ya hemos comentado, este método de multiplicación fue desarrollado por los árabes alrededor del siglo XIII, quienes lo trasmitirían a la parte occidental de Europa, donde recibió el nombre de multiplicación por celosía. En Europa se describió este método, así como algunas variantes del mismo, en un tratado anónimo sobre aritmética publicado en Treviso en 1478, Larte de labbacho (conocido también como Aritmética de Treviso). También se describe en la obra Summa de arithmetica, geometría, proportioni et proportionalita precipitevolissimevolmente (1494) del matemático italiano Luca Pacioli (aprox. 1445-1517). Aunque, como podemos leer en el libro A History of Algorithms: From the Pebble to the Microchip (1999), la primera referencia escrita sería un tratado inglés, escrito en latín alrededor del año 1300, Tractatus de minutis philosophicis et vulgaribus, en el que aparece la multiplicación de 4.569.202 por 502.403.
Multiplicación de 4.569.202 por 502.403, mediante el método por celosía, que aparece en el texto “Tractatus de minutis philosophicis et vulgaribus” (aprox. 1300), que se encuentra en la Bodleian Library de Oxford
Páginas de la “Aritmética de Treviso” (1478) con diferentes variantes de la multiplicación por celosía, o multiplicación árabe
Este método también llegó a China. Según el libro A History of Algorithms: From the Pebble to the Microchip aparece por primera vez explicado en el texto Jiuzhang suanfa bilei daquan –Suma de los métodos de cálculo de los Nueve Capítulos que consisten en problemas resueltos por analogía con problemas tipo- (1540), de Wu Jing.
Sin embargo, aunque también se suele denominar a este algoritmo de multiplicación bajo el nombre de multiplicación hindú, lo cierto es que no hay constancia de su uso en la India hasta mediados del siglo XVII, que aparece explicado en el comentario Ganitamañjari (1658) del matemático indio Ganesha sobre el libro Lilavati (1150) del matemático indio Bhaskara II.
Volviendo a la imagen de las páginas de la Aritmética de Treviso (1478), se encuentra en la misma imagen una variación de la multiplicación por celosía, en la que en lugar de escribir todos los detalles del procedimiento de la multiplicación árabe, se limita a escribir en cada cuadrado de la cuadrícula únicamente las unidades de las multiplicaciones intermedias, por lo que la persona que realiza la operación debe de tener cuidado con las decenas de dichas multiplicaciones, que ahora no se escriben pero que se añaden al resultado del siguiente cuadrado (a la izquierda), las “llevadas”. Esto último se corresponde, en el método de multiplicación árabe, a añadir la “llevada” a la siguiente diagonal.
A continuación, mostramos en diferentes etapas el ejemplo de la multiplicación 934 x 314 mediante este método (las diagonales que se pintan en la siguiente imagen pertenecen a la explicación, pero no aparecían en el desarrollo de la multiplicación).
Esta versión tendría su variante con las diagonales en el sentido contrario y con el multiplicador escrito en el lateral ahora de arriba hacia abajo.
Y la última variante, que también aparece en Larte de labbacho (1478) y que habría empezado a utilizarse a finales del siglo XV, simplifica las anteriores. Para empezar se traza una línea horizontal y sobre ella el multiplicante, después se escribe el multiplicador debajo a la derecha y escrito de abajo hacia arriba (como en el algoritmo árabe o la variante descrita en la anterior imagen), pero siguiendo sus cifras una línea inclinada hacia la derecha. El proceso es similar al anterior, como vemos en la imagen.
Este método, salvo por el hecho de que nosotros colocamos el segundo número debajo del primero, es exactamente el algoritmo que utilizamos para multiplicar. Por lo tanto, nuestro método de multiplicación, el que tú y yo utilizamos, el que nos enseñaron en la escuela, es una variación de la multiplicación árabe que se desarrolló a finales del siglo XV.
“The end of the multiplication” es un ejemplo de multiplicación moderna perteneciente a un libro de ejercicios para estudiantes de 1814
Bibliografía
1.- Museo Arqueológico Nacional
2.- Frank J. Swetz, Mathematical Treasure: John Napier’s Rabdologiae, Mathematical Association of America
3.- Nelo Alberto Maestre e Inmaculada Conejo (DIVERMATES), Ábaco neperiano, Museo Arqueológico Nacional, octubre 2014.
4.- Ángel Requena Faile, Una joya de la corona: el ábaco neperiano, mateturismo [xxx].
5.- Georges Ifrah, Historia universal de las cifras, Espasa, 2002.
6.- Calculadora Schickard, Museo de la Ciencia de la Universidad Pública de Navarra
7.- Éduoard Lucas, E., Recreaciones matemáticas, vol. 1 – 4, Nivola, 2007 y 2008.
8.- Jean-Luc Chabert, A History of Algorithms, From Pebble to Microchips, Springer, 1999.
9.- A S Saidan, Biography in Dictionary of Scientific Biography (New York 1970-1990).
10.- Mathematical Art: “The End of Simple Multiplication“, 1814, JF Ptak Science Books LLC, Post 982
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los huesos de Napier, la multiplicación árabe y tú se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: