¿Y si falla el GPS?
Imagen del nuevo prototipo con aguja magnética estándar que contiene un sistema de compensación basado en un plato regulable (parte inferior de la fotografía)
Históricamente las embarcaciones se han guiado por agujas magnéticas para fijar su rumbo de navegación. Sin embargo, estas agujas se ven influenciadas por todas las piezas metálicas que tienen a su alrededor, y no marcan exactamente el norte magnético, por lo que es necesario compensarlas periódicamente. El norte magnético no es el norte geográfico, se trata de una dirección generada por el campo magnético terrestre, que se desplaza continuamente. La compensación de las agujas magnéticas se ha realizado de la misma manera desde el siglo XIX. Esta operación consiste en realizar unos cálculos y determinar en qué posición se deben colocar unos imanes correctores para que la aguja magnética indique siempre el norte magnético. Conocido el norte magnético y corregida la declinación magnética (diferencia entre norte verdadero y magnético), se obtiene siempre el norte verdadero y, con él, la dirección exacta en la que se desplaza la embarcación.
Sin embargo, “aunque en la actualidad la aguja magnética está relegada al olvido, los sistemas de navegación de los que dependemos los marinos precisan de corriente eléctrica, sin la cual todos los posicionamientos que procedan de dichos sistemas se convierten en inútiles —explica el investigador Josu Arribalzaga—. Además, los sistemas GPS pueden llegar a dar una lectura errónea de la señal, por distorsiones ajenas o manipulaciones, intencionadas o no”. Habida cuenta, además, que la Organización Marítima Internacional obliga a todos los buques a portar una aguja magnética con su bitácora, donde se ubican los imanes compensadores, y otra aguja de repuesto para el caso de que los demás sistemas de navegación fallen, Arribalzaga ha propuesto un nuevo sistema de compensación basado en un plato que contiene imanes movibles, mediante el cual se consigue corregir los desvíos de la aguja de una manera más autónoma.
En vez de utilizar la potencia relativa de los imanes correctores como hasta ahora, el investigador ha utilizado el momento magnético de estos imanes para calcular su capacidad correctora y dependiendo de ese momento magnético determinar a qué distancias reales de la aguja se corrige una cuantía determinada de desvío. Asimismo, los investigadores han descubierto inesperadamente que el sistema de compensación utilizado hasta el momento no es correcto debido a una serie de rectificaciones que habría que hacer para conseguir una compensación correcta.
El compás magnético integral para la obtención de desvíos en tiempo real, patentado por la UPV/EHU, calcula automáticamente todos los desvíos de la aguja magnética a todos los rumbos en tiempo real, pero una vez calculado este desvío habría que hacer ajustes para que la aguja magnética llegase a marcar el norte magnético. En ese sentido, el investigador de la Escuela de Ingeniería de Bilbao de la UPV/EHU Arribalzaga ha modernizado el sistema de compensación de la aguja y ha conseguido un sistema totalmente autónomo y que no depende de la electricidad. “He propuesto este modelo con una idea de futuro —explica—, con una idea de llegar a automatizar el sistema de alguna manera”. En vez de insertar los imanes correctores de la aguja en determinados casilleros, como hasta ahora, los ha dispuesto en un plato de manera que éste se puede desplazar hacia arriba o hacia abajo (aproximándose o alejándose de la aguja), y los imanes correctores se pueden girar, efectuando un efecto mayor cuanto más cerca esté el imán de la aguja.
“El plato que he diseñado y probado se puede ajustar al milímetro en cualquier posición vertical y en todo momento —detalla Arribalzaga—. En principio, el prototipo producido se puede manipular manualmente, porque su motorización implicaría un coste adicional importante, y, además, acoplarlos implicaría un sistema mecánico que habría que adaptar a los imanes y al plato”. La investigación realizada es, por tanto, un primer paso para poder llegar a acoplar el compás magnético integral patentado por la UPV/EHU y el plato diseñado, que debería ajustarse a unos sistemas específicos de autoajuste. “Pero esa sería otra fase”, concluye.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo ¿Y si falla el GPS? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 Alzhéimer
Durante Naukas15, el editor de este Cuaderno y Javier Burgos dialogaron sobre el alzhéimer y la investiagción más actual sobre el mismo.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 Alzhéimer se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 ¿Ictus? no, nosotros no tenemos plantas en casa
Nadie está libre de sufrir un ictus. ¿Cómo reconocer los síntomas de un accidente cerebrovascular y cómo reaccionar ante ellos? El neurólogo Azuquahe Pérez lo explica.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 ¿Ictus? no, nosotros no tenemos plantas en casa se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 Ingeniería genética para cambiar la Historia
La ingeniería genética no es aun una ingeniería. Lucas Sánchez nos cuenta qué se está haciendo para conseguirlo.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 Ingeniería genética para cambiar la Historia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El miedo se esconde en el cerebro
Se acerca la noche del 31 de octubre y en muchos países se celebrará Halloween, en otros la noche de brujas y en general habrá quien aproveche esa fecha para ver alguna película con la luz apagada o realizar algún otro ritual o tradición relacionada con el miedo.
Esta fiesta moderna, anterior al día de Todos los Santos y muy asentada sobre todo en países anglosajones, tiene su origen en la conmemoración celta del Samhain en la que esa noche servía como celebración del final de la temporada de cosechas y era considerada como el año nuevo.
Los Celtas pensaban que los muertos volvían la noche del Samhain, el señor de la muerte, para comunicarse con ellos y pedirles alimentos. Y si no conseguían su objetivo, maldecían a los habitantes del poblado y les lanzaban conjuros. De ahí que se disfrazaran con pieles para tratar de ahuyentarlos.
Con el paso del tiempo, la fiesta ha ido incorporando otras costumbres y modificando las originales hasta convertirse en un evento relacionado con fantasmas, brujas, calabazas, arañas y bichos varios, así como todo lo asociado a la muerte, espíritus y el terror.
¿Pero por qué sentimos miedo? El miedo es una emoción y provoca diferentes reacciones en el organismo. Se produce cuando nos sentimos en peligro, nos ayuda a estar alerta. Se trata de un modo primario de supervivencia.
Como no podía ser de otro modo, es el cerebro (a través de la información que recibe por los sentidos) el que percibe que algo extraño está ocurriendo y pone en marcha los mecanismos necesarios que nos llevan a actuar.
Localización de la amígdala
Aunque, como digo, el miedo es algo innato y por tanto que ha existido desde que el hombre es hombre; fue hace unos pocos meses cuando por primera vez, un equipo internacional de científicos demostró que la amígdala cerebral humana es capaz de extraer información de manera ultrarrápida sobre posibles amenazas que aparecen en la escena visual.
La amígdala, situada en la parte interna del cerebro, es una estructura clave en el procesamiento de las emociones que forma parte del sistema límbico. Éste es el encargado de regular las respuestas fisiológicas frente a determinados estímulos, es decir, en él se encuentran los instintos humanos.
El análisis de las amígdalas permitió a los científicos obtener la primera prueba directa en seres humanos de que esta área, por sí misma, puede ser capaz de extraer información muy rápido respecto a posibles amenazas o estímulos biológicamente relevantes en la escena visual, antes de recibir la información visual más fina procesada en el neocórtex.
En concreto, lo que descubrieron es que la información gruesa que la amígdala maneja sobre la escena visual –antes de que le llegue la información desde la corteza– la hace sensible a estímulos biológicamente relevantes, como podría ser la expresión de miedo de una persona que se encuentre cerca, que pone en alerta al individuo para buscar dónde está el peligro.
Estos nuevos datos sobre cómo viaja la información entre el circuito visual y el circuito emocional pueden ayudar al tratamiento de trastornos emocionales como la ansiedad, donde la amígdala desempeña un papel fundamental.
Recuerdos
No todos los miedos son innatos sino que se pueden desencadenar a partir de una experiencia desagradable con algún objeto, animal o situación, pero pueden surgir también sin que haya situaciones aversivas previas; de hecho, existen fobias prácticamente a cualquier cosa, desde a las cucarachas hasta a la relación con otras personas.
Y cuando se convierten en algo que impide hacer vida normal se trata de un problema que hay que tratar porque las fobias son un temor irracional y desproporcionado en relación al estímulo que las desencadena y la persona que las sufre no las puede evitar, a pesar de reconocer que pueden ser absurdas.
Los tratamientos que se emplean actualmente para acabar con este tipo de trastornos van desde técnicas de psicoterapia cognitiva conductual como la desensibilización sistemática, hasta tratamientos farmacológicos. De hecho, lo que recomiendan los expertos es ser tratado por psicólogos y psiquiatras al mismo tiempo.
Y dado que se sabe que hay miedos que se pueden aprender, se están desarrollando estudios para averiguar cómo eliminar esos recuerdos para hacer desaparecer los problemas asociados.
De hecho, un equipo de científicos ya ha logrado excitar con luz las neuronas de la amígdala cerebral que juegan un papel crucial en los recuerdos relacionados con el peligro. Según los cuales, la investigación abre la puerta a nuevas dianas terapéuticas en el tratamiento de las fobias, el trastorno obsesivo-compulsivo o el de estrés postraumático.
La técnica, probada en ratones, consistió en estimular mediante un láser un grupo de neuronas de la amígdala cerebral, llamadas Tac2, previamente convertidas en sensibles a la luz. Estas neuronas son necesarias para almacenar en la memoria los recuerdos relacionados con el miedo. Los ratones que recibieron este tratamiento tenían aumentada la memoria a largo plazo, por lo que recordaban más el peligro.
Claro que esto no ha hecho más que empezar por lo que, en futuros trabajos, continuarán profundizando en la comprensión del mecanismo cerebral por el que se aprende a tener miedo.
Un miedo distinto
Por otro lado, cabe señalar que no todos los miedos provocan las mismas reacciones. Curiosamente, uno de los elementos más característicos de Halloween, la sangre, provoca en quienes la temen unos patrones de respuesta que difieren de los que aparecen en otros casos, incluyendo una tendencia al desmayo en algunos pacientes cuando ven heridas o sangre, algo que no ocurre en otras fobias y de lo que se desconoce su origen.
Las personas afectadas de una fobia específica (por ejemplo, las fobias a pequeños animales, como arañas o serpientes) suelen presentar una fuerte respuesta defensiva cuando se exponen a su objeto fóbico (como una fotografía del estímulo que temen). Esta respuesta consiste en un intenso temor o miedo que se acompaña de una conducta de evitación o huida.
Fisiológicamente, dicha respuesta se caracteriza por un aumento de la reactividad simpática, consistente en aumentos de la frecuencia cardiaca, presión arterial y frecuencia respiratoria, vasoconstricción de los vasos periféricos y aumento de la respuesta electrodérmica, así como un incremento de los reflejos defensivos (como la potenciación del parpadeo reflejo de sobresalto).
En cambio, el temor a la sangre constituye una excepción a este tipo de patrón de respuesta. Mientras que subjetivamente los pacientes con fobia a la sangre no se diferencian de otras fobias específicas (sienten miedo cuando ven sangre o heridas, por ejemplo), es en las respuestas fisiológicas donde se producen las mayores diferencias con otras fobias.
Los primeros estudios al respecto ya mostraron que en los fóbicos a la sangre la visión de sangre y heridas no producía una reacción defensiva sostenida en el tiempo (como aceleración cardiaca), sino más bien un patrón cardiaco bifásico compuesto por un aumento inicial de la frecuencia cardiaca y la presión arterial seguido inmediatamente de desaceleración cardiaca y disminución de la presión arterial (hipotensión). En aproximadamente 3 cuartas partes de los pacientes con fobia a la sangre, este descenso brusco puede provocar el desmayo (síncope vasovagal).
Sin embargo, no todos los estudios encuentran este patrón cardiovascular en la fobia a la sangre. Los investigadores han propuesto varias hipótesis acerca del origen de estas respuestas atípicas en la fobia a la sangre, que incluyen una sobrecompensación parasimpática de la aceleración cardiaca inicial, un desequilibrio en la activación simpática y parasimpática, la prevalencia de una respuesta de asco sobre una respuesta de miedo, o una alteración de la regulación emocional ante el estímulo temido.
Y es que el cerebro de alguien que tiene miedo a la sangre no actúa igual que el de otros miedosos. Los estudios mediante neuroimagen funcional muestran que durante la visión de imágenes de sangre, los fóbicos a ésta no presentan un aumento de actividad en la amígdala cerebral, al contrario de lo que sucede en otras fobias específicas.
Además, las imágenes de sangre provocan en los pacientes con fobia a la sangre un aumento de actividad en la región prefrontal (una región que se ha relacionado, entre otras cosas, con la regulación de la emoción), mientras que este aumento de actividad en esta región no se produce en otros casos.
A día de hoy, científicos de todo el mundo trabajan para determinar cuáles son los mecanismos cerebrales y psicofisiológicos que subyacen a esta fobia y por qué son diferentes de los que se observan en otras.
Referencias:
Constantino Méndez-Bértolo, Stephan Moratti, Rafael Toledano, Fernando López-Sosa, Roberto Martínez-Álvarez, Yee H Mah, Patrik Vuilleumier, Antonio Gil-Nagel y Bryan A Strange. “A fast pathway for fear in human amygdala”, Nature Neuroscience,13 de junio de 2016. DOI: 10.1038/nn.4324
Andero R, Daniel S, Guo JD, Bruner RC, Seth S, Marvar PJ, Rainnie D, Ressler KJ. “Amygdala-Dependent Molecular Mechanisms of the Tac2 Pathway in Fear Learning”. Neuropsychopharmacology. 2016 May 26. doi: 10.1038/npp.2016.77.
Sobre la autora: Maria José Moreno (@mariajo_moreno) es periodista
El artículo El miedo se esconde en el cerebro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El fondo cósmico de microondas y el espejo de feria
Look At Us – We’re Beautiful 2 – Judithcarlin / Wikimedia Commons
Fíjate en el retrato superior, ¿a cuantas personas crees que corresponde en la realidad?¿Dos, tres, quizás cuatro? Si sabemos que el cuadro corresponde a una imagen distorsinada por un espejo de feria, podemos crear un algoritmo que, deshaciendo las deformaciones que provoca el espejo, algunas deducibles de la propia imagen, nos lleve a comprender que estamos en realidad ante una pareja.
Podemos pensar que el fondo cósmico de microondas (FCM) es un cuadro del universo observable. El estudio de los patrones que aparecen en este cuadro nos desvela la historia del universo. Pero las imágenes que vemos están distorsionadas por los efectos gravitatorios que los objetos masivos, como las galaxias, por ejemplo, tienen en el espaciotiempo, lo que se conoce como efecto de lente gravitacional. Un objeto masivo deforma el espacio tiempo convirtiéndolo en una lente que afecta a la trayectoria de los rayos de luz; de hecho, una lente gravitacional potente permite ver los objetos que están detrás de ella según nuestra línea de visión.
Fondo cósmico de microondas según los datos del satélite Planck publicados en 2015
Ahora un nuevo trabajo muestra que, como con el espejo de feria, se pueden eliminar estas distorsiones en el FCM usando la radiación de fondo en frecuencias de infrarrojo. Esta primera demostración de lo que ha dado en llamarse “delensing” (algo así como “deslentización”) podría ser muy útil para búsquedas futuras de señales de ondas gravitacionales en el FCM.
Durante los últimas décadas los cosmólogos han usado los mapas del FCM para determinar la geometría y la distribución de densidad del universo. Estudios posteriores, centrados concretamente en los patrones de polarización en el FCM, podrían suministrar información de las ondas gravitacionales que se cree que se originaron en la rápida expansión del universo tras el Big Bang. Sin embargo, el efecto de las lentes gravitacionales oscurece las señales de polarización.
Anisotropías en el fondo cósmico de infrarrojo.
Los propuestas que existían hasta ahora para esta deslentización recurrían a características del propio FCM para identificar los lugares donde existía un efecto de lente gravitacional. El equipo encabezado por Patricia Larsen, del Instituto de Astronomía y del Instituto Kavli de Cosmología (Reino Unido), ha desarrollado y comprobado un método de deslentización que se basa en algo externo al FCM, el llamado fondo cósmico infrarrojo (FCI), que es una luz difusa que proviene fundamentalmente de galaxias ricas en polvo donde se están formando estrellas. Los puntos brillantes en el FCI se corresponden a regiones de alta concentración de galaxias que deberían producir un efecto de lente gravitacional muy importante.
Los investigadores han usado un mapa del FCI suministrado por el satélite Planck para crear una plantilla de deslentización que después han aplicado al mejor mapa completo del FCM que existe (también de Planck). El mapa del FCM librado de los efectos de lente gravitacional muestra picos más definidos en el espectro de fluctuaciones de temperaturas, y esta mayor definición se corresponde con los modelos teóricos de lentes gravitacionales.
Referencia:
P. Larsen et al (2016) Demonstration of Cosmic Microwave Background Delensing Using the Cosmic Infrared Background Phys Rev. Lett. doi: 10.1103/PhysRevLett.117.151102
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo El fondo cósmico de microondas y el espejo de feria se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Metros o millas… Houston, tenemos un problema!
El 23 de septiembre de 1999, tras más de nueve meses de viaje entre la Tierra y Marte, la sonda espacial Mars Climate Orbiter se desintegró al entrar en contacto con la atmósfera del planeta rojo. La Mars Climate Orbiter, que tenía un coste de 125 millones de dólares y formaba parte de un programa espacial con un presupuesto de más de 300 millones de dólares, tenía como objetivo estudiar el clima y las condiciones atmosféricas del planeta Marte, así como servir de apoyo para la transmisión de datos de la Mars Polar Lander, ambas parte de la misión espacial Mars Surveyor’98.
Imagen artística, de la página de la NASA, de la Mars Climate Orbiter
Como puede leerse en el informe de la investigación que se realizó sobre el accidente de la Mars Climate Orbiter en noviembre de 1999 –Mars Climate Orbiter Mishap Investigation Board, Phase I Report– el accidente tuvo lugar por el uso de datos en el sistema imperial de medidas cuando se tenían que haber utilizado los datos en el sistema métrico decimal.
Desde la NASA se estaban realizando los cálculos para el impulso que debían de producir los motores, cada vez que se encendían para corregir la trayectoria del viaje a Marte de la Mars Climate Orbiter, en libras de fuerza multiplicado por segundos (lbr.sg), es decir, en el sistema inglés de medidas, mientras que el software de los ordenadores de la sonda operaban en Newtons segundo (Nw.sg), es decir, en el Sistema Internacional de Medidas. Así, cada vez que se encendían los motores para ir corrigiendo la trayectoria se iba acumulando un error en la misma, debido a esa discrepancia en los datos.
Al llegar a Marte, la sonda debía estar a una altura de 226 km sobre la superficie del planeta rojo, a partir de ese momento se realizaría una maniobra de aproximación hasta quedar estacionada en una órbita alrededor del planeta, sin embargo, la sonda pasó a tan solo 57 kilómetros de altura, destruyéndose por el contacto con la atmósfera.
Diagrama, basado en el que aparece en el informe de la investigación, comparando la trayectoria que debía haber llevado la Mars Climate Orbiter y la que realmente describió. Fuente: Commons wikimedia
Pero veamos de qué magnitud fue el fallo que se cometió al mezclar ambos sistemas de medidas. Imaginemos que el cálculo realizado por la NASA en Tierra ofrecía la información de que el impulso que debía darse al motor de la sonda espacial era de 10.000.000 libras (de fuerza) segundo, pero el ordenador de la sonda interpretaba ante esta información, puesto que su software trabaja en el sistema internacional de medidas, que eran 10.000.000 Newtons segundo. Teniendo en cuenta que 1 libra (de fuerza) son 4,5 Newtons, se tendría que
10.000.000 Newtons·segundo = 10.000.000 x (1/4,5) = 2.222.222 libras·segundo,
Es decir, se habría producido un déficit en el impulso de más de 7 millones de libras (de fuerza) segundo. Solo un 22% del impulso que se tenía que haber generado.
Este es solo uno de los ejemplos de los errores que se han producido en las últimas décadas por el uso simultáneo de dos sistemas de medidas distintos, el sistema internacional y el sistema imperial de medidas.
Primeras páginas del libro “Travels during the years 1787, 1788, & 1789: undertaken more particularly with a view of ascertaining the cultivation, wealth, resources, and national prosperity of the Kingdom of France” (1792), del escritor inglés Arthur Young
Antes de la revolución francesa, 1789, la situación de los sistemas de medidas era caótica. Cada país, pero lo que es peor aún, cada región dentro de un mismo país, tenía sus propios sistemas de medidas, pero incluso en ocasiones compartían el mismo nombre, lo que convertía en un problema una simple compra y venta de alimentos, utensilios o ganado en una feria comarcal, y en general, dificultaba las transacciones comerciales, la investigación científica y todo tipo de comunicación.
El escritor inglés Arthur Young (1741-1820) en la versión extendida, de cuatro volúmenes, de sus viajes por Francia, Travels during the years 1787, 1788, & 1789: undertaken more particularly with a view of ascertaining the cultivation, wealth, resources, and national prosperity of the Kingdom of France (W. Richardson,1792), comenta “en Francia, la infinita perplejidad que causa la profusión de medidas excede toda comprensión. No solo difieren en cada provincia, sino en cada distrito, y casi en cualquier población”.
En el libro La medida de todas las cosas (2003), su autor Ken Alder escribe que “algunos contemporáneos calculaban que, bajo la cobertura de unos ochocientos nombres, el Antiguo Régimen de Francia utilizaba la asombrosa cifra de unas doscientas cincuenta mil unidades diferentes de pesos y medidas”.
O en el libro Outlines of the evolution of weights and measures and the metric system (Macmillan, 1906), de William Hallock y Herbert T. Wade, los autores indican que “A finales del siglo pasado (dieciocho), en diferentes partes del mundo, la palabra “libra” se aplicaba a 391 unidades diferentes de peso y la palabra “pie” a 282 unidades diferentes de longitud”.
Como es lógico, en la antigüedad cada región había desarrollado sus propios sistemas de medida, en muchas ocasiones basados en el cuerpo humano (por lo que la medida dependía del tamaño medio de los habitantes de esa región) o en cuestiones culturales específicas de la región donde se establecían, pero el mundo, su cultura, su ciencia y su economía, cada vez se hizo más global y las diferentes medidas empezaron a chocar unas con otras.
Como hemos visto, la situación antes de la revolución francesa de las unidades de medida en Europa, y en el mundo, era un auténtico desastre. Como decía el matemático y filósofo Nicolás de Condorcet (1743-1794) en sus Observaciones sobre el Libro XXIX del “Espíritu de las Leyes” de Montesquieu (1793), “la uniformidad de los pesos y medidas solo pueden desagradar a los empleados de los tribunales de justicia que teman ver disminuido el número de pleitos, y a aquellos comerciantes a los que la disminución de beneficios va a afectar, en cuanto a que contribuye a convertir las transacciones comerciales fáciles y simples”.
Grabado en madera, de 1800, mostrando las nuevas unidades decimales que fueron las legales en Francia desde el 4 de noviembre de 1800. Grabador, L. F. Kabrousse; editor, J. P. Delion. Fuente: Gallica
Aunque ya habían existido intentos anteriores, tras la Revolución Francesa se ponen las bases para crear un sistema de medidas universal. En palabras de Condorcet “para todos los pueblos, para siempre”. Para tal fin, en 1790, se crea la Comisión de Pesos y Medidas, constituida por los científicos Jean-Charles Borda (1733-1799), Joseph-Louis Lagrange (1736-1813), Pierre-Simon Laplace (1749-1827), Gaspard Monge (1746-1818) y Nicolás Condorcet. Para alcanzar la universalidad, el sistema de medidas debía ser decimal (aunque inicialmente también se valoró la posibilidad del sistema duodecimal), sus valores derivados de la naturaleza (por ejemplo, el metro tomaría el valor de “una diezmillonésima parte de la circunferencia de la Tierra”), las unidades de medida derivadas deberían basarse en potencias de las unidades básicas y se debían utilizar prefijos para designar los múltiplos y submúltiplos de las unidades.
La historia del sistema métrico decimal es apasiónate y empieza con la aventura de la medición del meridiano que pasa por París para definir determinar el valor del metro, aunque este no es el objetivo de esta entrada. Sobre este tema existen buenos libros, como El metro del mundo (Anagrama, 2003) de Denis Guedj o el mencionado La medida de todas las cosas (2003), de Ken Alder.
Tras la instauración en Francia, no sin problemas, del Sistema Métrico Decimal, muchos otros países del entorno, así como de Latinoamérica, empezaron a adoptar a lo largo del siglo XIX este sistema de medidas universal, Países Bajos, España, Alemania, Italia, Portugal, Noruega, Suecia, el Imperio Austro-Húngaro, Finlandia, Perú, México, Venezuela, entre muchos otros.
Mapa del mundo mostrando el momento de la adopción del sistema métrico decimal, o su derivado el Sistema Internacional de Medidas, por parte de los diferentes países
En 1875, diecisiete países firmaron la Convención del metro, “anhelando la uniformidad y la precisión internacionales en los estándares de pesos y medidas”, y se crearon las organizaciones internacionales para velar por la uniformidad de los pesos y medidas a lo largo de todo el mundo, la Oficina Internacional de Pesas y Medidas, el Comité Internacional de Pesas y Medidas y la Conferencia General de Pesos y Medidas. Poco a poco los diferentes países del mundo se fueron sumando a estas organizaciones y adoptando el sistema métrico decimal.
En la Conferencia General de Pesos y Medidas de 1960 se estableció finalmente el Sistema Internacional de Unidades. Las unidades básicas del Sistema Internacional (SI) son siete, el metro (longitud), el kilogramo (masa), el segundo (tiempo), el amperio (corriente eléctrica), el kelvin (temperatura termodinámica), el mol (cantidad de sustancia) y la candela (intensidad lumínica). Y de estas unidades básicas se derivan las otras unidades, como por ejemplo, el hercio (frecuencia), el Newton (fuerza), el pascal (presión), el julio (trabajo), etc.
Como se muestra en el mapa anterior, en la actualidad solamente hay tres países que no se han sumado al Sistema Internacional de Unidades, que son Estados Unidos, Liberia y Birmania (Myanmar), aunque estos dos últimos están en el proceso de adopción del Sistema Internacional. Por otra parte, países que han adoptado recientemente el SI, como Gran Bretaña o Canadá, siguen utilizando su viejo sistema de medidas en muchos ámbitos de su vida, el sistema imperial (o inglés) de medidas, que es el que continúa utilizando Estados Unidos en la actualidad.
Entre las décadas de los años 1970 y 1980 hubo un intento fallido de adopción del sistema internacional de medidas en EE.UU, motivo por el cual existen algunas señales de tráfico con medidas en el sistema métrico decimal, como las señales de distancia de la interestatal 19 entre Tucson y Nogales
Entre las unidades del Sistema Imperial de Medidas están las yardas (en longitud), los acres (en área), los galones (en volumen), las libras (en masa), entre otras.
A continuación, veremos otros ejemplos de errores y catástrofes producidos por la confusión en el uso de estos dos sistemas de medidas, el Sistema Internacional y el Sistema Imperial. Estos ejemplos aparecen, entre otros sitios, referenciados en la página web de una asociación que existe en EE.UU. para la promoción del Sistema Internacional de Medidas fundada en 1916, la U. S. Metric Association.
Antigua pesa para báscula de 1 kilogramo
El primer ejemplo que traemos a esta entrada, aparte del inicial sobre la Mars Climate Orbiter, es un ejemplo sencillo de confusión entre kilogramos y libras de los que seguramente se habrán producido muchos, pero que no suelen ser recogidos en los medios de comunicación, a diferencia de este.
En 2001, se publicó en el San Francisco Business Times la noticia “Fabricantes, los exportadores piensan en métrico”. En ella se contaba la historia de un empresario norteamericano, Carlos Zambello, que había vendido un cargamento de arroz salvaje a un cliente japonés y como en la transacción había habido una cierta confusión, causándoles cierto bochorno, por no hablar de las pérdidas económicas.
Trigo salvaje
En concreto, a la compradora japonesa se le ofreció el arroz salvaje a un precio de 39 centavos… el problema es que ella estaba entendiendo que la oferta era de 39 centavos el kilogramo, mientras que el vendedor se estaba refiriendo a 39 centavos la libra. La cuestión es que como 1 kilogramo equivale a 2,2 libras, el coste del trigo salvaje era realmente de 85,8 centavos el kilogramo, mucho más de lo que pensaba la compradora, 39 centavos el kilogramo.
Una vez que se dieron cuenta del malentendido, el gerente general de la compañía The Wild Rice Exchange, Carlos Zambello, acabó aceptando que el precio del arroz salvaje vendido fuera su precio de coste, puesto que en el otro lado tenían a un buen cliente desde hacía muchos años, sin obtener ningún beneficio en la transacción, mientras que el comprador japonés, aunque pagó menos de lo que era su precio real, acabó aceptando pagar el precio de coste, más de lo que había pensado que era su precio de compra.
Otra historia con un malentendido entre kilogramos y libras se recogió en el periódico Los Angeles Times, en febrero de 2001. Bajo el titular “Mismeasure for measure” (que podríamos traducir como “Incorrecta medida para medir”) se contaba como el Zoológico de Los Ángeles había prestado su vieja tortuga galápago Clarence, de 75 años de edad, al Exotic Animal Training and Management Program de la Universidad de Moorpark (Moorpark College). Pero, durante la primera noche de la vieja tortuga en su nuevo hogar, esta se había escapado echando abajo uno de los postes de la cerca en la que se encontraba.
Clarence, la tortuga galápago de 75 años, que se escapó de su cerca de la Universidad de Moorpark, California. Fuente: Moorpark College
El Zoológico de Los Ángeles había avisado que la tortuga galápago era grande y que se necesitaba una cerca para un animal de un peso de 250, que es lo que construyó la Universidad de Moorpark. El problema estaba en que desde la institución universitaria habían interpretado que se estaba hablando de 250 libras, cuando realmente hablaban de 250 kilogramos, o lo que es lo mismo, unas 550 libras.
Nuestro siguiente ejemplo, nos lleva a uno de los últimos países en adoptar el Sistema Internacional de Medidas, Canadá, cuyo proceso de metrización empezó en la década de los años 1970, aunque no ha sido desarrollado completamente.
En julio de 1983 el avión Boeing 767-200 del vuelo 143 de Air Canadian se quedó sin combustible a mitad de su vuelo entre Montreal y Edmonton, debido a que la tripulación calculó mal el fuel que necesitaban para el viaje (junto con una serie de fallos en el sistema indicador de la cantidad de combustible del avión). Por suerte, se pudo realizar un aterrizaje de emergencia en una antigua base militar.
Posición en la que quedó el avión del vuelo 143 de Air Canada, en julio de 1983, tras realizar un aterrizaje de emergencia por haberse quedado sin fuel a mitad de su vuelo entre Montreal y Edmonton
El error en el cálculo de la carga de combustible necesaria se produjo debido a que el personal no tenía una formación adecuada en el sistema métrico decimal que se acababa de adoptar en Canadá, sustituyendo al sistema imperial.
La tripulación sabía que se necesitaban 22.300 kilogramos de fuel para realizar el viaje entre Montreal y Edmonton. Pero el avión ya tenía 7.682 litros en sus tanques, por lo que había que calcular cuánto fuel extra era necesario cargar en los tanques para realizar el viaje.
Teniendo en cuenta que el peso de 1 litro de fuel es de 0,803 kilogramos, entonces el peso del fuel que tenía ya el avión era de 7.682 litros x 0,803 kg/litro = 6.169 kg.
Por lo tanto, el avión necesitaba que se le añadieran a sus tanques 22.300 – 6.169 = 16.131 kg.
Luego, ¿cuántos litros de fuel debían de cargarse en el avión? Teniendo en cuenta de nuevo, que cada litro pesa 0,803 kilogramos, la cantidad de fuel necesario era de 16.131 kg x (1 litro /0,803 kg) = 20.088 litros.
La tripulación, sin embargo, tuvo en cuenta el factor de conversión de 1,77 (en lugar de 0,803), que era el que habían estado utilizando hasta entonces ya que 1 litro de fuel pesa 1,77 libras (tengamos en cuenta que 1 kilogramo son 2,205 libras, luego 0,803 kilogramos son 1,77 libras).
Por lo tanto, esta fue la cuenta que realizaron…
1.- el peso del fuel que aún quedaba en los tanques del avión era…
7.682 x 1,77 = 13.587 “kilogramos” (en realidad eran libras)
2.- el peso del fuel que había que añadir era…
22.3000 – 13.587 = 8.713 “kilogramos”
3.- luego, ¿cuántos litros calcularon que había que cargar en los tanques?
8.713 kg x (1 / 1,77) = 4.923 litros (el factor a utilizar debía de ser litros/kilogramo, aunque el dato que utilizaban de nuevo era litros/libra, 1/1,77)
En conclusión, cargaron solamente 4.923 litros de los 20.088 litros que realmente eran los necesarios.
Avión McDonnell Douglas MC-11F que realizaba el vuelo 6316 de Korean Air Cargo de Shanghai a Seoul en la década de los años 1990
En abril de 1999 el avión McDonnell Douglas MC-11F en su vuelo 6316 de Korean Air Cargo de Shanghai a Seoul se estrelló, muriendo las tres personas de la tripulación y otras 5 personas en tierra, así mismo, hubo 37 heridos en tierra.
Después del despegue el avión debía subir a una altura de 1.500 metros (que son 4.900 pies, puesto que 1 metro equivale a 3,28 pies). Cuando el avión subió a 4.500 pies (casi a 1.400 metros), el primer oficial informó al capitán de que la altura del avión debía ser de 1.500 pies (confundiéndose con los 1.500 metros que realmente debía de tener), pensando por lo tanto que el avión estaba 3.000 pies más arriba de lo que debía. Como consecuencia el capitán puso bruscamente el avión en descenso para intentar poner al avión a una altura de 1.500 pies (que son unos 460 metros), como consecuencia de esta maniobra el avión se volvió incontrolable y terminaría estrellándose en una zona industrial a 10 kilómetros del aeropuerto.
Los deportistas norteamericanos suelen sufrir su aislamiento del Sistema Internacional de Medidas en las competiciones deportivas, en particular, en los Juegos Olímpicos. Un ejemplo de este problema fue el no reconocimiento mundial de un record en atletismo. La atleta Carol Lewis realizó un salto de longitud que parecía ser un record mundial en los campeonatos NCAA Men’s and Women’s Indoor Track Championship celebrados en Pontiac, Michigan, en 1983. Sin embargo, su marca no fue reconocida como un record oficial, puesto que para que se considere un record oficial las medidas deben tomarse en el sistema internacional, es decir, en el sistema métrico decimal.
La atleta Carol Lewis en 1991
En Diciembre de 2003, el tren de la montaña rusa Space Mountain que se encuentra en el parque temático Tokyo Disneyland descarriló cuando llegaba a la estación. El descarrilamiento se produjo debido a la ruptura de un eje del tren. Por suerte, no hubo que lamentar ninguna desgracia y todo quedó en un susto.
Como resultado de la correspondiente investigación para aclarar los motivos del accidente, se descubrió que el eje se había construido con un diámetro más pequeño que las especificaciones de los planos del diseño. En el año 1995 se habían cambiado las medidas de los planes maestros para la construcción de la Space Mountain, del sistema imperial al sistema internacional de medidas. Cuando se fue a construir la Space Mountain de Tokyo en 2002, se tomaron los valores de las medidas de los planos del diseño anteriores a 1995.
Imágenes de la Space Mountain de Tokyo Disneyland. Fuente: Tokyo Disney Resort
Según el informe, mientras que en los planos del diseño se especifica que el espacio entre el eje y su cojinete debía de ser de 0,2 mm, realmente era de alrededor de 1 mm, lo cual creó una mayor vibración que hizo que se rompiera el eje. Recordemos que 1 pulgada son 2,54 centímetros, o recíprocamente, 1 cm equivale a 0,3937 pulgadas.
Y para terminar, un ejemplo relacionado con el volumen. En 2004 a un niño se le estuvo dando 5 veces la dosis prescrita por el médico de Zantac Syrup, un medicamento para reducir la producción del ácido estomacal, hasta que un mes más tarde el médico descubrió la confusión. Afortunadamente, el error no tuvo ninguna consecuencia grave para el bebé.
El médico había prescrito una dosis de 0,75 mililitros, dos veces al día, pero el farmacéutico escribió en el bote del medicamento “administrar 3/4 de cucharadita (teaspoon) dos veces al día”. Teniendo en cuenta que esta medida de Estados Unidos, 1 “cucharadita” (u.s. teaspoon), tiene la equivalencia en el sistema métrico decimal de 4,9 mililitros, se le estuvieron suministrando 3,675 mililitros, dos veces al día, es decir, casi 5 veces la dosis prescrita.
Humor gráfico aparecido en la revista “Industry Week” en 1981
Bibliografía
2.- Mars Climate Orbiter Mishap Investigation Board, Phase I Report, November 10, 1999
3.- Some Famous Unit Conversion Errors, Space Math, NASA
4.- Arthur Young, Travels during the years 1787, 1788, & 1789: undertaken more particularly with a view of ascertaining the cultivation, wealth, resources, and national prosperity of the Kingdom of France, W. Richardson,1792.
5.- Ken Alder, La medida de todas las cosas, Taurus/Santillana, 2003.
6.- William Hallock y Herbert T. Wade, Outlines of the evolution of weights and measures and the metric system, Macmillan, 1906.
7.- Nicolás de Condorcet, Observaciones sobre el Libro XXIX del “Espíritu de las Leyes” de Montesquieu, 1793.
8.- Denis Guedj, El metro del mundo, Anagrama, 2003.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Metros o millas… Houston, tenemos un problema! se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 Vacunaos, por Jenner
Clara Grima no habla de vacunas, pero sí de algo muy relacionado: este mundo es muy pequeño, está muy conectado y eso lleva a paradojas.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 Vacunaos, por Jenner se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El nylon lo creó un contable
A finales de los años veinte del siglo pasado la compañía estadounidense DuPont contrataba a un químico llamado Wallace Hume Carothers para dirigir la investigación fundamental en polímeros. El objetivo último de DuPont era intentar conseguir una forma barata y eficiente de sustituir la seda proveniente de Asia, donde el militarismo rampante de Japón estaba limitando cada vez más el suministro a Occidente.
Carothers contabilizando una reacción
Si bien el primer título de Carothers fue en contabilidad y administración, y a pesar de que se matriculase en Inglés (lo que llamaríamos lengua y literatura inglesas) en el Tarkio College, terminó doctorándose en química por la Universidad de Illinois. Su primer objetivo en DuPont era comprender la naturaleza de polímeros naturales como el caucho, la celulosa y la seda y, a partir de ahí, intentar imitarlos. El objetivo no declarado era conseguir el polímero sintético más grande conocido.
Carothers empleó reacciones orgánicas bien establecidas pero las aplicó al estudio de moléculas con dos centros reactivos, uno a cada extremo, que formasen los eslabones de una cadena, porque eso son los polímeros, cadenas de moléculas. Carothers y su grupo aprendieron muchas cosas interesantes acerca de los polímeros pero no consiguieron producir nada parecido a la seda. Bueno, no lo consiguieron hasta que alguien se puso a hacer el tonto en el laboratorio.
Julian Hill en 1930 externamente no parecía un niño precisamente.
Un día uno de los ayudantes de Carothers, Julian Hill, estaba jugando con una masa pastosa de poliéster que había en el fondo de un vaso de precipitados cuando se dio cuenta de que si cogía una porción de la masa con una varilla de vidrio y se dedicaba a estirarla todo lo posible (recordemos que estaba, literalmente, jugando) conseguía unos hilos que recordaban a la seda. Ahí quedó la cosa.
Días más tarde, aprovechando que el jefe había tenido que ir a una gestión a la ciudad, los ayudantes de Carothers decidieron averiguar cuánto podía estirarse aquello (la versión oficiosa dice que fue una competición a ver quien conseguía el hilo más largo): y para ello no tuvieron mejor ocurrencia que correr escaleras abajo portando varitas de vidrio con un pegote de poliéster en la punta (las caras de los que se cruzasen por el camino tuvieron que ser dignas de ver). La cuestión es que terminaron con hilos “muy sedosos”, que hoy sabemos se deben a la orientación (el ordenamiento en una dirección) de las moléculas de polímero.
Eran juguetones, pero eran químicos. Pensaron que si esos hilos sedosos tuviesen que emplearse para confeccionar un tejido no sería muy útil, ya que el poliéster tiene un punto de fusión demasiado bajo (nada de tenerlo mucho rato al sol, ni cerca de un fuego) y una solubilidad en agua demasiado alta (nada de usarlo un día de lluvia). Aunque estos dos problemas del poliéster se solucionarían más tarde, los ayudantes de Carothers subieron de nuevo las escaleras y decidieron volver a bajarlas corriendo, esta vez llevando una poliamida que tenían en la estantería en la punta de sus varitas, a ver si conseguía el mismo efecto. Funcionó.
Nylon 6-6, en lila resaltados los enlaces de hidrógeno que unen las distintas moléculas de polímero orientadas en una dirección
Cuando el jefe volvió se encontró a la gente de su departamento sorprendentemente sudorosa y muy excitada. El grupo de Carothers necesitaría 10 años para transformar la idea tras aquellos hilos sedosos de poliamida en un producto comercializable parecido a la seda: había nacido el nylon. Su fecha de nacimiento oficial como polímero fue el 28 de febrero de 1935 cuando Gerard Berchet, bajo la dirección de Carothers, consiguió obtener poliamida 6-6 a partir de hexametilendiamina y ácido adípico.
El nuevo material, presentado en la Feria Mundial de Nueva York de 1939, fue un éxito inmediato. Aunque se comercializó por primera vez en cepillos de dientes, su gran éxito vino cuando se vendieron más de cuatro millones de pares de medias en unas pocas horas en la primera gran venta masiva que se hizo en la ciudad de Nueva York en 1940. Sin embargo, todo este éxito comercial de cara al público se vería eclipsado cuando casi inmediatamente el acceso al material tuvo que ser restringido por las demandas del mismo en la fabricación de paracaídas.
Ríete tú de las colas para comprar la nueva iCosa.
Carothers, que ya había advertido a los representantes de DuPont cuando fueron a contratarle a Harvard en 1928 que tenía momentos depresivos, no vivió para ver su éxito. Se había suicidado (como químico orgánico que era, usando cianuro de potasio disuelto en zumo de limón) en 1937.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El nylon lo creó un contable se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Depuración conjunta de dioxinas y NOx en incineradoras de basura
La alta generación de residuos y las limitaciones legislativas medioambientales obligan a diseñar programas de prevención, reutilización y reciclado para gestionar la basura. Sin embargo, los residuos sólidos urbanos (RSU) que no entran en estos programas son incinerados, y así pueden generar compuestos perjudiciales —óxidos de nitrógeno y dioxinas, entre otros— que se deben tratar antes de ser liberados a la atmósfera.
La doctora de la UPV/EHU Miren Gallastegi ha investigado las posibilidades de la tecnología catalítica en las plantas incineradoras de residuos sólidos urbanos, para reducir las emisiones de estos contaminantes de manera más eficiente, realizando su depuración a temperatura más reducida y, en consecuencia, de forma más amigable.
El grupo de investigación Tecnologías Químicas para la Sostenibilidad Medioambiental (TQSA) del Departamento de Ingeniería Química de la UPV/EHU investiga las tecnologías catalíticas con el fin de ofrecer alternativas más sostenibles frente a los modelos tradicionales. Hasta ahora se había observado, pero no estudiado científicamente, que es posible eliminar los óxidos de nitrógeno y destruir las dioxinas de forma independiente en dispositivos diferentes y bajo diferentes condiciones. Sin embargo, no se había constatado mediante una investigación científica en qué condiciones y cómo se pueden producir los dos procesos simultáneamente, lo que se denomina “intensificación de procesos”, con el consiguiente ahorro energético.
Miren Gallastegi ha analizado el proceso conjunto, es decir, la manera de depurar de forma simultánea los óxidos de nitrógeno (NOx) y las dioxinas. Estas últimas partículas son especialmente tóxicas a bajos niveles y se generan en la combustión de residuos que llevan cloro en su composición como, por ejemplo, algunos plásticos (polímeros) que quedan fuera de la cadena de reciclaje y reutilización. En su investigación, ha sintetizado y utilizado catalizadores, tanto convencionales (basados en óxidos de vanadio, wolframio y titanio) como nuevas formulaciones alternativas (basadas en óxido de manganeso). Ha conseguido acelerar las reacciones químicas deseadas de eliminación de óxidos de nitrógeno y destrucción de dioxinas a menor temperatura y de forma más eficiente.
Tras analizar los diferentes procesos químicos que ocurren sobre el catalizador, Gallastegi ha constatado es posible por un lado reducir los óxidos de nitrógeno a nitrógeno y, por otro, destruir las dioxinas, transformándolas en compuestos gaseosos inertes. Es decir, a pesar de la distinta naturaleza química y reactividad de ambas moléculas, un mismo catalizador del tipo de los desarrollados, puede realizar al mismo tiempo los dos procesos tan distintos. Es un sistema combinado bautizado con el nombre dDiNOx (depuración conjunta de dioxinas y NOx).
En estos momentos, diez incineradoras del estado están utilizando tecnología catalítica para la transformación de los óxidos de nitrógeno en nitrógeno. Sin embargo, atrapan las dioxinas sobre filtros de carbón activo que, con posterioridad requieren gestión, tratamiento y control adicional. “La introducción de los nuevos catalizadores que hemos desarrollado y la optimización de las variables de proceso, permitiría la utilización de la infraestructura de las actuales plantas de incineración (con escasas modificaciones) para la eliminación simultánea de los contaminantes. Esta nueva disposición presenta la gran ventaja de destruir las dioxinas en lugar de su absorción y posterior gestión de los actuales filtros, que podrían eliminarse. Es una opción muy beneficiosa para el medio ambiente, que requiere escasa inversión en instalación y conlleva un importante ahorro energético”, explica Miren Gallastegi.
Referencia:
M. Gallastegi-Villa, A. Aranzabal, Z. Boukha, J.A. González-Marcos, J.R. González-Velasco, M.V. Martínez-Huerta, M.A. Bañares (2015) Role of surface vanadium oxide coverage support on titania for the simultaneous removal of o-dichlorobenzene and NOx from waste incinerator flue gas Catalysis Today doi: 10.1016/j.cattod.2015.02.029
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Depuración conjunta de dioxinas y NOx en incineradoras de basura se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Superbacterias
El mes de noviembre del pasado año se descubrió en China que un gen bacteriano denominado mcr-1 confiere resistencia a la colistina. Dicho así puede parecer banal. Pero es todo lo contrario: fue un descubrimiento preocupante. La colistina es un antibiótico de último recurso que sólo se administra cuando todos los demás antibióticos no consiguen acabar con una infección. Es, por lo tanto, una de las últimas líneas de defensa frente a las bacterias denominadas multirresistentes, esto es, bacterias que han desarrollado resistencia a muchos antibióticos.
El gen mcr-1 no forma parte del cromosoma bacteriano, sino que se encuentra en un plásmido. Los plásmidos son pequeños fragmentos de ADN independientes del cromosoma, y son capaces de moverse de una bacteria a otra con facilidad -lo que se denomina transferencia horizontal-, expandiendo la resistencia a los antibióticos entre diferentes cepas y especies bacterianas. A partir de su descubrimiento en China, otros países se pusieron manos a la obra en busca de bacterias que contuviesen el mcr-1, y ya ha sido hallado en África, Europa, Norteamérica y Sudamérica.
La resistencia a los antibióticos es un fenómeno lógico a la luz de la selección natural. Cuando se utiliza uno de ellos para combatir una infección bacteriana se está ejerciendo sobre las bacterias una “presión selectiva”. Bajo esas circunstancias, si alguna de las bacterias tiene un gen que confiere resistencia a ese antibiótico, esa bacteria sobrevivirá, se multiplicará, y legará esa resistencia a las bacterias de las siguientes generaciones. La probabilidad de que ocurra tal cosa es muy baja, pero por baja que sea, si un antibiótico es utilizado en un número suficientemente alto de ocasiones, antes o después alguna de las bacterias atacadas resultará ser resistente al mismo. Y entonces esa bacteria se multiplicará, hasta ser combatida mediante otro antibiótico. El problema es que el uso masivo de antibióticos de amplio espectro –que atacan a bacterias de muy diferentes variedades- ha hecho que cada vez sea menor el tiempo que transcurre desde que se empiezan a utilizar hasta que surge alguna cepa resistente. Y así van apareciendo cepas resistentes a más y más antibióticos: son las llamadas bacterias multirresistentes o superbacterias.
Antes se descubrían nuevos antibióticos a un ritmo suficientemente alto como para ir compensando la aparición progresiva de nuevas resistencias. Pero eso ha cambiado. Cada vez aparecen más rápidamente porque cada vez se utilizan los antibióticos de forma más masiva, no solamente para combatir infecciones bacterianas en seres humanos, sino –erróneamente- también para atacar infecciones víricas y, de modo preventivo, en algunos países para tratar al ganado, porque de esa forma engorda más rápidamente.
Hay quien opina que nos dirigimos a un mundo en el que los antibióticos dejarán de ser eficaces. Nos hemos acostumbrado a vivir con ellos. Descartamos casi completamente que las infecciones bacterianas puedan llegar a ser una amenaza real en nuestras sociedades. Y sin embargo, hay motivos para la alarma. Se desarrollarán nuevos antibióticos, por supuesto. Y quizás también se desarrollen nuevas terapias o se recuperen terapias antiguas que han demostrado ser eficaces, como el tratamiento con bacteriófagos –virus que atacan bacterias- como se llegó a hacer en el pasado con éxito en la antigua URSS. Pero la perspectiva de un mundo sin antibióticos eficaces es una perspectiva aterradora en la que la enfermedad, el sufrimiento y la desdicha estarán mucho más presentes entre nosotros que en la actualidad. Para evitar que esos malos augurios lleguen a cumplirse sólo hay dos caminos: hacer un uso más moderado y racional de los antibióticos, e investigar más para desarrollar terapias eficaces, sea con antibióticos o de cualquier otro modo.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————————
Este artículo fue publicado en la sección #con_ciencia del diario Deia el 5 de junio de 2016.
El artículo Superbacterias se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 ¿Esto es una bomba? Esto es una bomba
En la carrera por construir formas eficientes de destrucción nada gana a la imaginación de un físico teórico. Mario Herrero lo ilustra.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 ¿Esto es una bomba? Esto es una bomba se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Proyecto Mohole, un fracaso que no hacía falta
El objetivo del proyecto era simplemente hacer un agujero en el fondo del mar. Pero no un agujero cualquiera, sino el más profundo que jamás hubiese hecho la humanidad. Se llamó proyecto Mohole y comenzó en 1957; en 1966 el Congreso de los Estados Unidos decidió que ya estaba bien de gastar dinero y fue cancelado. Su objetivo: alcanzar la discontinuidad de Mohorovičić, la interfaz entre la corteza terrestre y el manto.
La discontinuidad de Mohorovičić está marcada con el número 2
Esta discontinuidad fue descubierta por el sismólogo croata Andrija Mohorovičić en 1909, quien se dio cuenta de que las ondas sísmicas que volvían de las profundidades indicaban que debía existir una zona a varios kilómetros de profundidad en la que se producía un cambio brusco en la velocidad de estas ondas sísmicas. Esta zona define la base de la corteza terrestre y marca un cambio de composición: la superficie de separación entre los materiales rocosos menos densos de la corteza, formada fundamentalmente por silicatos de aluminio, calcio, sodio y potasio, y los materiales rocosos más densos del manto, constituido por silicatos de hierro y magnesio. La profundidad de Moho (que es como se llama menos formalmente la discontinuidad) varía entre los 25-40 km en los continentes y los 5-10 km bajo el suelo oceánico, y su espesor máximo es de unaos 500 m.
Profundidad de la discontinuidad de Mohorovičić
Antes de seguir conviene señalar que, tras la aceptación universal de la tectónica de placas, los geólogos llegaron a la conclusión que más importantes que los cambios en la composición son los cambios en la manera de deformarse a la hora de entender la estructura de la Tierra. Por eso actualmente dividen la parte más externa del planeta en litosfera (rígida), que incluye la corteza y la parte superior del manto, que cubre la mucho más deformable astenosfera.
El proyecto Mohole (de Moho y “hole”, agujero en inglés) fue una ocurrencia de un grupo, informal, de científicos asociados a la marina de los Estados Unidos y que se creó en los años cincuenta. El grupo lo lideraba Gordon Lill de la Oficina de Investigación Naval y se dedicaba a recopilar ideas y proyectos de investigación de los científicos de la armada que no encajaban en ninguna parte, de ahí el nombre del grupo: Sociedad Miscelánea Americana (AMSOC, por sus siglas en inglés). Para ser aceptado en el grupo solo era necesario que dos o más miembros estuviesen juntos.
Funafuti
Antes del Mohole, todas las perforaciones que se hacían en la corteza terrestre tenían como objetivo encontrar petróleo o gas y se habían limitado a tierra firme y a aguas poco profundas. Perforar con fines científicos era mucho menos común. Este tipo de perforaciones habían comenzado con la idea de determinar la estructura, composición e historia de las islas coralinas. En 1877 la Royal Society de Londres financió una perforación que llegó a los 350 m en Funafuti, el atolón en el que está la capital de Tuvalu, en el Pacífico Sur. En 1947, antes de los ensayos nucleares en Bikini, una perforación llegó en este atolón a los 780 m. Finalmente, en 1952 una prospección en Enewetak consiguió llegar a la corteza basáltica debajo de la roca coralina a una profundidad de 1200 m, aún muy lejos de Moho. A lo largo de los años cincuenta algunos países, notablemente Canadá y la Unión Soviética, anunciaron públicamente proyectos de perforaciones en la corteza terrestre; no se conoce que se llevaran a cabo.
El proyecto Mohole presentado por la AMSOC consiguió financiación pública para la idea de hacer la perforación en el fondo oceánico, todo un reto tecnológico para la época. El proyecto era perforar a una profundidad de agua de miles de metros, algo nunca hecho hasta entonces.
Si bien el proyecto consiguió dos perforaciones notables, primero a una profundidad marina de 950 m y después otra a 3560 m, no llegó ni a aproximarse a Moho. El proyecto Mohole, probablemente uno de los grandes proyectos públicos de gran ciencia (el primero fue secreto y fue el proyecto Manhattan, que creó la bomba atómica) terminó cuando se quedó sin dinero en 1966 siendo considerado un fracaso. Dos años antes AMSOC se había disuelto.
CUSS I
Con todo, el proyecto demostró que la perforación en el suelo oceánico usando barcos era posible (el CUSS I empleado en el proyecto, fue uno de los primeros barcos del mundo capaz de perforar en profundidades de agua de hasta 3.600 m, mientras mantenía la posición en un radio de 180 m) y dio pie, además, al Proyecto de Perforación en Mares Profundos de 1968, que se dedicó a investigar las capas de sedimentos del fondo oceánico.
El principal logro del proyecto Mohole fue convertir la investigación del suelo marino en una empresa multinacional, ya sean prospecciones científicas o llevadas a cabo por compañías transnacionales. En los 50 años transcurridos desde la finalización del proyecto Mohole, sin embargo, ningún proyecto ha llegado a Moho perforando el fondo del mar. Lo soviéticos fueron los que estuvieron más cerca, con una perforación de 12,262 m en tierra firme, en la península de Kola, en 1989.
Según cuentan las crónicas, el proyecto Mohole fracasó por falta de financiación suficiente y porque estuvo mal gestionado. De hecho, puede que la informalidad de AMSOC fuese en parte responsable de iniciar un proyecto que era tecnológicamente interesante pero cuyo objetivo científico era dudoso.
Chert
¿Por qué era dudoso? A finales del siglo XIX varios científicos europeos se habían dado cuenta de que la corteza oceánica afloraba en los Alpes en forma de capas de chert (sedimentos del suelo marino hechos roca, litificados) superpuestas a capas basálticas (que corresponderían con la corteza oceánica), superpuestas a su vez a capas ultramáficas (rocas de alta densidad ricas en hierro y magnesio); esta estructura se conoce como trinidad de Steinmann, en honor de Gustav Steinmann. En general, estas asociaciones de rocas se llaman ofiolitas y la transición de la capa basáltica a la ultramáfica no sería otra cosa que la discontinuidad de Mohorovičić, ahí, a simple vista.
¿Moho a la vista? Ofiolita de Terranova
Para saber más:
El proyecto Mohole – Wikipedia
Project Mohole – National Academies
Este post ha sido realizado por César Tomé López (@EDocet) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Proyecto Mohole, un fracaso que no hacía falta se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 Si Pitágoras fuese nutricionista
El amor de Pitágoras por los triángulos supondría un riesgo para tu salud. Aitor Sánchez sobre las falacias alimentarias.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 Si Pitágoras fuese nutricionista se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Realidad conexa, porque todo está conectado.
Llevamos varias semanas hablando de artistas científicos, de colaboraciones interdisciplinares exitosas y de la necesidad de encontrar caminos transversales entre ciencia y arte.
A veces, para un espectador poco acostumbrado a este enfoque interdisciplinar, esta búsqueda de caminos confluyentes, esas interrelaciones, puede parecer forzada, artificial, pero no lo es. Sencillamente, lo que nos ocurre es que no sabemos verlas, que no nos hemos parado a buscarlas.
Realidad Conexa es una nueva iniciativa del programa Mestizajes, del Donostia International Physics Center (DIPC), destinada a mostrarnos de manera visual, dinámica y accesible para todo tipo de público esas conexiones, esos encuentros que no sabemos ver.
La premisa con la que Gustavo Ariel Schwartz, fundador y director del Programa Mestizajes, y Ana Montserrat Rosel, guionista y directora de TV, se enfrentaron al proyecto es que “todo, absolutamente todo, está conectado”. Se trata de exponer de manera sencilla, visual y comprensible que el conocimiento humano no está formado por compartimentos estancos independientes unos de otros, sino por puntos que se conectan unos con otros a través de líneas que están ahí, a nuestro alcance, y que solo tenemos que aprender a ver. Los caminos para llegar al conocimiento no son únicos, desde distintos puntos de salida se puede llegar a la misma meta, se llega de hecho al mismo punto, y esas rutas distintas son todas igualmente válidas y enriquecedoras.
El proyecto, en esta primera entrega (esperamos que sean muchas más), consta de 8 cápsulas de dos minutos de duración que dejan en el espectador diferentes sensaciones. Primero cierta desconfianza ¿qué van a contarme?, segundo sorpresa ¿en serio, cómo no sabía esto?, tercero asombro, cuarto y último curiosidad por saber más. Esta última reacción es la que Realidad Conexa busca, encender la chispa de la curiosidad es un poderoso acicate para mover hacia el conocimiento.
Hasta ahora se han publicado cuatro cápsulas, la presentación y tres episodios más, en las que con un lenguaje claro, preciso e identificable se nos muestran diferentes conexiones para abordar nuestra realidad.
En Borges y la memoria, la primera frase ya nos deja con ganas de saber qué van a contarnos porque apela a algo que todos conocemos: “Pensar es olvidar. Olvidar para recordar”. Con este gancho la voz en off nos lleva a conocer la historia de la increíble coincidencia entre un personaje de Borges, Funes El Memorioso, y Salomón Shereshesky, el hombre que recordaba todo. Ficción y realidad coincidentes en el tiempo pero no en el espacio, una historia que nos sorprende, nos asombra y, después, nos deja pensando ¿cuánto recuerdo yo?, ¿qué hago con mi memoria?, ¿cómo la utilizo?, ¿recuerdo u olvido?
En Arte, Literatura y Ciencia, el gancho para atraer nuestra atención es la frase que, a mi juicio, es la esencia del enfoque de todo el proyecto: “El pintor comprende la realidad, el escritor controla la historia y el científico describe verdades”. Esta cápsula ilustra una idea que en el Cuaderno de Cultura Científica se ha tratado muchas veces: cómo el conocimiento se abordaba de una manera global en la Antigüedad y el Renacimiento y cómo el siglo XX constituye una ruptura de ese acercamiento.
En Magia y neurociencia, el enfoque de la conexión está centrado en cómo algo tan poco científico como la magia y los trucos puede ayudar a los neurocientíficos a conocer cómo decide nuestro cerebro lo que percibimos y lo que no. ¿Prestamos atención a lo que queremos o creemos prestar atención mientras en realidad nuestro cerebro nos engaña?
El resto de las cápsulas irán publicándose en las próximas semanas en el Canal Mestizajes del DIPC y tratarán temas tan interesantes como la relación entre el poema Eureka de Poe y la infinitud del Universo, la colaboración inesperada entre las proteínas y los videojuegos, o la conexión entre nuestra preferencia al girar la cabeza para besar, los retratos de Rembrandt y el cerebro. También aprenderemos cómo el placer que las grandes obras de la literatura o el desagrado de los peores textos escritos responden a patrones matemáticos o cómo Cezanne intuyó mucho antes que la ciencia que lo que creemos ver no es lo que hay sino una construcción de nuestro cerebro.
Me gustaría señalar, por último, que el aspecto formal de las cápsulas es fabuloso y está muy cuidado. En una época de bombardeo visual una buena idea, como es Realidad Conexa, no puede confiarse en la excelencia de su planteamiento intelectual y debe cuidar su presentación para hacerse atractiva, interesante y tener una imagen característica. Para esto, el lenguaje visual, los grafismos, la música y la locución deben tener una marcada personalidad que les dé continuidad y que sirva para que el espectador, a pesar de estar inmerso en el visionado de una cápsula en concreto, sepa identificar de un solo vistazo cualquier otra.
Realidad conexa es una iniciativa original, atractiva, y esperemos que exitosa, que busca provocar asombro y curiosidad, y que el espectador se plantee preguntas sobre sí mismo, preguntas qué pueden parecer “tontas” pero qué son el camino para querer saber más: ¿hacia qué lado beso? ¿Por qué me gustan más los libros con grandes exposiciones que los que tienen mucho diálogo? ¿Lo que veo es lo que hay?
Otro objetivo del proyecto es buscar que las distintas disciplinas aprendan a mirarse y sobre todo aprendan a verse, que sean capaces de visualizar esas líneas de puntos que los conectan para recorrer esas conexiones y llevar a cabo colaboraciones fructíferas y provechosas para ellos y para todos.
Realidad conexa. No dejéis de verla, os sorprenderá.
Sobre la autora: Ana Ribera (Molinos) es historiadora y cuenta con más de 15 años de experiencia en el mundo de la televisión. Es autora del blog Cosas que (me) pasan y responsable de comunicación de Pint of Science España.
El artículo Realidad conexa, porque todo está conectado. se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Inflación caliente à la Higgs
Casi seguro que has oído hablar del Big Bang, ese acontecimiento, por llamarlo de alguna manera, que marca el comienzo de nuestro universo. Lo que es posible que no sea tan seguro es que estés familiarizado con el concepto de inflación cósmica.
La inflación cósmica es una teoría que afirma que muy poco tiempo después de esa singularidad que es el Big Bang, y por poco tiempo queremos decir 10-36s, y durante solo un momento, porque terminó a los 10-32s del Big Bang, el universo (el espacio) sufrió un crecimiento exponencial enorme. Tras este periodo inflacionario el universo siguió, y sigue, expandiéndose pero a un ritmo muchísimo menor.
La inflación cósmica surgió para explicar el origen de la estructura a gran escala del universo. Muchos físicos creen también que explica por qué es igual en todas direcciones (isótropo), por qué el fondo cósmico de microondas, el rastro más cercano al Big Bang que podemos observar, se distribuye de forma homogénea en el cielo, por qué el universo es plano y por qué no se han observado los monopolos magnéticos (los equivalentes a las cargas eléctricas positivas y negativas que se pueden encontrar por separado).
Pero los científicos no cesan de investigar posibilidades hasta que una de ellas demuestra que es el modelo que mejor describe la realidad. Así, esta descripción que hemos dado se corresponde a la versión “fría” de la inflación cósmica. Pero existe otra versión, la “caliente”. Y estos días se ha publicado un resultado que podría afianzarla como competidora.
Si la inflación fría data de los años ochenta del siglo XX, la versión caliente es de mediados de los noventa. Sin embargo, en veinte años esta versión no ha avanzado tanto como para ser considerada una teoría completa. Ello se debe a que, en este caso, los investigadores no han sido capaces de construir un modelo sencillo de la inflación caliente a partir de primeros principios. De hecho esto se consideraba poco menos que imposible. Hasta ahora.
En un trabajo encabezado por Mar Bastero-Gil, de la Universidad de Granada, y en el que es coautor el padre de la idea de la inflación caliente, Arjun Barera, de la Universidad de Edimburgo (Reino Unido), los autores toman prestado un concepto de las teorías de física de partículas para derivar exactamente eso, un modelo a partir de primeros principios.
En la inflación estándar cualquier radiación preexistente se estira y dispersa durante esta breve fase expansiva y no se produce nueva radiación. La temperatura del universo, por tanto, cae vertiginosamente y es en un periodo posterior en el que el universo recupera su temperatura y se llena de nuevo de radiación (termalización). La inflación caliente es más sencilla. Se produce constantemente nueva radiación por un fenómeno llamado desintegración del campo inflatón (es este campo el que da lugar a la inflación); la temperatura no baja drásticamente, sino que se mantiene alta (de ahí lo de inflación caliente) y no hace falta introducir una fase de recalentamiento. A pesar de ser una idea más sencilla, irónicamente, la inflación cósmica necesitaba echar mano de, literalmente, miles de campos adicionales acoplados al de inflación para justificar su masa.
Lo que Bastero-Gil y sus colaboradores han hecho ha sido utilizar el mecanismo que estabiliza la masa del bosón de Higgs en las teorías de física de partículas, reduciendo de esta manera el número de campos necesario a un muy manejable cuatro y sin tener que introducir correcciones de masa. A este recurso lo llaman “pequeño Higgs”.
La comparación que los autores hacen entre las predicciones observacionales de su modelo con los límites a la inflación que se deducen de las observaciones del satélite Planck del fondo cósmico de microondas indican que encajan bastante bien.
En la teoría inflacionaría todo encajaba salvo algunos flecos. Ahora esto se pone interesante.
Referencia:
Mar Bastero-Gil, Arjun Berera, Rudnei O. Ramos, and João G. Rosa (2016) Warm Little Inflaton Phys. Rev. Lett. doi: 10.1103/PhysRevLett.117.151301
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Inflación caliente à la Higgs se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las matemáticas de ‘La vida instrucciones de uso’
La vida instrucciones de uso es una novela de Georges Perec, uno de los más conocidos componentes del grupo OuLiPo (ver [2]).
Se trata de un texto complejo en el que Perecrelata lo que acontece en cada uno de los espacios de un edificio imaginario de París, en una fecha concreta.
En los noventa y nueve capítulos del libro se recorren sótanos, apartamentos, desvanes, tramos de escalera,… A lo largo de este itinerario se conocen las vidas de los inquilinos –un total de mil cuatrocientos sesenta y siete personajes–, todos ellos relacionados de algún modo con el protagonista, Perceval Bartlebooth, que pasa sus días haciendo y deshaciendo rompecabezas elaborados a partir de fotografías tomadas durante sus viajes.
Perec escribió esta novela entre 1976 y 1978, aunque en el ensayo Especies de espacios(publicado en 1974, ver [5]) el autor ya hablaba sobre lo que en aquel momento era aún un solo un boceto:
La novela –cuyo título es La Vida instrucciones de uso– se limita (si puedo emplear este verbo para un proyecto cuyo desarrollo final alcanzará algo así como cuatrocientas páginas) a describir las habitaciones puestas al descubierto y las actividades que en ellas se desarrollan, todo ello según procesos formales en cuyo detalle no me parece obligado entrar aquí, pero cuyos solos enunciados me parece que tienen algo de seductor: poligrafía del caballero (y lo que es más, adaptada a un damero de 10×10), pseudo-quenina de orden 10, bi-cuadrado latino ortogonal de orden 10 (aquel que dijo Euler que no existía, pero que fue descubierto en 1960 por Bose, Parker y Shrikhande).
Esas tres trabas –ver la definición en [2]– de las que habla Perec aparecen, efectivamente, en su novela; son restricciones matemáticas que el autor se impone para estructurar su texto. Vamos a explicar en que consisten.
PRIMERA TRABA: La poligrafía del caballero
Cada hueco del inmueble –sótanos, apartamentos, desvanes, tramos de escalera, etc.– corresponde a una casilla de un cuadrado 10×10. Cada lector es un visitante que recorre el edificio, leyendo sus capítulos –las casillas del cuadrado 10×10–, pero de manera no convencional. Perec distribuye los capítulos usando como modelo la poligrafía del caballerodel ajedrez. Se trata de un caso particular de camino hamiltoniano: debe recorrerse el tablero 10×10 representando el edificio, pasando una y sólo una vez por cada casilla. Perec encontró por sí mismo este recorrido para su edificio-tablero, ¡con cien casillas en vez de las sesenta y cuatro del ajedrez! El autor introduce un cambio local en la traba, una excepción a la regla: no describe la casilla del desplazamiento 66 –que corresponde a un sótano– sino que salta a la siguiente casilla. Por esta razón el libro tiene noventa y nueve capítulos y no cien.
Solución del problema del caballo en la novela. Imagen extraída de Wikipedia.
Una vez fijado el recorrido del edificio, Perec debe decidir qué colocar y dónde hacerlo. Para ello, procede en dos etapas, introduciendo las otras dos trabas aludidas.
SEGUNDA TRABA: El bicuadrado latino ortogonal de orden 10
Como ya hemos comentado, el edificio se representa como un cuadrado 10×10. Perec asigna a cada casilla-capítulo dos números formando un cuadrado latino –cada dígito está presente una sola vez en cada línea y en cada columna– y ortogonal–los dos números en la misma casilla sólo se emparejan una vez en ese orden–. Usando estos pares de números, el autor llega a un cuaderno de cargas (ver [4]) en el cual, para cada capítulo, se describe una lista de veintiún pares de temas –autores, mobiliario, animales, colores, sentimientos, música, adjetivos, etc.– que deben figurar en él. Es decir, a cada par (a,b) del bicuadrado latino le corresponde el elemento a de la primera lista y el b de la segunda. Perec hace aparecer en cada capítulo los cuarenta y dos términos así obtenidos…
El bicuadrado latino ortogonal usado en la novela. Imagen extraída de Wikipedia.
TERCERA TRABA: La pseudo-quenina de orden 10
Como vimos en [1], no existen queninas –generalización de una sextina–de orden 10. Por ello Perec cambia la permutación propuesta por Raymond Queneau (ver [1]) por otra que denomina pseudo-quenina de orden 10. Este cambio le permite generar de manera no aleatoria bicuadrados latinos diferentes, evitando elegir para cada casilla los términos de la misma lista de los veintiún pares elaborados. Por ejemplo, en el capítulo 23, que corresponde a la casilla (4,8), aparece el par de números (6,5), por lo que debe utilizarse una cita de Verne (sexto autor en la primera lista de autores del cuaderno de cargas) y una de Joyce (quinto autor en la primera lista de autores del cuaderno de cargas), etc.
En el capítulo 23 aparece el par (6,5).
La lectura de La vida instrucciones de uso no es sencilla… pero, ¿a quién le gustan las cosas sencillas?
Bonus
Las matemáticas no sólo aparecen en la estructura de la novela. El capítulo XV se dedica a Mortimer Smautf, el asistente de Perceval Bartlebooth. En uno de los viajes realizados junto al protagonista, un descubrimiento le convierte en un obsesivo calculador (fragmento extraído de [3]):
… Cuando ya le empezaba a resultar aquello demasiado fácil, le entró un frenesí por las factoriales: 1!=1; 2!=2; 3!=6; 4!=24; 5!=120; 6!=720; 7!=5.040; 8!=40.320; 9!=362.880; 10!=3.628.800; 11!=39.916.800; 12!=479.001.600; […]; 22!=1.124.000.727.777.607.680.000, o sea más de mil millones de veces setecientos diecisiete mil millones.
Smautf anda actualmente por el 76, pero ya no encuentra papel de formato suficientemente grande; y, aunque lo encontrara, no habría mesa bastante larga para extenderlo. Cada vez tiene menos seguridad en sí mismo, por lo que siempre está repitiendo sus cálculos. Morellet intentó desanimarlo años atrás diciéndole que el número […] nueve elevado a nueve elevado a nueve, que es el número mayor que se puede escribir usando sólo tres cifras, tendría, si se escribiera entero, trescientos sesenta y nueve millones de cifras; a razón de una cifra por segundo, se tardaría once años en escribirlo; y, calculando dos cifras por centímetro, tendría mil ochocientos kilómetros de largo. A pesar de lo cual Smautf siguió alineando columnas y más columnas de cifras en dorsos de sobres, márgenes de cuadernos y papeles de envolver carne.
Como bien describe Perec, ‘nueve elevado a nueve elevado a nueve’ es un número enorme: en efecto, 99=387.420.489, así que ‘nueve elevado a nueve elevado a nueve’=9387.420.489…
Referencias
[1] Marta Macho Stadler, Los números de Queneau, Cuaderno de Cultura Científica, Matemoción, 7 agosto 2013
[2] Marta Macho Stadler, OuLiPo: un viaje desde las matemáticas a la literatura, Tropelías. Revista de Teoría de la Literatura y Literatura Comparada 25(2016) 129-146
[3] Georges Perec, La vida instrucciones de uso, Anagrama, 1992
[4] Georges Perec, Le cahier des charges de la Vie mode d’emploi, C.N.R.S. et Zulma, 1993 (esta página web está dedicada al libro)
[5] Georges Perec, Especies de espacios, Montesinos, 2001
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Las matemáticas de ‘La vida instrucciones de uso’ se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas15 Polvo cósmico
Vamos a lo que vamos: ¿ha habido sexo en las misiones tripuladas al espacio? Iván Rivera responde.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas15 Polvo cósmico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Cuatro páginas para un nobel
Derek Barton, ya setentón, solía levantarse a las 3 de la madrugada pero no para lo que hacen la mayoría de los varones de esa edad. Barton se levantaba a leer. Llevaba al día la lectura de al menos quince revistas científicas, de su especialidad la mayoría, pero también generales. Y las leía de cabo a rabo.
Sin embargo, si alguien le preguntaba, Barton solía decir que su jornada laboral empezaba a las 7 de la mañana (y se extendía hasta las siete de la tarde). Aunque hay rumores de que en ocasiones la interrumpía 20 minutos para almorzar, lo normal para él era comer mientras trabajaba.
Su único hijo, William, viendo la vida que llevaba su padre renunció a estudiar más de lo necesario y terminó montando un pequeño taller mecánico donde fabricaba piezas a medida para vehículos. William anduvo el camino inverso a su padre. Durante dos años tras acabar el instituto Derek trabajó en la carpintería familiar que para él fueron más que suficientes: necesitaba dedicarse a algo que saciara su afán de conocimientos y supusiese un reto.
Debido a esos dos años de carpintero, Derek Barton tenía 20 cuando fue admitido en el Imperial College de Londres para estudiar química en 1938. Su enorme capacidad de trabajo y dedicación le llevaron a graduarse en 2 años, en 1940, en plena Segunda Guerra Mundial y a doctorarse en 1942 en un Londres bombardeado diariamente por la aviación alemana. Nada más terminar pasó a ser investigador del gobierno de su majestad británica. Y lo que hiciese fue secreto. Sí sabemos que en 1945, con el fin de la guerra, reaparece como profesor ayudante en el Imperial College.
En 1949 surgió la oportunidad de sustituir a un profesor de Harvard que se iba a tomar un año sabático y Derek la aprovechó. Allí asistió a una conferencia de Louis Fieser (primero en sintetizar la vitamina k, la cortisona e inventor del napalm durante la guerra). Uno de los ocho libros que Fieser escribiría con su mujer, Mary Peters, trataba sobre la química de los esteroides y sobre ese tema trataba la conferencia. Uno de los temas que trató Fieser en la conferencia fue la lista de problemas sin resolver en lo que respecta a la reactividad de los esteroides.
Los esteroides son una clase de compuestos químicos muy importantes en la actividad biológica: el colesterol es un esteroide y las hormonas sexuales son esteroides también. Desde mediados del siglo XX existe un enorme interés en la síntesis de esteroides para uso médico; un hito importante, por ejemplo, consecuencia de esta búsqueda de rutas de síntesis de esteroides, lo constituyó el desarrollo de la píldora anticonceptiva. Sin embargo, en el momento de la conferencia de Fieser los químicos estaban confundidos por unos comportamientos químicos inexplicados de los esteroides. Esa enciclopedia química ambulante que era Barton, en cuanto oyó la descripción del problema por parte de Fieser lo relacionó con el trabajo de un oscuro profesor noruego de la Universidad de Oslo llamado Odd Hassel, que en los años treinta había estudiado las conformaciones de los anillos de seis átomos de carbono usando cristalografía de rayos X (Hassel publicó solo en alemán y noruego, ojo con Barton). Y Barton se encontró con que podía explicar fácilmente la extraña reactividad de los esteroides.
Conformaciones silla y bote del ciclohexano
Los esteroides están constituidos por anillos (hexágonos realmente) de carbono que se unen por las aristas. Se daba por sentado que los anillos eran planos por lo que todas las posiciones, todos los carbonos, del anillo eran iguales y ninguno se diferenciaba en cuanto a reactividad. Pero si los anillos no eran planos, sino que podían adoptar dos conformaciones distintas, silla y bote (véase imagen), las posiciones dejan de ser equivalentes ya que unas son más accesibles que otras algunos ángulos de ataque son mejores que otros.
Barton demostró que si los esteroides tenían una conformación tipo silla, como Hassel había demostrado que ocurría con el ciclohexano, podía explicarse perfectamente la reactividad observada experimentalmente. Escribió sus conclusiones en un artículo muy breve, cuatro páginas, incluidas imágenes y referencias, que apareció en agosto de 1950 en Experientia. En 1969 este artículo le valió el premio Nobel de química a él y a Hassel.
Cuando terminó en Harvard, Barton buscó y encontró un puesto de profesor en el Birbeck College de la Universidad de Londres, por diferentes razones de las que tuvo Rosalind Franklin*. Birbeck era en la época el único centro universitario que impartía química en clases nocturnas. En palabras de Barton: “Uno puede investigar todo el día y enseñar de 6 de la tarde a 9 de la noche. Este sistema era excelente para la investigación, pero no era muy apreciado por las esposas”. Barton se casó tres veces y solo tuvo un hijo, con su primera mujer.
* “El Birbeck College solo tiene alumnos nocturnos a tiempo parcial y, por tanto, tienen realmente ganas de aprender y trabajar. Y parece que acogen [los administradores de Birbeck] un alto porcentaje de extranjeros en la plantilla lo que es una buena señal. El King’s [se refiere al college donde ella trabaja hasta entonces] no tiene ni extranjeros ni judíos”. Rosalind Franklin era judía.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Cuatro páginas para un nobel se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ciencia, creencias, política y matar al mensajero
Lo sabemos y somos conscientes de ello: vivimos en una sociedad y una cultura con la ciencia y la tecnología como pilares básicos. Y debemos conocer, aunque sea lo fundamental de ambas o, por lo menos, estar dispuestos a confiar en expertos y científicos que nos expliquen lo que significan, sobre todo cuando hay que tomar decisiones. Sin embargo, confiamos más en nuestras creencias que en la ciencia cuando hay que tomar postura y decidir. Por ejemplo, ocurre con las plantas modificadas genéticamente o transgénicas. Son plantas en las que se han introducido uno o varios genes en el laboratorio con un objetivo concreto: resistencia a insectos y otras plagas, producción de algún componente, resistir la escasez de agua,… Pues bien, Brandon McFadden y Jayson Lusk, de las universidades de Florida en Gainesville y Estatal de Oklahoma en Stillwater, han organizado un estudio sobre los conocimientos de los consumidores estadounidenses sobre los transgénicos, en un país donde la polémica sobre su uso como alimento es intensa y continua. Más adelante viajaremos a Europa para conocer la situación en nuestro entorno más cercano.
McFadden y Lusk encuestan a 1004 voluntarios, con el 53% de mujeres, en septiembre de 2015. Las preguntas tratan de los conocimientos sobre transgénicos, sus riesgos como alimento, el número de cromosomas alterados, cuánto se cultivan, si deben llevar un aviso en la etiqueta cuando se comercializan, etc.
Solo el 8% de los encuestados afirma que sabe mucho sobre transgénicos, el 32% sabe algo y el 60% o no sabe o no contesta. El 34% considera que son un peligro como alimento y, en cambio, otro 32% afirma que son seguros. Y el restante 32% no se decide entre ambas opciones. Más o menos la mitad de los encuestados no sabe cuantos genes se alteran en un transgénico (con uno vale), y cerca del 5% afirma que ninguno.
Para no alargarnos vamos a la respuesta más sorprendente. El 84% pide, y es lógico, que en la etiqueta del producto comercializado se avise de que contiene un transgénico pero, es de destacar, que el 80% pide, además, que se indique que contiene ADN, que, como sabemos es un componente básico de los seres vivos, o sea, que todos los productos comercializados deberían incluir esta indicación.
En conclusión, en Estados Unidos los consumidores creen que saben de transgénicos más, bastante más, de lo que realmente conocen de estas plantas y de las técnicas necesarias para conseguirlas. Además, es evidente que deben reciclar sus conocimientos antes de atreverse a tomar decisiones. Excepto si las toman según otros parámetros, quizá por sus creencias más que por sus conocimientos.
Es evidente el consenso científico sobre los transgénicos. En un metaanálisis de lo publicado sobre este tema entre 2002 y 2012, Alessandro Nicolia y sus colegas, de la Universidad de Perugia, en Italia, encuentran 1783 artículos sobre la seguridad de los transgénicos. Estos estudios demuestran el mencionado consenso entre los científicos, su cultivo en todo el mundo y que no se ha detectado ningún riesgo en su utilización. Para los autores, el debate sobre transgénicos y su casi prohibición en la Unión Europea por la enorme cantidad de requisitos a cumplir, se debe a complejos factores sociológicos y psicológicos, a la exageración del cociente entre riesgos y beneficios, a aspectos que tienen que ver con la política, y a la falta de difusión de los conocimientos científicos que lleva, en definitiva, a una gran falta de información entre los ciudadanos.
Es más, en un metaanálisis más reciente y extenso, con trabajos publicados desde 1995, Wilhelm Klumper y Matin Qaim, de la Universidad de Gottingen, en Alemania, revisan 147 estudios elegidos por criterios metodológicos entre más de 25000, y llegan a la conclusión de que la siembra de transgénicos reduce el uso de pesticidas en un 37%, mejora la productividad de los cultivos en un 22% y aumentan los beneficios de los agricultores en un 68%. Además, la productividad y los beneficios son mayores en los países en desarrollo que en los desarrollados.
En Europa, y por acuerdo de la Comisión Europea en 2015, cada país decide si se cultivan transgénicos en su territorio y si se permite su uso como alimento. Hace unos meses, a finales de 2015, la mayoría de los países de la Unión Europea habían decidido no permitir su cultivo. Son 19, del total de 28, los estados que plantean restricciones al cultivo de transgénicos, y España no está entre ellos. En realidad, las plantas autorizadas para el cultivo son muy pocas, más bien solo una, el maíz, pero, en cambio, se permite la importación de 58 plantas transgénicas más, entre ellas el algodón, la soja o la colza.
Para profundizar en esta situación tan sorprendente en que un asunto científico, plenamente aceptado por la comunidad científica, levanta tan encendidos debates como hemos visto en Estados Unidos y, ahora, veamos lo que ocurre en Europa, con un ejemplo muy distinto y, además, muy cercano a nosotros. Fue en octubre de 2013 cuando Juan Segovia, militante de Izquierda Unida y miembro de su Comisión por la Ciencia, publicó en Mundo Obrero, revista de la organización, una propuesta sobre transgénicos titulada “Ecologismo y transgénico: una propuesta desde la izquierda”.
En el texto, Juan Segovia argumentaba que no existen pruebas de que los transgénicos sean peligrosos para la salud y el ambiente. Y, en segundo lugar y ante el argumento más utilizado por la izquierda contra los transgénicos que afirma que su producción y comercialización están controladas por multinacionales como Monsanto, indica que no se diferencia mucho del control que ya existe sobre los cultivos tradicionales. Estas multinacionales son quienes mejoran, producen y venden las semillas y los abonos y pesticidas. La solución, desde la izquierda, no puede ser eliminar la agricultura sino luchar por sistemas públicos y abiertos de mejoras, tanto en la agricultura tradicional como con los transgénicos. Ya hay plantas transgénicas procedentes de organizaciones públicas y no de multinacionales, como el arroz dorado con vitamina A o el trigo sin gluten del Instituto de Agricultura Sostenible del CSIC de Córdoba.
Solo unos días después de la publicación del texto de Juan Segovia en Mundo Obrero, y por presiones de Raúl Ariza, dirigente de IU-Aragón, la propuesta desaparece de la revista. Ahora, si se busca este artículo en la revista a través de Google, aparece una pantalla en blanco y en el vértice superior izquierdo y en letra pequeña, se encuentra la palabra “error”. Es evidente que la censura supone siempre un “error”.
Muchos científicos y divulgadores protestaron por esta conducta censora, sobre todo a través de internet y en sus blogs. Incluso un grupo de ellos, entre los que se encontraba Javier Armentia y Oscar Menéndez, enviaron una carta a Gema Delgado, Redactora Jefe de Mundo Obrero, pidiendo conocer en que argumentos se habían apoyado para retirar la propuesta de Juan Segovia. No conozco la respuesta a esta carta.
Es curioso que una organización que apoya la lucha contra el cambio climático como es Izquierda Unida y, ahora, también la coalición Unidos Podemos, esté en contra de los transgénicos. Ambos temas están apoyados por el mismo consenso científico que afirma que el cambio climático está ocurriendo y está provocado por actividades humanas, y que los transgénicos son seguros. Pero en el caso de las plantas transgénicas el debate, en algunos círculos termina con la censura y, si es necesario, matando al mensajero.
Referencias:
Armentia, J. et al. 2013. Carta abierta a Mundo Obrero. Blog de Javier Armentia.
Cook, J. et al. 2016. Consensus on consensus: a synthesis of consensus estimates on human-caused global warming. Environmental Research Letters doi: 10.1088/1748-9326/11/4/048002
Klumper, W. & M. Qaim. 2014. A meta-analysis of the impacts of genetically modified crops. PLOS ONE 9: e111629
McFadden, B.R. & J.L. Lusk. 2016. What consumers don’t know about genetically modified food, and how that affects beliefs. FASEB Journal doi: 10.1096/fj.201600598
Nicolia, A. et al. 2014. An overview of the last 10 years of genetically engineered crop safety research. Critical Reviews in Biotechnology 34: 77-88.
Segovia, J. 2013. Ecologismo y transgénicos: una propuesta desde la izquierda. Mundo Obrero octubre.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Ciencia, creencias, política y matar al mensajero se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: