Marcas de agua digitales, qué son y para qué sirven
Juanjo Unzilla
Las facilidades que ofrece Internet para el acceso y la transmisión de forma sencilla e inmediata de información han supuesto la aparición de nuevos escenarios para negocios y mercados tradicionales. En unos segundos se pueden hacer compras de materiales digitales o de productos físicos desde cualquier lugar donde se disponga de una conexión y un terminal con unas mínimas capacidades de procesamiento y conectividad. Ello ha acentuado la necesidad de analizar y hacer propuestas diferentes para el entorno digital, el entorno de los bits, de las que han servido para el comercio y el intercambio en el mundo físico, en el mundo de los átomos.
Uno de los escenarios que ha suscitado amplios debates y ha promovido grandes desarrollos de tecnología es el del comercio de contenidos digitales y la gestión de los derechos de propiedad intelectual asociados. Después de varios años debatiendo sobre ello, sigue sin existir una solución sencilla y aceptada por todas las partes implicadas. El marcado del material digital, ya sea en formato de texto, audio, imágenes o vídeo es una de las tecnologías que pretende ofrecer herramientas para hacer realidad esa solución sencilla, al menos en su uso.
Como todos comprobamos a diario, Internet es un magnífico instrumento para la difusión de contenidos digitales y ello es una gran ventaja para quien quiera difundir sus creaciones, ya sean canciones, videos, fotos o textos. Sin embargo, esta facilidad para la difusión y el acceso supone una debilidad en lo que respecta al control de los datos, en la medida que se facilita la obtención y copia de información, en muchos casos sin una adecuada gestión de los derechos de autor de la misma. A una persona que crea un contenido puede estar interesada darle la mayor difusión y llegar al mayor número de espectadores posible, pero a la vez evitar la falsificación, la apropiación por una tercera persona de su obra o la utilización ilegal de la misma. Para conseguirlo, necesita alguna forma de marcar sus trabajos para acreditar su autoría y sus derechos ante terceros, de forma que pueda demostrar que es el creador del material en cuestión. Las marcas de agua pueden ser una herramienta útil para ello.
Marcas de agua digitales
Una marca de agua digital es una información o señal que se inserta en un contenido digital que puede ser utilizada para determinar la propiedad del mismo, saber quién lo ha creado y quién lo ha vendido o para asegurar su integridad. El término marca de agua procede de una analogía con las imágenes que se graban en los billetes para garantizar su autenticidad, muy difíciles y costosas de reproducir y que generalmente no son perceptibles a simple vista, pudiéndose observar al trasluz. En inglés se utiliza la palabra watermark, cuya equivalencia en español es filigrana, sin embargo, lo habitual es usar la traducción literal: water (agua) – mark (marca).
La utilización de marcas en distintos soportes, generalmente en papel o similares, es una técnica empleada desde la antigüedad. Los griegos ya la utilizaron, pero fue con la aparición de la imprenta cuando su uso se hizo más habitual. Su principal objetivo era la acreditación de la calidad del material así como la originalidad y autenticidad del mismo.
Al ser una marca de agua digital un conjunto de datos que se insertan directamente sobre el material multimedia, esto significa que la marca implica una modificación del propio contenido. La señal digital es modificada y algunos de los bits que representan el contenido son parcial o totalmente cambiados. En ningún caso estas modificaciones deben suponer una degradación de la calidad del material ni alterar las condiciones en las que éste va a ser leído, escuchado o visto.
Antes de pasar a explicar los diferentes tipos de marcas de agua y sus aplicaciones, voy a tratar de exponer de una forma sencilla los fundamentos científicos que se utilizan en esta tecnología.
El mundo en el que vivimos y en el que actúan nuestros sentidos es un mundo analógico. ¿Pero qué es eso de “analógico”? La palabra analógico procede de análogo, y ésta del griego (ana, reiteración o comparación y logos, razón) y según la RAE significa en su segunda acepción “Dicho de un aparato o de un instrumento de medida: Que la representa mediante variables continuas, análogas a las magnitudes correspondientes”, es decir, aquello que representa o mide una magnitud física mediante una función matemática continua. Una señal analógica, es según la Wikipedia, un tipo de señal generada por algún tipo de fenómeno electromagnético y que es representable por una función matemática continua en la que es variable su amplitud y periodo (representando un dato de información) en función del tiempo. Algunas magnitudes físicas comúnmente portadoras de una señal de este tipo son eléctricas como la intensidad, la tensión y la potencia, pero también pueden ser hidráulicas como la presión, térmicas como la temperatura o mecánicas como la fuerza.
En la naturaleza, el conjunto de señales que percibimos son analógicas, así la luz, el sonido, la energía etc, son señales que tienen una variación continua. Incluso la descomposición de la luz en el arco iris vemos como se realiza de una forma suave y continua.
Una onda sinusoidal es una señal analógica de una sola frecuencia. Los voltajes de la voz y del video son señales analógicas que varían de acuerdo con el sonido o variaciones de la luz que corresponden a la información que se está transmitiendo.
Desde hace varias décadas la información se almacena en formato digital por su mayor calidad, su mayor facilidad de procesado, compresión, transmisión, corrección de errores y regeneración y por su mejor respuesta al tratamiento del ruido y otras interferencias. Para ello es necesario convertir la señal analógica en digital, en una sucesión de ceros y unos. Y esto se hace con conversores analógico-digitales. Y para poder oír una canción, leer un texto o ver una foto o un video, dado que nuestros sentidos funcionan de forma analógica, es preciso realizar la conversión inversa. Para ello tenemos altavoces y pantallas que transforman los ceros y unos en sonidos e imágenes.
Nuestros sentidos tienen un rango limitado dentro del cual son capaces de percibir las señales que nos llegan: el oído sano sólo es capaz de oir aquellos sonidos que se encuentra entre los 20 Hz y los 20 KHz, lo que equivale a unas 10 octavas completas. Por debajo de 20 Hz, infrasonidos, o por encima de 20 KHz, ultrasonidos, nuestros oídos no perciben la señal. Lo mismo ocurre con la vista. El espectro visible, entre 400 y 700 nm de longitud de onda, se denomina así precisamente porque es lo que una persona puede ver. Longitudes de onda inferiores a 400 nm, ultravioleta, o superiores a 700 nm, infrarrojo, resultan invisibles para el ojo humano medio.
Pero el hecho de que no podamos ver u oír una señal no quiere decir que no pueda formar parte de la información que se envía o se almacena. Y es precisamente en estos límites donde podemos jugar para introducir información en forma de marca de agua digital.
Para el caso de imágenes, la marca de agua puede definirse como una imagen digital que se introduce en la imagen original y posteriormente puede ser recuperada y analizada de una forma u otra en función del tipo de marcado y de su finalidad. De igual forma se puede insertar un sonido no audible en una canción o ambas cosas a la vez, una imagen y un sonido, en el caso de un video. En el caso del vídeo se puede utilizar también la variable tiempo, es decir, en qué instante o instantes de tiempo de la secuencia se introduce la marca, o si en unos se modifica sólo el audio y en otros la imagen o se realiza una combinación más o menos compleja de ambas operaciones.
El principal problema planteado radica en la propia naturaleza del material creado digitalmente, ya que una vez producido el original, la realización de copias es un proceso sumamente sencillo, las copias son idénticas al original e indistinguibles de éste y entre sí. Es por ello que el valor añadido del material se produce exclusivamente en la creación del original, de forma similar a lo que sucede en la creación de software.
Las primeras aplicaciones de las marcas de agua fueron las destinadas a la identificación del autor y por ello, los requerimientos que debían satisfacer los métodos de marcado eran los siguientes:
- Debe ser invisible a la percepción humana y no debe afectar a la calidad del material digital.
- La marca recuperada debe identificar de forma no ambigua a la persona propietaria.
- No debe ser detectada mediante pruebas estadísticas.
- Debe ser difícil de eliminar, es decir, la marca debe ser robusta a los diferentes algoritmos de procesado de señal como pueden ser los filtros, compresiones, reescalados, etc..
- Debe ser difícil de falsificar.
En el caso de imágenes, los métodos y esquemas propuestos para el marcado digital se definen generalmente dos tipos de marcas, las visibles y las invisibles. De forma análoga podemos hablar de marcas audibles o inaudibles en el caso del audio. Así, los logotipos que aparecen en la transmisión de televisión pueden ser un ejemplo de marcas visibles. Sin embargo, las marcas invisibles se diseñan para ser lo más discretas e imperceptibles posible. Si se consideran otras aplicaciones como la garantía de posesión de un original o de no modificación, existen otras formas de clasificar las marcas teniendo en cuenta la técnica de procesado de la señal que se usa para insertar la marca, el método de extracción o el tipo de información que se incluye en el material digital cuando se produce el marcado.
Aunque el uso más extendido para las marcas de agua digitales es el de la protección de la propiedad intelectual, existen otras aplicaciones que además pueden requerir el uso de otras tecnologías como el cifrado o el uso de certificados digitales. En el siguiente artículo estudiaremos en mayor detalle las diferentes clasificaciones de marcas de agua digital propuestas, así como su nivel de adecuación a cada tipo de uso.
Sobre el autor: Juanjo Unzilla es ingeniero industrial, doctor en ingeniería de comunicaciones y profesor titular de telemática en el departamento de comunicaciones de la Escuela de Ingenieros de Bilbao (UPV/EHU). Ha trabajado extensamente en protección de derechos de autor en Internet.
El artículo Marcas de agua digitales, qué son y para qué sirven se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La cultura no protege de la selección natural
Todavía hay quien piensa que, en cierto modo, la cultura o la tecnología nos protege de determinadas presiones selectivas. La ropa nos protege del frío, la medicina de las enfermedades, la agricultura del hambre, etc. Desde ese punto de vista, la cultura humana estaría actuando contra la selección natural que es, como es bien sabido, el principal motor de la evolución de las especies.
Sin embargo, la cultura ejerce un papel muy diferente en la evolución humana. Dado que la cultura puede definirse, de forma amplia, como cualquier comportamiento aprendido, si alguno de esos comportamientos aprendidos se convierte, por las razones que fuese, en un factor selectivo, tendríamos que concluir que incide en la evolución de la especie humana, no sólo porque neutraliza ciertas presiones selectivas, sino también porque genera otras. Kevin N. Laland (St. Andrews, RU), John Odling-Smee (Oxford, RU) y Sean Myles (Cornell, EEUU y Acadia, Canadá), entre otros, desarrollaron esa noción de forma brillante en un artículo publicado hace unos años y que se ha convertido ya en un clásico. Laland, Odling-Smee y Myles hicieron referencia a dos aproximaciones diferentes a la interacción entre cultura y selección natural. Una es la conocida como hipótesis de la construcción del nicho, según la cual los organismos tienen una cierta capacidad para, modificando las condiciones físicas del entorno, incidir en la selección natural; actuarían de esa forma como codirectores de su propia evolución y de la de otras especies.
Y la otra aproximación es la de la coevolución genético-cultural, para la que los estudios antropológicos han proporcionado cierto respaldo. Los genetistas son capaces de identificar los genes que se encuentran sometidos a mayor presión selectiva en la actualidad. Calculan que son unos 2.000 genes (el 10%) los que muestran alguna evidencia de estar sometidos a presión selectiva, y el periodo de tiempo durante el que se viene ejerciendo esa presión es de entre 10.000 y 20.000 años. Muchos de esos genes se encuentran bajo presión “convencional”, como pueden ser los responsables de codificar el sistema inmune, o como los responsables del color de la piel, relacionada, quizás, con el clima y la geografía.
De entre los casos en los que una práctica cultural ha afectado al genoma, el ejemplo mejor conocido es el de la ganadería para producción de leche y el gen de la lactasa. La mayor parte de los individuos de nuestra especie “apaga” el gen de la lactasa poco tiempo después de ser destetados, pero los europeos del norte, que descienden de un grupo de pastores de ganado de hace unos 7.000 años, mantienen el gen “encendido” durante toda la vida. Gracias a ello, pueden consumir leche, ya que la lactasa es el enzima que digiere la lactosa, el azúcar de la leche. Sin ese enzima no se puede digerir y ello causa problemas digestivos que pueden llegar a ser muy severos. Pero resulta que la tolerancia a la lactosa no sólo ha aparecido en europeos del norte; en tres pueblos africanos de pastores también se ha producido y lo más curioso es que la mutación que lo permite es diferente en cada uno de los cuatro casos. La ventaja derivada de esa mutación debió de ser muy importante, ya que se ha extendido de forma considerable en un tiempo relativamente breve.
Además del de la lactasa, hay otros genes que están siendo afectados por cambios en la dieta y en el metabolismo. Se trata de comportamientos culturales que, muy probablemente, reflejan el gran cambio que se produjo hace 10.000 años en la dieta humana durante la transición al Neolítico y la aparición de la agricultura y la ganadería. Las gentes que viven en sociedades agrarias consumen más almidón y tienen copias extra del gen que codifica la síntesis de la amilasa (la enzima que digiere el almidón) que quienes dependen más de la caza o de la pesca.
Muchos genes relacionados con el gusto y el olfato también dan muestras de estar sometidos a fuerte presión selectiva, lo que quizás refleja un cambio de dieta de gran importancia. Y finalmente, también los genes que afectan al crecimiento óseo se encuentran sometidos a presión, debido seguramente a la pérdida de peso que ha experimentado el esqueleto humano al pasar de la vida nómada a la vida sedentaria.
Referencia:
Kevin N. Laland, John Odling-Smee y Sean Myles (2010): “How culture shaped the human genome: bringing genetics and the human sciences together”, Nature Reviews Genetics 11: 137-148 doi: 10.1038/nrg2734
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La cultura no protege de la selección natural se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La unidad de selección en la evolución y el origen del altruismo (6): La crítica de Godfrey-Smith a la selección centrada en el gen
- La unidad de selección en la evolución y el origen del altruismo (7): La selección multinivel
- La unidad de selección en la evolución y el origen del altruismo (8): Selección de parentesco y altruismo recíproco
Historia del bolígrafo
“El mundo está lleno de cosas obvias a las que nadie observa ni por casualidad.”
Sherlock Holmes, en El sabueso de los Barkerville, según Sir Arthur Conan Doyle, 1902.
“BiC naranja escribe fino, BiC cristal escribe normal.
BiC naranja, BiC cristal,
dos escrituras a elegir.
BiC, BiC,… BiC, BiC, BiC.”
“Yo tengo en mi mano un cetro.
Mi cetro dice, habla, canta
con su punta luminosa:
en medio del papel planta
una luminosa rosa.
Entre mis dedos se mueve,
lo deslizo entre mis dedos
como una espada de nieve
en el centro de los ruedos.”
Blas de Otero, Bolígrafos, publicado en El Correo el 2 de abril de 2018.
La azada y el arado para el labrador, el yunque y el martillo para el herrero, el estetoscopio para el médico, la paleta y la grúa en la construcción y, en nuestro trabajo, por lo menos para mí, el bolígrafo, la pluma, el lápiz y, ahora, el teclado. Son las herramientas de trabajo para el que escribe. Me quedo con el bolígrafo pues es, sin duda, la herramienta que más utilizo. Contaré su historia.
El bolígrafo que ahora conocemos empezó a utilizarse en la década de los cuarenta del siglo pasado, hace casi 80 años, pero, como ocurre con todos los adelantos, tuvo precursores que hemos olvidado. Después de siglos de usar diferentes tipos de tinta para escribir, tinta que había tomar de un recipiente, la idea de ponerla en un tubo y colocar una bolita en un extremo cuya única función sea extenderla sobre la superficie en la que se quiere escribir, viene del siglo XIX. Sin embargo, presentaba muchas dificultades técnicas: fabricar bolas suficientemente pequeñas, colocar la bola en el cilindro con tinta, la propia tinta en exceso líquida o viscosa,… Todo ello se ha ido resolviendo con tiempo y mucho ingenio.
Casi todos los expertos nos recuerdan a John Loud, de Weymouth, Massachusetts, como el inventor del bolígrafo. Por lo menos recibió la primera patente de un cilindro con tinta y una bola en un extremo para escribir. Fue la patente número 392046 de Estados Unidos, de 30 de octubre de 1888. En el texto de la patente, Loud explica que su “invención consiste en un depósito de tinta mejorado, especialmente útil entre otros propósitos, para marcar superficies ásperas –como madera, papel rugoso, y otros artículos- que una pluma no lo puede hacer”. Loud trabajaba con pieles y necesitaba un instrumento de escritura para marcarlas.
Loud utilizaba un cilindro con la tinta, una bola metálica gruesa en el extremo para escribir y otras dos bolas de menor diámetro para que, junto a la grande, se deslizaran y no se atascaran. A estas últimas bolas las llamaba “anti-fricción”. Era difícil fabricar estas bolas y Loud fabricó algunos ejemplares de su invento pero nunca lo comercializó.
En los años siguientes, a finales del siglo XIX y principios del siglo XX, se presentaron varias patentes con el mismo sistema de bolas e, incluso, se fabricaron algunos de estos instrumentos de escritura, pero todos ellos tuvieron poco éxito. Las patentes se presentaron en Estados Unidos, Inglaterra, Francia, Alemania, Checoslovaquia y otros países.
Además, para los primeros bolígrafos se exigían características adecuadas para la manera en que se escribía entonces en los centros de trabajo. Por ejemplo, el sistema de bolas debía de ser lo suficientemente fuerte como para permitir una gran presión sobre el papel para la escritura simultánea de siete u ocho copias superpuestas en papel carbón.
En los años treinta se empieza a conocer al húngaro Laszlo Jozsef Biro, nacido en Budapest en 1899 y un verdadero “hombre del Renacimiento” tal como lo considera Henry Gostony, experto norteamericano en bolígrafos. Había estudiado medicina, era escultor, practicaba la hipnosis, pintaba, y era escritor y periodista y, además, inventor, que es lo que aquí nos interesa. Habían desarrollado una lavadora, un cambio automático para coches, la levitación magnética para trenes, un explosivo inflamable que luego sería el napalm, un método de separación de isótopos,… y, así, hasta 32 patentes.
Lazslo y su hermano György, químico, inventaron un instrumento de escritura con la bola en el extremo del cilindro para la tinta. Al diseño de Loud, con su bola central grande y las pequeñas alrededor para evitar una fricción excesiva, añadió un conducto de muy poco diámetro para llevar la tinta desde el depósito hasta la bola central. Así, consiguió que la tinta llegara a la bola por la gravedad y, además, por capilaridad al ser el conducto muy estrecho. La tinta, mejorada por György, el hermano químico, era muy viscosa para evitar los derrames y la evaporación pero, también, debía secarse lo más rápidamente posible en el papel.
Sin embargo, no consiguió que su invento interesara a financieros y fabricantes. Por casualidad, en un viaje por vacaciones en el Lago Balaton, en Hungría, o, según otros autores, en una estancia en los Balcanes, en Yugoeslavia, por su trabajo como periodista (era editor de un periódico con una tirada muy baja), una persona se interesó por aquel extraño instrumento de escritura que Biro utilizaba. Era el Presidente de Argentina Agustín Justo que le invitó a trasladarse a su país y, allí, montar una fábrica y comercializar su invento.
Era 1938 y, en principio, a los hermanos Biro no les interesó el viaje a Argentina, pero se veía venir la guerra en Europa y eran judíos. Huyeron a París en 1940 pero, cuando los nazis llegaron a la ciudad decidieron marchar a Argentina. En París habían conocido a un financiero, también húngaro, Johann Georg Meyne, dedicado a negocios de importación y exportación, que les ayudó a escapar y les acompañó a Argentina. Trabajaron juntos en el desarrollo del invento de Biro y se convirtió en uno de sus mejores amigos.
En Buenos Aires, Laszlo Jozsef Biro se convirtió en Ladislao José Biro, su hermano György fue Jorge Biro, y a Johann Georg Meyne se le conoció como Juan Jorge Meyne. Ladislao José Biro fundó la empresa Biro-Mayne-Biro, con su socio y su hermano.
Para 1943 ya tenían un modelo que funcionaba y al que llamaron Eterpen. Los hermanos presentaron la patente en Estados Unidos y se les concedió la certificación el 11 de diciembre de 1945 con el número 2390636. Antes, desde Hungría, habían patentado el invento en su país y en Suiza en 1938, en Francia en 1939, y, más tarde, desde Argentina, en ese país en 1940 y 1947.
Los hermanos Biro lo llamaron “esferográfica” pero se popularizó, sobre todo en Argentina pero también en muchos otros países, como biro, por el apellido de su fabricante. Poco después apareció el término bolígrafo que, por lo que sé hasta ahora, llegó desde España. El industrial catalán Amadeo Arboles registró en 1946 la marca “bolígrafo” a nombre de su madre Antonia. Al principio se le conoció como “pluma atómica” pero, en 1960, el término “bolígrafo” y el instrumento habían sido aceptados por el público y eran de uso común. Y pronto fue incluido como genérico en el “Diccionario de la lengua española”, que dice:
“Bolígrafo. Instrumento para escribir que tiene en su interior un tubo de tinta especial y, en la punta, una bolita metálica que gira libremente.”
Amadeo Arboles era dueño de la empresa “Estilográfica Nacional” y fabricante de plumas y, en pocos años, también de bolígrafos con la marca Arpen. La empresa todavía sigue funcionando hoy con el nombre Molin.
Pero volvamos a 1943, en plena guerra mundial. Henry Martin, que había ayudado en la financiación del invento de Biro, le compró los derechos y contrató la venta de miles de bolígrafos a la RAF, la Real Fuerza Aérea inglesa, para usarlos en sus bombarderos. Funcionaban bien en altura, no les afectaban los cambios del clima y llevaban tinta que no se secaba y duraba mucho tiempo. Eran evidentes sus ventajas para el uso militar.
Llegó la noticia al Departamento de Guerra de Estados Unidos y, después de probarlo, se lo ofrecieron a las compañías Eversharp, Parker y Sheaffer y, aseguraron que, si los fabricaban, se los comprarían. En agosto de 1944, comenzó la fabricación en la Sheaffer.
Entonces entra en nuestra historia Milton Reynolds, de Chicago. Unos seis meses después de la decisión del Departamento de Guerra, Reynolds se interesó por el invento. Era un empresario, nacido en Minnesota, que había invertido en muchos negocios e inventos, y se había hecho millonario y, también, se había arruinado unas cuantas veces. Por ejemplo, fue uno de los primeros inversores en Syntex, la empresa pionera en la píldora anticonceptiva.
Mientras tanto, en Argentina y en 1944, Biro había cedido los derechos del bolígrafo o, mejor, del biro, para Estados Unidos a las compañías Eversharp y Eberhard Faber por dos millones de dólares. Comercializaron el invento con la marca Birome, de Biro y Meyne, y lo llamaron esferográfica.
Reynolds vio, en un comercio de Chicago, unos de los escasos bolígrafos de Biro. Era uno de los fabricados en Inglaterra por la compañía Miles-Martin para la RAF. Reynolds creyó en la importancia del producto y pensó que tendría unas grandes ventas al acabar la guerra. Declaró que era el sueño de los inversores. Viajó a Buenos Aires para conocer a Biro e investigar el origen de aquel producto tan sugestivo y que veía con un gran futuro. Allí se encontró con que los derechos ya eran de Eversharp y Eberhard Faber y volvió a Chicago dispuesto a fabricar su propio bolígrafo.
Contrató a un par de expertos ingenieros mecánicos y fabricó un prototipo de bolígrafo que no era exactamente igual al que vendía Biro. Este tenía la patente en Estados Unidos y Reynolds no lo podía copiar. En el bolígrafo de Biro, la tinta llegaba a la bola por gravedad y capilaridad pero, en el de Reynolds, solo lo hacía por gravedad. Y Reynolds era un genio de las ventas y lo anunció por todas partes. Decía, entre otras cosas, que “escribe bajo el agua”. Además, en años anteriores, Reynolds había vendido otros productos a muchas tiendas y grandes almacenes y, por ello, tenía una buena lista de posibles clientes con sus encargados de compras. Contactó con Gimble, unos grandes almacenes de Manhattan, firmó con ellos una exclusiva y les vendió 50000 bolígrafos que todavía no había fabricado. Volvió a Chicago y buscó una empresa para fabricarlos. La producción comenzó el 6 de octubre de 1945 y, solo 23 días después, los primeros bolígrafos Reynolds se vendía en Gimbel, en la tienda de la calle 32 de Manhattan con fecha 29 de octubre de 1945. El precio era de $12.50, aunque solo costaba 80 centavos fabricar cada unidad. Se convirtió en el perfecto regalo de Navidad de aquel año. Hacía mes y medio se había rendido Japón y había terminado la Segunda Guerra Mundial.
Para fabricar su bolígrafo Reynolds fundó la Reynolds International Pen Company. Consiguió, después del estreno del 29 de octubre, vender ocho millones de bolígrafos en seis semanas y por valor de $5.3 millones en tres meses. La compañía Eversharp, que tenía los derechos de la patente de Biro, denunció a Reynolds por copias su producto, y Reynolds contraatacó con una denuncia contra Eversharp por restringir la libertad de comercio. No he encontrado datos exactos de quien ganó todos estos juicios pero, está claro, todos se beneficiaron de la publicidad que despertaron. Era lo que se llamó la “guerra de los bolígrafos”. Fue cuando Eversharp fundó Parker, y un socio de Reynolds, Paul Fisher, creó Fisher, compañías que compitieron con Reynolds y todavía se mantienen en el mercado.
Cuando Eversharp empezó a vender sus bolígrafos con licencia Biro, era mediados de 1946 y el mercado ya era de Reynolds. Además, llegaron al mercado más de 150 firmas vendiendo cada una sus propios bolígrafos. Los compradores pronto detectaron que los bolígrafos Biro de Eversharp no eran tan buenos como los de Reynolds. Lo mismo pasaba con muchos de los bolígrafos de otras marcas: eran malos, las ventas cayeron y el precio comenzó a bajar desde aquellos extraordinarios $12.50 del primero de Reynolds. Sin embargo, las ventas, en número de bolígrafos vendidos crecían vertiginosamente: casi nada en 1949, 50 millones en 1951, 300 millones en 1957, 475 millones en 1958, 650 millones en 1959, 900 millones en 1061, y 1000 millones en 1962.
Pronto Reynolds comenzó a exportar sus bolígrafos a todo el mundo y, sobre todo, a Europa donde había dinero para comprarlos. Pero fue en Francia, en concreto, donde apareció el que conseguiría colocar un bolígrafo en el bolsillo de casi todos los habitantes de nuestro planeta. Se llamaba Marcel Bich y, con Edouard Buffard, fundó en Clichy, Francia, una empresa que fabricó un bolígrafo de plástico en 1948. Lo comenzaron a vender en Francia en 1953 con la marca, ahora famosa, de BiC, pensada solo con quitar la h del final del apellido del fundador. Era de plástico transparente y de sección hexagonal, lo que facilitaba el agarre y escribir con precisión por el usuario. La bola es de tungsteno según una patente sueca. Las bolas del bolígrafo de Biro eran de acero inoxidable y se fabricaban según técnicas de los relojeros suizos. El BiC escribe entre tres y cinco kilómetros de tinta.
En 1958 compró Waterman y entró en el mercado de Estados Unidos. Fue el modelo Cristal el primero que se vendió en aquel país. En la actualidad, BiC vende 20 millones de bolígrafos al día, unos 57 por segundo, y la empresa ha declarado que, en toda su historia, habían vendido 100000 millones de bolígrafos.
Referencias:
Anónimo. 2013. Estilográfica Nacional, la marca pionera de bolígrafos en España. La Vanguardia 26 abril.
Brachmann, S. 2014. The evolution of modern ballpoint pen: A patent history. IPWatchdog Blog. December 10.
Gostony, H. & S. Schneider. 1998. The incredible ball point pen. A comprehensive history & price guide. Schiffer Publ. Ltd. Atglen, Pennsylvania. 160 pp.
Hilton, O. 1957. Characteristics of the ball point pen and its influence on handwriting identification. Journal of Criminal Law and Criminology 47: 606-613.
Jiménez Cano, A. 2018. Historia del bolígrafo. Bolígrafos con Propaganda Blog. 21 febrero.
U.S. Patent nº 392046, October 30, 1888. John J. Loud.
Wikipedia. 2017. Ladislao José Biro. 6 noviembre.
Wikipedia. 2017. Marcel Bich. 13 noviembre.
Wikipedia. 2018. Milton Reynolds. 31 enero.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Historia del bolígrafo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Naukas Bilbao 2017 – Carmen Agustín: La hormona del amor no existe
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Una hormona es una molécula que puede hacer multitud de cosas, dependiendo de multitud de factores. Por eso no existe una relación directa como “la hormona del amor”. Establecido eso, Carmen nos habla de la neurobiología del comportamiento maternal (y del paternal) como solo ella puede hacerlo.
Carmen Agustín: La hormona del amor no existeEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Carmen Agustín: La hormona del amor no existe se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Cómo sabemos que el oro del Tesoro de El Carambolo era local
El Tesoro de El Carambolo es una colección de piezas de oro del primer milenio antes de de la era común, cuyo origen ha sido durante unos 50 años el epicentro de un controvertido debate. Nuevos análisis químicos e isotópicos llevados a cabo por el Servicio de Geocronología y Geoquímica Isotópica – Ibercron de la UPV/EHU, por encargo de la Universidad de Huelva y del Museo Arqueológico de Sevilla, sugieren que el origen de ese oro no está a miles de kilómetros de donde se encontró dicho tesoro sino en un yacimiento situado a tan solo 2 km del lugar.
El elevado valor museístico de esta colección de piezas de oro limita drásticamente la posibilidad de usar técnicas clásicas de análisis de muestras disueltas, por lo que se ha utilizado de forma complementaria “un tipo de ablación láser que hace un pequeño orificio de tan solo unas 100 micras o 0,1 mm”, explica la doctora Sonia García de Madinabeitia, una de las encargadas de llevar a cabo los análisis. El citado servicio posee uno de los pocos laboratorios existentes en el contexto internacional que realiza análisis de isótopos de plomo para investigaciones arqueológicas. El laboratorio combina un sistema de ablación láser con la espectrometría de masas con fuente de plasma “con el que hacemos tanto los análisis de isótopos como los análisis elementales directamente sobre muestras sólidas y con la mínima afección posible”.
El grupo de investigación de la UPV/EHU determina las relaciones isotópicas en objetos arqueológicos, así como en los materiales relacionados con la manufactura de dichos objetos y en los potenciales minerales utilizados en su elaboración, a fin de establecer la procedencia de las materias primas. Según explica García de Madinabeitia, “estamos estableciendo una base de datos de los distintos yacimientos mineros antiguos, con los que establecer la relación que hay entre el resto arqueológico y la posible mina de la cual procede”.
“Nos basamos en una especie de huella dactilar del plomo —explica la investigadora—. Las relaciones isotópicas del plomo son diferentes en función de los materiales utilizados y de la edad de esos materiales, y nosotros determinamos la relación isotópica que tiene ese plomo. Porque hay notables diferencias de unos yacimientos minerales a otros”. Además de ello, los investigadores del laboratorio realizan análisis elementales, es decir, cuantifican los elementos traza y ultratraza que tienen los materiales, “porque sabemos que una mina por mucho que sea una mina de oro o de plata, los materiales nunca son puros, sino que tienen una serie de trazas y ultratrazas que permiten luego establecer relaciones entre los materiales arqueológicos y los materiales geológicos”, añade García de Madinabeitia.
Son muchos los grupos de investigación de centros e instituciones tanto de España (universidades, diputaciones, museos, CSIC, etc.) como de otros países (Reino Unido, Italia, Portugal, Francia, Estados Unidos, Australia) que han utilizado los datos obtenidos en el laboratorio de la UPV/EHU para investigar la procedencia de los metales en objetos arqueológicos de la más variada índole: desde pendientes de bronce etruscos, pasando por brazaletes y anillos de plata, lingotes y urnas funerarias de cobre o plomo, armas y útiles diversos de bronce, metalurgia nurágica de Cerdeña y otros muchos restos cuya antigüedad oscila entre 1.000 y 5.000 años.
A través de los numerosos estudios llevados a cabo por el grupo de investigación de la UPV/EHU, se han puesto de manifiesto hechos sumamente interesantes para el conocimiento de la antigüedad, como, por ejemplo, el abastecimiento local y el comercio de metales en el sur de la Península Ibérica mucho antes de la llegada de los primeros pueblos del Mediterráneo Oriental; el reciclaje del oro por las culturas del bajo Guadalquivir desde 3000 años antes de Cristo; o bien, el uso durante la Edad de Bronce de materias primas procedentes de áreas alejadas miles de km de distancia.
Referencia:
F, Nocete, R. Sáez, A.D. Navarro, C. San Martin, J.I. Gil-Ibarguchi (2018) The gold of the Carambolo Treasure: New data on its origin by elemental (LA-ICP-MS) and lead isotope (MC-ICP-MS) analysis Journal of Archaeological Science doi: 10.1016/j.jas.2018.02.011
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Cómo sabemos que el oro del Tesoro de El Carambolo era local se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El sucesor del Hubble: el telescopio espacial James Webb
Casi treinta años de operación ininterrumpida para una máquina de cierta complejidad suelen ser un periodo bastante largo, y a pesar de reparaciones y mejoras que se le puedan realizar, tras cerca de tres décadas ya no contará ni con la tecnología ni las prestaciones más avanzadas que una máquina más moderna sí tiene. Da lo mismo que hablemos de una lavadora, un coche, o, en este caso, de un telescopio.
El pasado mes de abril, el más famoso del mundo, el telescopio espacial Hubble, cumplía nada menos que veintiocho años en órbita. Veamos unas cuantas cifras a modo de resumen de su carrera: en todo ese tiempo desde su lanzamiento el 24 de abril de 1990, y moviéndose a 28 000 km/h a casi 600 km de altura sobre la Tierra, el Hubble ha realizado un millón largo de observaciones de decenas de miles de objetos celestes distintos. Los más de diez mil astrónomos que han utilizado el Hubble han publicado unos quince mil artículos de investigación, lo que le convierte en uno de los instrumentos científicos más productivos nunca construidos.
Sin duda, el Hubble ha supuesto para la astronomía una auténtica revolución, gracias en especial a su capacidad de ser reparado y mejorado por astronautas, y que ha permitido que su vida útil se haya prolongado todos estos años. Sin embargo, tras la última de estas misiones de mantenimiento en mayo de 2009, ya hace tiempo que se viene trabajando a fondo en el que será su «sustituto»: el telescopio espacial James Webb.
¿Cómo será este nuevo telescopio espacial? Si el parámetro que suele determinar la diferencia fundamental en cualquier telescopio es el diámetro de su espejo primario, y, por ende, su capacidad colectora de luz, comparemos los del Hubble y el James Webb. Mientras que el veterano Hubble tiene un único espejo monolítico de 2,4 metros, el James Webb tendrá 18 segmentos de forma hexagonal que conformarán un primario equivalente de 6,5 metros de abertura; es decir, su superficie colectora será unas cinco veces mayor que la del Hubble.
En el origen del proyecto del que se llamó en un principio el Telescopio Espacial de Nueva Generación, hará ya veinte años, se pretendía que el diámetro del espejo fuese de 10 metros, pero complicaciones tecnológicas y especialmente, económicas, hicieron que se rebajase el tamaño del telescopio hasta los 6,5 metros actuales. A fecha de hoy, su coste ya se acerca a los 9000 millones de dólares (más o menos lo que cuesta un portaviones nuclear, por comparar). Proyecto conjunto de la NASA y las Agencias Espaciales Europea y Canadiense, el telescopio fue renombrado como James Webb en septiembre de 2002 en honor a uno de los administradores de la NASA en los años dorados del proyecto Apollo.
Muchos y novedosos son los desarrollos tecnológicos que se han hecho para el James Webb. Por subrayar solo algunos de ellos, mencionar su espejo primario segmentado, que se lanza plegado en tres partes que se montan en el espacio tras su despegue; óptica fabricada en berilio, un material ultra ligero y resistente; o enfriadores criogénicos que permitirán bajar la temperatura de los detectores del telescopio hasta solo 7 Kelvin y optimizar así su observación en el infrarrojo, la zona del espectro donde observará el James Webb.
Tras casi ocho de construcción, prácticamente todos los elementos del telescopio están ya listos, destacando los segmentos hexagonales del espejo primario recubiertos de una capa micrométrica de oro –especialmente reflectante en el infrarrojo– y los cuatro instrumentos científicos que se colocarán a bordo. Estos serán una cámara en el infrarrojo cercano, un espectrógrafo multiobjeto también en el infrarrojo cercano, otro instrumento para el infrarrojo medio, y una cámara con filtros sintonizables. El rango espectral de trabajo del James Webb estará entre los 0,6 y los 27 nanómetros, con cierta capacidad para observar también en el visible.
Este interesante vídeo muestra cómo se desplegarán el telescopio James Webb y su pantalla protectora, del tamaño de un campo de tenis (que tapa la luz del Sol y la Tierra para que no incida en las ópticas), hasta adquirir la configuración de trabajo. (NASA)
Se han definido cuatro áreas científicas principales para el telescopio, y que han recibido estos inspiradores títulos: El Final de las Eras Oscuras: Primera Luz y la Reionización; El Ensamblaje de las Galaxias; El Nacimiento de las Estrellas y los Sistemas Protoplanetarios; y Sistemas Planetarios y los Orígenes de la Vida. Así, estudiará todas las etapas de la historia del universo, desde los primeros destellos luminosos tras el Big Bang, hasta la formación de sistemas planetarios capaces de albergar vida en mundos como la Tierra, pasando por la evolución de nuestro propio Sistema Solar.
Otra de las innovaciones de este telescopio espacial respecto del Hubble es que, a diferencia de este, no orbitará próximo a la Tierra, a apenas unos centenares de kilómetros de la superficie, sino que en su lugar se ubicará a 1,5 millones de kilómetros de nuestro planeta en dirección contraria al Sol, en un punto donde las atracciones gravitatorias del Sol, la Tierra y la Luna se equilibran –conocido como Lagrange 2, o L2– y las condiciones de observación son mucho mejores que en una órbita baja como la del Hubble. Eso sí, no serán posibles las visitas de mantenimiento de los astronautas, por lo que deberá ser mucho más robusto y fiable que el Hubble. Su enorme tamaño (6500 kg de peso) hace también que el cohete capaz de ponerlo en órbita sea la versión más potente del Ariane 5 ECA europeo. Tras numerosos retrasos debidos, por un lado, a la enorme complejidad el telescopio, y por otro, a las restricciones presupuestarias de la agencia espacial estadounidense, la última fecha prevista de lanzamiento es mayo de 2020, desde el puerto espacial de Kourou en la Guayana francesa.
Por último, la vida de trabajo prevista para el James Webb es de un mínimo de cinco años, llevando combustible suficiente para sus maniobras en L2 hasta diez años. Si todo va bien, durará hasta 2030, complementándose perfectamente con los telescopios gigantes de 30 y 40 metros en tierra que se están construyendo en la actualidad, y que empezarán a estar operativos a finales de la próxima década. ¿Qué maravillas nos descubrirá este digno sucesor del Hubble? Como siempre suele pasar en ciencia, las mayores no las podemos ni sospechar.
Este post ha sido realizado por Ángel Gómez Roldán (@AGomezRoldan) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
Para más información: http://jwst.nasa.gov
El artículo El sucesor del Hubble: el telescopio espacial James Webb se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Catástrofe Ultravioleta #24 DISONANCIA
En este último capítulo de la segunda temporada nos proponemos descubrir las razones por las que a nuestro cerebro le gustan determinados sonidos y le desagradan otros. ¿Todos encontramos armónicos los mismos sonidos o existen diferencias culturales repartidas por todo el mundo? Os invitamos a una experiencia sonora donde viajaremos de la mano de la armonía y la disonancia para conocer los mecanismos por los que nuestra mente disfruta o rechaza sonidos.
Agradecimientos: Almudena M. Castro, Iñaki Úcar, Lucas Sánchez, Luis Delgado y su museo de instrumentos en Urueña, Ray Jaén, Lucía Perlado, Don Rogelio J, Jose María del Río, Stephen Hughes y la familia Cuéllar.
La edición, músicas originales y ambientación son obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo. En esta ocasión, además de la banda sonora original, ha hecho versiones de BWV 529 Sonata a trio nº 5 (J.S. Bach), Gran étude de Paganini Nº 1 (Liszt), Le Carnaval des Animaux – Aquarium (Saint-Saëns), Naima (John Coltrane) y Rumble (Link Wray).
Colaboran Cris Blanco (voz en la canción de apertura) y Quique Gallo (batería en el tema de cierre).
** Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.
El artículo Catástrofe Ultravioleta #24 DISONANCIA se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Héroes de la ciencia, héroes de la humanidad
Honramos en el recuerdo, y con razón, a gente como Norman Borlaug, Jonas Salk, Maurice R. Hilleman, Alexander Fleming o Howard Florey; gentes que a través de su trabajo científico consiguieron avances que han salvado la vida y permitido vivir literalmente a miles de millones de humanos. Gracias a las variedades enanas de cereal de Borlaug, las vacunas de Salk (polio) o Hilleman (hasta 40 vacunas diferentes) y la penicilina (descubierta por Fleming, desarrollada como producto farmacéutico gracias a Florey) hoy hay vivas muchas más personas de las que jamás ha habido en la historia del planeta. Gentes como ellos son, con toda justicia, reconocidos como la causa de que estemos aquí muchos de nosotros. Y sin embargo tratándose sin duda de científicos héroes de la Humanidad no representan realmente lo que la ciencia es y por qué se hace.
Mucha gente cree, en parte por la merecida gloria de pioneros como los citados, que el papel de la ciencia es crear nuevas herramientas para el progreso de la Humanidad. Es la razón principal que aducen los políticos cuando dicen que van a dedicar presupuestos a la ciencia (casi siempre torticeramente), o la que usan muchos defensores de la divulgación y la educación científica. Es necesario apoyar esta actividad por su utilidad social, que es el objetivo que sustenta los esfuerzos de los científicos: curar el cáncer, crear nuevas tecnologías con potencial económico, mejorar la vida de la gente. Lo importante de la ciencia, por tanto, son sus aplicaciones. los usos que de ella se puedan derivar que redunden en mejoras de la calidad de vida e impulso económico: las patentes, las empresas derivadas de laboratorios, los megaproyectos creadores de nuevos paradigmas como Internet. La ciencia se debe hacer, así, para que sea útil.
Y nadie vivo hoy (y honesto intelectualmente) puede dudar de la utilidad del conocimiento científico. Los avances en medicina, sanidad e higiene, agricultura, infraestructuras y tecnologías múltiples son obvios y han contribuido a aumentos en la calidad y cantidad de vida humana que hubiesen sido impensables siglos atrás. Hoy el modo de vida de casi cualquier habitante de un país desarrollado y de un creciente número de quienes viven en países más pobres es objetivamente mejor y más larga que la de los más poderosos regentes y ricos del pasado. Gracias a nuestros conocimientos de ciencia cada vez mueren menos niños, estamos menos enfermos, vivimos mucho más tiempo y lo hacemos con niveles de comodidad y libertad que hubiesen provocado la envidia de los Césares de Roma.
Pero reconozcámoslo: lo que mueve a la mayor parte de los científicos del mundo no es este noble empeño por mejorar la vida de la Humanidad, sino la simple, pura y dura curiosidad: el querer conocer cómo funciona el Universo. La necesidad de rascarse ese picor cortical que nos acecha cuando somos incapaces de resolver un rompecabezas; la sensación de irritación, casi de ofensa, que tenemos cuando estamos al borde de comprender pero todavía no lo conseguimos. La búsqueda incesante del destello de placer que ilumina el cerebro en ese clásico Momento Ahá. Confesémoslo: la ciencia, en sí misma, es una actividad egoísta que se lleva a cabo mayoritariamente por el placer propio de conocer.
A partir de ese conocimiento luego pueden llegar las aplicaciones, a veces espectaculares y de tal alcance que pueden cambiar la vida de la humanidad entera. Así es como un sistema bacteriano de protección contra infecciones víricas se está convirtiendo en una herramienta que va a cambiar con carácter inmediato la medicina o la agricultura, revolucionando por completo el futuro de nuestros descendientes. En laboratorios de todo el mundo hay una verdadera carrera en estos momentos para usar CRISPR en multitud de funciones de enorme utilidad; el potencial económico de su impacto es tal que a la vez hay una feroz guerra de patentes por el control financiero de la tecnología. Los creadores de estas herramientas serán son duda héroes de la humanidad que contribuirán a salvar innumerables vidas y a mejorar las economías de sus países y del mundo.
Pero cuando Francis Mojica estudiaba en su laboratorio de Alicante el genoma de arqueas como Haloferax y Haloarcula no estaba haciéndolo para esto. Su motivación no era descubrir una técnica revolucionaria de edición genética, sino comprender un misterio encerrado en el ADN de algunos de las más recónditos organismos de la Tierra. Su móvil no era salvar a la humanidad, sino comprender. Y en ese sentido se trata de un verdadero héroe de la ciencia, no solo de la Humanidad.
La distinción puede parecer pueril, pero es importante, porque muchas veces no podemos saber de antemano qué descubrimientos sobre como pera el Cosmos nos van a resultar útiles después. Si nos limitamos a apoyar aquella ciencia que puede tener aplicación visible estamos limitando nuestra propia visión del futuro, porque descubrimientos como el de Mojica no serán financiados ni obtendrán respeto y respaldo, con lo que futuros CRISPR jamás serán descubiertos. Si comprendemos que el motor de la ciencia es la curiosidad, y que ese motor debe ser alimentado no sólo porque los resultados de la ciencia sean útiles sino porque la curiosidad es un rasgo humano que debemos fomentar. La ciencia básica necesita respeto por sí misma, también (pero no solo) porque los héroes de la humanidad llegan a serlo gracias a la existencia previa de héroes de la ciencia. Por lo cual incluso por razones practicas conviene apoyar la ciencia teórica.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo Héroes de la ciencia, héroes de la humanidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Cómo deshacer un nudo en el ADN
Como la mayoría de las cuerdas y cables, los biopolímeros (que no dejan de ser cuerdas moleculares, ya que son cadenas de unidades que se repiten) pueden enredarse y anudarse. Alexander Klotz y sus colegas del Instituto de Tecnología de Massachusetts (EE.UU.) han desarrollado experimentalmente una técnica para deshacer los nudos que puedan existir en un biopolímero, en este caso el ADN, mediante el estiramiento de la cadena. El equipo dice que su técnica podría usarse para crear cadenas de ADN sin nudos para mejorar los estudios genéticos, en los que los nudos pueden llevar a una lectura errónea de los genes.
Una cadena de ADN se comporta de forma similar a una serpiente que se mueve hacia adelante y hacia atrás en un tubo estrecho, impulsada por energía térmica. Las simulaciones muestran que si la cadena se estira, este movimiento hacia adelante y hacia atrás hace que el nudo se mueva a lo largo de la cadena hasta que llega a un extremo y se deshace. Bajo ciertas condiciones, las simulaciones también indican que los nudos pueden viajar más rápido de lo que lo harían por difusión. Pero no hasta ahora no existía ninguna confirmación experimental de estas predicciones.
Para comprobar estas ideas, los investigadores diseñaron una configuración que utiliza un campo eléctrico para atrapar y estirar una cadena de ADN que contiene un nudo. Como el ADN está cargado eléctricamente un campo eléctrico homogéneo externo podría arrastrar al filamento en una dirección. El campo diseñado para la trampa de ADN vale cero en el centro y tiene sendos máximos en los extremos. Esto es equivalente, eléctricamente, a tirar de los dos extremos de la cadena de ADN.
Utilizando microscopía de fluorescencia, el equipo de investigadores confirmó que el nudo, inicialmente localizado cerca del centro del filamento, viaja hacia un extremo antes de deshacerse. El nudo se acelera mientras se mueve, influenciado por el campo eléctrico cada vez mayor conforme se acerca a uno de los extremos.
Curiosamente, existe un valor umbral del campo, por encima del cual el nudo se detiene. El equipo sugiere que esta inmovilización del nudo surge de una mayor fricción en el nudo resultado de que la tensión de la cadena supera la necesaria para simplemente mover el nudo.
Referencia:
Alexander R. Klotz et al (2018) Motion of Knots in DNA Stretched by Elongational Fields Physical Review Letters doi: 10.1103/PhysRevLett.120.188003
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Cómo deshacer un nudo en el ADN se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¡Préstame cincuenta dólares!
Bud Abbott (BA): Hazme un favor, ¡préstame 50 dólares!
Lou Costello (LC): Bud, no puedo. No puedo prestarte 50 dólares.
BA: Oh, sí, puedes.
LC: No, no puedo. Solo tengo 40 dólares.
BA: De acuerdo, dame los 40 dólares y me debes 10.
LC: De acuerdo, te debo 10.
BA: Está bien.
LC: ¿Cómo es que te debo 10?
BA: ¿Cuánto te he pedido?
LC: 50.
BA: ¿Cuánto me has dado?
LC: 40.
BA: Entonces me debes 10 dólares.
LC: Es verdad. [Pausa] Pero me debes 40.
BA: No cambies de tema.
LC: No estoy cambiando de tema; estás tratando de cambiar mis finanzas. Vamos, Abbott dame mis 40 dólares.
BA: De acuerdo, ten tus 40 dólares, ahora dame los 10 que me debes.
LC: Te pago a cuenta.
BA: ¿A cuenta?
LC: A cuenta, no sé cómo te debo eso.
BA: Esa es la forma en que te sientes al respecto, es la última vez que te pido un préstamo de 50 dólares.
LC: ¿Pero cómo voy a prestarte 50 dólares ahora? Solo tengo 30.
BA: Bueno, dame los 30 y me debes 20.
LC: De acuerdo. Esto está empeorando cada vez más. [Mira a la audiencia]. Al principio le debía 10, ahora le debo 20.
BA: Bueno, ¿por qué te metes en deudas?
LC: No me estoy metiendo, ¡me estás empujando!
BA: No puedo ayudarte si no eres capaz de manejar tus finanzas. Me va bien con mi dinero.
LC: Y también te va bien con mi dinero.
BA: Bueno, te he pedido un préstamo de 50 dólares. Me has dado 30, entonces me debes 20. 20 más 30 son 50.
LC: No. No. No. ¡25 más 25 son 50!
BA: Muy bien, aquí tienes tus 30 dólares, ahora dame los 20 que me debes. Buen tipo… que no presta a un amigo 50 dólares.
LC: ¿Cómo puedo prestarte 50, si ahora solo tengo 10?
BA: Espera un minuto, para mostrarte que soy tu amigo, ¿quieres duplicar eso?
LC: Adelante [Da a Abbott 10 billetes]. Nos vemos luego.
BA: Espera un minuto. No quiero esa clase de dinero. Lo haremos honesta y respetablemente. Elije un número entre 1 y 10.
LC: Bien.
BA: ¿Es par o impar?
LC: Par.
BA: ¿Es el número entre 1 y 3?
LC: No.
BA: ¿Entre 3 y 5?
LC: No. Creo que lo tengo.
BA: ¡Entre 5 y 7!
LC: Sí.
BA: número 6
LC: ¡Cierto! … ¿Cómo has hecho eso? [Pausa] Oye…
Esta conversación entre los cómicos Abbott y Costello (ver 2.) es una versión del enigma del dólar perdido, una paradoja elemental de matemáticas consecuencia de una falacia informal. Lo enunciamos en su forma habitual:
Tres amigos cenan en un restaurante. Al finalizar la comida, el camarero les lleva la cuenta que asciende a 30 dólares; cada comensal pone 10 dólares. El camarero lleva el dinero al dueño del restaurante, quien percibe un error en la factura: la comida costaba en realidad 25 dólares, es decir, los tres amigos han pagado 5 dólares de más. El dueño da cinco billetes de dólar al camarero para que los haga llegar a los clientes. El camarero, queriendo ganar un poco más de dinero, devuelve tres dólares a los invitados (fácil de repartir, porque como ya sabemos, Muchos adultos son incapaces de realizar operaciones financieras básicas), y se queda con los otros dos.
El problema que se plantea es el siguiente: cada invitado ha pagado 9 dólares, lo que hace un total de 27 dólares, y el camarero se ha embolsado 2. Pero 27+2=29 y no 30. ¿Dónde ha quedado el dólar que falta?
En realidad, la solución es sencilla: no hay ninguna razón, en el ‘convincente’ argumento anterior, para sumar los 27 dólares pagados por los clientes a los 2 que se queda el camarero. Los clientes han pagado 30 dólares y han recibido 3 de vuelta, es decir, han pagado 27, que corresponden a los 25 pagados al dueño del restaurante y los 2 que se ha quedado el camarero. Así pues, las únicas operaciones pertinentes son 30-3=27 y 27=2+25… En el anterior argumento, las operaciones matemáticas realizadas son elementales, pero una de ellas… ¡no tiene ningún sentido!
Referencias
-
Missing dollar riddle, Wikipedia
-
Loan me 50 dollars, Abbott and Costello
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo ¡Préstame cincuenta dólares! se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La regulación osmótica de los peces diádromos
Vimos en la anotación anterior que hay animales eurihalinos, capaces de tolerar cambios en la concentración salina del medio en el que viven. Y hay también un grupo de animales –peces, para ser precisos- que cambian de medio en determinados momentos de su vida, son los peces diádromos. Los hay, además, de dos tipos: anádromos (van hacia arriba) y catádromos (van hacia abajo). Los anádromos, como los salmones, nacen en los ríos y en ellos inician su desarrollo y adquieren un cierto tamaño; más adelante migran al mar, donde alcanzan un tamaño mayor y se proveen de abundantes reservas que les servirán para disponer de energía para hacer el viaje de vuelta al río del que salieron y producir gametos; una vez en el río, lo remontan y desovan. Los catádromos, como las anguilas, hacen lo contrario: nacen en el mar y viajan al río, donde crecen y se dotan de reservas; vuelven más tarde a la zona del océano en que nacieron para desovar.
Es evidente que en esas transiciones se producen cambios en la salinidad ambiental y, por lo tanto, han de ajustar en cada caso los mecanismos de osmorregulación a la nueva situación. Cuando se encuentran en agua dulce son reguladores hiperosmóticos y en agua de mar, reguladores hiposmóticos. La concentración de su medio interno experimenta un cierto cambio, aunque pequeño, lo que sirve para que el gradiente osmótico entre el interior y el exterior del organismo sea de menor entidad. El medio interno del salmón Oncorhynchus tshawytscha, por ejemplo, tiene una concentración 410 mOsm (miliosmolar) cuando se encuentra en agua marina y 360 mOsm, en agua dulce.
La gran impermeabilización del tegumento es un rasgo valioso en ambos medios; eso no han de cambiarlo al migrar. Elevan la producción de orina –y la diluyen- al pasar del mar al río, y la disminuyen –a la vez que la concentran- cuando transitan en sentido contrario. Si pasan del río al mar empiezan a beber agua, y dejan de hacerlo cuando migran del mar al río. En ambas condiciones se produce transporte activo de NaCl en las branquias, pero el sentido de ese trasvase es opuesto: incorporan sales en el río y las expulsan en el mar. Cuando van al mar procedentes del río, ponen en marcha los mecanismos de incorporación de NaCl en el epitelio intestinal, a la vez que aumenta la densidad de acuaporinas.
Esas transformaciones se producen bajo el gobierno de ciertas hormonas. En concreto, sabemos que la prolactina juega un papel clave en la transición del agua de mar al agua dulce, al reducir la permeabilidad del epitelio branquial al sodio y al elevar el flujo de orina. Y también otras hormonas, como el cortisol, la hormona del crecimiento y el factor de crecimiento insulínico y las hormonas tiroideas, tienen importantes funciones en estas transiciones.
La especie acerca de cuyos mecanismos de osmorregulación más se sabe es el salmón atlántico, Salmo salar, dado el gran desarrollo que ha alcanzado el cultivo de esta especie. A los salmones que todavía no han viajado al mar se les denomina parr. Los cambios fisiológicos necesarios para poder vivir en agua de mar han de darse inmediatamente antes de que la migración se produzca y a los salmones que se encuentran en condiciones fisiológicas para la transición se les denomina smolt. Por esa razón, al proceso de cambio se le denomina smoltificación.
En la actualidad se dispone de conocimiento preciso acerca de todas estas cuestiones. Antes, cuando se desconocían las particularidades de la fisiología de los salmones ocurrían cada cierto tiempo episodios de alta mortalidad en las factorías en las que se cultivaban. En el cultivo intensivo de salmones ha de reproducirse el ciclo de vida en su totalidad, razón por la que debe ejercerse un control estricto de la transición de agua dulce a agua salada en los estanques. Cuando no se conocía bien la biología de la especie, en ocasiones se cambiaba la salinidad demasiado pronto, cuando los salmones todavía no se encontraban preparados para la transición, por lo que los jóvenes parr morían en grandes cantidades. Fue necesario identificar con precisión los hitos y características de la transición parr-smolt para que el cultivo de salmones alcanzase las dimensiones de que goza hoy.
El hecho de que las especies anádromas no puedan cambiar de salinidad en cualquier momento de sus vidas las diferencias de las especies eurihalinas que vimos en la anotación anterior. En ese sentido, los peces diádromos tienen un estatus equívoco con relación a su tolerancia al cambio de salinidad: existe tal tolerancia, aunque restringida a periodos concretos y limitados. No serían verdaderas especies eurihalinas.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La regulación osmótica de los peces diádromos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Montañeros, espeleólogos y mineros
Desde el Renacimiento has el siglo XVIII produjeron clasificaciones de minerales y rocas una tras otra. Entre las más importantes cabe mencionar la del ingeniero de minas y alquimista alemán Georg Pawer (también Bauer), más conocido como Agricola, la del químico sueco Johan G. Wallerius (considerado el padre de la química agrícola, por cierto) o la del geólogo alemán Abraham Gottlob Werner (otro padre, en este caso del neptunismo, algo de lo que nos ocuparemos más adelante).
Todas estas clasificaciones tenían un trasfondo alquímico y todas tenían en común la clasificación general en cuatro grupos en función de sus “químicas”, más concretamente en su relación con el calor y los fluidos: tierras, metales, sales y combustibles. Así, las tierras resistían el calor y el agua, los metales se volvían fluidos al calentarse, las sales se disolvían en los fluidos y los combustibles (como el carbón, por ejemplo) generaban calor al arder.
Como la química era la base de la clasificación de las rocas y minerales, los aprendices y estudiantes pasaban más tiempo en talleres, fundiciones, gabinetes y laboratorios trabajando con sustancias y aparataje químicos que sobre el terreno.
Después de siglos de clasificaciones minerales, Werner sería el primero en expresar la frustración que producía el estudio de minerales y rocas desde el punto de vista científico a principios del siglo XIX, concluyendo que no existían y, por tanto, no podían encontrarse, principios teóricos consistentes para la clasificación de los minerales. Una consecuencia de este convencimiento es que Werner empieza a dar instrucciones a sus estudiantes de clasificar las rocas en función del tiempo de su formación (lo que se enmarca en lo que se conoce como estratigrafía, que también veremos más avanzada la serie) y los minerales aparte de la clasificación general se asocian al tipo y antigüedad de las rocas en las que aparecen, algo que estrá relacionado con el origen mismo de esas rocas.
La creciente industrialización junto a la aparición de estados nacionales ilustrados lleva a que los gobiernos comiencen a contratar inspectores de minas, especialistas en sondeos mineros y mineralogistas para que estudien el territorio nacional concienzudamente en busca de riquezas y recursos. Los mineralogistas abandonan sus cubículos para convertirse en montañeros, espeleólogos y mineros.
En la segunda mitad del siglo XVIII, estos mineralogistas de aire libre, entre ellos, Lazzaro Moro y Giovanni Arduino en Italia, Johann Lehmann en Alemania o Guillaume-François Rouelle en Francia, encuentran conveniente clasificar las rocas en dos tipos fundamentales: primarias y secundarias.
Las rocas primarias eran duras, a menudo cristalinas, y la matriz en la que se encontraban los metales y minerales preciosos; constituían el núcleo de las cadenas montañosas.
Las rocas secundarias eran relativamente blandas y granulares, a menudo formaban capas o estratos en las laderas de las montañas cuyos núcleos eran las rocas primarias. A menudo, las rocas secundarias contenían fósiles, que ya entonces los mineralogistas consideraban restos endurecidos de animales y plantas.
Esta clasificación tenía que ver con la cosmogonía: el estudio del desarrollo del planeta.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Montañeros, espeleólogos y mineros se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La polilla que se parecía a Donald Trump: más allá del chascarrillo
Con todos ustedes, bajo estas líneas, el escarabajo acuático Grouvellinus leonardodicaprioi, bautizado como habrán podido deducir mis avezados lectores, en honor del actor Leonardo DiCaprio como homenaje a su activismo en favor de la conservación del medio ambiente y para conmemorar el 20 aniversario de la Leonardo DiCaprio Foundation, creada por el actor con este fin.
Este recién descubierto escarabajo fue encontrado en la cascada en la remota zona de Maliau Basin, en el Borneo Malasio, y su descubrimiento es un logro de la llamada ciencia ciudadana: fue un grupo de excursionistas aficionados el que encontró el espécimen nunca antes descrito. En total descubrieron tres nuevas especies de escarabajos acuáticos, y uno de ellos quisieron dedicarlo a DiCaprio, que ha dedicado sus esfuerzos a proteger el medio ambiente, y en concreto los hábitats vírgenes e inexplorados, como el propio lugar donde su escarabajo vive. “Pequeño y negro, este nuevo escarabajo nunca ganará un Oscar por su carisma, pero en la conservación de la biodiversidad, todas las criaturas cuentan”, ha dicho la entomóloga Iva Njunjic.
Permítanme que les presente a otra amiga. Pueden verla al comienzo de este texto y si se fijan bien en su aspecto quizá puedan adivinar su nombre. Presten atención sobre todo a esas escamas pálidas sobre su cabeza y a su parecido con el proceloso flequillo del hombre a su lado: están ustedes ante un ejemplar de Neopalpa donaldtrumpi bautizada, como no podía ser de otra manera, en recuerdo del actual presidente de Estados Unidos, Donald Trump.
Pero esperen, que traigo más amigos a esta pequeña reunión nuestra. Esta curiosa avispa se llama Aleiodes shakirae en honor a la cantante colombiana Shakira. No es porque se le parezca, o porque Shakira haya hecho nada concreto por ella y su entorno. No, en este caso el homenaje se debe a que “el parasitismo por esta especie causa que la oruga anfitriona doble y retuerza su abdomen de forma muy particular, y Shakira también es famosa por su habilidad en la danza del vientre”, explicaban los bautizadores del insecto.
Y aquí está la araña Aphonopelma johnnycashi. Dado que se puede encontrar en los alrededores de la prisión Folsom, en California, y que los machos a partir de determinada edad son de color negro completamente, sus descubridores decidieron que no había nombre más apropiado para esta especie que un homenaje al cantante Johnny Cash. Y yo coincido en ese juicio.
En 2005 este simpático lemur fue descrito por primera vez y bautizado como Avahi cleesei en honor al actor inglés John Cleese, que en la película Criaturas feroces interpretaba a un cuidador de lemures y que después dio voz y presentó a un afamado documental sobre estos animales.
Para no extenderme, pero no queriendo dejar a nadie atrás, dejad simplemente que mencione a los trilobites Avalanchurus simoni y Avalanchurus garfunkeli (en homenaje a Simon y Garfunkel), al escarabajo Cheguevaria (que recuerda al Che Guevara), al pterosaurio Coloborhynchus spielbergi (bautizada en honor al director Steven Spielbergh), la araña Filistata maguirei (para recordar a Tobey Maguire, actor en tres películas de Spiderman), el mamífero extinto Gagadón (que homenajea a Lady Gaga), la polilla Hellinsia pizarroi (que recuerda al conquistador Francisco Pizarro) o la rana Hyloscirtus princecharlesi (en honor al príncipe Carlos de Inglaterra).
¿Cómo se bautiza a una especie?
Imaginarse a una polilla con un pelucón a lo Donald Trump tiene su gracia. ¿Cómo se convierte eso en el nombre oficial de una nueva especie?
Lo primero que hace falta es asegurarse de que lo que tenemos entre manos es efectivamente una nueva especie lista para ser bautizada. Para eso hace falta designar un holotipo, esto es, un ejemplar que sirva como identificación de esa nueva especie descubierta. También son de ayuda los paratipos, ejemplares complementarios, por ejemplo un macho si el holotipo es una hembra, o una cría de la misma especie, de forma que se puedan reunir y observar todas las características distintivas de la especie descubierta.
Normalmente estos especímenes se conservan en un lugar donde puedan ser examinados por otros científicos, a fin de determinar con seguridad si se trata de una especie nueva o no. La taxonomía es una disciplina en constante discusión y reexaminación, y no son pocas las veces que un ejemplar ha obtenido y perdido después el estatus de especie independiente.
También hace falta una descripción: una recolección de las características que dan forma a una nueva especie. Y aquí las cosas pueden empezar a ponerse delicadas porque el ojo y las palabras son muchas veces subjetivos y por tanto dificultan la diferenciación ente dos animales lo suficientemente parecidos. Características contables, como el número de vértebras o de crías en cada camada, por ejemplo, son aquí más útiles que la descripción de colores o de cantos.
Una vez seguros de que lo descubierto es una especie nueva, entonces llega el momento de nombrarla, puesto que lo que no se nombra no existe. El nombre de una especie (por ejemplo, Homo sapiens) está compuesto por el género al que pertenece (Homo) y después por el apelativo concreto que la identifica (sapiens), ambos latinizados. El proceso de bautizar una nueva especie se completa cuando el nombre y descripción se publica de forma que quede internacionalmente accesible y sea consultable. Esto antes implicaba a revistas científicas de renombre, pero ahora internet ha hecho las cosas más fáciles. Curiosamente el proceso por el que se otorga nombre a nuevas especies es uno de los pocos relacionados con la ciencia que no depende del peer-review, lo que en ocasiones causa confusión si dos nombres se parecen demasiado o si algún nombre no se clasifica correctamente dentro de su género.
Bautizar una especie con el nombre de un famoso: más allá del chascarrillo
Los científicos llevan bautizando animales con nombres de famosos desde el siglo XVIII. Carl Linnaeus, científico suizo que sentó las bases de la taxonomía actual, lo hacía ya para ganarse el favor, y con ello el dinero, de los patrones ricos que así podían ayudarle a continuar con sus investigaciones.
Algo parecido ocurre hoy: el descubridor de la abeja Scaptia beyonceae sabía perfectamente que relacionando el trasero redondeado y dorado de este animal con el de la cantante Beyoncé se asegura la atención del público, aunque sea solo durante unos pocos pero valiosos segundos. Se trata por tanto de llamar la atención para que, junto con el chistecito del nombre y la gracia que nos hace latinizar el nombre de Shakira hablemos también de algunas de las características de la avispa que ahora lleva su nombre, del hábitat en el que vive el animal en cuestión, de los riesgos que la amenazan, de los esfuerzos de conservación que se realizan pero aun más de los que todavía tenemos que hacer.
Así que se trata de marketing: una estrategia para conseguir que se hable de sus animales, su trabajo (lo que puede a su vez convertirse en más fondos para su investigación) y la conservación del medio ambiente. Hace unas semanas hablábamos aquí mismo de cómo el marketing es una buena opción para la supervivencia de especies que no son majestuosas como un águila o imponentes como un gorila. Los animales feos, sosos o desagradables pueden beneficiarse de una buena campaña de comunicación. Y si eso incluye ser bautizado en honor a Donald Trump, habrá que hacer de tripas corazón y llevar el nombre con dignidad. O con toda la dignidad posible.
Referencias:
Three new species of Grouvellinus Champion, 1923 from Maliau Basin, Sabah, Borneo, discovered by citizen scientists during the first Taxon Expedition – Hendrik Freitag, Clister V. Pangantihon, Iva Njunjić.ZooKeys, 2018; 754: 1 DOI: 10.3897/zookeys.754.24276
How a new species is named – Dr. David Hone, The Guardian
List of organisms named after famous people – Wikipedia
It’s funny to name species after celebrities, but there’s a serious side too – Kevin Thiele, The Conversation
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo La polilla que se parecía a Donald Trump: más allá del chascarrillo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las aves de Prometeo
Las aves tienen capacidades asombrosas. Los pájaros cantores, por ejemplo, tienen excelentes habilidades vocálicas, algunos extraordinarias. El caso más espectacular es el de una especie cuyos machos, para cortejar a la hembra, aprenden un canto nuevo cada año. Los pergoleros macho fabrican pérgolas muy complejas y de gran cromatismo; también lo hacen para conquistar a su pareja. Otras aves fabrican instrumentos, como ganchos para extraer lo que les interesa de lugares de difícil acceso. Hay cuervos que reconocen personas y son capaces de recordarlas durante largo tiempo, sobre todo si, por lo que fuese, las temen. También hay aves que juegan. Como es bien sabido, muchas migran, y algunas de sus migraciones son verdaderas heroicidades, tanto desde el punto de vista físico como cognitivo. Y de algunos pájaros sabemos que son capaces de posponer las gratificaciones a una tarea bien completada a la espera de una recompensa mejor.
Desde hace tiempo los indígenas de las sabanas del norte de Australia sostienen que hay aves que ayudan a propagar fuegos. Algunos bomberos también afirman haber visto a ciertas aves de presa reavivar incendios ya controlados. Algunas de esas observaciones datan de los ochenta del pasado siglo. Pero casi nadie las creía. Hace dos años el ornitólogo Robert Gosford sugirió que esos testimonios podían ser correctos, pero la mayoría de sus colegas manifestaron serias dudas al respecto. Como mucho pensaban que podía tratarse de hechos fortuitos. Sin embargo, las dudas parecen estar disipándose. Un grupo formado por ornitólogos y bomberos han recogido veinte testimonios -considerados fidedignos- de observaciones de aves de presa que propagaban incendios de manera intencionada, y han dado a conocer su investigación en la revista científica Journal of Ethnobiology.
Las observaciones se refieren a las especies Milvus migrans (milano negro), Haliastur sphenurus (milano silbador) y Falco berigora (halcón berigora) y se han realizado en las sabanas septentrionales australianas, aunque los autores del trabajo afirman haber recibido informaciones en el mismo sentido de otras zonas del país. El comportamiento observado consiste en el traslado de pequeñas ramas encendidas de zonas ya quemadas a zonas a las que no ha llegado el fuego. Llevan las ramas de un sitio a otro en el pico o las patas. A veces son actos individuales y en ocasiones son varios los individuos que actúan de forma cooperativa. Aunque no siempre lo consiguen, con frecuencia logran extender el fuego hacia zonas que no habían ardido. Al parecer, solo se comportan así cuando un fuego se ha detenido al llegar a una barrera o por haber sido apagado por los servicios contra incendios. Y solo unos pocos individuos aprenden a hacerlo.
Que hay aves que se valen de los incendios para atrapar presas que huyen de zonas en llamas era algo ya sabido. La novedad que aportan los testimonios recogidos consiste en la participación activa de milanos y halcones en la extensión del fuego. Se trata de un comportamiento de importantes requerimientos cognitivos.
Solemos pensar que los pájaros son animales estúpidos, de escasa inteligencia, entre otras cosas porque nos parece que tienen la cabeza pequeña. Pero eso no es cierto; en la evolución su encéfalo se redujo mucho menos que el resto del cuerpo en relación con el de sus antecesores, los dinosaurios. Además, sabemos muy poco del funcionamientos de ese encéfalo. Y quizás seamos incapaces de valorar de forma adecuada la capacidad cognitiva de las aves, simplemente porque utilizamos la nuestra como referencia y modelo. Prometeo robó el fuego a los dioses y se lo entregó a los mortales. Pero es posible que entre los mortales también incluyera aves de presa.
—————————————————————–
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 28 de enero de 2018.
El artículo Las aves de Prometeo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Naukas Bilbao 2017 – Sergio Palacios: Precausión, amigo conduztó
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Dolor, aceleraciones y extraterrestres de la mano del inefable Sergio Palacios.
Sergio L. Palacios: Precausión, amigo conduztóEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Sergio Palacios: Precausión, amigo conduztó se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Entrelazamiento cuántico entre dos nubes de átomos ultrafríos
Science publica los resultados de un experimento en el que han colaborado varios miembros del grupo de investigación Quantum Information Theory and Quantum Metrology del Departamento de Física Teórica e Historia de la Ciencia de la Facultad de Ciencia y Tecnología de la UPV/EHU, liderados por Géza Tóth, Ikerbasque Research Professor, y llevado a cabo en la Universidad de Hannover. En el experimento, han conseguido el entrelazamiento cuántico entre dos nubes de átomos ultrafríos, conocidos como condensados de Bose-Einstein, donde los dos conjuntos de átomos estaban espacialmente separados entre sí.
El entrelazamiento cuántico es un fenómeno que no tiene análogo en la física clásica. Los conjuntos de partículas que están entrelazadas pierden su individualidad y se comportan como una sola entidad. Cualquier cambio en una de las partículas conduce a una respuesta inmediata en la otra, incluso si están espacialmente separadas. “El entrelazamiento cuántico es indispensable en aplicaciones como la computación cuántica, ya que permite la resolución de ciertas tareas de forma mucho más rápida que en computación clásica”, explica Géza Toth.
A diferencia de la forma en que se ha creado hasta ahora el entrelazamiento cuántico entre nubes de partículas, utilizando conjuntos de partículas incoherentes y térmicas, en este experimento utilizaron conjuntos de átomos en estado de condensado de Bose-Einstein. Tal como explica Toth, “los condensados de Bose-Einstein se consiguen al enfriar los átomos utilizados a temperaturas muy bajas, cercanas al cero absoluto. A esa temperatura, todos los átomos comparten el mismo estado cuántico, con gran coherencia; se podría decir que todos ocupan la misma posición en el espacio. En ese estado se da el entrelazamiento cuántico entre los átomos del conjunto”. Posteriormente, lo que hicieron fue separar en dos nubes de átomos ese conjunto. “Dejamos una distancia entre las dos nubes de átomos, y pudimos demostrar que seguía habiendo entrelazamiento cuántico entre ellas”, continúa.
La demostración de que se puede crear el entrelazamiento entre dos nubes en estado de condensado de Bose-Einstein puede dar lugar a una mejora en muchos campos en los que se utiliza la tecnología cuántica, como la computación cuántica, la simulación cuántica y metrología cuántica, dado que estas requieren de la creación y el control de un gran número de conjuntos de partículas entrelazadas. “La ventaja que ofrecen los átomos ultra fríos es que se pueden conseguir estados fuertemente entrelazados que contienen cantidades de partículas superiores en varios órdenes de magnitud a otros sistemas físicos, lo cual podrá ser la base para la computación cuántica a gran escala”, relata el investigador.
Referencia:
Karsten Lange, Jan Peise, Bernd Lücke, Ilka Kruse, Giuseppe Vitagliano, Iagoba Apellaniz, Matthias Kleinmann, Geza Toth, Carsten Klempt (2018) Entanglement between two spatially separated atomic modes Science (2018) DOI: 10.1126/science.aao2035
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Entrelazamiento cuántico entre dos nubes de átomos ultrafríos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¡Cuidado! Publicación depredadora a la vista
La historia la contaba Kelly Cobey en una pasada columna para Nature: un colega investigador, ya con tablas y algunas canas, había caído en uno de los más extraños, peligrosos y agresivos timos del mundo científico. Aunque esta estafa lleva bebiendo de las sangres del “publica o muere” muchos años ya, parece que es capaz de atrapar hasta al más experimentado de los investigadores.
Hablamos, nada menos, que de las “revistas depredadoras”, más conocidas como Predatory Journals o, en casos concretos, Open Access Predatory Journals (OAPJ). Esta peligrosa práctica puede bloquear nuestra investigación o hacernos perder una cantidad ingente de dinero. ¿En qué consiste esta engañifa? ¿Cómo podemos reconocer una publicación de este tipo?. Entender cómo operan y qué consecuencias trae el caer en sus garras es crucial para poder defender nuestro paper en el peor de los casos.
¿Qué son los ‘Predatory Journals’?
El nombre de “revista depredadora” fue acuñado por Jeffrey Beall para describir una serie de journals científicos (publicaciones) que se hacen pasar por revistas típicas del ámbito especializado pero que en realidad esconden prácticas abusivas y que en muchos casos rozan la pura estafa. El término “depredador” refleja la naturaleza intencionalmente engañosa de estas revistas, que “cazan” a los investigadores y sus estudios con artimañas diversas.
Entre las estratagemas, y haciéndonos eco de las investigaciones realizadas por el propio Beall o Cobey (et al), estas entidades afirman, por ejemplo, realizar una exhaustiva revisión por pares, cosa que no hacen. También ofrecen un servicio de acceso Open Access, pero más adelante, cuando ya es demasiado tarde para los autores, no cumplen con la conocida como Declaración de Bethesda a la hora de darle acceso gratuito a los investigadores y lectores, faltando en varios puntos a los derechos de autor.
Como guinda de este pastel, los Predatory Journals utilizan tácticas agresivas y trucos sucios para obligar a los autores a enviarles el manuscrito, incluso si estos se han dado cuenta del lío en el que se estaban metiendo. De esta manera, los investigadores se encuentran en una tesitura muy difícil. Para muestra un botón: el encontronazo del que hablábamos resultó ocurrir como sigue.
De investigador a “presa”
Parafraseando a la Dra. Cobey, en 2017 recibió un correo de un colega explicándole su problema con cierta publicación. Al parecer, meses antes había llegado una “invitación” para que publicara el material de cierto estudio en forma de artículo. Unos meses antes, este investigador había hecho una presentación oral mostrando parte de sus resultados. Esta “invitación” parecía la oportunidad perfecta para convertir este esfuerzo en un paper que contara en su currículum.
Tanto el título de la revista como el tema al que se refería el correo que recibió encajaban a la perfección con su especialización. “Qué diablos”, pensaría nuestro desdichado científico. Poco después, tras algunas correcciones menores, el investigador recibió un email explicando que el artículo había sido aceptado para su publicación. “¡Albricias!”. Pero no, no había motivo para alegrarse. Un poco más abajo, en ese mismo mensaje, se incluía un albarán de casi mil dólares por la publicación del artículo en el dichoso journal. “Un momento, a mi nadie me había avisado de esto”.
Así que, molesto por la argucia, el investigador decidió pasar de la publicación y, ya que el trabajo estaba hecho, enviarlo a una publicación legítima y que no tratara de timarle. Durante los siguientes meses le siguieron llegando mensajes de la anterior publicación, claramente depredadora, donde se le seguía solicitando el dinero de la publicación. Cuando su paper fue admitido en la otra editorial (esta vez sí, con una correcta revisión por pares), se alegró. “Albricias, ahora de verdad”. Pero el problema estaba lejos de acabar.
Así son las tácticas depredadoras
Resulta que una vez aceptado y todo preparado para la publicación, los investigadores (y la nueva publicación) se encontraron con que el paper ya había sido expuesto en la web del Predatory Journal de marras. Esto, como cualquiera familiarizado con la publicación científica, la revisión por pares y los embargos sabe, es un problema muy gordo.
Porque una vez publicada la información ya no es susceptible de ser publicada de nuevo en otra revista científica. La única manera posible de hacerlo es eliminando dicho documento. Al solicitarlo formalmente, explicaba Cobey en su artículo, los editores (mal eufemismo para estos estafadores), indicaron que el coste de la retirada del artículo era de unos 300 dólares, aproximadamente.
De esta manera, habían puesto al investigador y a su equipo en jaque: “¿Quiere que lo publiquemos? Bien, son mil dólares. ¿No quiere que lo publiquemos? Bien, son 300 dólares”. Y ante la tesitura, ¿qué haría cualquiera? Este investigador, aconsejado por la Dra. Cobey, contactó con los supuestos miembros editores del Journal y, para su sorpresa, estos indicaron que poco o nada tenían que ver con él, una muestra más de la estafa.
Finalmente, y para alivio del investigador (y a pesar de las semanas de esfuerzo y sufrimiento causadas) la publicación legítima decidió publicar el artículo sin que existiera “perjuicio” para los investigadores, reconociendo las prácticas del Predatory Journal como una vulgar estafa alejada de la ética editorial de cualquier publicación real.
¿Cómo se si mi ‘paper’ está en manos de un ‘Predatory Journal’?
Existen pocas universidades que cuenten con unidades y especialistas dedicados, casi exclusivamente, a la publicación. Esto, explican algunos expertos como Beall o la propia Cobey, es un problema muy serio ya que muchos (muchísimos investigadores) carecen de la experiencia (o incluso formación) sobre cómo funciona el mundo de las editoriales científicas. En otras ocasiones es la presión por publicar la culpable de una mala decisión.
En cualquier caso, los datos indican que no importa la formación o la carrera del investigador, cualquiera es susceptible a caer en las garras de un Predatory Journal. Hablamos de miles de investigaciones que son extorsionadas por estas mal llamadas publicaciones. Según los datos recogidos por Cobey, tras analizar unos 2.000 papers dispuestos en este tipo de revistas, ni tan siquiera el tipo de subvención, la procedencia de la investigación o el origen del equipo investigador libra a nadie de ser objeto de este tipo de prácticas. Por cierto, los países con más presencia de publicaciones depredadoras, con diferencia, son la India y Estados Unidos, aunque también se encuentran en Nigeria, Egipto, Turquía o incluso Japón y Reino Unido.
¿Cómo podemos esquivar a estos depredadores de la información? Para identificar este tipo de publicaciones varios hechos deberían hacer sonar nuestras alarmas alarmas. En primer lugar, la afiliación editorial. Una afiliación editorial dudosa, o la falta de información sobre la empresa que la maneja, son buenas razones para dudar. En segundo, una publicación legítima jamás pondrá tasas absurdas. Por ejemplo, el recargo por “retirar” un artículo no aparecerá en ninguna publicación que cumpla con una buena ética editorial.
Según el criterio de Jeffrey Beall para identificar a este tipo de Predatory Journals, estos se caracterizan por no seguir, o simplemente violar, el “Código de conducta de los editores de publicaciones científicas” o los “Principios de transparencia y buenas prácticas de las publicaciones académicas“. En ellas, por ejemplo, se recogen asuntos tan variados como la información que se intercambia entre autores y editores, la cuestión de las tasas o los derechos de autor.
Las razones son muchas y muy variadas, demasiadas para recogerlas aquí. Por otro lado, estos criterios están bien recapitulados y arduamente resumidos en el documento preparado por el propio Beall, el cual podría servir como código genérico para detectar este tipo de publicaciones. Este documento, de hecho, surge a la par que una lista de publicaciones listadas en su web, con lo que revisar si el journal en cuestión entra dentro de estos criterios puede ser tan sencillo como comprobar que no haya sido mencionado en la “Lista Beall de Predatory Journals“. i
Una piedra más en esto de “hacer ciencia”
Si algo queda cada vez más claro es que la ciencia y el proceso para generar conocimiento científico está viviendo una profunda crisis. Desde cuestiones socioeconómicas a políticas, pasando por técnicas o humanas, el proceso de revisión por pares y la publicación en revistas científicas se encuentra ahora mismo con graves problemas.
Cada año son más los papers retirados debido a un sinfín de razones (en el peor de los casos porque sus investigaciones no se sustentan); los investigadores se ven envueltos en condiciones inasumibles de trabajo, cobrando poco y trabajando demasiado. Y lo peor es que en la mayoría de los casos se ven envueltos en una especie de “carrera de la reina roja” en los que han de publicar cada vez más para mantener su financiación o el apoyo institucional.
Al final, dentro de este círculo vicioso, se busca la publicación con el mayor índice de impacto para poder optar a la financiación y, mientras tanto, los artículos que no cumplen con las expectativas de los editores de grande publicaciones o, sencillamente, los resultados negativos se pierden el el frenesí del “publica o muere”.
Volviendo al tema de las grandes editoriales, y aunque a muchos no les gusta escucharlo, los investigadores viven regidos por un índice de impacto que ha sido decidido de forma interna y cuasi secreta por las mismas compañías que deciden qué papers son mejores o peores. Al final, todo el mundo científico danza al son de unas pocas marcas que contienen el 90% del haber científico del mundo.
Y en todo este maremagnum, los predatory journals acechan para hacerse con la carroña que puedan desgarrar de este tejido intelectual científico. Pero las víctimas no son solo los incautos investigadores que caen en sus artimañas. También lo son, y probablemente de forma más amarga, las pequeñas publicaciones. Esos journal que, sin tratar de acercarse a la sombra de los titanes editoriales, pretenden hacerse un hueco en la literatura científica especializada.
Estos son los primeros en sufrir las consecuencias en forma de rechazo y suspicacia, probablemente inmerecida, por culpa de otros estafadores sin escrúpulos. Por desgracia, los Predatory Journals han aumentado su número en las últimas décadas, lo que complica muchísimo más el trabajo a la hora de publicar, tanto para los científicos como para las pequeñas editoriales. Pero admitiremos una cosa: no hay mal que por bien no venga. Si al menos, tras el mal trago de gente como la que ha llegado a conocer Cobey el resto de la comunidad científica se pone las pilas, algo bueno sacaremos de esto. Y es que nos hace falta ser más conscientes de cómo funciona el mundo de la publicación científica si queremos mejorar la manera que tenemos de “hacer ciencia”.
Este post ha sido realizado por Santiago Campillo (@ScruzCampillo) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo ¡Cuidado! Publicación depredadora a la vista se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las absurdas declaraciones saludables de algunos alimentos están amparadas por las autoridades
Cada vez hay más alimentos que muestran en su etiquetado alguna declaración saludable. Desde postres lácteos que «contribuyen al normal funcionamiento del sistema inmunitario» a bollería industrial que «aumenta la capacidad de atención y memoria». Este tipo de declaraciones hacen que algunos alimentos de bajo interés nutricional aparenten ser saludables. Ante esta vorágine de caretas saludables, da la impresión de que todo está permitido y que no hay ninguna autoridad al mando que lo regule.
-
Las declaraciones saludables se regulan
En los años 90 se pusieron de moda los anuncios de patés ricos en hierro y zumos ultravitaminados que nos harían crecer fuertes y sanos. El reglamento que prevalecía en aquel momento permitía alegar casi cualquier cosa con tal de que una porción de alimento (100 g o 100 ml) contuviese al menos el 15% de la cantidad diaria recomendada de vitaminas o minerales.
Para poner un poco de orden, en 2006 se publicó un nuevo reglamento en el que se decía que para incluir una alegación saludable en un alimento, primero había que probar que alguno de sus ingredientes ayudaba de alguna manera a mantener nuestra salud. Eso propició una avalancha de peticiones que la Autoridad Europea de Seguridad Alimentaria (EFSA) se encargaba de revisar para dar el visto o bueno o no. Esto sigue funcionando así. Cada vez que se descubre alguna propiedad saludable de un ingrediente, se envían los informes pertinentes a la EFSA y desde aquí revisan la evidencia científica aportada para aceptar o rechazar una nueva declaración saludable.
Como consecuencia de todo esto, las declaraciones saludables relativas a cada ingrediente se recogen periódicamente en el Diario Oficial de la EFSA y se detallan en los anexos de los reglamentos específicos que se han ido publicando a continuación (como en éste de 2012).
Si todo esto está regulado, ¿cómo es posible que un alimento atiborrado de azúcares y harinas refinadas pueda mostrar alguna declaración saludable?
-
Las declaraciones saludables se regulan, pero se regulan mal
Por ejemplo, para poder declarar que un alimento «contribuye a la formación normal de colágeno para el funcionamiento normal de la piel» tiene que poder ser considerado «fuente de vitamina C» según el reglamento de 2006. A su vez, este reglamento hace referencia al reglamento de 1990, en el que se recoge el dichoso mínimo del 15% de la cantidad diaria recomendada (CDR).
La cantidad diaria recomendada de vitamina C según el reglamento de 1990 era de 60 mg. En el Real Decreto 1669/2009 fue modificada estableciéndose una cantidad diaria recomendada de vitamina C de 80 mg. Por tanto, si un alimento contiene 12 mg de vitamina C (el 15% de 80 mg), ya sea añadida o formando parte de alguno de sus componentes, está permitido que muestre cualquier declaración referida a las bondades de la vitamina C, incluida la formación normal de colágeno.
Lo mismo ocurre con una larga lista de declaraciones saludables autorizadas para vitaminas, minerales y otros nutrientes cuyas propiedades individuales han sido avaladas por la EFSA.
Así que lejos de la intención inicial de poner orden en la publicidad de los alimentos, el reglamento sirve de coladero para incluir legalmente casi cualquier declaración saludable. Añadiendo una cantidad irrisoria de vitaminas o minerales a un alimento, se permite decir casi de todo. No estamos mucho mejor que en los años 90.
-
El reglamento se fundamenta en el maldito nutricionismo
Una de las consecuencias de todo esto es que es legal que un alimento sin interés nutricional, como puede ser la bollería industrial o un refresco cargado de azúcar, puede publicitarse de forma que parezca saludable. La razón es que el reglamento no tiene en consideración el alimento en su conjunto, sino sus ingredientes individuales. La única excepción son las bebidas alcohólicas de más de 1,2 % en volumen de alcohol. Estas no pueden contener declaraciones saludables en su etiqueta ni en su publicidad. Aun así, algunos medios de comunicación publicitan indirectamente las bondades del consumo de alcohol, a pesar de ser siempre falsas.
Un alimento no se debe considerar más o menos saludable atendiendo a sus ingredientes individuales. Hay que tener en cuenta el alimento en su conjunto. La matriz del alimento puede disminuir, potenciar o anular completamente las bondades de sus ingredientes. Ese es el principal motivo por el que el reglamento actual y, por tanto, la evaluación que hace la EFSA aprobando o rechazando declaraciones saludables es absurda.
Valorar un alimento en función de sus ingredientes individuales, y no como conjunto, se llama nutricionismo. El nutricionismo es un error. Entre otras cosas alienta el consumo exagerado e innecesario de suplementos alimenticios y la elección de alimentos insanos creyendo que son beneficiosos solo porque contengan tal o cual ingrediente.
Otra consecuencia no menos importante es que en el reglamento no se contempla la posibilidad de declarar las virtudes de un alimento en su conjunto, o de declarar las virtudes de la suma de una serie de ingredientes que interactúan entre sí. Por esa razón, aunque un alimento estuviese perfectamente formulado y demostrase su eficacia, solo podría mostrar la declaración de salud que el reglamento le permita. Por ese motivo algunos suplementos alimenticios contienen ingredientes con virtudes previamente aprobadas por la EFSA, a pesar de que las bondades del suplemento sean propiciadas por otros. O lo que es lo mismo, un suplemento alimenticio mediocre puede alegar las mismas bondades que uno bien formulado si contiene la misma cantidad de ingrediente avalado por la EFSA.
Para publicitar la efectividad de un suplemento alimenticio, da igual si haces ciencia o no, el reglamento te permite decir lo que quieras si incluyes el dichoso 15% de la cantidad diaria recomendada de alguna vitamina o mineral.
El maldito nutricionismo nos ha llevado a repetir durante años mentiras como que los frutos secos son insanos o engordan, atendiendo exclusivamente a la cantidad de grasas que contienen. Los estudios confirman que no podemos juzgar a un alimento por sus ingredientes individuales, sino en su conjunto. Siguiendo con el ejemplo, a pesar de las calorías de los frutos secos y su elevado aporte de grasas, la evidencia científica nos dice lo contrario, que el consumo de frutos secos es saludable y que se relaciona con menores tasas de obesidad.
Lo mismo ocurre con algunos productos lácteos que contienen grasas saturadas y que por ello creíamos que afectaban al aumento del colesterol. La evidencia científica nos dice lo contrario, que algunos ayudan a prevenir enfermedades cardiovasculares.
-
Conclusiones
El reglamento de 2006 (incluidas sus modificaciones posteriores) pretendía poner orden en las declaraciones saludables que se publicitan en los alimentos, sin embargo, ha incurrido en el grave error del nutricionismo. Esa es la razón por la que alimentos insanos y de bajo interés nutricional pueden disfrazarse de alimentos saludables. La legislación les ampara.
Esa también es la razón por la que se permite anunciar las bondades de los suplementos alimenticios o de los alimentos funcionales, porque no tienen que probar su eficacia, sino contener una cantidad irrisoria de tal o cual ingrediente previamente avalado por la EFSA. De nada sirve formular un buen suplemento, porque las autoridades no contemplan las virtudes del alimento completo, sino de sus ingredientes individuales. Aunque los resultados de unos y otros deberían condicionar las ventas a largo plazo, la realidad es que buenos y malos pueden lanzarse legalmente al mercado publicitando lo mismo. Los que invierten en I+D para desarrollar sus productos y los que no, pueden alegar las mismas bondades. El coste de la declaración saludable es tan pequeño como unos cuantos gramos de vitaminas añadidas.
La consecuencia de todo esto es que, si no replanteamos el reglamento, su aplicación y la forma en la que la EFSA avala las declaraciones saludables, será posible publicitar cualquier virtud del alimento, sea cierta o no. Hoy en día es legal vender refrescos azucarados y bollería industrial como si fuesen saludables. O esto cambia, o al final acabaremos por creer que cualquier alegación saludable es una farsa legitimada por las autoridades.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Las absurdas declaraciones saludables de algunos alimentos están amparadas por las autoridades se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Una explicación a la existencia de películas de carbono tipo diamante (DLC)
Las películas muy densas de carbono amorfo pueden presentar unas propiedades, como una dureza excepcional, la ausencia de reactividad química o ser ópticamente transparentes que habitualmente se asocian al carbono pero con una estructura cristalina muy concreta, esa que llamamos diamante. Pensemos esto un segundo, ¿películas de diamante? Pues sí, aunque parezca sacado de una película de ciencia ficción de serie B de los sesenta. Precisamente explicar cómo es posible que algo tan extraordinario ocurra es lo que ha conseguido un equipo de investigadores encabezado por el español Miguel A. Caro, que trabaja en la Universidad de Aalto (Finlandia).
La alotropía es la capacidad que tienen algunos elementos de poseer estructuras atómicas o moleculares diferentes. Cada una de estas formas se llama alótropo. El carbono es capaz de formar muchos alótropos diferentes debido a su capacidad de formar distintos tipos de enlaces químicos. Las formas más conocidas de carbono incluyen el diamante y el grafito (la mina de los lápices). En las últimas décadas se han descubierto e investigado muchos más alótropos y formas de carbono, incluidas formas esféricas como el buckminsterfullereno, láminas como el grafeno o las nanocintas y tubulares como los nanotubos. Se estima que existen del orden de 500 alótropos del carbono.
El carbono amorfo es el alótropo del carbono que no tiene una estructura cristalina. Como con todos los materiales vítreos (los llamados vidrios), puede presentarse algún orden de corto alcance, pero no hay patrones de largo alcance de las posiciones atómicas. Una variedad de carbono amorfo es el llamado carbono tipo diamante, más comúnmente conocido en la industria por sus siglas en inglés, DLC (diamond-like carbon)
Los químicos e ingenieros han aprendido mediante ensayo y error a crear películas de DLC a base de depositar átomos de carbono en un sustrato de carbono. El uso del ensayo y error se debe precisamente a que no se entiende teóricamente cómo se forman estas películas. Ahora, combinando un algoritmo de aprendizaje automático con simulaciones de dinámica molecular, Caro y sus colegas han demostrado que las películas de DLC se forman a través de un mecanismo de “granallado”.
Si en el granallado de un taller de chapa y pintura, se trata la carrocería de un automóvil con un “chorro de granalla” (o “de arena”) para dejar la superficie completamente limpia y lista para recibir la imprimación previa a la pintura, en el caso del DLC el impacto de un átomo de carbono sobre la superficie induce ondas de presión que cambian localmente la densidad de la película y, a su vez, la hibridación orbital, es decir, el tipo de enlaces químicos que pueden formar los átomos en la película.
El equipo simuló la deposición secuencial de átomos de carbono individuales en un sustrato de carbono. Utilizando un algoritmo de aprendizaje automático desarrollado previamente calcularon los potenciales interatómicos entre los átomos e introdujeron esa información en las simulaciones de dinámica molecular. Este procedimiento les permitió mapear la densidad de las películas después de cada impacto. Descubrieron que los átomos entrantes creaban una onda de presión que alejaba los átomos del sitio de impacto, de modo que cada impacto disminuía la densidad de los átomos en la superficie de la película y la aumentaba en el interior de la película. En el interior de la película, el cambio de densidad causó que una alta fracción de átomos de carbono adquiriese una hibridación tetraédrica: exactamente el mismo estado que tienen los átomos de carbono en el diamante. Los perfiles de densidad simulados concuerdan con los que se derivan experimentalmente.
La películas de DLC ya se emplean industrialmente como recubrimientos de piezas expuestas a alto rozamiento. Lo que estos resultados pueden hacer es ayudar a los químicos a optimizar el crecimiento de películas DLC, lo que puede ser extremadamente interesante para la construcción de dispositivos electrónicos implantables en el cuerpo humano. Y es que el DLC, al ser químicamente inerte, es biocompatible.
Referencia:
Mguel A. Caro et al (2018) Growth Mechanism and Origin of High sp3 Content in Tetrahedral Amorphous Carbon Physical Review Letters doi: 10.1103/PhysRevLett.120.166101
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Una explicación a la existencia de películas de carbono tipo diamante (DLC) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Crímenes áureos
Me gusta leer. Me gusta todo tipo de literatura, pero, en especial, leo muchas novelas. De todos los estilos. En estos momentos estoy terminando de leer la magnífica, aunque dura, novela Manual para mujeres de la limpieza (Alfaguara, 2016) de Lucia Berlin, antes de este libro he leído la excelente novela gráfica de Paco Roca, Las calles de arena (Astiberri, 2015) y Las normas de la casa (Temas de Hoy, 2012), de Jodi Picoult, y mis dos siguientes lecturas, salvo que se cruce alguna otra en el camino, serán Solenoide (Impedimenta, 2017), de Mircea Catarescu, cuyas primeras páginas te enganchan y es difícil dejar de leer (aunque antes tenía que terminar el magnífico libro de Lucia Berlin), y La torre de Babel (Alfaguara, 2011), de A. S. Byatt, un interesante descubrimiento que hice mientras preparaba una conferencia sobre la sucesión de Fibonacci.
Pero, en especial, me gusta la novela policiaca. Desde las clásicas novelas de raciocinio, como los relatos de Edgar Allan Poe, las historias de Sherlock Holmes, de Arthur Conan Doyle, o las sencillas novelas de Agatha Christie, hasta la novela negra actual, que es mucho más realista y social. Y si estas novelas tienen alguna referencia matemática, entonces mi interés y disfrute es mucho mayor aún.
En esta entrada del Cuaderno de Cultura Científica vamos a ver un pequeño ejemplo de presencia de las matemáticas en una novela negra. No es un caso aislado, existen muchos ejemplos, como la novela La chica que soñaba con una cerilla y un bidón de gasolina, del escritor sueco Stieg Larsson (Destino, 2008), de la que ya hablamos en la entrada La chica que soñaba con una cerilla y un bidón de gasolina. En esta ocasión, se trata de la novela La mano del diablo (Plaza & Janés, 2005), de los escritores Douglas Preston y Lincoln Child.
Los escritores estadounidenses Douglas Preston y Lincoln Child suelen escribir juntos, a cuatro manos, novelas policiacas, de misterio y de aventuras. Son dos escritores de éxito, aunque tengo que confesar que no están entre mis escritores preferidos. Su primer éxito fue El ídolo perdido (1995), novela en la cual se inspiró la película The Relic (Peter Hyams, 1997). Esta novela, como muchas de las que han escrito juntos, está protagonizada por el agente del FBI, Aloysius Pendergast, acompañado del teniente de la policía, Vicent D’Agosta.
La novela La mano del diablo es la primera novela de la trilogía de Diogenes, el hermano de Aloysius. En esta historia, el agente del FBI Aloysius Pendergast y el teniente de la policía Vicent D’Agosta investigan una serie de asesinatos que parecen implicar al propio Lucifer.
En la novela aparece un periodista del Post, Bryce Harriman, que investiga también estas misteriosas muertes. El periodista decide entrevistar, para recabar información sobre esta serie de asesinatos relacionados con el diablo, al profesor Friedrich Von Menck, doctor en filosofía por la Universidad de Heidelberg (Alemania), en medicina por la Universidad de Harvard (EE.UU.) y en teología por la Universidad de Canterbury (Nueva Zelanda), pero que siempre se había interesado por el misticismo, lo paranormal y lo inexplicable, lo cual le hace un candidato ideal, según el periodista, para hablar de los “asesinatos del diablo”. Una mezcla de científico y apasionado de los temas esotéricos.
Leamos la parte de la novela en la que el periodista Harriman está en casa de Von Menck preguntándole por los “asesinatos del diablo”.
“—Lo de menos son las personas y la manera. Lo decisivo es el momento.
Von Menck se levantó para abrir una de las vitrinas y sacar algo, Lo trajo y lo dejó sobre la mesa, delante de Harriman. Era una sección de concha de nautilo, con sus celdas de crecimiento formando una espiral de hermosa regularidad.
—Señor Harriman, ¿sabe qué hay en común entre esta cocha, el Partenón, los pétalos de una flor y las pinturas de Leonardo da Vinci?
Harriman negó con la cabeza.
—Que encarna la proporción más perfecta de la naturaleza, la proporción áurea.
—No sé si le entiendo.
—Es la proporción que se obtiene al dividir una línea de modo que el segmento más corto sea al segmento más largo, lo mismo que el segmento más largo a la línea entera.
Harriman lo anotó con la esperanza de entenderlo más tarde.
—El segmento más largo es 1,618054 veces más largo que el segmento más corto. El segmento más corto representa el 0,618054 por ciento del más largo. Son dos números exactamente recíprocos, que solo se diferencian en el primer dígito. Se trata de los dos únicos números que presentan esta propiedad.
—Ah, claro.
Las matemáticas nunca habían sido su fuerte.
—Y tienen otras propiedades muy notables. Se considera que un rectángulo construido con lados de estas longitudes es la forma más agradable a la vista. Recibe el nombre de rectángulo áureo. La planta del Partenón se construyó según esta figura. Y en ella se basan catedrales y pinturas. Estos rectángulos tienen otra propiedad destacable: si se recorta un cuadrado en cada lado se obtiene un rectángulo áureo de menor tamaño, pero con las mismas proporciones. Se pueden recortar cuadrados y obtener rectángulos dorados más pequeños hasta el infinito.
—Comprendo.
—Bueno, pues si parte de un rectángulo grande y lo reduce a una serie infinita de rectángulos áureos más pequeños, y si después conecta todos los centros de los rectángulos, obtendrá una espiral logarítmica natural perfecta. Es la espiral que está viendo en la cocha del nautilo, la misma que forman las semillas en la cabeza del girasol, y de la armonía musical. La proporción áurea es una característica básica del mundo natural.
—Ajá.
—Es una proporción que forma parte de la estructura del universo.”
Paremos un momento en este punto, en el cual el periodista Harriman piensa que ha perdido el tiempo al ir a entrevistar al profesor Von Menck. No entiende nada y no cree que las personas que van a leer el Post entiendan tampoco nada. Paremos un momento para recordar algunos de los conceptos matemáticos que aparecen citados.
Para empezar, recordemos que es el número áureo, que ya hemos introducido en el Cuaderno de Cultura Científica, por ejemplo, en la entrada Visitad los museos, también en clave matemática y en la entrada ¿Es áureo el Aston Martin de James Bond?. La proporción áurea es un concepto matemático muy antiguo, que ya fue estudiado por los griegos, en particular, por los pitagóricos. La definición de esta proporción aparece recogida en el gran texto matemático, Los Elementos de Euclides (aprox. 325-265 a.c.). Y dice así:
“Se dice que un segmento está dividido en media y extrema razón cuando la longitud del segmento total es a la parte mayor, como la de esta parte mayor es a la menor”.
Es decir, si tenemos un segmento como el que aparece en la siguiente imagen, buscamos el punto del mismo que divide al segmento en dos partes, de longitudes a y b, de forma que la proporción o razón (división) entre la parte mayor y la menor, a/b es igual a la proporción entre la longitud del segmento y la parte mayor (a + b)/a.
Ahora, si llamamos Φ al cociente a/b, la condición anterior se puede escribir como la ecuación algebraica siguiente:
Esta es una ecuación algebraica de segundo grado, cuyas soluciones, sin más que utilizar la conocida fórmula de resolución de la ecuación de segundo grado que estudiamos en el instituto, son:
Si tenemos en cuenta que la inversa de Φ, es decir, Φ-1, es b/a, entonces la propia expresión de la definición nos dice que
Φ = 1 + Φ-1,
es decir, que ambas soluciones se diferencian en 1, como se comenta en la novela. Aunque el número que aparece citado en la misma, “1,618054”, no es exactamente el número áureo, que más bien, por aproximación sería “1,618034”, ahí se ha colado un 5, en lugar de un 3.
Un pequeño error. Cuando se dice que “El segmento más corto representa el 0,618054 por ciento del más largo”, lo correcto sería que “El segmento más corto representa el 0,618054 del más largo”, sin la expresión “por ciento”.
Sigamos. Un rectángulo áureo es un rectángulo de dimensiones a (alto) y b (ancho), tal que la proporción entre ambas, a/b, es el número áureo, Φ = 1,618033…, como aparece en la siguiente imagen y no como está escrito en la novela, es decir, que los lados del rectángulo sean “1,618034” (Φ) y “0,618034” (Φ-1),… “Se considera que un rectángulo construido con lados de estas longitudes es la forma más agradable a la vista. Recibe el nombre de rectángulo áureo”. En cuanto a que sea el rectángulo más bello que existe, esa es una creencia basada en la supuesta demostración estadística del sicólogo alemán Gustav Fechner (1801-1887).
Una interesante reflexión sobre las supuestas relaciones del rectángulo áureo con la belleza, el Partenón, el arte de Leonardo da Vinci y algunas otras cuestiones, la encontramos en el artículo Misconceptions about the Golden Ratio (Ideas erróneas sobre la proporción áurea), del matemático, de la Universidad de Harvard, George Markowsky.
Una propiedad interesante de los rectángulos áureos es que se pueden construir fácilmente a partir de un cuadrado, como se muestra en la siguiente imagen. Se parte de un cuadrado ABDE (en la imagen se ha considerado de lado 1) y se traza un arco de circunferencia, con centro el medio M del lado del cuadrado AB y de radio igual al segmento ME, determinando así el punto C (la intersección de la recta que pasa por A y B, con el arco de circunferencia), de forma que el rectángulo generado ACDF resulta ser un rectángulo áureo.
Esta es una forma sencilla de construir rectángulos áureos, que puede ser desarrollada por personas dedicadas, por ejemplo, al arte o la jardinería.
Pero esta propiedad pone de manifiesto, como se expresa en la cita anterior (aunque de una forma un poco confusa), que un rectángulo áureo puede descomponerse en un cuadrado y un rectángulo más pequeño, con la sorprendente propiedad de que resulta ser también un rectángulo áureo. Ahora, con este rectángulo áureo más pequeño podríamos, a su vez, descomponerlo en un cuadrado y un rectángulo áureo, así hasta el infinito.
Si se considera un trozo de circunferencia en cada uno de los cuadrados de la descomposición, como aparece en la siguiente imagen, se construye lo que se conoce como “espiral áurea”.
A pesar de lo que se suele leer en muchos sitios, ni esta espiral, ni la construida con segmentos rectos, al unir los centros de los cuadrados, según la novela, son la espiral logarítmica o espiral del crecimiento que aparece en el nautilus.
La espiral logarítmica, que aparece en la siguiente imagen, se define como aquella espiral cuyo radio aumenta de forma exponencial según va creciendo el ángulo de giro (θ en la imagen), es decir, matemáticamente la longitud del radio es igual a r(θ) = a ebθ.
Y esta espiral sí modeliza la sección de la concha del nautilus.
Disculpad que me haya entretenido un poco con estos conceptos iniciales y algunas cuestiones relacionadas. Volvamos a la novela La mano del diablo, de la pareja de escritores Preston y Child. La persona que este leyendo la novela se preguntará en el punto en el que habíamos dejado la cita, al igual que el periodista del Post, … ¿todo esto para qué? ¿qué tiene que ver con los “asesinatos del diablo”? Para dar respuesta a esta cuestión volvamos a la novela, puesto que toda la cita anterior es una introducción a lo que es el asunto principal, que explica el profesor Von Meck a continuación.
“—Se lo voy a explicar. He dedicado toda mi vida a estudiar lo misterioso y lo inexplicable. En muchos casos, la solución del misterio me ha satisfecho del todo. Otros misterios, casi siempre los de mayor importancia, se me siguen resistiendo.
Von Menck cogió un papel de la mesa, hizo unas anotaciones y se lo puso delante de Harriman: 3243, 1239. Dio un golpecito en la hoja.
—Para mí, estos números siempre han representado el mayor de los misterios. ¿Los reconoce?
Harriman negó con la cabeza.
—Identifican los dos mayores cataclismos que ha sufrido la civilización humana. En 3243 a.C., la explosión de la isla Santorini produjo un maremoto que barrió la gran civilización minoica de Creta y devastó todo el Mediterráneo. Es la fuente tanto de la leyenda de la Atlántida como de la del Diluvio Universal. En 1239 a.C., las ciudades gemelas de Sodoma y Gomorra fueron reducidas a cenizas por una lluvia de fuego.
—¿La Atlántida? ¿Sodoma y Gomorra?
La cosa empeoraba.”
Tras una larga explicación sobre la Atlántida y Sodoma y Gomorra, el profesor Von Menck continúa con su teoría, para lo cual es necesario saber que la novela transcurre en el año 2004, luego ese es el año de los “asesinatos del diablo”.
“Von Menck cogió la hoja de papel y escribió otro número debajo de los dos primeros: 3243, 1239, 2004
—2004 d.C., señor Harriman. Constituye el término de la proporción áurea. Han pasado exactamente 5246 años desde 3243 a.C.: la proporción áurea. La siguiente fecha de la serie es 2004 d.C. Resulta que también es el número exacto de años que separan los desastres anteriores. ¿Una coincidencia?
Harriman se quedó mirando el papel. “¿Está diciendo lo que creo?”, pensó. Parecía increíble, una locura.”
Lo que está diciendo Von Menck, entre otras cosas, es que si se toma el segmento de tiempo que va desde el año 3243 a.C. hasta el año 2004 d.C., el punto que está en “media y extrema razón”, es decir, el que produce la proporción áurea, es el año 1239 a.C., como se muestra en la siguiente imagen.
Continuemos leyendo.
“Se acercó a otra vitrina y sacó una cartulina blanca que tenía dibujada una espiral de grandes dimensiones, como la concha de un nautilo. En la parte inferior había una anotación en lápiz rojo: “3243 a.C. – Santorini/Atlántida”. A dos tercios de la curva, otra anotación en rojo: “1239 a.C. – Sodoma/Gomorra”. En otros puntos de la espiral, una serie de marcas en negro componían una lista de decenas de fechas y lugares:
79 d.C. – La erupción del Vesuvio destruye Pompeya/Herculano.
426 d.C. – Caída de Roma, saqueada y destruida por los bárbaros.
1321 d.C. – La peste azota Venecia. Mueren dos tercios de la población.
1665 d.C. – Gran incendio de Londres.
Y justo en el centro, donde la espiral se cerraba sobre si misma y terminaba en un gran punto negro, había otra anotación en rojo, la tercera: 2004 d.C. ¿…?
Von Menck dejó la cartulina en equilibrio sobre la mesa.
Como ve, he levantado acta de muchos desastres y todos coinciden con puntos exactos de la espiral logarítmica natural. Todos están perfectamente alineados en proporciones áureas.”
Lo importante del anterior comentario es que las fechas de los desastres “están perfectamente alineados en proporciones áureas” y la continua mención a la “espiral logarítmica natural” es más bien metafórica, salvo por la idea de que esas fechas de desastres van aproximándose a la fecha límite, la fecha final, el año 2004, que es cuando se desarrolla la historia de la novela.
Mientras que las tres primeras fechas mencionadas por el profesor 3243 a.C., 1239 a.C. y 2004 d.C. efectivamente están situadas en proporción áurea, en el sentido explicado arriba, no sucede lo mismo cuando se consideran las nuevas fechas de desastres presentadas por Von Menck. Contrariamente a lo expresado por el profesor, las cuentas no salen, no están en proporción áurea.
Los autores de la novela, Preston y Child, son conscientes de ello, solamente quieren darle un aire de misterio satánico a los acontecimientos que se desarrollan en la novela, a los “asesinatos del diablo”. Y que los autores son conscientes de que las cuentas no salen para las demás fechas lo sabemos leyendo los agradecimientos, en los que han escrito:
“Para acabar, queremos pedir disculpas […] de la aplicación incorrecta de la proporción áurea del profesor Von Menck.”
La razón áurea, divina proporción o número de oro aparece en muchas novelas policiacas y de misterio, como la famosa El código Da Vinci (Umbriel, 2004), de Dan Brown.
Bibliografía
1.- Douglas Preston, Lincold Child, La mano del diablo, Plaza & Janés, 2005.
2.- Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, Ariel, 2006.
3.- George Markowsky, Misconceptions about the Golden Ratio, The College Mathematical Journal 23, n. 1, 1992.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Crímenes áureos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: