S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 43 min 42 sec

Un viaje a Serendipia

dim, 2017/12/24 - 11:59

Serendipia. Hallazgo valioso que se produce de manera accidental o casual.”
Chiripa. 1. Carambola, casualidad favorable. 2. En el juego de billar, suerte favorable que se gana por casualidad.”
Diccionario de la Real Academia

En el campo de la investigación el azar no favorece más que a los espíritus preparados.”
Louis Pasteur

La inspiración existe pero tiene que encontrarnos trabajando.”
Pablo Picasso

Las ideas experimentales frecuentemente nacen a partir de una observación casual, por ello representan la forma más sencilla de comenzar un trabajo científico.”
Claude Bernard

El 28 de enero de 1754, Horace Walpole, cuarto Conde de Orford, hijo de un Primer Ministro y famoso escritor, envió una carta a Sir Horace Mann, amigo y embajador en Florencia, e incluyó en el texto un término recién inventado, serendipity o, en español, serendipia. Walpole construye el término a partir de una antigua fábula asiria titulada “Los tres príncipes de Serendip”, que, en sus viajes, “siempre descubrían, por accidente o por sagacidad, cosas que no estaban buscando”.

Serendip es el antiguo nombre de la isla de Ceilán, hoy conocida como Sri Lanka. Como ejemplo nos sirve aquella aventura en la que los príncipes describen un camello, al que no han visto, y afirman que está ciego del ojo derecho porque en el camino que recorre solo está comida la hierba del margen izquierdo, la única que ve con su ojo sano. O que lleva una carga de mantequilla y miel, cada una en un costado, pues en una cuneta hay hormigas comiendo y en el otro un enjambre de abejas, avispas y moscas. Las hormigas comen la mantequilla y los otros insectos la miel. Estos príncipes más bien me parecen ancestros de Sherlock Holmes que viajeros con suerte que descubren por casualidad.

Así explica Walpole a su amigo Mann lo que significa serendipia. Ahora, en nuestro tiempo, se usa serendipia en ciencia para describir un hallazgo inesperado y afortunado.

La palabra casi se olvidó hasta que, en 1955, Salvador Luria, después Premio Nobel en 1969, iniciaba un artículo sobre los virus llamados fagos, que destruyen bacterias, con este párrafo: “Nuestra historia tiene como episodio crítico una de esas coincidencias que muestran como el descubrimiento depende a menudo del azar o, más bien, de lo que se ha llamado serendipia –la observación casual que llega a un ojo receptivo”.

Para Pablo Capanna, las serendipias son ocasiones irrepetibles que no suponen un conocimiento fácil y listo para captar. Dependen de una mente alerta, entrenada y con los conocimientos suficientes como para entender lo que aparece de improviso. Hay que saber cómo sacar provecho de la serendipia. Solo lo consigue quien es capaz de ver lo que la mayoría deja pasar, eso que está delante de los ojos. A menudo parece un golpe de suerte pero, más bien, es la conclusión de un razonamiento en segundo plano según se está atento a otra cosa.

El camino que sigue la investigación científica no siempre es lineal ni predecible o, si se quiere, no se puede planificar al detalle. Las rutinas metodológicas ordenan la búsqueda, ahorran tiempo, garantizan la objetividad y evitan fantasías, pero no lo son todo ni aseguran los resultados. Es el inconveniente de los proyectos demasiado específicos y con objetivos muy concretos, pues así no se permite captar los imprevistos. Después de todo esos proyectos se preparan a partir de lo que ya conocemos y no es fácil, más bien no es posible, que planifiquen lo desconocido. Por ello es importante, por un lado, que se deje a los científicos elegir lo que investigan y que, además, siempre exista un componente importante de investigación básica. Y, por otra parte, que los que hagan ciencia estén bien provistos de conocimientos básicos y así les será más sencillo detectar lo inesperado.

También Peter Medawar, Premio Nobel en 1960, escribió que cualquier científico que no sea hipócrita reconocerá el papel de la suerte en los descubrimientos. Para Medawar, un descubrimiento científico nunca es premeditado. Un acto de la imaginación, una aventura especulativa, subyace, por tanto, en todo avance del conocimiento.

Veamos algunos ejemplos de serendipia, aunque no trataré a fondo el más famoso de todos: la llegada a América de Cristóbal Colón, que no solo no encontró lo que buscaba, las Indias y sus riquezas, sino que encontró un continente, América, que no buscaba y que, además, nunca aceptó que lo había hecho y que se había equivocado. Murió convencido de haber llegado a las Indias. Esto sí que es una serendipia sin querer, sin buscarla.

Empezaré con otra serendipia famosa como es el descubrimiento de la penicilina por Alexander Fleming, también Premio Nobel en 1945.

He conocido recientemente un relato del descubrimiento de la penicilina escrito por un testigo directo, el profesor Melvyn Price, colega y amigo de Fleming, y su visitante en el laboratorio en el momento de serendipia de encontrar e interpretar la placa contaminada con el moho Penicillium. Fue en 1928. Fleming estaba haciendo una serie de estudios con estafilococos para incluirlos en un manual de Microbiología de próxima aparición. Price había iniciado los experimentos y luego había marchado del laboratorio sin terminarlos. Fleming los estaba completando. Así que estaba rodeado de placas con cultivos de estafilococos y encontró una de ellas con una contaminación con moho. La observó y, según relata Price, vio donde crecía el moho y que había zonas cercanas de donde habían desaparecido los estafilococos. Comentó para sí mismo “That is funny…”, o sea, “Esto es curioso…”. Tomó una muestra y la guardó para próximos estudios. Fue su primer cultivo con el hongo Penicillium chrysogenum, productor de la penicilina. Fleming guardó toda su vida esa primera placa contaminada.

Otro ejemplo de serendipia es la invención del estetoscopio, el instrumento tan conocido y peculiar que utilizan los médicos para escuchar cómo sonamos por dentro. Antes del estetoscopio, el médico colocaba su oído directamente sobre el pecho del paciente. Pero había dificultades para escuchar con claridad en los obesos y, además, las mujeres no se sentían cómodas pues consideraban que su intimidad se veía invadida.

Fue el médico francés René Laënnec quien encontró la solución en 1816. Observó a unos niños que jugaban en la calle con una tabla de madera. Uno de ellos golpeaba muy suave uno de los extremos y los demás escuchaban los golpes desde el otro extremo. Pensó que el sonido se transmitía bien en un sólido y que, quizá, así conseguiría escuchar mejor los sonidos del interior del cuerpo humano. Primero ensayó con un cilindro de papel y constató que mejoraba el sonido. Entonces encargó que le fabricaran un cilindro de madera, abombado por los dos extremos, de 30 centímetros de longitud, 3 centímetros de diámetro y un conducto interno central de 5 milímetros de ancho. Este fue el primer estetoscopio.

Y ahora, la historia de la droga LSD o dietilamida de ácido lisérgico. Fue, como en toda serendipia, una casualidad que necesitaba de un científico atento y preparado para percibirla. Era Albert Hofmann, investigador de la compañía farmacéutica Sandoz en Basilea, Suiza. Trabajaba con compuestos formados por el ácido lisérgico con varias amidas para conocer sus posibles propiedades estimulantes sobre la circulación y la respiración, el alivio de las migrañas y para detener hemorragias en el parto. El compuesto número 25 era la dietilamida del ácido lisérgico. El día era el viernes 16 de abril de 1943 y así lo relató Hofmann años más tarde a partir de su cuaderno de laboratorio y del informe que preparó para su director.

El viernes pasado, 16 de abril de 1943, me vi obligado a detener mi trabajo en el laboratorio y regresar a casa, pues sentía una inquietud peculiar asociada con una sensación de leve mareo. Al llegar a casa, me tumbé y caí en una especie de embriaguez que no era desagradable y que se caracterizaba por la extrema actividad de la imaginación. Mientras estaba en un estado aturdido con los ojos cerrados (experimentaba la luz del día como desagradablemente brillante), surgió sobre mi un flujo ininterrumpido de fantásticas imágenes de extraordinaria plasticidad y vivacidad y acompañado por un intenso y caleidoscópico juego de colores. Esta condición pasó gradualmente y terminó después de cerca de dos horas.”

Hofmann quedó impresionado por lo que había provocado aquella molécula que llamaba LSD-25 y comenzó a hacer ensayos cuidadosos consigo mismo. Tres días después, el 19 de abril, se administró una dosis de 0.25 miligramos. En su cuaderno de laboratorio hay una sola nota sobre aquella sesión: “Deseo de reír”. Montó en su bicicleta y se marchó a su casa acompañado por un colega del laboratorio. Tuvo la placentera sensación de que, durante todo el trayecto, permaneció inmóvil. Entre los aficionados al LSD de todo el mundo, ese 19 de abril se conoce como “El Día de la Bicicleta”. Así demostró Hofmann las extraordinarias propiedades del LSD-25.

Después de estos ejemplos, con el primer antibiótico, un instrumento médico como el estetoscopio, y una droga como el LSD, podemos terminar afirmando que la ciencia, vista la contribución de las serendipias, no avanzaría si los investigadores no fueran capaces de responder a lo inesperado y de conectar lo sorprendente con lo rutinario. Además, y como escribió Alexander Fleming años después de su descubrimiento, “La historia de la penicilina tiene un cierto encanto y ayuda a ilustrar la cantidad de azar o fortuna, de fatalidad o destino, llámenlo como quieran, que hay en la carrera de alguien.” Para los científicos, no todo son objetivos a cumplir y planificación, también hay mucho trabajo e intuición y, siempre, muchos conocimientos.

Para terminar y como resumen, ocho puntos sobre la serendipia que ofrece Peter Van Andel, de la Universidad de Groningen. Aquí van:

1.- La serendipia existe.

2.- En las áreas más empíricas (astronomía, química, medicina) los hallazgos por serendipia son habituales.

3.- La serendipia ayuda, es esencial y no debe ser subestimada ni exagerada.

4.- La investigación científica sistemática y la serendipia no se excluyen sino que, más bien, se complementan.

5.- En general, la serendipia tiene a desparecer o a ser disimulada en las narraciones a posteriori cuando se publican los resultados; se racionaliza el método y no hay lugar a la casualidad.

6.- Antes decíamos por suerte o por casualidad, ahora decimos por serendipia.

7.- La mayor parte de los que aceptan y practican la serendipia son de mente abierta, perceptivos, curiosos, intuitivos, ingeniosos, flexibles, artistas, con sentido del humor y laboriosos.

8.- La intuición es una anticipación que no puede ser explícita antes o cuando ocurre y, entonces, la serendipia, por definición, sigue a la intuición.

Referencias:

Bunge, M. 2013. La ciencia: su método y su filosofía. Laetoli. Pamplona. 144 pp.

Capanna, P. 2011. Serendipias. Los descubrimientos que se realizan por “casualidad”. Página 12 Futuro Diciembre 3.

Coppo, J.A. 2012. Serendipia. Revista Veterinaria 23: 71-76.

Darbellay, F. et al. 2014. Interdisciplinary research boosted by serendipity. Creativity Research Journal doi: 10.1080/10400419.2014.873653

Forni, P. 2011. Robert Merton. Miriada 4: 1-4.

Hofmann, A. 1970. The discovery of LSD and subsequent investigations on naturally occurring hallucinogens. En “Discoveries in Biological Psychiatry”, p. 98-109. Ed. por F.J. Ayd, Jr. & B. Blackwell. J.B. Lippincott Co. Philadelphia/Toronto. 254 pp.

Luria, S.E. 1955. The T2 mystery. Scientific American 192: 92-98.

Maurois, A. 1963. La vida de Sir Alexander Fleming. Eds. Cid. Madrid. 318 pp.

Medawar, P.B. 1988. Los límites de la ciencia. Fondo de Cultura Económica. México. 141 pp.

Roberts, R.M. 1992. Serendipia. Descubrimientos accidentales en ciencia. Alianza Ed. Madrid. 443 pp.

Stix, G. 2011. El primer “viaje” alucinógeno. Investigación y Ciencia enero: 7.

Taton, R. 1967. Causalidad y accidentalidad de los descubrimientos científicos. Ed. Labor. Barcelona. 172 pp.

Valer, N.B. 2005. A serendepidade na Medicina e na Anestesiologia. Revista Brasileira de Anestesiologia 55: 224-249.

Van Andel, P. 1994. Anatomy of the unsought finding serendipity: origin, history, domains, traditions, appearances, patterns and programmability. British Journal for the Philosophy of Science 45: 631-648.

Villanueva Meyer, M. 2012. René Laënnec (1781-1826): Inventor del estetoscopio y maestro del examen médico. Galenus 35: 70-71.

Villanueva Meyer, M. 2014. Alexander Fleming: Pionero en el uso de la penicilina. Galenus 47: 68-69.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Un viaje a Serendipia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Serendipia
  2. Viaje a la dimensión desconocida
  3. El frustrante viaje de un átomo de carbono, mención especial del jurado “On zientzia”
Catégories: Zientzia

Naukas Bilbao 2017 – Diana González: Identidad digital y robots

sam, 2017/12/23 - 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

Diana González nos plantea una cuestión muy simple: ¿de verdad eres capaz de diferenciar entre un humano y un robot?

Diana González (Pamplonetario): Identidad digital y robots

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – Diana González: Identidad digital y robots se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma
  2. Naukas Bilbao 2017- Daniel Torregrosa: ¡Estamos rodeados!
  3. Naukas Pro 2017: Leni Bascones y los superconductores
Catégories: Zientzia

Las barreras a los edificios de consumo de energía casi nulo en el sur de Europa

ven, 2017/12/22 - 17:00

En los próximos años, existe un compromiso legal de todos los países de Europa para mejorar la eficiencia energética de los edificios que se traduce en construir edificios de consumo de energía casi nulo (EECN, o nZEB en inglés), es decir, edificios con un consumo energético mínimo. La Directiva 31/2010/EU fija dos fechas clave: todos los edificios públicos deberán ser EECN a partir del 1 de enero de 2019 y dos años más tarde, el 1 de enero de 2021, deberán serlo todos los edificios de nueva construcción. “Falta sólo un año para el primer compromiso, y sin embargo, muchos países están lejos de alcanzar ese nivel de eficiencia energética en los edificios. Los países que más han avanzado en este reto son los países del centro y norte de Europa”, explica Juan María Hidalgo, coautor del estudio.

Imagen térmica de un bloque de viviendas del País Vasco construido en los años setenta del siglo pasado, donde se evidencia la pérdida de calor por falta de aislamiento. Imagen: Juan María Hidalgo / UPV/EHU.

Esta investigación liderada por la Université de Liege ha sido realizada por más de una docena de investigadores Europeos y analiza la situación de la edificación en siete países del sur de Europa (Chipre, Francia, Grecia, Italia, Portugal, Rumanía y España). Cada país tiene matices en las definiciones técnicas que hacen muy difícil la comparación directa de las normativas y programas de impulso de los EECN. Por ello, “los participantes en el estudio hicimos un esfuerzo para consensuar una metodología común. Era la única manera de hacer comparaciones reales de igual a igual”, añade Hidalgo.

La investigación se ha centrado en el estudio comparativo de las barreras sociales y tecnológicas para el desarrollo de los EECN tanto en la nueva construcción como en la rehabilitación del inmobiliario existente. Hasta ahora, muchos estudios justificaban los retrasos sur-norte debido al contexto económico. Sin embargo, este trabajo ha mostrado que hay otras barreras, como las sociológicas y las condiciones climatológicas de cada país que afectan y mucho a la consecución de los objetivos de los edificios de consumo de energía casi nulo. “La escasa formación de prácticamente todos los agentes, desde la administración, pasando por los operarios de la construcción, hasta la ciudadanía hay una gran cadena humana en la que todavía no se comprende en qué consiste un EECN y cómo conseguirlo”, subraya Hidalgo. Por otro lado, “el diseño de edificios debe ser estudiado más a detalle para solucionar los cambios de estación como el invierno y el verano etc”, añade Hidalgo. “El País Vasco puede ser un buen banco de pruebas para ello ya que tiene casi todas las climatologías del estudio. A pesar de ser un territorio pequeño tenemos que aplicar criterios de diseño muy distintos en zonas de costa, zonas de montaña, zonas del sur…”.

“Si estas barreras no se solucionan, es muy probable que haya insatisfacción con el resultado real, ya que podrían darse problemas de confort térmico, sobrecalentamiento, sobrecostes innecesarios en la construcción etc. a menudo empeorados por un mal funcionamiento de los edificios”, comenta el investigador. Para ello, “el estudio propone mejoras para las normativas, diseño, construcción y uso para de este tipo de edificios”, añade.

Asimismo, el investigador afirma que es más fácil construir un EECN nuevo por las posibilidades de ubicación y orientación, el empleo de materiales nuevos y tecnologías integradas en el diseño, que llevar este concepto al ámbito de la rehabilitación, pues hay menos flexibilidad de maniobra y los costes también aumentan.

Según Juan María Hidalgo, “esperamos que este trabajo contribuya a solucionar las principales dificultades del sector y nos permita llegar al 2020 con un sector de la edificación más preparado, con mejores herramientas y mayor concienciación”. De este modo, “se podrán construir EECN que satisfagan las necesidades de todas las personas, con el mínimo coste y el menor impacto ambiental posible”.

Referencia:

Shady Attia, Polyvios Eleftheriou, Flouris Xeni, Rodolphe Morlot, Christophe Menézo, Vasilis Kostopoulos, Maria Betsi, Iakovos Kalaitzoglou, Lorenzo Pagliano, Maurizio Cellura, Manuela Almeida, Marco Ferreira, Tudor Baracu, Viorel Badescu, Ruxandra Crutescu, Juan Maria Hidalgo-Betanzos (2017) Overview and future challenges of nearly zero energy buildings (nZEB) design in Southern Europe Energy and Buildings doi: 10.1016/j.enbuild.2017.09.043

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Las barreras a los edificios de consumo de energía casi nulo en el sur de Europa se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los edificios y el mar
  2. ¿Son eficientes las plantas de energía marina?
  3. Comunicar la ciencia a la sociedad: el reto de Europa
Catégories: Zientzia

La espaguetización cerca de un agujero negro

ven, 2017/12/22 - 12:00

La espaguetización es el efecto de las fuerzas de marea gravitacionales sobre un astronauta flotando en el espacio cerca de un agujero negro. Cuando estás de pie en el suelo hay una diferencia entre la aceleración de la gravedad en tu cabeza y en tus pies, pero es tan pequeña que no notas nada. Sin embargo, cerca de un objeto de gran masa, como un agujero negro de masa estelar, la diferencia puede ser grande. Conforme te acerques al agujero negro pasará de ser incómoda a un doloroso potro de tortura medieval que te acabará desmembrando.

La diferencia entre las fuerzas gravitacionales en los pies y en la cabeza de un astronauta cerca de un agujero negro. Traducción de la figura 1 de Phys. Educ. 53: 015010 (2018).

Los agujeros negros son muy pequeños, tanto que son los objetos astrofísicos más compactos que se conciben. Su tamaño viene dado por el radio de Schwarzschild de su horizonte de sucesos, la frontera más allá de la cual ni siquiera la luz puede escapar. Este radio es proporcional a su masa, en concreto, R = 2 G M/c2, donde G = 6,67 × 10−11 N · m2 kg−2 es la constante de gravitación universal de Newton, c = 3,00 × 108 m/s es la velocidad de la luz en el vacío y M es la masa del agujero negro. La masa de un agujero negro se suele medir en unidades de masa solar (M☉), luego su radio R = 2,95 (M/M☉) km. Por ejemplo, un agujero negro de 10 masas solares tendrá un radio de 29,5 km y uno de 100 masas solares un radio de solo 295 km.

Para calcular la diferencia de fuerzas gravitacionales entre la cabeza y los pies de un astronauta hay que usar un modelo de esta persona junto con su traje espacial. Supongamos que mide 1,70 metros de altura con el traje puesto y que su masa es de 150 kilogramos (unos 80 kg para el traje espacial y unos 70 kg para su peso). Para hacer los cálculos más sencillos vamos a suponer que la cabeza con casco y los pies con botas pesan lo mismo, sean m = 20 kg cada uno, no viéndose afectado el resto del cuerpo; además, supondremos que la distancia entre los centros de masa de la cabeza y de los pies es d = 1,50 m. Un cálculo sencillo [1] nos dice que la diferencia de fuerzas entre la cabeza y los pies es ∆F = R m c2 d/r3, donde m es la masa común de pies y cabeza, d es la distancia que separa sus centros de masa y r es la distancia que separa el centro de masas del astronauta y el centro del agujero negro.

Astronauta colgado a pocos metros sobre la superficie de la Tierra soportando un peso bajo sus pies. Figura 3 de Phys. Educ. 53: 015010 (2018).

Usando la fórmula anterior puedes hacer los cálculos para cualquier agujero negro que desees. Solo como ejemplo supondré un agujero negro de 10 masas solares y 61 km de diámetro, con lo que ∆F = 3,11 × 109 / (­r/R)3 newtons (N). Para un astronauta a una distancia de 200 radios de Schwarzschild, unos 5900 km, se obtiene ∆F = 388 N; esto equivale a soportar unos 40 kg de peso sujeto a los pies de un astronauta que esté colgado por un cable de acero a pocos metros de la superficie terrestre (como ilustra la figura 2). Quizás sea algo incómodo, pero se puede soportar sin problemas.

La distancia más próxima al agujero negro que podrá soportar el astronauta depende de lo que soporte su cuerpo. Pero seguro que estará muy incómodo a una distancia 130 radios de Schwarzschild, unos 3800 km, pues ∆F = 1400 N; esto equivale a soportar unos 140 kg de peso bajo los pies. ¿Cuánto podrá soportar hasta que empiece a desmembrarse? A una distancia de 100 radios de Schwarzschild, unos 3000 km, soportará ∆F = 3100 N, un peso colgante de unos 310 kg tirando de los pies. ¿Podría acercarse a unos 1500 km del agujero negro? No, pues a unos 50 radios de Schwarzschild debería ser capaz de soportar unos 2500 kg de peso colgados de los pies.

Diferencia de fuerzas gravitacionales entre pies y cabeza para un astronauta en función de la distancia a un agujero negro de diez masas solares. Figura 2 de Phys. Educ. 53: 015010 (2018).

Los agujeros negros son objetos muy pequeños y el disco de acreción de materia que les rodea suele tener menos de 10 radios de Schwarzschild de diámetro. El ojo humano tiene una resolución angular mínima de un minuto de arco, o sea, unos 30 cm a 1 km de distancia (0,3 miliradianes). La Luna y el Sol tienen un diámetro aparente en el cielo de unos 9 miliradianes. Para ver el disco de acreción de un agujero negro con un tamaño similar al de la Luna en el cielo hay que acercarse a unos 1100 radios de Schwarzschild; a esa distancia las fuerzas de marea gravitacionales serán tan pequeñas que el astronauta no las notará.

¿Qué pasa con un agujero negro sin disco de acreción? Un agujero negro sin disco de acreción deforma la imagen del fondo estelar a su alrededor gracias a su efecto como lente gravitacional. Para disfrutar de este efecto (muy popular en las representaciones artísticas de los agujeros negros que decoran las noticias sobre las ondas gravitacionales detectadas por LIGO/Virgo) hay que acercarse a unos 220 radios de Schwarzschild. Por fortuna a esa distancia el astronauta sentirá que sus pies le pesan un poco, pero por lo demás estará perfectamente cómodo.

En la divulgación de la Física una fórmula vale más que mil palabras. Te animo a usar la fórmula que decora este texto para realizar cálculos con otros agujeros negros, estrellas de neutrones y cuerpos astrofísicos. Sobre todo si eres profesor de enseñanza secundaria; vamos, anima a tus alumnos a realizar estos cálculos sencillos. La mejor manera de apreciar lo pequeños que son los agujeros negros es calcular cuánto nos podemos acercar a ellos para verlos con el mismo detalle con el que vemos la Luna en el cielo.

Este post ha sido realizado por Francis Villatoro (@Emulenews) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Referencias

[1] Stylianos V. Kontomaris, Anna Malamou, “A presentation of the black hole stretching effect,” Physics Education 53: 015010 (2018), doi: 10.1088/1361-6552/aa8d22.

El artículo La espaguetización cerca de un agujero negro se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Tiene límite el tamaño de un agujero negro?
  2. #Quantum13 ¿Clásico o cuántico? La paradoja del agujero negro
  3. Un agujero negro de laboratorio con radiación de Hawking caliente
Catégories: Zientzia

Catástrofe Ultravioleta #22 HUMOR

jeu, 2017/12/21 - 17:00

Catástrofe Ultravioleta #22 HUMOR

A finales de los años cincuenta un tipo de gesto arisco se paseaba por los pasillos de los principales estudios de televisión empujando un misterioso carrito. En su interior había una caja cuyo contenido cambiaría la historia de la televisión y al forma en que hoy en día entendemos el humor. Para saber qué contenía tendrás que acompañarnos un ratito.

Agradecimientos: Ángel Martín, Berto Romero, Diego Cuevas, Ernesto Sevilla, Joaquín Reyes, Santiago de Luca, Pedro Toro, Raquel Sastre, Miguel Noguera, Antonio Castelo, Patricia Sornosa, José María del Río, Ray Jaén, Manuel Arias, el efecto halo y las risas de la gente muerta.

* Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.

El artículo Catástrofe Ultravioleta #22 HUMOR se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Preparados para una Catástrofe Ultravioleta
  2. Catástrofe Ultravioleta #13 LEVIATÁN
  3. Catástrofe Ultravioleta #14 VULCANO
Catégories: Zientzia

Revistas predadoras y la Ley de Goodhart

jeu, 2017/12/21 - 11:59

Ilustración de Dusan Petricic

Cuando una medida se convierte en un objetivo deja de ser una buena medida, dice la Ley de Goodhart, bien conocida en el campo de la sociología. Y si lo pensamos un poco es lógico:Los humanos somos, bueno, humanos, de manera que consciente o inconscientemente tendemos a tomar el camino del mínimo esfuerzo hacia el cumplimiento de nuestros objetivos. Si el objetivo es una medida concreta buscaremos la manera de alcanzarla con el menor coste para nosotros, tenga o no tenga sentido desde el punto de vista de la intención original; como en el viejo chiste soviético, si el objetivo de la factoría es hacer 1.000 toneladas de tornillos podemos cumplirlo fabricando un único tornillo de 1.000 toneladas, aunque sea perfectamente inútil y absurdo en el contexto de la planificación global. Y si en algo somos buenos los humanos es en buscar atajos, simplificaciones, recortes y reinterpretaciones para justificar casi cualquier manipulación de esta clase.

Por eso cualquier medida que se designa como objetivo es susceptible de ser retorcida del modo más torticero posible, y por eso deja de ser una buena medida de lo que ocurre en el sistema: porque automáticamente deja de tener valor como indicación objetiva de su estado. Esta es la razón de que el número de publicaciones se haya convertido en una pésima medida del estado de un sistema de investigación, y de la existencia de un nuevo fenómeno como son las famosas ‘revistas predadoras’. Un resultado previsible según la ley de Goodhart.

Si el modo de avanzar en lo profesional y de recibir mejor financiación para la investigación científica es aumentar el número de publicaciones (maximizar esta medida en particular) los científicos se encuentran con un poderoso incentivo para manipular esta variable. Si pueden estirar los resultados de un experimento a tres publicaciones en lugar de a una, lo harán; si pueden maximizar los resultados de su tesis en términos de número de artículos publicados tienen que hacerlo. Si lo que cuenta a la hora de obtener un puesto de trabajo o de conseguir una beca es el número de artículos publicados quien no lleve a cabo este tipo de estrategias resultará perjudicado en la carrera y se quedará atrás. Las plazas, y los proyectos, serán para quien sí lo haga.

Aquí es donde surgen las ‘revistas predadoras’, que simplemente aprovechan esta necesidad de millones de investigadores de todo el mundo para sacar dinero. Lo que ofrecen es simple: publicar artículos de baja o nula calidad de modo rápido y sin muchas preguntas a cambio de dinero. Muchos investigadores cuentan con presupuestos para publicar, ya que algunas revistas (incluso de la máxima calidad) cobran por la publicación. Estas ‘revistas predadoras’ tan sólo obvian la parte cara del asunto: la revisión por pares, el análisis de calidad previo, y proporcionan una vía para a cambio de dinero añadir de modo sencillo una línea al currículo. Dotadas de nombres rimbombantes que suenan legítimos, con frecuencia radicadas en países como China o la India y a veces complementadas por congresos y seminarios de nombre impresionante y calidad nula estas revistas cubren un nicho de mercado: el de los investigadores desesperados por cumplir con el requisito de número de publicaciones que se les impone.

El resultado, por supuesto, es que el sistema completo deja de funcionar. Los criterios de calidad casi han desaparecido reemplazados por criterios basados en la pura cantidad; el dar mayor puntuación a las revistas de alto impacto no basta, porque ahora es el impacto de las revistas lo que se ha pervertido (siguiendo la Ley de Goodhart). Los currículos se alargan y en el fárrago de publicaciones resulta muy difícil separar el grano (las revistas serias que son leídas por otros científicos) de la paja (las predadoras que nadie lee). Los requisitos de mínimos se hacen astronómicos, como los recientes de la ANECA española que de media exigen 130 artículos para cualificarse para la categoría de catedrático. Y la medida, que se supone que sirve para garantizar una producción científica razonable, se hace completamente irrelevante e incluso contraproducente. Hasta tal punto que ahora es necesario luchar contra la proliferación de ‘revistas predadoras’ que, como malas hierbas, amenazan con ahogar el sistema científico convencional.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo Revistas predadoras y la Ley de Goodhart se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Flujo de manuscritos entre revistas científicas
  2. La contradicción de la publicación
  3. Qué es un dato: la longitud de un hueso
Catégories: Zientzia

Algo raro pasa alrededor de Gliese 436

mer, 2017/12/20 - 17:00

En el imaginario colectivo los planetas de un sistema solar giran alrededor de su estrella en el mismo plano, y este plano es también el plano ecuatorial de la estrella. La estrella también gira, y su eje de giro se alinea con los ejes de giro de las órbitas planetarias, dando la impresión de un sistema bien ordenado. Pero el universo es caprichoso en sus creaciones.

Gliese 436 es una estrella de la que se ha escrito mucho, ya que alberga un planeta del tamaño de Neptuno, Gliese 436b, que se evapora como un cometa. En una investigación cuyos resultados se publican ahora en Nature, un equipo de investigadores encabezados por Vincent Bourrier, de la Universidad de Ginebra (Suiza), demuestran que, además de su enorme nube de gas, el planeta Gliese 436b también tiene una órbita muy especial. Es “polar”: en lugar de orbitar en el plano ecuatorial de la estrella, el planeta pasa casi por encima de los polos estelares.

La inclinación orbital es la última pieza de un rompecabezas que ha desconcertado a los astrónomos durante 10 años: a diferencia de los planetas del Sistema Solar cuyas órbitas forman círculos casi perfectos (aunque sean en realidad elipses), la de Gliese 436b forma una elipse muy plana, es decir, su distancia a la estrella varía mucho a lo largo de su órbita.

Gliese 436b está sometido a enormes fuerzas de marea porque pasa increíblemente cerca de su estrella, apenas el 3% de la distancia que separa la Tierra del Sol. La estrella Gliese 436 es una enana roja cuya vida activa es muy larga, por lo que las fuerzas de marea que induce deberían haber conseguido haber acercado la órbita del planeta a un círculo pero, por alguna razón, no lo ha hecho.

¿Y cual podría ser la causa?

Las arquitecturas orbitales de los sistemas planetarios son registros fósiles que nos dicen cómo se han formado y evolucionado. Un planeta perturbado por el paso de una estrella cercana o por la presencia de otros planetas masivos en el sistema mantendrá un registro, por así decirlo, en su órbita. La existencia de un planeta desconocido, más masivo y distante que lo perturbase explicaría no solo por qué Gliese 436b no está en una órbita circular, sino también por qué está en una órbita polar.

Los mismos cálculos que apuntan a esta conclusión también predicen que el planeta no siempre ha estado tan cerca de su estrella, sino que podría haberse acercado recientemente (en términos astronómicos). Por lo tanto, el “planeta que se evapora” no siempre se habría evaporado, sino que habría sido empujado hacia la estrella por la gravedad de un planeta compañero aún no detectado. La caza no ha hecho más que empezar.

Referencia:

Vincent Bourrier et al (2017) Orbital misalignment of the Neptune-mass exoplanet GJ 436b with the spin of its cool star Nature doi: 10.1038/nature24677

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Algo raro pasa alrededor de Gliese 436 se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La habitabilidad de las exotierras alrededor de estrellas enanas rojas
  2. ¿Qué pasa si me río de todo?
  3. Catástrofe Ultravioleta #16 RARO
Catégories: Zientzia

¡Es la Aritmética!

mer, 2017/12/20 - 11:59

El niño y los sortilegios es una fantasía lírica (en dos partes para solistas y coros con orquesta) de Maurice Ravel sobre un libreto de la escritora Sidonie Gabrielle Colette. Se estrenó en Montecarlo el 21 de marzo de 1925 y, un año más tarde, se presentó en el Teatro de la Ópera Cómica de París.

Portada diseñada por André Hellé para la primera edición de la ópera. Imagen: Wikipedia.

En 1916, Jacques Rouché, en ese momento el director de la Ópera de París, solicitó a su amiga Colette que escribiera un libreto para ballet, de ambiente fantástico, sobre los sueños de un niño perseguido por animales y objetos por él maltratados: Ballet pour ma fille. Ravel fue elegido para musicalizar la historia. Pero, debido a problemas personales, abandonó el proyecto hasta 1919, año en que retomó el libreto y descubrió sus posibilidades, decidiendo crear una ópera y no un ballet.

El niño y los sortilegios es una sucesión de cuadros independientes que mezclan diferentes géneros musicales: jazz, foxtrot, ragtime, polka, dúo maullador, vals y música coral. Para reproducir las numerosas onomatopeyas del libreto de Colette, Ravel utilizó instrumentos poco habituales, como un rallador de queso, una carraca con manivela, crótalos, bloques de madera, látigo,…

La obra tiene lugar en el interior de una casa en Normandía. El protagonista, el niño, intenta, con pereza, hacer sus deberes. A ver que las tareas no están terminadas, la madre castiga al niño dejándole como merienda una taza de té y un trozo de pan duro. Al quedarse solo, el protagonista demuestra su enojo rompiendo objetos y maltratando a los animales domésticos. Aburrido, se recuesta sobre un sillón; en ese momento entran en acción los sortilegios a los que alude el título: el sillón comienza a danzar con una silla, los muebles lo imitan enfadados con el protagonista,… El niño, atemorizado, llora. De las páginas de un libro por él destrozado acude una princesa a consolarlo, aunque le reprocha su conducta. Ella desaparece para ocupar su lugar un viejo amenazante, que le plantea problemas matemáticos para resolver: es la Aritmética. Sale la luna, el gato y la gata se unen en un ceremonioso dueto amoroso. Los animales que habitan el jardín desafían y amenazan al niño: entablan extraños diálogos, realizan frenéticas danzas, con tanta euforia que hieren a una ardilla. El niño, conmovido, ayuda al roedor. El resto de los animales, al ver el acto de compasión del protagonista, comienzan a dudar de su maldad. Lo acompañan hasta la casa, finalizando de este modo los sortilegios: el niño regresa al mundo real, reclamando a gritos la presencia de su madre.

En una de las escenas, las matemáticas son las encargadas de atormentar al niño.

[…] (Los patea. Voces chillonas salen de entre las páginas que dejan ver a las gesticulantes figuritas de los números. De un álbum abierto como un techo, salta un viejecillo jorobado, de nariz ganchuda, barbado, vestido con números, sombrero en forma de “pi”, ceñido con una cinta métrica y armado con una regla. Sostiene un libro de madera que golpea cadenciosamente. Baila mientras recita fragmentos de problemas.)

EL VIEJECILLO: ¡Dos grifos de agua fluyen a un tanque! ¡Dos ómnibus dejan una estación a veinte minutos de intervalo, valo, valo, valo! ¡Una campesina, sina, sina, sina, lleva todos sus huevos al mercado! ¡Un mercader de telas, telas, telas, telas, vende seis metros de trapo! (ve al niño y se le acerca de una manera malévola.)

EL NIÑO: (aterrado) ¡Dios mío! ¡Es la Aritmética!

EL VIEJECILLO, LOS NÚMEROS: ¡Tica, tica, tica! (Danzan alrededor del niño multiplicando sus maléficos pases.) Once más seis: ¡veinticinco! Cuatro más cuatro: ¡dieciocho! Siete por nueve: ¡treinta y tres!

EL NIÑO: (sorprendido) ¿Siete por nueve, treinta y tres?

LOS NÚMEROS: (levantando las hojas y chillando) Siete por nueve: ¡treinta y tres! etc.

EL NIÑO: (con audacia) Tres por nueve: ¡cuatrocientos!

EL VIEJECILLO: (balanceándose para mantener el ritmo) Milímetro, centímetro, decímetro, decámetro, hectómetro, kilómetro, miriámetro. ¡Sin fallar! ¡Qué felicidad! ¡Millones, billones, trillones, y fracciones!

LOS NÚMEROS, EL VIEJECILLO: ¡Dos grifos de agua fluyen a un tanque! etc.

LOS NÚMEROS: (hacen bailar al niño con ellos) Tres por nueve: ¡treinta y tres! Dos por seis: ¡veintisiete! ¿Cuatro más cuatro?… ¿Cuatro más cuatro?…Cuatro por siete: ¿cincuenta y nueve? Dos por seis: ¡treinta y uno! Cinco por cinco: ¡cuarenta y tres! Siete más cuatro: ¡cincuenta y cinco! (Giran desenfrenadamente. El niño, aturdido, cae al suelo. El Viejecillo y el coro se retiran.) Cuatro más cuatro: ¡dieciocho! Once más seis: ¡veinticinco!

(El niño se sienta con dificultad. La luna ilumina la habitación. El gato negro se desliza bajo el sillón. Se estira, bosteza y se relame. El niño no lo ve pues, cansado, tiene la cabeza apoyada en un taburete. El gato juega, haciendo rodar una bola de estambre. Se acerca al niño e intenta jugar con su cabeza rubia como si fuera una pelota.)

EL NIÑO: ¡Oh! ¡Mi cabeza! ¡Mi cabeza! […]

Es una lástima que las matemáticas se perciban sistemáticamente como una ‘maldición’… ¡incluso en la ópera!

Os dejo debajo la original versión de Giovanni Munari y Dalila Rovazzani, de esta escena de El niño y los sortilegios:

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo ¡Es la Aritmética! se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La lección… de aritmética
  2. Uno, dos, muchos
  3. Aritmética afectiva
Catégories: Zientzia

Sistemas respiratorios: los pigmentos respiratorios

mar, 2017/12/19 - 17:00

Cangrejo (Cancer productus ) visto desde abajo. El color púrpura lo proporciona la hemocianina, un pigmento respiratorio.

Llamamos pigmentos respiratorios a un grupo de proteínas que tienen la propiedad de combinarse de forma reversible con oxígeno molecular. Por esa razón, pueden transportar oxígeno, captándolo en un lugar y liberándolo en otro. Todos los pigmentos respiratorios son metaloproteínas, o sea, proteínas que contienen átomos metálicos. Y los llamamos pigmentos porque, al menos en algunos momentos, tienen un color intenso.

El O2 tiene una solubilidad relativamente baja en agua, por lo que es muy limitada la capacidad de las disoluciones acuosas, como son la hemolinfa o el plasma sanguíneo, para transportar oxígeno. Gracias a los pigmentos respiratorios de los que los animales se han dotado, la capacidad de la sangre o equivalente para transportarlo es muy superior a la que tendrían sin ellos, y pueden satisfacer las necesidades que se derivan de altos niveles de actividad metabólica. Para hacernos una idea de lo que representa su contribución, 100 ml de sangre humana contienen, al salir del pulmón, 0,4 ml de O2 en forma disuelta y 19,6 ml combinados con la hemoglobina. O sea, la denominada capacidad de oxígeno de la sangre se multiplica por cincuenta gracias a su pigmento. Es cierto que los mamíferos somos los animales en los que la contribución del pigmento es máxima y que en otros puede ser muy inferior, pero en cualquier caso, se trata de una contribución importante.

Cuando un pigmento respiratorio se encuentra combinado con el oxígeno decimos que está oxigenado y, en caso contrario, que está desoxigenado. No utilizamos los términos oxidado y reducido para denominar esos dos estados alternativos. La combinación del oxígeno con un pigmento no es químicamente equivalente a una oxidación. En una oxidación los electrones de los átomos metálicos del pigmento son parcialmente transferidos a la molécula de oxígeno, pero no es una transferencia completa como la que ocurre en una oxidación. De hecho, si la molécula de pigmento se oxidase realmente perdería su capacidad para transportar oxígeno. Utilizamos los prefijos oxi- y desoxi- para denominar a las dos formas del pigmento: oxihemoglobina y desoxihemoglobina, por ejemplo. Hay cuatro tipos o categorías de pigmentos respiratorios: hemoglobinas, hemocianinas, hemeritrinas y clorocruorinas. Cada una de esas categorías agrupa a compuestos relacionados, no a estructuras químicas únicas.

Existen notables similitudes entre la forma en que los pigmentos respiratorios se unen al oxígeno y la forma en que las enzimas se unen a sus sustratos. En ambos casos la unión ocurre en sitios específicos, y se produce mediante enlace débil no covalente. Al unirse el O2 con el pigmento, este modifica ligeramente su conformación, como ocurre con las enzimas. Igualmente, en ambos casos cabe hablar de afinidad, que en este caso refleja la facilidad con la que el oxígeno se une al pigmento. Los pigmentos se puede unir con otras sustancias, también en sitios específicos, y esa unión modifica sus propiedades y la facilidad con que se combina con el oxígeno; a esas sustancias se las denomina moduladores alostéricos. Las moléculas de pigmento suelen estar formadas por dos o más subunidades. Las subunidades son proteínas unidas entre sí mediante enlaces no covalentes. Cada subunidad tiene un sitio de unión para el oxígeno y muestran cooperatividad entre los sitios de unión de las diferentes subunidades. Quiere ello decir que la unión de una molécula de oxígeno al sitio de unión de una subunidad, modifica la facilidad con la que otros sitios se combinan con otras moléculas de O2. Esas variaciones se producen como consecuencia de los cambios conformacionales antes citados.

Grupo hemo

Las hemoglobinas y las clorocruorinas consisten en largas cadenas de aminoácidos (globinas) unidas de forma no covalente a sendos grupos prostéticos (grupos hemo) que son metaloporfirinas. El grupo prostético es común a todos los pigmentos de una misma categoría, ya sean hemoglobinas o clorocruorinas, y es ahí donde se produce la unión con el oxígeno. Los pigmentos de una misma categoría difieren en las cadenas polipeptídicas. De hecho, la diversidad de propiedades y funciones de unas y otras hemoglobinas, por ejemplo, tiene su origen en las diferentes estructuras de sus cadenas. Los grupos hemo de las hemoglobinas y de las clorocruorinas son metaloporfirinas en las que el metal es el hierro. Las clorocruorinas tienen la particularidad de ser verdes en disoluciones diluidas y rojas en concentradas. Las hemoglobinas son rojas. Las hemocianinas son la segunda categoría pigmentaria más común. A diferencia de hemoglobinas y clorocruorinas, no tienen grupo hemo. Y además, en vez de hierro contienen cobre, que se encuentra unido directamente a la proteína. El sitio de unión con la molécula de O2 contiene dos átomos de metal. Cuando se encuentran desoxigenadas carecen de color, y cuando están combinadas con el O2 son azules. Por último tenemos las hemeritrinas, que, como las hemocianinas, carecen de grupo hemo. El metal de estas es el hierro, también ligado directamente a la proteína.

Esquema básico de la hemoglobina humana. Se muestran las dos parejas de globinas, α y β, y los cambios de estructura al enlazarse el oxígeno (no mostrado)

El pigmento respiratorio mejor conocido es la hemoglobina humana. La de un individuo adulto consta de cuatro subunidades (se dice que es tetramérica) cuyas globinas están formadas por algo más de 140 aminoácidos. Se conocen más de un centenar de formas mutantes, la mayoría de las cuales solo difiere de la forma normal en un único aminoácido. El peso molecular de las subunidades se encuentra entre 16000 y 17000 daltons. La sangre adulta contiene dos tipos de globinas, denominadas α (141 aminoácidos) y β (146 aminoácidos), de manera que en una molécula de hemoglobina hay dos de cada tipo. Hemos especificado que los datos anteriores corresponden a la hemoglobina de personas adultas, porque a lo largo del desarrollo, desde la fase embrionaria hasta semanas después del nacimiento, cambian de manera notable su composición y características. En otras especies no es raro que coexistan más de una variedad de hemoglobina en la sangre, cada una con diferentes características en lo relativo a su unión con el O2; esa variedad permite a los animales que la poseen transportar oxígeno en un amplio rango de condiciones ambientales.

Fuentes:

Richard W. Hill, Gordon A. Wyse & Margaret Anderson (2004): Animal Physiology. Sinauer Associates, Sunderland

John D. Jones (1972): Comparative physiology of respiration. Edward Arnold, Edinburgh

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sistemas respiratorios: los pigmentos respiratorios se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas respiratorios: los límites a la difusión de los gases
  2. Sistemas respiratorios: la emergencia de un doble sistema circulatorio
  3. Sistemas respiratorios: la ventilación de los pulmones de mamíferos
Catégories: Zientzia

El principio de constancia de la velocidad de la luz

mar, 2017/12/19 - 11:59

El principio de relatividad es uno de los dos postulados a partir de los cuales Einstein derivó las consecuencias de la teoría de la invariancia, popularmente llamada de la relatividad. El otro postulado se refiere a la velocidad de la luz, y es especialmente importante cuando se comparan las observaciones entre dos marcos de referencia inerciales, aquellos marcos de referencia que están en reposo o se mueven con una velocidad uniforme relativa entre sí, ya que dependemos principalmente de la luz para hacer observaciones.

Cuando Einstein dejó la secundaria a la edad de 15 años, estudió por su cuenta para poder ingresar en el Instituto Politécnico Federal de Zúrich (Suiza). Probablemente fue durante esta época cuando Einstein consideró por primera vez un experimento mental importante. Se preguntó qué pasaría si pudiera moverse lo suficientemente rápido en el espacio como para alcanzar un rayo de luz. Maxwell había demostrado que la luz es una onda electromagnética que se propaga a la velocidad de la luz. Si Albert pudiera viajar en paralelo y a su misma velocidad no vería una onda propagándose. En cambio, vería los “valles” y las “crestas” de la onda fija y estacionaria con respecto a él. Esto contradecía la teoría de Maxwell, en la que no era posible ese paisaje “estacionario” en el espacio libre. De estas y otras consideraciones principalmente teóricas, Einstein concluyó en 1905 que la teoría de Maxwell debía ser reinterpretada: la velocidad de la luz tiene que ser exactamente la misma, debe ser una constante universal, para todos los observadores, independientemente de si se mueven (con velocidad constante) respecto a la fuente de la luz. Esta idea revolucionaria se convirtió en el segundo postulado de la relatividad especial de Einstein, el principio de constancia de la velocidad de la luz:

La luz y todas las demás formas de radiación electromagnética se propagan en el espacio vacío con una velocidad constante c que es independiente del movimiento del observador o del cuerpo emisor.

Lo que Einstein está diciendo es que ya estemos moviéndonos a una velocidad uniforme hacia, o alejándonos de una la fuente de luz, o de si nos movemos en paralelo o no a un haz de luz, siempre mediremos exactamente el mismo valor para la velocidad de la luz en el vacío, que es exactamente de 299.792.458 m/s [1] . A esta velocidad se le dio el símbolo c de “constante”. Si la luz viaja a través del vidrio o el aire su velocidad será algo más lenta, pero la velocidad de la luz en el vacío es una de las constantes físicas universales.

Es importante recordar que este principio solo se aplica a los observadores y las fuentes que están en marcos de referencia inerciales. Esto significa que se están moviendo a una velocidad uniforme o están en reposo uno con relación al otro [2].

Veamos una implicación inmediata de este principio tan simple, en el que empiezan a intuirse las peculiaridades de la teoría de la invariancia que la apartan de nuestro sentido común. Para ello hagamos unos pocos experimentos mentales muy sencillos.

Imaginemos que Mónica está sobre una plataforma con ruedas moviéndose a una velocidad uniforme de 5 m/s hacia Esteban, que permanece estático en el suelo. Mientras Mónica se mueve, arroja una pelota de tenis a Esteban a una velocidad para Mónica de 7 m/s. Esteban la atrapa, pero justo antes de hacerlo, rápidamente mide su velocidad [3]. ¿Qué velocidad obtiene? La respuesta, obviamente, es 5 +7 = 12 m/s, ya que las dos velocidades se suman.

Hagamos otro experimento. Mónica está en la plataforma alejándose a 5 m/s de Esteban. Nuevamente lanza la pelota a 7 m/s para ella a Esteban, quien nuevamente mide su velocidad antes de atraparla. ¿Qué velocidad mide ahora? Esta vez es -5+7 = 2 m/s, donde hemos adoptado la convención de que las cosas que se mueven hacia Esteban tienen velocidad de signo positivo y las que se alejan de signo negativo. Las velocidades se suman de nuevo [4]. Todo muy convencional e intuitivo.

Ahora intentemos estos mismos experimentos usando rayos de luz en lugar de pelotas de tenis. Cuando Mónica se mueve hacia Esteban, le apunta con el haz de un lápiz láser [5]. Esteban tiene un detector de luz que también mide la velocidad de la luz. ¿Qué velocidad de la luz mide? Mónica y Esteban se sorprenden al descubrir que Einstein tenía razón: la velocidad es exactamente la de la luz, ni más ni menos [6]; la velocidad de la plataforma no se ha añadido a c. Obtienen la misma velocidad c cuando la plataforma se aleja de Esteban. De hecho, incluso si aumentan la velocidad de la plataforma hasta casi la velocidad de la luz misma [3], la velocidad de la luz medida sigue siendo la misma, c,en ambos casos. Por extraño que parezca, la velocidad de la luz (o de cualquier onda electromagnética) siempre tiene el mismo valor, c,sin importar la velocidad relativa de la fuente y el observador.

En las próximas entregas veremos algunasde las consecuencias a las que llegó Einstein cuando juntó los dos postulados fundamentales de la teoría de la relatividad especial, el principio de relatividad y el principio de constancia de la velocidad de la luz en el vacío.

Notas:

[1] La exactitud de esta cifra es una convención moderna, ya que la unidad de longitud se deriva de la velocidad de la luz.

[2] El autor comprende que se pone pesado con estas repeticiones, y pide disculpas por ello. Pero considera imprescindible que la persona que lea cualquiera de estas entregas independientemente del resto sea en todo momento consciente de los límites de aplicación de las ideas que se discuten.

[3] Una licencia que permite el hecho de que esto solo sea un experimento mental

[4] Las restas no existen, son siempre sumas, lo que cambia es el signo de los factores.

[5] Asumimos que Mónica evita los ojos de Esteban y que ambos usan protección ocular adecuada durante el experimento.

[6] Despreciamos el pequeñísimo, pero no nulo, efecto del aire sobre la velocidad de la luz para no tener que realizar el experimento en el espacio.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El principio de constancia de la velocidad de la luz se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El principio de relatividad (y 4): la versión de Einstein
  2. El principio de relatividad (2): la versión de Galileo
  3. El principio de relatividad (1): movimiento relativo
Catégories: Zientzia

El filósofo que baila con las sepias

lun, 2017/12/18 - 17:00

Antonio Martínez Ron, lector

Encontrar un libro de filosofía que se entienda y que además te atrape con su lectura no es fácil en los tiempos que corren. Y eso es lo que consigue Peter Godfrey-Smith con “Otras mentes. El pulpo, el mar y los orígenes profundos de la consciencia”, publicado por Taurus. Uno de los principales méritos del libro es precisamente el de centrarse en un asunto que no suele ser tema de conversación en el ascensor y convertirlo en algo apasionante. Durante más de 200 páginas el autor nos adentra en la evolución de los sistemas nerviosos y la naturaleza misma de la consciencia a partir de su experiencia con los cefalópodos. ¿Se imagina usted enfrascado en las andanzas de pulpos y sepias en el fondo del mar? Al principio yo tampoco, y terminé lamentando que se el libro se acabara tan rápido.

“Otras mentes” es un libro escrito por alguien que sabe de biología y además sabe pensar, una tarea para lo que la mayoría de nosotros ni sacamos tiempo ni estamos entrenados. Se agradece su sencillez y lucidez a la hora de explicar los procesos evolutivos que han llevado a los seres vivos a desarrollar diferentes soluciones para navegar por el mundo e interactuar con el entorno. Su comprensión sobre estos procesos es tan profunda que uno tiene la impresión de que los explica con más destreza que muchos especialistas con años de divulgación a sus espaldas.

El libro es un soplo de aire fresco por muchos motivos, pero el principal es la magistral mezcla entre dos campos del conocimiento, biología y filosofía, que deberían solaparse con más frecuencia de lo que estamos acostumbrados. A partir de lo que le han enseñado los pulpos en sus horas de inmersión en aguas australianas, Godfrey-Smith es capaz de hacernos pensar en lo que somos nosotros mismos y en lo que otorga al pensamiento consciente su singularidad. Para ello no nos habla de las frías abstracciones y enrevesadas entelequias a las que nos tienen habituados la mala filosofía y la mala neurociencia, sino que toma un punto de partida terrenal y cercano: ¿cómo integran otros seres sus experiencias sensoriales? ¿Cómo sería estar dentro del cuerpo de otra criatura, si es que acaso esto significa algo?

El resultado es como asomarse a un abismo en el que el artificio del “yo” se desvanece por momentos ante la certidumbre de que existen otras integraciones sensoriales cuya naturaleza no terminamos de entender, un viaje fascinante entre sepias con nombres de pintores expresionistas, pulpos que escupen a sus captores y calamares que nos miran con el interés que lo haría un alienígena. Y, sobre todo, un pequeño ejercicio de humildad para recordarnos que no somos únicos y que quizá la vida muestra una particular tendencia a crear sistemas conscientes, no solo aquí, sino en otros rincones del universo.

Ficha:

Autor: Peter Godfrey-Smith

Título: Otras mentes. El pulpo, el mar y los orígenes profundos de la consciencia

Año: 2017

Editorial: Taurus / Colección: Pensamiento

En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.

El artículo El filósofo que baila con las sepias se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Jan van Helmont, filósofo por el fuego (1)
  2. Las cartas de Darwin: El capitán y el filósofo
  3. ¿Es el universo un holograma?, y otras grandes preguntas de la ciencia actual
Catégories: Zientzia

¿Y si el cambio climático nos termina haciendo a todos más simpáticos?

lun, 2017/12/18 - 11:59

Foto: Pxhere

Tienen las personas nacidas en el sur de España fama de ser alegres, abiertas a lo nuevo, amistosas y ‘echás p’alante’, especialmente comparadas con las del norte, más reservadas, calmadas, y conservadoras. En esto se mezclan los tópicos y las costumbres. También se mezcla la ciencia: según un estudio reciente, la temperatura del lugar en el que crecemos modela nuestro hábitos y con ello nuestra personalidad.

Esto nos sorprende apenas, porque la idea de que el clima afecta a nuestro estado de ánimo no es una novedad: está demostrado que los meses de invierno, más fríos y oscuros, generan estados similares a la depresión, especialmente en países nórdicos donde la luz del sol pasa meses en los que apenas brilla, mientras que al volver el calor los ánimos se elevan y nos sentimos llenos de energía.

El nuevo estudio sugiere que la cosa tiene mucha más miga de la que creíamos, y que el clima puede incluso modelar nuestra personalidad, y esto tendría una consecuencia inesperada: ¿si sigue avanzando el cambio climático, cambiará también nuestra personalidad?

Si tuviésemos que quitar paladas de nieve para salir de casa por las mañanas, ¿seríamos más huraños? Foto: US Air Force.

Pero vayamos por partes. Investigaciones anteriores ya habían señalado que muchos aspectos de la personalidad humana varían de una región geográfica a otra: unas culturas son más acogedoras que otras, unas disfrutan más las actividades en el exterior que otras, unas disfrutan más relacionándose con otras personas que otras… Las causas de estas diferencias era lo que aun estaba por aclarar.

Una posible explicación es la temperatura media a la que viven las distintas culturas. Eso es lo que apunta este estudio, realizado por científicos de la Universidad de Pekín: que puesto que la temperatura es una cosa que varía de forma muy marcada a lo ancho y sobre todo a lo alto del globo, impacta en la personalidad de la gente a través de su influencia en sus hábitos cotidianos. No se trata, según los autores, de mirar simplemente si las personas han crecido en climas fríos o calientes; también de si lo han hecho en climas templados (unos 22 grados de media) o extremos, ya sea por arriba o por abajo.

El paper contempla de hecho dos estudios distintos, llevados a cabo en dos países enormes pero muy diferentes, Estados Unidos y China, para evitar que en las conclusiones se mezclasen otros factores, como las diferencias culturales o económicas que también pudiesen afectar a la personalidad de las personas. Analizaron datos de 5.500 personas de 59 ciudades chinas diferentes, y de 1,66 millones de personas de 12.500 códigos postales estadounidenses. Trazaron relaciones entre sus respuestas a tests de personalidad y las temperaturas medias de los lugares donde habían crecido.

Mapa mundial de temperaturas medias

Los resultados mostraron que las personas crecidas en climas con temperaturas templadas eran generalmente más afables, responsables, emocionalmente estables, extrovertidos y abiertos a nuevas experiencias, y que lo eran en ambos países sin importar su edad, género o ingresos económicos.

“Crecer en temperaturas cercanas a la comodidad psicofisiológica óptima anima a los individuos a pasar más tiempo en el exterior, y por tanto influye en su personalidad”, concluyen los autores.

Claro que aun hay algunas cosas a tomar con cautela en este tema. Por ejemplo, el estudio señala los habitantes de regiones chinas con climas más duros (Heilongjiang, Xinjang o Shandong ) son más colectivistas y se preocupan más por la comunidad, en comparación con sus compatriotas de zonas más templados (Sichuan, Guangdong o Fujian); mientras que los habitantes estadounidenses de zonas más extremas (Dakota del Norte y del Sur, Montana o Minnesota) son más individualistas que sus compatriotas de zonas más templadas (Hawaii, Luisiana, California o Florida).

¿Nos hará el cambio climático más simpáticos, abiertos y emocionalmente estables? Foto: Pxhere

Esto pone de manifiesto que el clima no es la única variable, y que también las condiciones económicas, entre otras muchas cosas, parecen tener algún impacto en cómo somos.

No es solamente que la relación entre clima y personalidad no sea todopoderosa. Es que insinuar que lo es nos pone ante una situación un poco incómoda: ¿si el clima moldea nuestra personalidad, y el clima está cambiando, cambiará nuestra personalidad con él? ¿Nos encaminamos hacia un mundo en el que todos seremos más afables, extrovertidos y aventureros? ¿Tan maleables resultamos por la temperatura?

Los autores son conscientes de este problema, y dejan la puerta abierta a seguir investigando: “a medida que el cambio climático continúa a través del mundo, podríamos observar cambios asociados en la personalidad humana. Las preguntas sobre la extensión de esos cambios esperan respuesta en futuras investigaciones”.

Referencia:

Wenqi Wei, Jackson G. Lu, Lei Wang. Regional ambient temperature is associated with human personality. Nature Human behaviour, 27 de noviembre de 2017. doi: 10.1038/s41562-017-0240-0

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo ¿Y si el cambio climático nos termina haciendo a todos más simpáticos? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Del cambio climático
  2. Verdín, eucaliptos y cambio climático
  3. “El cambio climático: ciencia, política y moral” por José Manuel Sánchez Ron
Catégories: Zientzia

Las epidemias del pasado… y del futuro

dim, 2017/12/17 - 11:59

“La plaga de Atenas” de Michiel Sweerts. Alrededor de 1652.

Tras las guerras médicas, finalizadas en 448 a.e.c. con la derrota del ejército persa de Artajerjes I y la Paz de Calias, Atenas se encontraba en su máximo apogeo. Pericles, seguramente la máxima figura política de la Grecia clásica, gobernaba un imperio marítimo y, a decir del historiador Tucídides, lo hacía con talento y prudencia. Y sin embargo, la era de Pericles llegaría a su fin 17 años después, en parte al menos, por una serie de malas decisiones promovidas por el “primer ciudadano”.

En 431 a.e.c. Esparta, que lideraba una confederación de ciudades del Peloponeso, tuvo que apoyar a sus aliadas Mégara y Corinto que habían sido perjudicadas por Atenas, y atacó por tierra con sus hoplitas. Pericles había preparado a Atenas fortificando la ciudad y construyendo los dos “Muros Largos” que protegían el corredor hasta el Pireo, el puerto por el que afluían a la ciudad los suministros que necesitaba. Atenas era inferior a Esparta en tierra, pero tenía la flota más poderosa del Egeo y era, además, muy rica. Cuando la coalición lacedemonia atacó el Ática, las gentes de toda la región se refugiaron en el interior del recinto amurallado. A los 150.000 atenienses se les unieron entre 200.000 y 250.000 nuevos pobladores. En el verano de 430 se declaró una epidemia terrible que asoló la ciudad.

Tenemos noticias precisas de la epidemia gracias a Tucídides, quien sufrió en su persona la enfermedad. Los enfermos se arrastraban por las calles y morían cerca de las fuentes –a donde iban a beber-, y en los templos, donde se hacinaban los refugiados. “Morían como ovejas” escribe Tucídides. Pericles perdió a sus dos hijos legítimos, y él mismo también cayó enfermo y murió en el otoño de 429.

Se desconoce cuál es el patógeno que causó la epidemia. El mal surgió, según Tucídides, en Etiopía; se desplazó por el valle del Nilo hasta Egipto; y desde allí, por mar, llegó a Atenas a través del Pireo. Acabó con la vida de un tercio de los atenienses.

Según el epidemiólogo Paul Ewald, de la Universidad de Louisville (EEUU), la conocida como Gran Plaga de Atenas puede darnos una idea de cómo pueden desarrollarse las enfermedades más peligrosas para los seres humanos en el futuro. Frente a la extendida creencia de que las peores pandemias serán las que causen patógenos procedentes de animales –como el ébola o las gripes aviares- Ewald sostiene que esos patógenos no han convivido suficiente tiempo con los seres humanos como para haber desarrollado mecanismos eficaces para transmitirse entre personas. Los virus y bacterias con que convivimos producen síntomas e inducen respuestas por nuestra parte que facilitan mucho su dispersión.

Por esa razón, Ewald piensa que, en buena lógica evolutiva, es más probable que sean los virus y bacterias con los que más tiempo llevamos coevolucionando, y que han desarrollado buenos mecanismos de dispersión los que, bajo determinadas condiciones, puedan generar peligrosas epidemias. Enfermedades como el cólera, la viruela y las causadas por Staphylococcus aureus serían las mejores candidatas a protagonizar una pandemia peligrosa. Para que eso ocurra bastaría con que su capacidad de transmisión y virulencia se vieran favorecidas, tanto por las condiciones ambientales –grandes números de personas hacinadas- como por la aparición de alguna cepa de especial peligrosidad. Por esa razón, Ewald considera importante evitar condiciones que faciliten a los patógenos aumentar su virulencia y transmisibilidad, como las que se dan en hospitales hacinados o en grandes campos de refugiados. Porque puede que las epidemias del futuro se produzcan de modo similar a como lo hicieron en el pasado.

Fuentes:

Javier Murcia Ortuño (2007): De banquetes y batallas, Alianza Editorial, Madrid.

Wendy Orent (2017): How plagues really work Aeon.

El artículo Las epidemias del pasado… y del futuro se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Otra ventana al futuro
  2. ¿Se puede predecir el éxito futuro de un científico?
  3. El futuro ya no es lo que era
Catégories: Zientzia

Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma

sam, 2017/12/16 - 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

Guillermo Peris nos habla de la consecuencias que tienen para los humanos los saltos que pegan dentro del genoma algunos genes, unos trapecistas llamados transposones.

Guillermo Peris ''Los trapecistas del genoma''

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017- Daniel Torregrosa: ¡Estamos rodeados!
  2. Naukas Pro 2017: Carlos Briones y el origen de la vida
  3. Naukas Bilbao 2017, en directo
Catégories: Zientzia

¿Son eficientes las plantas de energía marina?

ven, 2017/12/15 - 17:00

La planta de energía marina o planta undimotriz de Mutriku es la única instalación comercial (no es un prototipo) en el mundo que funciona inyectando energía eléctrica generada por las olas a la red de manera regular. Está en funcionamiento desde el año 2011 y el estudio del grupo EOLO de la UPV/EHU ha analizado su comportamiento en el periodo 2014-2016. “Es importante conocer el funcionamiento real de la planta undimotriz, analizar cómo se comporta la tecnología empleada, y observar qué carencias y ventajas presenta para contribuir en su mejora”, afirma Gabriel Ibarra Berastegi, el autor principal del estudio. “La extracción de energía de las olas se encuentra en sus inicios y varios tipos de dispositivos y tecnologías se encuentran actualmente en desarrollo. Entre ellas, la tecnología OWC (Oscillating Water Column) empleada en Mutriku”, añade.

En la tecnología OWC, no son las olas las que mueven las turbinas directamente, sino una masa de aire comprimido que estas empujan. Se trata de una estructura cuya parte superior forma una cámara de aire y cuya parte inferior está sumergida en el agua. De esta manera, la turbina aprovecha el movimiento provocado por la ola tanto cuando viene como cuando se va, y el generador al que está acoplada inyecta la energía en la red. “Las turbinas generan electricidad que se vende de manera regular a la red eléctrica. En el caso de Mutriku, sucede en el 75% del tiempo. Hay ciertos parones cuando las olas son muy calmadas o incluso cuando son demasiado fuertes”, explica Ibarra.

La investigación se ha centrado en el estudio y análisis de los datos operacionales facilitados por el Ente Vasco de la Energía, que es quien gestiona la planta.

Una vez analizados y ordenados esos datos, “hemos visto que un indicador de rendimiento es el Factor de Capacidad (FC), que permite comparar distintas tecnologías de producción eléctrica”, explica el investigador principal del artículo. “En este caso, hemos calculado el FC de la planta de Mutriku y su valor es de 0,11, mientras que las instalaciones de energía eólica tienen un FC del orden de 0,2-0,3 y las solares de 0,4. Ello indica —apunta Ibarra— que la tecnología OWC de Mutriku necesita mejorar su FC para poder lograr situarse al nivel de los valores del resto de las fuentes de energías renovables”. “Creemos que la manera de lograrlo es mejorar la regulación y control de la velocidad de giro de las turbinas, es decir, gestionar adecuadamente la velocidad con la que gira la turbina en relación a las olas que vienen”, concluye.

Según Gabriel Ibarra, “estas conclusiones obtenidas a partir de los datos de una planta real como la de Mutriku, representan un avance que permite enfocar e identificar los siguientes pasos a dar para que la tecnología OWC alcance su madurez, facilitando así su penetración e implementación”.

Referencia:

G. Ibarra-Berastegi, J. Sáenz, A. Ulazia, P. Serras, G. Esnaola, C. García-Soto (2017) Electricity production, capacity factor, and plant efficiency index at the Mutriku wave farm (2014-2016) Ocean Engineering doi: 10.1016/j.oceaneng.2017.10.018

El artículo ¿Son eficientes las plantas de energía marina? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Robots más eficientes energéticamente sin pérdida de precisión
  2. Se intuye la conservación de la energía (1)
  3. Se establece el principio de conservación de la energía
Catégories: Zientzia

¡Iniesta de mi vida!

ven, 2017/12/15 - 12:00

Uno de mis objetivos como divulgador científico es mostrar a la sociedad que la ciencia forma parte de sus vidas. Para ello divulgo la importancia del progreso científico en el desarrollo de fármacos, alimentos, ropa, dispositivos móviles y otro instrumentos sin los cuales sería imposible disfrutar de la calidad de vida que tenemos. Creo que entre muchos lo hemos conseguido. Una parte mayoritaria de la sociedad tiene claro que detrás de cada uno de los ejemplos que he citado se encuentra la ciencia. En los últimos tiempos he dado un paso más allá e intento mostrar al ciudadano como el progreso científico y tecnológico también se encuentra en lugares aparentemente alejados del mismo como, por ejemplo, una procesión de Semana Santa, un simple sándwich de queso o la embestida de un toro de lidia. Con ese objetivo hoy toca hablar de la ciencia y tecnología que esconde el deporte rey: el fútbol.

Todos nosotros nos acordamos lo que hicimos en momentos puntuales de nuestras vidas. El atentado de las Torres Gemelas o el golpe de Estado del 23-F son fechas que jamás se nos olvidarán. Tampoco donde estábamos la noche del 11 de julio de 2010, el día que la Selección Española se proclamó por primera y única vez en su historia Campeona del Mundo de Fútbol.

Iniesta celebrando el gol durante la final

Aquel día vi el partido con los ojos del gran aficionado al fútbol que soy pero también, y aunque ustedes no lo crean, con los ojos de un científico. Mi reacción como aficionado no creo que les interese pero sí las dos conclusiones científico-tecnológicas que saqué tras el partido. La primera es que la ciencia se encuentra muy presente en el fútbol moderno. La segunda es que sin el progreso científico y tecnológico poco de lo ocurrido aquella noche en Johannesburgo hubiese sido posible. Se lo demostraré analizando desde el punto de vista de la ciencia y la tecnología lo que ocurrió en el minuto 116 de partido, momento en el que Andrés Iniesta marcó el gol que nos hizo campeones del mundo.

La presencia de la ciencia en el gol de Iniesta comenzó mucho antes de la final de Sudáfrica. Disciplinas como la medicina, la fisioterapia y, sobre todo, la psicología, fueron cruciales para que Andrés marcara el gol que jamás olvidaremos. Los tratamientos psicológicos no solo ayudan a motivar al futbolista. También a mantener la frialdad en momentos de máxima tensión como los muchos que hubo en el Mundial de 2010 donde ganamos casi todos los partidos por la mínima.

¿Y cómo ayudó la psicología a Andrés Iniesta? Ayudándolo a recuperarse muscular y mentalmente de un año dificilísimo. La lesión que sufrió meses antes Iniesta en el Barça y la muerte de su gran amigo Dani Jarque erosionó tanto su estado físico y mental que estuvo a punto de no ser convocado para ir al Mundial. Como Andrés reconoce en este fantástico capítulo del programa “Informe Robinson” el apoyo de médicos y fisioterapeutas, tanto del Barça como de la selección española, fueron vitales para que se recuperara a tiempo… y también para que superara la pequeña lesión que tuvo en el primer partido del Mundial ante Suiza que le impidió jugar el siguiente contra Honduras.

Un partido del que pocos se acuerdan pero que pudo dejarnos sin la copa de campeones del mundo fue el de octavos de final contra Paraguay. Aquel día otra disciplina científica, la estadística, tuvo un papel prioritario. A falta de media hora para el final el árbitro pitó un claro penalti contra España. Si hubiese marcado Cardozo, el jugador paraguayo encargado de lanzar la pena máxima, habría sido dificilísimo remontar. Sin embargo Casillas se lanzó al lado adecuado y detuvo el balón con una seguridad pasmosa.

La intuición y el azar tuvieron mucho que ver pero la ciencia también. Como se observa en el siguiente vídeo Casillas, tras detener el penalti, miró al banquillo y dedicó su decisiva parada a Pepe Reina, el portero suplente. ¿Por qué? Porque antes del partido Reina había estudiado detenidamente la forma de tirar los penaltis de Cardozo. Tras visionar muchos vídeos del jugador paraguayo había llegado a la conclusión de que casi todos los tiraba a la izquierda del portero. Se lo dijo a Iker desde el banquillo antes del lanzamiento, Casillas le hizo caso y atrapó el balón. Pura estadística.

Centrémonos en el gol de Iniesta en la final. La jugada más importante de la historia del fútbol español comenzó en el área española con un pase de Carles Puyol a Jesús Navas que recibió el esférico muy lejos de la portería rival. El balón que se empleó en el Mundial de Sudáfrica 2010, el controvertido Jabulani, ha sido uno de los más discutidos en la historia de los mundiales. Su inestable vuelo fue criticado por muchos porteros que no veían la forma de controlarlo… y es que en el diseño de los balones modernos la aerodinámica tiene mucho que decir. Polímeros como el poliuretano o el etiilvinilacetato se han sumado (y en algunos casos sustituido) al nailon, poliéster, caucho y algodón. Las modernas tecnologías de unión de los materiales que forman los balones les otorgan mayor redondez y mejor resistencia al agua. Además, las ranuras integradas de los modernos balones proporcionan buenas características de vuelo, corrigiendo los errores del Jabulani y haciéndolos más estables.

Jabulani

Tras recibir el esférico de Puyol, Jesús Navas hizo una carrera por la banda de más de 30 metros gracias a su potente zancada… y a la química de los nuevos materiales de las camisetas que mejoran el rendimiento deportivo de los futbolistas. Los jugadores holandeses, al ver que eran mas lentos que el extremo andaluz, intentaron agarrarlo pero no pudieron con la fuerza del sevillano ni con la elasticidad de la camiseta. La presencia en las equipaciones actuales de un compuesto químico como el elastano, también llamado lycra o spandex, las hace más elásticas. Sin esta fibra sintética, que en realidad es un copolímero uretano-urea, Navas no hubiese podido seguir corriendo al ser agarrado. Además, la ausencia de este material o un defecto en la fabricación provoca que las camisetas terminen desgarradas como le ocurrió en la pasada Eurocopa a 7 jugadores de la selección Suiza, lo que trajo nefastas consecuencias para la empresa responsable de la equipación.

El poliéster de las camisetas modernas provoca que sean transpirables y no retengan tanto el sudor como ocurría antiguamente con la ropa de algodón. La final del Mundial de Sudáfrica fue intensísima y tras 120 minutos trepidantes los jugadores acabaron casi deshidratados. ¿Se imaginan que todo el sudor hubiese quedado retenido en la camiseta? Muchos de ellos no hubiesen acabado el partido. Tampoco podemos olvidar la importancia de la presencia en las camisetas del poliuretano, compuesto que actúa como aislante térmico y es resistente al agua. En el Mundial de Fútbol 2010, donde la selección española jugó muchos partidos en condiciones climáticas muy diferentes, su papel fue fundamental.

La química de una camiseta de fútbol

La fantástica conducción del balón que hizo Navas fue posible gracias a la calidad del jugador pero también al buen césped del Soccer City, el campo de fútbol de Johannesburgo donde se jugó la final. La botánica, la biotecnología y la química agrícola ayudan a que los campos actuales se encuentren en perfecto estado y no tengan nada que ver con los irregulares terrenos donde se jugaron otros mundiales anteriormente. Las nuevas variedades de hierba, los fertilizantes y los modernos sistemas de regadío hacen que el balón circule a las mil maravillas.

Sin lugar a dudas, una de las grandes revoluciones del fútbol moderno reside en los campos con césped híbrido. De hecho el Mundial de Sudáfrica 2010 fue el primero donde se empleó este tipo de césped en varias sedes. En el césped híbrido predomina el natural (95%) sobre el sintético (5%) pero las millones de fibras artificiales implantadas por todo el campo tienen un efecto trascendental. Estas fibras se entrelazan con el césped natural logrando que el terreno de juego sea más resistente y más estable a la degradación, permitiendo una frecuencia de juego superior. Además, el césped híbrido tiene una mayor densidad vegetal por lo que el color verde es mucho más intenso. Pero la característica más importante para el futbolista de los céspedes híbridos es que tienen mayor capacidad de amortiguación, lo que reduce el número de lesiones.

Tras su maravillosa carrera Jesús Navas, exhausto, entregó el balón a Andrés Iniesta. El manchego hizo algo de lo que poco se ha hablado pero que fue crucial en el gol. Cuando recibió el balón se encontró rodeado de cuatro jugadores holandeses pero se deshizo de ellos dando un taconazo. Cesc Fábregas, que estaba a su espalda, quedó completamente solo con el esférico. La visión periférica de Iniesta es uno de sus valores añadidos… y también se entrena.

El equipo alemán del Hoffenheim utiliza en sus entrenamientos un sistema llamado ‘Helix’ que pone a prueba la visión periférica de los futbolistas. Se trata de una especie de simulador formado por una pantalla circular de 180 grados en la que van apareciendo jugadores realizando diferentes acciones del juego. Los jugadores, que emplean unas Google Glass en los entrenamientos, deben reconocer quiénes son los oponentes, quiénes son sus compañeros y definir sus acciones para pensar rápidamente cómo crear una situación de pase o cómo dejar atrás a sus rivales.

Cesc Fábregas, el jugador que recibió el balón procedente del taconazo de Iniesta gracias a su visión periférica, es uno de esos jugadores procedentes de La Masía que tienen lo que se conoce como el “ADN azulgrana”. Me refiero a intentar tener la posesión del balón el máximo tiempo posible. Desde que Cruyff fue nombrado entrenador del Barca ese es el sello de identidad del equipo azulgrana que luego adaptaron a la sección española Luis Aragonés y Vicente del Bosque.

Hay dos grandes culpables de que durante todos los partidos de la selección en el Mundial de Sudáfrica la posesión del balón cayera del lado español. Uno de ellos es la gran calidad de sus jugadores… el otro, las matemáticas. La disposición geométrica de los jugadores de “la Roja” a lo largo del terreno de juego fue perfecta y los diagramas de Voronoi (una construcción geométrica que permite construir una partición del plano euclídeo y que en el caso del fútbol muestran el espacio controlado por cada jugador) y las triangulaciones de Delaunay (una red de triángulos conexa y convexa que en el deporte rey conecta los jugadores con líneas), estaban presentes por todo el campo.

La aplicación al fútbol de estos conceptos matemáticos, asociados a la geometría computacional, es la clave de los famosos rondos de la selección que tanto daño hicieron a los rivales. Potentes selecciones como Portugal o Alemania sufrieron muchísimo ante “las matemáticas de la roja”. En el siguiente vídeo, del que tuve conocimiento gracias al blog del gran divulgador Francisco Villatoro, se aprecia la importancia de la geometría en la presión y posterior robo del balón, dos aspectos importantísimos en el juego de la selección española. Tras el saque inicial el equipo rojo presiona, fuerza un error del equipo azul y gana el control del balón. El centrocampista del equipo rojo abre espacio en el centro del campo, logrando tras un par de pases crear una oportunidad que acaba en gol.

Pero además de las matemáticas se necesita algo más para tener la posesión del balón: calidad técnica en los jugadores. Pocas veces se han juntado en un mismo equipo futbolistas con la técnica de Xavi Hernández. Busquets, Silva, Xabi Alonso, Navas, Iniesta, Fábregas, Villa, etc. Sus grandes virtudes son el perfecto control del balón, la rapidez de desplazamiento que imprimen al esférico y la precisión en el pase al “primer toque”, cualidades que muchos equipos entrenan con ayuda de modernas tecnologías.

En el siguiente vídeo se observa cómo hay equipos que emplean el innovador “Footbonaut” en sus centros de entrenamiento. Se trata de una caja de 20 metros cuadrados con cuatro máquinas que ‘disparan’ balones a diferentes velocidades y trayectorias hacia los futbolistas. El jugador tiene que recibir la pelota y en dos toques enviarla hacia el panel indicado de los 64 que tiene la estructura. Este instrumento es fundamental a la hora de realizar transiciones rápidas, con un máximo de dos toques seguidos de pase o tiro.

Mediante aplicaciones informáticas la máquina recoge los aciertos y errores de cada jugador y almacena la información. Posteriormente el entrenador analiza los resultados y elige qué jugadores son los que mejor se adaptan a su sistema de juego… y es que el fútbol no es ajeno al Big Data. Gracias al mismo los entrenadores conocen al instante cuantos pases correctos e incorrectos han dado sus jugadores, la distancia recorrida por cada uno, los futbolistas que mejor se acoplan al sistema defensivo u ofensivo diseñado, etc. El Big Data, que ha entrado de lleno en el fútbol moderno, también le sirve a los clubes para recoger información sobre futuros fichajes.

Sigamos con el gol de Iniesta. Fábregas, tras recibir el taconazo del jugador de Fuentealbilla, devolvió con ese primer toque que ya hemos visto como se entrena el balón a Jesús Navas. El sevillano, exhausto, dio un pase a Fernando Torres. El “Niño” realizó un centro al área buscando a Iniesta que se había desmarcado… pero se equivocó. Torres golpeó el balón suavemente y con el empeine de su pie derecho. El esférico salió en línea recta siguiendo la primera Ley de Newton, según la cual un cuerpo se mueve en la misma dirección y a la misma velocidad hasta que se le aplica una fuerza que lo haga variar de dirección. Como no apareció ninguna fuerza, el balón siguió su trayectoria rectilínea hasta que fue interceptado por un rival.

¿Qué hubiese ocurrido si Fernando Torres hubiese golpeado el esférico con el exterior del pie derecho (en lugar de con el empeine) imprimiéndole más fuerza, elevación y, sobre todo, mayor efecto? Que gracias al Efecto Magnus la pelota hubiese llegado a Iniesta, que se había desmarcado perfectamente buscando la región óptima de Voronoi.

En un lado del balón el aire se hubiese movido en dirección contraria al giro del mismo, aumentando la presión. En el otro lado el aire se movería en la misma dirección del giro de la pelota, creando un área de baja presión. Como consecuencia de la diferencia de presiones hubiese aparecido una fuerza perpendicular a la dirección de la corriente de aire. Esto hubiese provocado que el balón se curvara hacia la zona de baja presión y cambiara su trayectoria, superando a la defensa holandesa y dejando solo a Andrés Iniesta delante del portero gracias a la física del Efecto Magnus.

Para explicar el Efecto Magnus en el fútbol tradicionalmente se muestra el mítico gol de Roberto Carlos a la selección francesa que pueden observar aquí. También se aprecia en un gol de la selección española en el Mundial de Sudáfrica, concretamente en el que marcó David Villa a Chile en el tercer partido del Mundial y que nos dio el pase a octavos de final. En este enlace pueden verlo.

Pero hoy les voy a mostrar una joya donde se aprecia mucho mejor el Efecto Magnus. Se trata del gol que marcó Mohd Faiz Subri, jugador del Penang que milita en la liga de Malasia, y que ganó el Premio Puskas al mejor gol del 2016. Alucinante.

Desgraciadamente en Sudáfrica Torres no golpeó correctamente el balón y este fue interceptado por un defensa holandés. Por fortuna para el equipo español el esférico cayó de nuevo en los pies de Cesc Fábregas que, haciendo gala de su entrenada precisión, dio un pase perfecto a Andrés Iniesta dejándolo solo ante el portero holandés… y se armó la mundial, nunca mejor dicho.

Iniesta golpeó con fuerza el balón, que salió con una aceleración tremenda de su bota derecha y se coló en la portería holandesa… lo que tampoco hubiese ocurrido sin ayuda de los nuevos materiales con los que se fabrican las botas actuales y de su avanzada tecnología. Las botas modernas, mucho más ligeras que las antiguas, han mejorado la fricción entre el pie y la pelota favoreciendo el control, el pase y la precisión del tiro. Además de ser muy ligeras, las nuevas zapatillas se adaptan al pie como un guante y tanto las lengüetas, las suelas y los tacos están preparados para los innumerables disparos, giros y cambios de ritmo del fútbol moderno. Incluso para conseguir que el balón adquiera una gran aceleración ya no hace falta la fuerza con la que los jugadores de épocas pasadas golpeaban el esférico. Los innovadores materiales con los que se elaboran las botas son capaces de conseguir gran aceleración con mucho menor potencia de disparo. El balón disparado por Iniesta salió con tal aceleración de su bota derecha que dobló las manos del portero.

Lo que ocurrió después ya lo saben. Yo me abalancé sobre mi vecino rompiéndole una costilla y mi paisano José Antonio Camacho, en la retransmisión que hizo televisión de la final, gritó la célebre frase que ha quedado grabada para la eternidad: “¡¡Iniesta de mi vida!!”.

Estimados lectores, lo ocurrido en el gol de Iniesta en la final del Mundial de 2010 demuestra que la ciencia, la tecnología y el fútbol van cogidos de la mano… y es necesario que la sociedad sepa que el progreso científico y tecnológico se encuentra presente hasta en los sitios más insospechados. Disciplinas como la medicina, la química, la física, la informática, la fisioterapia, la óptica, las matemáticas, la botánica, el big data, la psicología y muchas otras aparecieron en el momento más importante de la historia del fútbol español que hizo feliz a millones de personas. Más de diez años después los avances científicos y tecnológicos siguen revolucionando el fútbol.

Sin embargo, después de Sudáfrica 2010 no hemos vuelto a ganar un Mundial. ¿Por qué? Porque en el fútbol, al igual que en el mejor de los laboratorios, el progreso científico no se pone de manifiesto si no está detrás el talento humano. A buen entendedor…

Este post ha sido realizado por José M. López Nicolás (@ScientiaJMLN) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.

El artículo ¡Iniesta de mi vida! se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Saturno en un vaso de aceite
  2. Vida bajo la luz cenicienta
  3. El demonio de Maxwell
Catégories: Zientzia

El frustrante viaje de un átomo de carbono, mención especial del jurado “On zientzia”

jeu, 2017/12/14 - 17:00

“El frustrante viaje de un átomo de carbono” de Julio Ruiz Monteagudo recibió la mención especial del jurado en la 7ª edición de los premios On zientzia. El ciclo del carbono puede explicarse de muchas maneras, pero pocas serán tan musicales, divertidas y didácticas como este vídeo de poco más de 4 minutos.

¿Tienes una idea genial para explicar un concepto científico en un vídeo? ¿Quieres ver tu trabajo emitido en televisión? La Fundación Elhuyar y el Donostia International Physics Center (DIPC) han organizado la octava edición de On zientzia, un concurso de divulgación científica y tecnológica enmarcado en el programa Teknopolis, de ETB. Este certamen pretende impulsar la producción de vídeos cortos y originales que ayuden a popularizar el conocimiento científico.

On zientzia tendrá tres categorías. El mejor vídeo de divulgación recibirá un premio de 3.000 euros. Para impulsar la producción de piezas en euskera, existe un premio de 2.000 euros reservado a la mejor propuesta realizada en ese idioma. Por último, con el objetivo de impulsar la participación de los estudiantes de ESO y Bachillerato, hay un premio dotado con 1.000 euros para el mejor vídeo realizado por menores de 18 años.

Los vídeos han de tener una duración inferior a los 5 minutos, se pueden realizar en euskera, castellano o inglés y el tema es libre. Deben ser contenidos originales, no comerciales, que no se hayan emitido por televisión y que no hayan resultado premiados en otros concursos. El jurado valorará la capacidad divulgativa y el interés de los vídeos más que la excelencia técnica.

Las bases las encuentras aquí. Puedes participar desde ya hasta el 25 de abril de 2018.

Edición realizada por César Tomé López

El artículo El frustrante viaje de un átomo de carbono, mención especial del jurado “On zientzia” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Fallos científicos en el cine, mejor vídeo de divulgación joven “On zientzia”
  2. El mecanismo de la vida, mejor vídeo de divulgación joven “On zientzia”
  3. Soy esa bacteria que vive en tu intestino, mejor vídeo de divulgación “On zientzia”
Catégories: Zientzia

La potencia sin control no sirve de nada

jeu, 2017/12/14 - 11:59

«La potencia sin control no sirve de nada». Este es el eslogan de la que, con toda probabilidad, ha sido la campaña publicitaria de neumáticos más exitosa de la historia. Fue realizada en 1995 por la agencia de publicidad Young & Rubicam para Pirelli.

Uno de los cometidos pretendidos en el diseño de automóviles es que se mantengan pegados a la carretera. Esto se logra sobre todo gracias a la aerodinámica, de manera que, al aumentar la potencia el automóvil no se separe del suelo. Podríamos decir que la aerodinámica de un automóvil sería la contraria a la de un avión.

La aerodinámica es fundamental, sobre todo en los coches deportivos y de competición, pero, no hay que olvidar la importancia de los neumáticos. Mi padre, que se dedicó durante años a la industria del neumático, siempre dice que «los neumáticos son la única parte del coche que está en contacto directo con la carretera», por eso son tan importantes. No le falta razón.

Utilizamos ruedas desde hace miles de años, pero la idea de ponerle caucho en el borde exterior es relativamente nueva. Fue a principios del siglo XIX cuando por primera vez se utilizó este polímero natural para recubrir las ruedas de madera. Antiguamente se enfundaban en cuero o metal.

El caucho se obtiene de varios tipos de plantas, pero principalmente se extrae del látex que surge de los cortes hechos del tronco de Hevea brasiliensis. En la década de 1920 los laboratorios de Bayer inventarían el caucho sintético.

El caucho natural se somete a varios procesos sucesivos como la coagulación, el lavado y el refinado. El caucho natural resulta poco elástico y se reblandece fácilmente con el calor. Se desgasta con rapidez, así que su futuro no parecía muy prometedor.

El químico Charles Goodyear dedicó varios años de su vida a investigar el caucho. En 1839 descubrió el vulcanizado, que es un procedimiento que consiste en calentar el caucho en presencia de azufre en polvo. En resultado final es que las moléculas elásticas de caucho se quedan unidas entre sí mediante puentes de azufre. De esta manera se consigue un caucho más duro y resistente sin perder elasticidad. El vulcanizado es el proceso químico que dio origen a los neumáticos que utilizamos hoy en día.

Desgraciadamente Charles Goodyear no patentó su invento. El ingeniero Thomas Hancock, habiendo llegado más tarde a la misma conclusión se hizo con la patente en 1843. Fue entonces cuando se hicieron populares las ruedas de goma maciza.

Charles Goodyear sigue estando asociado al mundo del neumático debido a que una empresa de éxito de la industria de la automoción tomó su nombre. Sin embargo, esta compañía no tiene ninguna relación con él.

Hasta entonces los neumáticos eran de color claro, por lo que se ensuciaban con facilidad y comprometían la estética. En 1885 la empresa Goodrich decidió fabricar ruedas de color negro. Al tintar el caucho se hizo un descubrimiento sorprendente, los neumáticos negros duraban más. Esto es debido a que el tinte negro absorbe los rayos ultravioletas que son, en parte, los causantes del agrietamiento del caucho.

La primera rueda neumática —llena de aire— fue patentada en 1845 por el ingeniero Robert W. Thomson. Sin embargo, no fue hasta 1888 que el ingeniero John Boyd Dunlop, desarrolló el primer neumático con cámara de aire. Lo inventó para envolver las ruedas del triciclo que su hijo de nueve años usaba para ir a la escuela por las calles bacheadas de Belfast. Esas precarias cámaras de aire consistían en unos tubos de goma hinchados. Envolvió los tubos con una lona y los pegó sobre las llantas de las ruedas del triciclo. Patentó el neumático con cámara de aire en 1889. Había ganado en comodidad, aun así, al neumático le faltaban algunos obstáculos por vencer. Era muy trabajoso repararlos, ya que estaban adheridos a la llanta.

En 1891, Édouard Michelin, quien era conocido por su trabajo con el caucho vulcanizado, decidió desarrollar un neumático que pudiera separarse de la llanta y así facilitar el trabajo. Los neumáticos de Michelin resultaron tan prácticos que al año siguiente ya eran los que utilizaban la mayoría de ciclistas. Poco después también los llevarían los carruajes. En 1946, la compañía Michelin desarrolló el método de construcción de neumáticos radiales que supusieron un antes y un después en la conducción deportiva.

En los años 40 se incluyeron nuevos materiales en la composición del neumático, como el rayón, el nailon y el poliéster. Cuando terminó la segunda guerra mundial, se empezó a trabajar en la fabricación de un neumático que sellara herméticamente sobre la rueda, lo que al fin eliminó la necesidad de acompañarlos de cámara de aire. La evolución fue vertiginosa, propiciada en gran medida por la Fórmula 1. En los neumáticos modernos se utilizan más de doscientos materiales distintos, entre ellos el acero, la fibra de carbono o el kevlar. En la actualidad el caucho vulcanizado lo encontramos, sobre todo, en la superficie del neumático.

En automoción —y en otros aspectos de la vida— sigue siendo muy certero eso de que «la potencia sin control no sirve de nada». En las vallas publicitarias y en prensa, bajo este eslogan de Pirelli salía una magnífica imagen del deportista Carl Lewis con zapatos de tacón. En la versión televisiva del anuncio, la planta de sus pies estaba cubierta de caucho.

Y es que, entre otros aspectos ingenieriles, los neumáticos y en consecuencia la ciencia del caucho es fundamental para el control de la conducción. Al fin y al cabo, como dice mi padre, es la única parte del coche que está en contacto directo con el asfalto. Cuando vamos en coche los neumáticos son nuestros pies en el suelo.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo La potencia sin control no sirve de nada se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿La publicidad no sirve para nada?, ¡ja!
  2. Potencia y eficiencia de una máquina
  3. Fotovoltaicos siempre a máxima potencia
Catégories: Zientzia

Una hiperlente que permite ver un virus en la superficie de una célula viva

mer, 2017/12/13 - 17:00

Imagina que te digo que existe una lente óptica tan potente, una hiperlente, que permite ver detalles del tamaño de un pequeño virus en la superficie de una célula viva en su entorno natural. Suena increíble, tanto más cuanto más sepas de biología o de física, pero existe realmente.

Una representación artística de una hiperlente que permite ver una célula viva con detalle. Arriba a la izquierda, la estructura cristalina del nitruro de boro hexagonal (hBN). Imagen de Keith Wood, Vanderbilt University

La ciencia y la ingeniería han desarrollado muchos instrumentos capaces de producir imágenes con resolución a nanoescala, como microscopios basados en flujos de electrones y otros llamados de fuerza atómica. Sin embargo, estos instrumentos son incompatibles con organismos vivos, ya que, o bien operan bajo un alto vacío, o exponen las muestras a niveles nocivos de radiación, o requieren técnicas letales de preparación de muestras como la liofilización o extraen las muestras de su entorno natural basado en disoluciones.

La razón principal para desarrollar las llamadas hiperlentes (lentes ópticas con una resolución mucho menor que la longitud de onda de la luz empleada) es la posibilidad de que pudiesen proporcionar imágenes detalladas de las células vivas en sus entornos naturales utilizando luz de baja energía que no las dañe. El trabajo realizado por un equipo de investigadores encabezado por Alexander Giles, del Laboratorio de Investigación Naval de los Estados Unidos, ha llevado la construcción de hiperlentes un paso más allá simplemente purificando el material a niveles que hace unas décadas eran inimaginables.

El material óptico empleado es el nitruro de boro hexagonal (hBN), un cristal natural con propiedades de hiperlente. La mejor resolución que se había conseguido previamente usando hBN fue de 36 veces más pequeña que la longitud de onda infrarroja utilizada: aproximadamente el tamaño de la bacteria más pequeña. El nuevo trabajo describe mejoras en la calidad del cristal que mejoran su capacidad en un factor de diez.

Los investigadores lograron esta mejora al fabricar cristales de hBN usando boro isotópicamente purificado. El boro natural contiene dos isótopos que difieren en peso en aproximadamente un 10 por ciento, una combinación que degrada significativamente las propiedades ópticas del cristal en el infrarrojo.

Los científicos calculan que una lente hecha de su cristal purificado puede, en principio, capturar imágenes de objetos de 30 nanómetros de tamaño. Para poner esto en perspectiva, un pelo humano tiene entre 80.000 y 100.000 nanómetros de diámetro. Un glóbulo rojo humano tiene aproximadamente 9.000 nanómetros y los virus varían de 20 a 400 nanómetros.

La física de las hiperlentes es bastante compleja. El nivel de detalle con el que los microscopios ópticos pueden generar imágenes está limitado por la longitud de onda de la luz y el índice de refracción del material de la lente. Cuando esto se combina con los factores de apertura de la lente, la distancia desde el objeto a la lente y el índice de refracción del objeto bajo observación, se traduce en un límite óptico típico de aproximadamente la mitad de la longitud de onda utilizada para la obtención de las imágenes.

En las longitudes de onda infrarrojas utilizadas en este experimento, este “límite de difracción” es de aproximadamente 3.250 nanómetros. Este límite puede superarse mediante el uso de hBN debido a su capacidad para soportar polaritones de fonones superficiales, partículas híbridas formadas por fotones de luz que se acoplan con átomos del cristal que poseen carga y vibran. Estos polaritones tienen longitudes de onda mucho más cortas que la luz incidente.

El problema con el uso de polaritones ha sido siempre la rapidez con la que se disipan. Mediante el uso de cristales de hBN hechos con un 99% de boro isotópicamente puro, los investigadores han podido comprobar que existe una reducción drástica de las pérdidas ópticas en comparación con los cristales naturales, es decir, que aumenta el tiempo de vida del polaritón, lo que les permite viajar el triple de distancia. Este mayor recorrido se traduce en una mejora significativa en la resolución de las imágenes. El análisis teórico de los investigadores sugiere que es posible incluso otro factor de mejora de diez adicional.

En 1654, Anton van Leeuwenhoek utilizó uno de los primeros microscopios para descubrir el mundo desconocido hasta ese momento de la vida microscópica. Este resultado en el desarrollo de hiperlentes es un paso importante para llevar el descubrimiento de van Leeuwenhoek a un nivel completamente nuevo, que permitirá a los biólogos observar directamente los procesos celulares en acción, como virus invadiendo células o células inmunes que atacan invasores extraños, abriendo innumerables posibilidades en la investigación biomédica.

Referencia:

Alexander J. Giles et al (2017) Ultralow-loss polaritons in isotopically pure boron nitride Nature Materials doi: 10.1038/nmat5047

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Una hiperlente que permite ver un virus en la superficie de una célula viva se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Otra pieza en el puzle de la fotosíntesis
  2. Cómo fabricar hielo extraterrestre y verlo molécula a molécula
  3. Estroncio en la leche
Catégories: Zientzia

La artista Anni Albers, The Walking Dead y la teoría de nudos

mer, 2017/12/13 - 11:59

Las personas que han visitado durante las últimas semanas el Museo Guggenheim de Bilbao han tenido la suerte de poder disfrutar de una exposición interesante e inspiradora, “Anni Albers, tocar la vista” (6 de octubre de 2017 – 14 de enero de 2018). Esta exposición nos acerca a la obra de la artista de origen alemán, afincada en Estados Unidos, Anni Albers (1899-1994), quien seguramente sea la artista textil más importante del siglo XX, aunque también trabajó otras técnicas como el grabado, la pintura o el diseño de joyas.

Anni Albers, “Estudio para Colgadura no realizada” (sin fecha), Gouache sobre papel, The Josef and Anni Albers Foundation

La exposición está compuesta por alfombras y colgaduras textiles, telas, diagramas geométricos, dibujos y estudios para el diseño de obras textiles, joyas, aguatintas, litografías, serigrafías e impresiones offset, acuarelas y otros tipos de pinturas, en las cuales la geometría juega un papel fundamental.

Las personas que deseen más información sobre la exposición pueden visitar la página del Museo Guggenheim-Bilbao Anni Albers, tocar la vista o ver los cuatro videos que el museo ha colgado en su canal de youtube y que están aquí.

Anni Albers, “Segundo movimiento V” (1972), Aguatinta, The Josef and Anni Albers Foundation

La visita a la exposición Anni Albers, tocar la vista fue una experiencia enriquecedora. Descubrí a una artista excepcional y disfruté de unas creaciones artísticas increíbles. Tengo ganas de volver para sumergirme de nuevo en el arte de Anni Albers, y descubrir más sobre los procesos creativos, claramente conectados con las matemáticas, de esta artista. Aunque muchas de las obras de la exposición despertaron la curiosidad de mi mirada matemática, me gustaría destacar aquí la serie de obras dedicadas a los “nudos”, como su litografía Enredada (1963),

Anni Albers, “Enredada” (1963), litografía, The Josef and Anni Albers Foundation

o su, también litografía, Sin título (1963),

Anni Albers, “Sin título” (1963), litografía, The Josef and Anni Albers Foundation

que rápidamente me recordaron a la teoría de nudos de las matemáticas. De hecho, esta última obra me hizo recordar la fotografía realizada por un microscopio electrónico de un fragmento anudado del ácido desoxirribonucleico, ADN, cuyo estudio es uno de los campos de aplicación de la teoría de nudos.

Fotografía de un fragmento de ADN anudado visto con un microscopio electrónico, realizada por Steven A. Wasserman y Nicholas R. Cozzarelli

La teoría de nudos, que ya mencionamos brevemente en la entrada del Cuaderno de Cultura Científica La topología modifica la trayectoria de los peces, es una rama de la topología que se dedica al estudio matemático de los nudos, que surgió en el siglo XX, aunque tiene sus orígenes en el siglo XIX con el trabajo de matemáticos como el alemán Carl Friedrich Gauss (1777-1855), su alumno Johann B. Listing (1808-1882) o el inglés Peter G. Tait (1831-1901). La teoría de nudos tiene numerosas e importantes aplicaciones fuera de las matemáticas, como por ejemplo en biología molecular, medicina, mecánica estadística, física de polímeros y de cristales, teoría física de cuerdas, criptografía, o ciencias de la computación.

La idea matemática de nudo es una abstracción matemática de lo que sería un nudo físico. Se coge una cuerda, se anuda de una forma más o menos enrevesada y se pegan los extremos. Desde el punto de vista matemático nos interesa la línea cerrada que describe la cuerda, sin tener en cuenta el grosor de la misma, es decir, un nudo es una línea curva anudada cerrada, que no tiene puntos de intersección, en nuestro espacio tridimensional.

Como estamos hablando de nudos en topología, esto significa que podemos deformar estirando o encogiendo la línea, es decir, la cuerda, y cambiándola de forma en el espacio, lo cual no altera el nudo, siempre que no se corte o pegue la misma. De hecho, se dice que dos nudos son equivalentes, que para nosotros es tanto como decir que “son iguales desde el punto de vista topológico”, cuando se puede deformar un nudo en el otro de forma continua, es decir, sin realizar cortes, ni pegar.

El nudo más simple es cuando cogemos la cuerda y unimos los extremos sin anudar, es decir, es la circunferencia, en la que no existe un nudo como tal, podríamos decir que es el no-nudo. Cualquier deformación espacial de la circunferencia, como en la imagen de abajo realizada con el juguete Tangle, sigue siendo el no-nudo.

Cuatro deformaciones en el espacio del nudo trivial, realizadas con el juguete Tangle, luego los cuatro nudos resultantes son equivalentes entre sí, son el mismo nudo, el no-nudo

El nudo más sencillo no trivial es el nudo de trébol, que es cuando hacemos un nudo sencillo a la cuerda y después anudamos los extremos. Es imposible deformarlo al nudo trivial sin cortar la cuerda y volver a pegarla, luego topológicamente el no-nudo y el nudo de trébol no son el mismo, no son equivalentes.

Nudo de trébol en el espacio tridimensional. Jim Belk, de wikimedia

El nudo de trébol es un símbolo muy común desde la antigüedad, ya que su versión plana es la triqueta, o triquel, que fue ampliamente utilizada, por ejemplo, en el arte celta, en la religión cristina, como símbolo de la trinidad (padre, hijo y espíritu santo), en una de las versiones del Valnout alemán, que se relaciona con el dios Odín, o en el Mjolnir, martillo del dios Thor de la mitología nórdica. Y hoy en día nos la encontramos con mucha frecuencia en la cultura popular, por ejemplo, en la katana de Michonne de la serie de TV Walking Dead, así como en muchas otras series, películas o video juegos.

La katana de Michonne, de la serie The Walking Dead, tiene el símbolo de la triqueta, que es el nudo de trébol

Para estudiar los nudos se utilizan representaciones gráficas planas de los mismos, que son proyecciones sobre el plano de los nudos tridimensionales, como si les hiciéramos una fotografía. Se utilizan solo las proyecciones buenas, las llamadas regulares, en las que solamente hay un número finito de puntos dobles (cruces) como puntos singulares. En las proyecciones no regulares perderíamos parte de la información del nudo. Estas representaciones se llaman diagramas del nudo. Son líneas continuas en el plano, que solo se pintan discontinuas cuando esa parte del nudo pasa por debajo de la que ya está pintada, como se muestra en los siguientes ejemplos. También podemos pensar en los diagramas de los nudos, como la representación de un nudo, como cuerda anudada, que apoyamos en una superficie plana.

Tres diagramas diferentes del nudo de Saboya, o nudo del ocho

El nudo de Saboya, o nudo del ocho, que aparece en la anterior imagen, es un nudo cuyo diagrama tiene cuatro cruces, el diagrama del trébol tenía solamente tres, y se llama así porque aparece en el escudo de armas de la Casa de Saboya.

Escudo de armas de la Casa de Saboya con distintas copias del diagrama del nudo de ocho, o de Saboya

A continuación, mostramos el diagrama del nudo de la obra Sin título (1963), de Anni Albers.

La teoría de nudos estudia las propiedades topológicas de los nudos, en particular, el problema más importante es la clasificación de los diferentes nudos que existen, el cual incluye el problema de reconocimiento, es decir, determinar cuándo dos nudos son equivalentes, para lo cual se desarrollan herramientas matemáticas que nos permitan saber cuándo dos nudos son, o no, equivalentes (el mismo desde el punto de vista topológico).

En particular, deberemos de estudiar cuando dos diagramas corresponden a nudos equivalentes. Por ejemplo, nos podemos preguntar si un diagrama complejo como el que aparece en la imagen de abajo, y que se conoce como nudo gordiano de Haken, es topológicamente equivalente al no-nudo, es decir, que no hay nudo, solamente está enmarañado. El propio matemático alemán Wolfgang Haken, conocido por demostrar junto al matemático estadounidense Kenneth Appel el teorema de los cuatro colores, demostró que efectivamente dicho nudo es equivalente al no-nudo.

Nudo gordiano de Haken

En la década de 1920, que fueron los inicios de la teoría de nudos, el matemático alemán Kurt Reidemeister (1893-1971), dio una primera herramienta para determinar cuándo dos diagramas correspondían a nudos equivalentes. Demostró que:

Dos diagramas representan nudos equivalentes si, y sólo si, se puede pasar de uno a otro mediante un número finito de transformaciones del tipo I, II y III (que se muestran a continuación).

Transformaciones de Reidemeister de tipo I, II y III de los diagramas de nudos

A continuación, vemos un nudo con tres cruces que es equivalente al nudo de trébol, puesto que mediante una serie de movimientos de Reidemeister puede transformarse uno en otro, como se muestra en la siguiente imagen.

Los movimientos de Reidemeister transforman el diagrama con tres cruces inicial en el diagrama del nudo de trébol, luego ambos son equivalentes, corresponden al mismo nudo topológico

Existe un tipo especial de nudos, aquellos que son equivalentes a su imagen especular. Se llaman nudos anfiquirales. La imagen especular de un nudo es aquella que se obtiene como reflejo en un espejo, es decir, es el nudo simétrico respecto a un plano del espacio. Dado el diagrama de un nudo, entonces el diagrama del nudo imagen especular del primero es igual salvo que tiene los cruces dados la vuelta, es decir, la línea continua se convierte en discontinua, y la discontinua en continua.

El nudo de Saboya es un nudo anfiquiral, como se muestra en la siguiente imagen, mientras que el nudo de trébol puede demostrarse que no es anfiquiral.

Otra división importante de los nudos de cara a su estudio y clasificación es en nudos primos y nudos compuestos. La idea es descomponer los nudos en otros más simples, los llamados nudos primos, que son los que no se pueden descomponer en otros más simples aún y a partir de los cuales se generan todos los demás, y entonces centrar el estudio general de los nudos en estos.

Por lo tanto, tenemos dos “operaciones” con nudos, que son una inversa de la otra, la descomposición y la suma conexa. Un nudo se descompone mediante una esfera (en el diagrama plano sería una circunferencia) que corta transversalmente al nudo en dos puntos, por los que se corta el nudo generándose dos partes disjuntas, cada una de las cuales se cierra de nuevo al pegar los dos puntos extremos mediante un segmento, generándose así dos nudos. Un nudo es primo si no se puede descomponer en dos nudos no triviales.

Descomposición del conocido como nudo de la abuela en dos copias del nudo de trébol

Cualquier nudo no primo se obtiene mediante la operación inversa a la anterior, la suma conexa, a partir de un número finito de nudos primos. En la imagen siguiente vemos la suma conexa del nudo de trébol y de su imagen especular, que es el nudo de rizo o nudo cuadrado.

Suma conexa del nudo de trébol y su imagen especular, que es el nudo de rizo, o nudo cuadrado

El nudo de la abuela, que es la suma conexa de dos copias del nudo de trébol, es un nudo no anfiquiral, mientras que el nudo de rizo, que es la suma conexa del nudo de trébol y su imagen especular, sí es anfiquiral. En consecuencia, ambos nudos no son equivalentes.

Algunos de los nombres de los nudos matemáticos, como el nudo del ocho, el nudo de la abuela, el nudo de rizo, el nudo del cirujano o el nudo del amor verdadero, entre otros, derivan de los nombres de los nudos físicos, los nudos utilizados en la navegación y en muchas otras actividades de nuestra sociedad, como la escalada, la medicina, la costura o la decoración, desde la antigüedad.

Según el diccionario de la RAE, un nudo (físico) es un “lazo que se estrecha y cierra de modo que con dificultad se pueda soltar por sí solo, y que cuanto más se tira de cualquiera de los dos cabos, más se aprieta”. En matemáticas, para estudiar cómo de anudado está un nudo se unen los dos cabos del mismo, cerrando el nudo y no dejando que se pueda deshacer.

Poster de estilo vintage con nudos marineros, entre los que están el nudo simple (2), que da lugar al nudo de trébol, el nudo de ocho (3), el nudo de la abuela (4), el nudo de rizo o cuadrado (5) o el nudo doble (7), relacionado con el nudo del cirujano

Pero continuemos con el estudio topológico de los nudos. Con el fin de resolver el problema de la clasificación de los nudos se introducen invariantes de los mismos. Los invariantes son objetos (por ejemplo, un número, un polinomio o un grupo) o propiedades (como la tricoloreabilidad) de un nudo, que tienen el mismo valor para todos los nudos equivalentes. En consecuencia, si un invariante es distinto para dos nudos, estos no pueden ser equivalentes.

Un primer ejemplo de invariante sería el “mínimo número de cruces de un nudo”. Consideremos un nudo N, se define el mínimo número de cruces c(N) del nudo N, como el menor número de cruces que puede tener un diagrama D de N, es decir, si denotamos por c(D) el número de cruces de un diagrama D, sería el mínimo valor de c(D), para todos los diagramas D del nudo N.

Si c(N) = 0, entonces N es el nudo trivial. No existen nudos para los cuales el mínimo número de cruces sea 1 o 2, cualquier diagrama que dibujemos con 1 o 2 cruces se puede transformar mediante movimientos de Reidemeister en el no-nudo. Los únicos nudos con c(N) = 3 son el nudo de trébol, y su imagen especular, mientras que el único con c(N) = 4 es el nudo de Saboya.

La primera clasificación de los nudos la realizó el matemático inglés Peter G. Tait en 1846, sin las herramientas aún de la topología, e incluía todos los nudos primos con mínimo número de cruces menor o igual que 7, que son el no-nudo y los 14 que aparecen en la imagen de abajo (obsérvese que en dicha clasificación no se está distinguiendo entre un nudo y su imagen especular).

Clasificación de los nudos con mínimo número de cruces menor o igual que 7. Cada color se corresponde con los nudos con el mismo número mínimo de cruces, desde 3 hasta 7

Un invariante sencillo, que nos permitirá distinguir entre algunos nudos que no son equivalentes, es la tricoloreabilidad. Un diagrama se dice que es tricoloreable si, dado un conjunto de tres colores, se puede asignar un color a cada arco del diagrama de forma que: i) se utilizan al menos dos de los tres colores; ii) si en un cruce aparecen dos de los colores, entonces también aparece el tercero.

Se puede demostrar fácilmente que la coloreabilidad no varía con los tres tipos de movimientos de Reidemeister, por lo que, si un diagrama es tricoloreable, lo es cualquier otro equivalente. Es decir, si un diagrama es tricoloreable y otro no, entonces se corresponden con nudos no equivalentes.

La tricoloreabilidad no varía con los tres movimientos de Reidemeister

El no-nudo es trivialmente no tricoloreable, ya que no se puede utilizar más de un color, el nudo de trébol sí es tricoloreable y el nudo de Saboya no.

Veamos un ejemplo de cómo distinguir nudos, con el mismo número mínimo de cruces, mediante la tricoloreabilidad. Los nudos 71 y 74, que podemos ver en la clasificación anterior (el primero y cuarto de los nudos con mínimo número de cruces 7), y que tienen mínimo número de cruces, no son equivalentes, ya que 71 no es tricoloreable, mientras que 74 sí lo es.

Claramente el nudo 71 no es tricoloreable, puesto que, si pintamos uno de los segmentos de un color, por ejemplo, rojo, solo pueden ocurrir dos cosas, o todos los demás son también rojos, con lo cual no se utilizan al menos dos colores, o los colores de los demás segmentos quedan determinados y al llegar de nuevo al segmento rojo inicial habrá tres cruces cada uno con dos colores y por cada color elegido para el segmento que falta por marcar se obtienen dos cruces con solo dos colores, como se muestra en la siguiente imagen.

El nudo 71 no es tricoloreable

Mientras que el nudo 74, que es un nudo celta y también el nudo infinito del Budismo, es tricoloreable, como se muestra en la siguiente imagen.

El nudo 74 es tricoloreable

Continuará en mi siguiente entrega de la sección Matemoción del Cuaderno de Cultura Científica…

…CONTINUARÁ…

Colgante con el nudo infinito del budismo

Bibliografía

1.- Museo Guggenheim-Bilbao, Anni Albers, tocar la vista, 6 de octubre de 2017 – 14 de enero de 2018.[]

2.- The Josef and Anni Albers Foundation

3.- Canal de youtube del Museo Guggenheim-Bilbao, Anni Albers, Tocar el viento.

4.- Raúl Ibáñez, La topología modifica la trayectoria de los peces, Cuaderno de Cultura Científica, 2016.

5.- María Teresa Lozano, La teoría de nudos en el siglo XX, Un Paseo por la Geometría 1998/99, Departamento de Matemáticas, UPV/EHU, 1999. Versión on-line en divulgamat

6.- Sergio Ardanza Trevijano, Excursiones matemáticas en biología, Un Paseo por la Geometría 2005/06, Departamento de Matemáticas, UPV/EHU, 2006. Versión on-line en divulgamat

7.- Martín Gardner, Huevos, nudos y otras mistificaciones matemáticas, Gedisa, 2002.

8.- Colin C. Adams, The Knot Book, An Elementary Introduction to the Mathematical Theory of Knots, AMS, 2001.

9.- Stephan C. Carlson, Topology of Surfaces, Knots, and Manifolds, John Wiley and Sons, 2001.

10.- The Knot Atlas

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo La artista Anni Albers, The Walking Dead y la teoría de nudos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La teoría de grafos y “Così Fan Tutte”
  2. Arthur Cayley, la teoría de grafos y los isómeros químicos
  3. El quipu: ¿algo más que un registro numérico?
Catégories: Zientzia

Pages