Del nudo gordiano al nudo de los enamorados, por territorio matemático
Según cuenta la leyenda, mientras Alejandro Magno (356 – 323 a.c.), rey de Macedonia y de los griegos, se encontraba conquistando el Imperio Persa, llegó a Gordion, capital del reino de Frigia, que formaba parte del Imperio Persa. El nombre de la capital se debía a su rey Gordio (padre del rey Midas, el que transformaba en oro todo lo que tocaba). Parece ser que en el templo de Zeus, situado en la acrópolis de Gordion, se encontraba un carro que estaba atado a un yugo mediante un complicadísimo nudo. Según las creencias de Frigia, un antiguo oráculo estableció que aquel que consiguiese deshacer el nudo se convertiría en el Rey de Frigia, y se le abrirían las puertas de toda Asia.
Alejandro Magno se vio atraído por la leyenda e intentó beneficiarse de las creencias locales desatando el nudo gordiano, sin embargo, este era muy intrincado y se le resistía. Por este motivo, el general mecedonio tomó una solución radical, sacó su espada y con ella cortó el nudo. Se cuenta que esa noche hubo una gran tormenta de rayos, lo que se interpretó como que el propio dios Zeus estaba de acuerdo con aquella solución, y Alejandro afirmó que “¡Es lo mismo cortarlo que desatarlo!” Por cierto, en once años Alejandro Magno conquistó todo el oriente… su imperio se extendió desde Grecia y Egipto hasta el valle del rio Indo.
El lema de Fernando el Católico “Tanto monta” hace referencia a esta leyenda, “lo mismo da [tanto monta] cortarlo que desatarlo”, por eso está asociado a un yugo y a un nudo cortado, que aparecerán después en el escudo, junto a las flechas.
La expresión “nudo gordiano” acabó incorporándose al lenguaje ordinario como una metáfora de un problema irresoluble, deshacer un nudo “imposible”, y que en ocasiones puede superarse cambiando el marco de pensamiento. En consecuencia, esta expresión también aparece reflejada en la literatura. Un ejemplo es La vida de Enrique V (1600), de William Shakespeare. Hablando Canterbury del rey dirá…
“CANTERBURY:
Basta oírlo razonar en teología para que,
lleno de admiración, uno desee en lo profundo
que el rey se convierta en prelado;
basta oírlo discutir asuntos de bien común
para afirmar que nunca estudió otra cosa;
escucharlo hablar de guerra es como oír
una batalla temible vuelta música;
si pasa a cualquier cuestión política,
desatará el nudo gordiano con tanta facilidad
como su jarretera: porque cuando habla,
el aire, ese libertino leve, permanece inmóvil,
y el mudo asombro acecha en los oídos de los hombres
para captar sus frases dulces e impregnadas de miel…”
O también se menciona en un par de ocasiones en Segunda parte del ingenioso caballero don Quijote de la Mancha (1615), de Miguel de Cervantes.
En mi anterior entrada del Cuaderno de Cultura Científica, La artista Anni Albers, The Walking Dead y la teoría de nudos, habíamos explicado qué es la teoría de nudos y que su principal problema es la clasificación topológica de los nudos, el cual incluye el problema de reconocimiento, es decir, determinar cuándo dos nudos son equivalentes (iguales desde el punto de vista topológico), para lo cual se introducen diferentes invariantes de los nudos.
Recordemos que los invariantes son objetos (por ejemplo, un número, un polinomio o un grupo algebraico) o propiedades (como la tricoloreabilidad) de un nudo, que tienen el mismo valor para todos los nudos equivalentes. En consecuencia, si un invariante es distinto para dos nudos, estos no pueden ser equivalentes. En la entrada La artista Anni Albers, The Walking Dead y la teoría de nudos se vieron algunos ejemplos de invariantes de los nudos, como la quiralidad, la tricoloreabilidad y el número mínimo de cruces.
En esta entrada de la sección Matemoción Cuaderno de Cultura Científica se van a analizar otros dos invariantes de la teoría de nudos, el número gordiano y el índice poligonal. El primero tiene que ver con la historia del nudo gordiano que acabamos de contar. El “número gordiano de un nudo” es el mínimo número de cruces que hay que cambiar en un nudo para deshacerlo, para obtener el nudo trivial.
Más concretamente, dado un nudo N, se dice que el número gordiano de N es n, y se denota u(N) = n (la u viene del inglés unknotting number, que es otro de los nombres que recibe), si existe un diagrama D del nudo N tal que si se cambian n cruces del mismo, el nuevo diagrama obtenido es equivalente al trivial, y no existe ningún otro diagrama D’ del nudo N tal que con menos cambios que n se obtenga un diagrama equivalente al trivial. Este es un invariante, es decir, para cualesquiera dos nudos equivalentes N1 y N2, su número gordiano es el mismo, u(N1) = u(N2).
El número gordiano del nudo de trébol es igual a 1, como se muestra en la siguiente imagen, puesto que si se cambia uno de los cruces se obtiene el no-nudo.
De igual forma puede verse que el nudo del ocho también tiene número gordiano igual a 1, y para los demás nudos de la clasificación de los nudos con mínimo número de cruces menor o igual que 7 (más abajo también aparecen), que vimos en la anterior entrada, es:
Veamos una sencilla aplicación de este invariante. Por ejemplo, los dos nudos que existen con número mínimo de cruces igual a 5, son ambos no tricoloreables, como se puede observar fácilmente (véanse las imágenes de abajo), además no son anfiquerales. Sin embargo, el primero, 51, que se conoce con los nombres de nudo de cinco lóbulos, nudo pentagrama o nudo sello de Salomón, tiene número gordiano igual a 2, mientras que el segundo, 52, conocido como nudo con tres retorcimientos, tiene numero gordiano igual a 1. Luego ambos nudos no son equivalentes, no son el mismo desde un punto de vista topológico.
A continuación, vamos a introducir otro invariante curioso, el “número mínimo de aristas de un nudo” o “índice poligonal”, que en inglés se suele conocer también como “stick number”. Un nudo puede ser representado, en el espacio, por una serie de segmentos rectos (llamados aristas) que se intersecan solo en los extremos de los mismos (llamados vértices). Es lo que se llama una representación poligonal del nudo. En la siguiente imagen vemos una representación poligonal del nudo de trébol, que hemos realizado con “barras y bolas” de la herramienta zome.
El mínimo número de aristas de un nudo N, que se denota s(N), se define como el mínimo número de segmentos rectos que son necesarios para formar una representación poligonal del nudo N. Por ejemplo, el no-nudo tiene índice poligonal igual a 3, ya que aunque podemos realizar representaciones poligonales del no-nudo con 4 (cuadrado), 5 (pentágono), 6 (hexágono), o más aristas, la que requiere el menor número de aristas es la representación triangular, con tan solo 3 aristas. En la siguiente imagen, una escultura del nudo de trébol realizada por el artista Kevin Caron, puede verse una representación poligonal del nudo de trébol realizada con 12 aristas, sin embargo, de la anterior imagen se deduce que el número mínimo de aristas del nudo de trébol es 6.
Podríamos plantearnos cuántos nudos admiten representaciones poligonales realizadas con 8, o menos, aristas. Hay exactamente 12 nudos, que son los que se ven en la siguiente imagen, en la cual se ha dibujado los modelos, realizados con “barras (rígidas) y bolas”, de dichas representaciones poligonales. Los 10 primeros son nudos primos, mientras que los dos últimos son nudos compuestos, el nudo de la abuela y el nudo de rizo, de los que ya hablamos en la entrada La artista Anni Albers, The Walking Dead y la teoría de nudos.
Podríamos tener la impresión de que el nudo 51 que aparece en la imagen realizado con 8 aristas, c(51) = 8, podría ser realizado con tan solo con 5 aristas, mediante su representación como el pentagrama. Sin embargo, hay que tener en cuenta que las aristas de las representaciones poligonales no se pueden intersecar entre sí, salvo en los vértices, donde se intersecan solo dos aristas, mientras que al realizar el pentagrama con 5 aristas, estas se intersecarían entre sí en puntos que no son los extremos, o las barras se doblarían dejando de ser segmentos rectos.
El número mínimo de cruces c(N) de un nudo N nos da información sobre el mínimo número de aristas s(N) del mismo. Aunque el conocimiento de c(N) no nos permite determinar con exactitud el valor de s(N), sí establecer unas cotas, superior e inferior, para el mismo. En concreto, se ha demostrado que
En 2011 se mejoró la cota superior, demostrándose que
Para los nudos con mínimo número de cruces c(N) menor o igual a 7, que son los de la clasificación que mostramos en la entrada La artista Anni Albers, The Walking Dead y la teoría de nudos, el índice poligonal s(N) es el mismo para los nudos con el mismo número mínimo de cruces. Como se observa en una imagen anterior, c(51) = c(52) = 8 y c(61) = c(62) = c(63) = 8. Además, se puede probar que c(N) = 9, si N tiene número mínimo de cruces igual a 7. Veamos, por lo tanto, una clasificación más amplia que la que habíamos visto.
En la entrada anterior, habíamos comentado que la primera clasificación de los nudos la realizó Peter G. Tait en 1846, e incluía todos los nudos primos con mínimo número de cruces menor o igual que 7. La siguiente clasificación fue realizada por el matemático e ingeniero civil estadounidense Charles N. Little (1858-1923) en 1885 y contenía los nudos primos con mínimo número de cruces menor o igual que 10 (de nuevo no se distingue entre un nudo y su imagen especular). En ella se refleja que existen 21 nudos primos con mínimo número de cruces igual a 8, 49 con 9 cruces y 165 con 10 cruces.
En la actualidad están clasificados todos los nudos primos hasta mínimo número de cruces igual a 16, para lo cual Jim Hoste, Jeff Weeks, y Morwen Thistlethwaite realizaron búsquedas por ordenador mediante algoritmos diseñados por ellos mismos. La sucesión de la cantidad de nudos primos en función de su número mínimo de cruces, denominada A002863 en la Enciclopedia on-line de números enteros, es:
0, 0, 1, 1, 2, 3, 7, 21, 49, 165, 552, 2.176, 9.988, 46.972, 253.293, 1.388.705.
Los nudos primos con mínimo número de cruces igual a 8 ya no tienen todos el mismo índice poligonal, contrariamente a lo que ocurría hasta 7 cruces. Así, los nudos primos del 81 hasta el 815 tienen número mínimo de aristas igual a 10, los nudos 819 y 820 igual a 8 y para los cuatro restantes el valor es 9. Veamos tres ejemplos concretos de nudos con 8 cruces.
El primero de los nudos es el nudo 81. Este pertenece a la familia de los nudos retorcidos, que consisten en coger el nudo trivial e ir dando vueltas (de hecho, medias vueltas) y después “enganchar” los dos extremos desde los que hemos estado girando el nudo trivial. El nudo 81 es el nudo retorcido de 6 medias vueltas (véase la siguiente imagen). Con media vuelta se obtiene el nudo de trébol, con dos medias vueltas el nudo de ocho, con 3 el nudo 52, conocido como el nudo de tres retorcimientos, para cuatro el 61, conocido dentro de los nudos marineros como nudo Stevedore, y para cinco el 72. Una cuestión interesante de los nudos retorcidos es que todos tienen, por su construcción, número gordiano igual a 1. Además, ninguno es anfiquiral, salvo en nudo de ocho. Por otra parte, el nudo 81 tiene número poligonal igual a 10 y es tricoloreable.
Nuestro siguiente nudo, el nudo 818 es un nudo que deriva de los conocidos nudos de Carrick, que se obtienen anudando dos cuerdas. Se deriva del nudo marinero de Carrick (utilizado en náutica desde la edad media, aunque en la actualidad se utiliza principalmente en escalada; además, también es un nudo heráldico, que aparece en la heráldica de la familia Wake (Inglaterra) y del Condado de Ormond (Ireland)), que es el que vemos en la imagen de abajo realizado por una cuerda roja y otra azul, y después se unen los dos extremos de arriba, respectivamente, de abajo, entre sí, formando el nudo topológico, que se conoce como “estera o tapete de Carrick”. También puede obtenerse a partir del nudo, con una sola cuerda, conocido como nudo de doble moneda, uniendo los extremos.
El tapete de Carrick ha sido muy utilizado en decoración. Precisamente, el logo de la International Guild of Knot Tyers, es decir, la asociación internacional de personas interesadas en los nudos, es un tapete de Carrick. Este también es el “nudo húngaro” que aparece decorando algunos uniformes militares franceses.
El tapete de Carrick, es decir, el nudo 818, tiene número poligonal igual a 9, como se ve en la siguiente imagen de una representación poligonal minimal suya. Además, su número gordiano es 2, no es tricoloreable y es anfiquiral.
El tercero de los nudos, el nudo 819, se deriva de uno de los nudos más conocidos, el nudo de los enamorados (en inglés, true lover’s knot, el nudo del verdadero amante), y que vemos en la siguiente imagen, en las versiones físicas de una o dos curvas. Muchos nudos han sido asociados desde la antigüedad con la amistad y el amor.
Existen muchos diagramas planos equivalentes del nudo de los enamorados, cada uno de los cuales intenta transmitir una propiedad diferente de este nudo topológico. Abajo vemos cuatro de esos diagramas, el primero derivado del nudo físico a partir del cual se genera, en el que se destacan los dos corazones entrelazados, el segundo expresa que este es un nudo tórico puesto que es equivalente a un nudo que está sobre una superficie de toro (la superficie de un donuts o un flotador), la tercera indica que es un nudo pretzel (familia de nudos cuyo nombre deriva del pretzel, o bretzel, un tipo de galleta o bollo salado retorcido en forma de lazo de origen alemán) y el último es un diagrama normal para expresar cierta disposición espacial del nudo.
El nudo 819 tiene número poligonal igual a 9, como se vio en la imagen de las representaciones poligonales con 8, o menos, aristas. Además, su número gordiano es 3, no es anfiquiral y es tricoloreable.
Existen muchos más invariantes numéricos, geométricos o algebraicos de los nudos topológicos, como el género de un nudo, el número de puentes, la alternancia, los polinomios de Alexander, Conway, Jones o HOMFLY, los invariantes de Vasiliev, o el grupo fundamental, entre otros, pero esta es otra historia que ya tendrá su momento.
Por cierto, si consideramos el “nudo de Anni” que mostramos en la anterior entrada, ¿cuál es su comportamiento respecto a los invariantes topológicos que hemos visto? ¿Es primo o compuesto? ¿Cuál es su número mínimo de cruces (como mucho es 15)? ¿Es tricoloreable? ¿Cuáles son los valores de su número gordiano y su índice poligonal? Eso queda como problema abierto para aquellas personas que os animéis. No es un problema sencillo.
Terminaremos esta entrada volviendo a lo que fue la motivación del inicio de estas dos entradas dedicadas a la teoría de nudos, el arte. Shinkichi Tajiri (1923-2009) fue un escultor estadounidense-neerlandés, descendiente de japoneses, en cuya obra escultórica tienen mucha importancia los nudos.
Bibliografía
1.- Raúl Ibáñez, La artista Anni Albers, The Walking Dead y la teoría de nudos, Cuaderno de Cultura Científica, 2017.
2.- Raúl Ibáñez, La topología modifica la trayectoria de los peces, Cuaderno de Cultura Científica, 2016.
3.- María Teresa Lozano, La teoría de nudos en el siglo XX, Un Paseo por la Geometría 1998/99, Departamento de Matemáticas, UPV/EHU, 1999. Versión on-line en divulgamat
4.- Martín Gardner, Huevos, nudos y otras mistificaciones matemáticas, Gedisa, 2002.
5.- Colin C. Adams, The Knot Book, An Elementary Introduction to the Mathematical Theory of Knots, AMS, 2001.
6.- Peter Cromwell, Knots and Links, Cambridge, 2004.
7.- Stephan C. Carlson, Topology of Surfaces, Knots, and Manifolds, John Wiley and Sons, 2001.
8.- The Knot Atlas
9.- Página web del artista Kevin Caron
10.- Youngsik Huh, Seungsang Oh, An upper bound on stick number of knots, J. Knot Theory Ramifications 20, no. 5, 2011, pp. 741-747.
11.- Jim Hoste, Morwen Thistlethwaite, Jeff Weeks, “The first 1,701,936 knots”, The Mathematical Intelligencer 20 (4), (1998, pp. 33–48.
12.- J. C. Turner, P. van der Griend, History and Science of Knots, World Scientific, 1996.
13.- Página web del escultor Shinkichi Tajiri
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Del nudo gordiano al nudo de los enamorados, por territorio matemático se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La simultaneidad de los sucesos
Aplicando los dos postulados de la teoría de la invariancia [1], el principio de relatividad y el principio de constancia de la velocidad de la luz en el vacío, a una situación similar al barco de Galileo, Einstein propuso un experimento mental extremadamente simple y que, sin embargo, proporcionó un primer resultado sorprendente. Descubrió que dos sucesos que ocurren simultáneamente para un observador pueden no ocurrir simultáneamente para otro observador en movimiento relativo con respecto a los sucesos. En otras palabras, la simultaneidad de los sucesos es un concepto relativo [2].
El experimento mental de Einstein, en una versión actualizada, sería como sigue . Un observador, Esteban, está estático al lado de una vía de ferrocarril perfectamente recta. Está situado en el punto medio entre dos puntos A y B. Imaginemos que sostiene un interruptor eléctrico que conecta cables de exactamente la misma longitud a dos linternas LED colocadas en A y B. Como se encuentra en el punto medio entre A y B, si cierra el interruptor, las linternas se encenderán, y muy poco después de eso Esteban verá la luz de A y de B llegando a sus ojos en el mismo momento. Esto se debe a que la luz de cada linterna, viajando a la velocidad constante de la luz y cubriendo exactamente la misma distancia a Esteban desde cada linterna, empleará exactamente el mismo tiempo para alcanzar sus ojos. Como es lógico, Esteban concluye de todo ello que las dos linternas se encienden simultáneamente.
Ahora imaginemos a una segunda observadora, Mónica, de pie en un vagón plataforma que viaja por la vía a una velocidad uniforme muy alta desde A hacia B. Mónica y Esteban han acordado que cuando Mónica llegue al punto medio exacto entre A y B, Esteban activará inmediatamente el interruptor y encenderá las linternas [3].
Mónica y Esteban realizan el experimento. En el instante en que Mónica alcanza la posición del punto medio entre A y B, el interruptor se cierra, las linternas se encienden y Esteban ve los haces de luz simultáneamente. Pero Mónica ve algo diferente: para ella los haces no ocurren simultáneamente. De hecho, le parece que la linterna en B se enciende antes que la que está en A.
¿Por qué? Como Mónica se desplaza muy rápidamente hacia B y se aleja igual de rápidamente de A y como la velocidad de la luz es finita y exactamente la misma independientemente del movimiento del observador, Mónica se encontrará con el haz de B antes que el haz de A la alcance. En consecuencia, verá el haz de B antes que el haz de luz de A.
La conclusión: los dos sucesos que Esteban percibe que ocurren simultáneamente no se producen simultáneamente para Mónica. Las razones de esta discrepancia son que la velocidad de la luz es la misma para ambos observadores y que cada observador se mueve de una manera diferente en relación con los sucesos en cuestión.
Sería muy natural pensar que Mónica podría usar una calculadora y que, conociendo su velocidad y la velocidad de la luz, podría averiguar muy fácilmente si las linternas se encendieron tal y como ella las vio o como dice Esteban que las vio él. Sin embargo, si hace esto, y aquí viene la sutileza del experimento, entonces Mónica está afirmando una relación concreta entre los marcos de referencia; en otras palabras, está asumiendo que ella es el observador en movimiento y que Esteban es el observador estacionario. Pero esta asunción de Mónica no es posible ya que, de acuerdo con el principio de relatividad, no hay ningún experimento que se pueda realizar dentro de un marco de referencia inercial [4] que revele si éste está en reposo o moviéndose a una velocidad uniforme. Nada impide por tanto que ella sea el observador estacionario, y Esteban, parado al lado de la vía, ¡podría ser el observador en movimiento!
Si esto es así, entonces Mónica puede afirmar que la linterna en B en realidad se encendió antes que la que está en A y que Esteban percibió que las dos se encendían simultáneamente solo porque, desde el punto de vista de ella, Esteban se estaba moviendo hacia A y alejándose de B. Por supuesto, Esteban podría argumentar exactamente lo contrario, que él está en reposo y que es Mónica quien se está moviendo.
Pero, ¿qué interpretación es la correcta? En contra de nuestro sentido común, resulta que no hay una interpretación “correcta” porque no hay un marco de referencia preferido. Ambos observadores se mueven uno con relación al otro. Pueden ponerse de acuerdo a la hora de describir qué ocurrió realmente, pero solo si están de acuerdo en usar uno solo de los dos marcos de referencia [5], un acuerdo que es puramente arbitrario.
Por consiguiente, el que un observador considere dos sucesos como simultáneos, esto es, que ocurren al mismo tiempo, depende del movimiento del observador. De aquí se sigue que el tiempo mismo también debería ser un concepto relativo al observador cuando se examina a la luz de los postulados de la teoría de la invariancia [1]. Este será el tema de la próxima entrega.
Notas:
[1] Popularmente conocida como teoría de la relatividad.
[2] A pesar de ello, las leyes de la física implicadas en estos sucesos son iguales para ambos obervadores, de ahí que la teoría se llame de la invariancia.
[3] Dado que este es un experimento mental, podemos despreciar el tiempo de reacción de Esteban o el de la alternativa, un interruptor activado electrónicamente así como el implicado en la activación de las linternas.
[4] Un marco de referencia inercial es un marco de referencia que está en reposo o en velocidad uniforme en relación con otro marco de referencia.
[5] Tal y como hemos hecho implícitamente en el planteamiento del experimento, cuando hemos afirmado que es Mónica la que se mueve.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La simultaneidad de los sucesos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Conviene que los hijos se parezcan a su padre
El título de esta anotación expresa de forma sintética la conclusión de una investigación hecha en Senegal, en una sociedad en la que está muy extendida la poliginia. En las sociedades poligínicas hay un incentivo muy fuerte para que los varones solteros intenten mantener relaciones con mujeres casadas y para que las mujeres casadas que ocupan una posición inferior o son peor tratadas en la familia mantengan relaciones con otros hombres. De esa forma, y expresado en términos demográfico-evolutivos, esos varones tienen alguna posibilidad de reproducirse y, por lo tanto, de dar continuidad a su linaje; y las mujeres, por su parte, pueden diversificar así su apuesta reproductiva. Ahora bien, bajo esas condiciones, la incertidumbre acerca de la paternidad es relativamente alta, algo que puede condicionar el comportamiento de los padres para con su progenie.
Y efectivamente, utilizando el parecido facial y el olor corporal como criterios de similitud fenotípica, la investigación concluyó que los padres dedican un mayor esfuerzo a los hijos que más se les parecen. Como consecuencia de ese mayor esfuerzo y atención, los hijos más parecidos a sus padres también crecen más y se encuentran en un mejor estado nutricional, con lo que ello implica en términos de adecuación (fitness, en términos darwinianos).
Los resultados obtenidos en el estudio son consistentes con predicciones teóricas basadas en el supuesto de que la inversión de recursos en la progenie actual compromete los recursos que puedan ser utilizados en la progenie futura. Por esa razón, bajo condiciones de incertidumbre acerca de la paternidad, los padres recurrirían a criterios de similitud fenotípica (los únicos a los que tienen acceso) a la hora de canalizar recursos hacia la progenie.
Fuente: Alexandra Alvergne, Charlotte Faurie y Michel Raymond (2009): Father–offspring resemblance predicts paternal investment in humans. Animal Behaviour 78: 61-69.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Conviene que los hijos se parezcan a su padre se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Un viaje a Serendipia
“Serendipia. Hallazgo valioso que se produce de manera accidental o casual.”
“Chiripa. 1. Carambola, casualidad favorable. 2. En el juego de billar, suerte favorable que se gana por casualidad.”
Diccionario de la Real Academia
“En el campo de la investigación el azar no favorece más que a los espíritus preparados.”
Louis Pasteur
“La inspiración existe pero tiene que encontrarnos trabajando.”
Pablo Picasso
“Las ideas experimentales frecuentemente nacen a partir de una observación casual, por ello representan la forma más sencilla de comenzar un trabajo científico.”
Claude Bernard
El 28 de enero de 1754, Horace Walpole, cuarto Conde de Orford, hijo de un Primer Ministro y famoso escritor, envió una carta a Sir Horace Mann, amigo y embajador en Florencia, e incluyó en el texto un término recién inventado, serendipity o, en español, serendipia. Walpole construye el término a partir de una antigua fábula asiria titulada “Los tres príncipes de Serendip”, que, en sus viajes, “siempre descubrían, por accidente o por sagacidad, cosas que no estaban buscando”.
Serendip es el antiguo nombre de la isla de Ceilán, hoy conocida como Sri Lanka. Como ejemplo nos sirve aquella aventura en la que los príncipes describen un camello, al que no han visto, y afirman que está ciego del ojo derecho porque en el camino que recorre solo está comida la hierba del margen izquierdo, la única que ve con su ojo sano. O que lleva una carga de mantequilla y miel, cada una en un costado, pues en una cuneta hay hormigas comiendo y en el otro un enjambre de abejas, avispas y moscas. Las hormigas comen la mantequilla y los otros insectos la miel. Estos príncipes más bien me parecen ancestros de Sherlock Holmes que viajeros con suerte que descubren por casualidad.
Así explica Walpole a su amigo Mann lo que significa serendipia. Ahora, en nuestro tiempo, se usa serendipia en ciencia para describir un hallazgo inesperado y afortunado.
La palabra casi se olvidó hasta que, en 1955, Salvador Luria, después Premio Nobel en 1969, iniciaba un artículo sobre los virus llamados fagos, que destruyen bacterias, con este párrafo: “Nuestra historia tiene como episodio crítico una de esas coincidencias que muestran como el descubrimiento depende a menudo del azar o, más bien, de lo que se ha llamado serendipia –la observación casual que llega a un ojo receptivo”.
Para Pablo Capanna, las serendipias son ocasiones irrepetibles que no suponen un conocimiento fácil y listo para captar. Dependen de una mente alerta, entrenada y con los conocimientos suficientes como para entender lo que aparece de improviso. Hay que saber cómo sacar provecho de la serendipia. Solo lo consigue quien es capaz de ver lo que la mayoría deja pasar, eso que está delante de los ojos. A menudo parece un golpe de suerte pero, más bien, es la conclusión de un razonamiento en segundo plano según se está atento a otra cosa.
El camino que sigue la investigación científica no siempre es lineal ni predecible o, si se quiere, no se puede planificar al detalle. Las rutinas metodológicas ordenan la búsqueda, ahorran tiempo, garantizan la objetividad y evitan fantasías, pero no lo son todo ni aseguran los resultados. Es el inconveniente de los proyectos demasiado específicos y con objetivos muy concretos, pues así no se permite captar los imprevistos. Después de todo esos proyectos se preparan a partir de lo que ya conocemos y no es fácil, más bien no es posible, que planifiquen lo desconocido. Por ello es importante, por un lado, que se deje a los científicos elegir lo que investigan y que, además, siempre exista un componente importante de investigación básica. Y, por otra parte, que los que hagan ciencia estén bien provistos de conocimientos básicos y así les será más sencillo detectar lo inesperado.
También Peter Medawar, Premio Nobel en 1960, escribió que cualquier científico que no sea hipócrita reconocerá el papel de la suerte en los descubrimientos. Para Medawar, un descubrimiento científico nunca es premeditado. Un acto de la imaginación, una aventura especulativa, subyace, por tanto, en todo avance del conocimiento.
Veamos algunos ejemplos de serendipia, aunque no trataré a fondo el más famoso de todos: la llegada a América de Cristóbal Colón, que no solo no encontró lo que buscaba, las Indias y sus riquezas, sino que encontró un continente, América, que no buscaba y que, además, nunca aceptó que lo había hecho y que se había equivocado. Murió convencido de haber llegado a las Indias. Esto sí que es una serendipia sin querer, sin buscarla.
Empezaré con otra serendipia famosa como es el descubrimiento de la penicilina por Alexander Fleming, también Premio Nobel en 1945.
He conocido recientemente un relato del descubrimiento de la penicilina escrito por un testigo directo, el profesor Melvyn Price, colega y amigo de Fleming, y su visitante en el laboratorio en el momento de serendipia de encontrar e interpretar la placa contaminada con el moho Penicillium. Fue en 1928. Fleming estaba haciendo una serie de estudios con estafilococos para incluirlos en un manual de Microbiología de próxima aparición. Price había iniciado los experimentos y luego había marchado del laboratorio sin terminarlos. Fleming los estaba completando. Así que estaba rodeado de placas con cultivos de estafilococos y encontró una de ellas con una contaminación con moho. La observó y, según relata Price, vio donde crecía el moho y que había zonas cercanas de donde habían desaparecido los estafilococos. Comentó para sí mismo “That is funny…”, o sea, “Esto es curioso…”. Tomó una muestra y la guardó para próximos estudios. Fue su primer cultivo con el hongo Penicillium chrysogenum, productor de la penicilina. Fleming guardó toda su vida esa primera placa contaminada.
Otro ejemplo de serendipia es la invención del estetoscopio, el instrumento tan conocido y peculiar que utilizan los médicos para escuchar cómo sonamos por dentro. Antes del estetoscopio, el médico colocaba su oído directamente sobre el pecho del paciente. Pero había dificultades para escuchar con claridad en los obesos y, además, las mujeres no se sentían cómodas pues consideraban que su intimidad se veía invadida.
Fue el médico francés René Laënnec quien encontró la solución en 1816. Observó a unos niños que jugaban en la calle con una tabla de madera. Uno de ellos golpeaba muy suave uno de los extremos y los demás escuchaban los golpes desde el otro extremo. Pensó que el sonido se transmitía bien en un sólido y que, quizá, así conseguiría escuchar mejor los sonidos del interior del cuerpo humano. Primero ensayó con un cilindro de papel y constató que mejoraba el sonido. Entonces encargó que le fabricaran un cilindro de madera, abombado por los dos extremos, de 30 centímetros de longitud, 3 centímetros de diámetro y un conducto interno central de 5 milímetros de ancho. Este fue el primer estetoscopio.
Y ahora, la historia de la droga LSD o dietilamida de ácido lisérgico. Fue, como en toda serendipia, una casualidad que necesitaba de un científico atento y preparado para percibirla. Era Albert Hofmann, investigador de la compañía farmacéutica Sandoz en Basilea, Suiza. Trabajaba con compuestos formados por el ácido lisérgico con varias amidas para conocer sus posibles propiedades estimulantes sobre la circulación y la respiración, el alivio de las migrañas y para detener hemorragias en el parto. El compuesto número 25 era la dietilamida del ácido lisérgico. El día era el viernes 16 de abril de 1943 y así lo relató Hofmann años más tarde a partir de su cuaderno de laboratorio y del informe que preparó para su director.
“El viernes pasado, 16 de abril de 1943, me vi obligado a detener mi trabajo en el laboratorio y regresar a casa, pues sentía una inquietud peculiar asociada con una sensación de leve mareo. Al llegar a casa, me tumbé y caí en una especie de embriaguez que no era desagradable y que se caracterizaba por la extrema actividad de la imaginación. Mientras estaba en un estado aturdido con los ojos cerrados (experimentaba la luz del día como desagradablemente brillante), surgió sobre mi un flujo ininterrumpido de fantásticas imágenes de extraordinaria plasticidad y vivacidad y acompañado por un intenso y caleidoscópico juego de colores. Esta condición pasó gradualmente y terminó después de cerca de dos horas.”
Hofmann quedó impresionado por lo que había provocado aquella molécula que llamaba LSD-25 y comenzó a hacer ensayos cuidadosos consigo mismo. Tres días después, el 19 de abril, se administró una dosis de 0.25 miligramos. En su cuaderno de laboratorio hay una sola nota sobre aquella sesión: “Deseo de reír”. Montó en su bicicleta y se marchó a su casa acompañado por un colega del laboratorio. Tuvo la placentera sensación de que, durante todo el trayecto, permaneció inmóvil. Entre los aficionados al LSD de todo el mundo, ese 19 de abril se conoce como “El Día de la Bicicleta”. Así demostró Hofmann las extraordinarias propiedades del LSD-25.
Después de estos ejemplos, con el primer antibiótico, un instrumento médico como el estetoscopio, y una droga como el LSD, podemos terminar afirmando que la ciencia, vista la contribución de las serendipias, no avanzaría si los investigadores no fueran capaces de responder a lo inesperado y de conectar lo sorprendente con lo rutinario. Además, y como escribió Alexander Fleming años después de su descubrimiento, “La historia de la penicilina tiene un cierto encanto y ayuda a ilustrar la cantidad de azar o fortuna, de fatalidad o destino, llámenlo como quieran, que hay en la carrera de alguien.” Para los científicos, no todo son objetivos a cumplir y planificación, también hay mucho trabajo e intuición y, siempre, muchos conocimientos.
Para terminar y como resumen, ocho puntos sobre la serendipia que ofrece Peter Van Andel, de la Universidad de Groningen. Aquí van:
1.- La serendipia existe.
2.- En las áreas más empíricas (astronomía, química, medicina) los hallazgos por serendipia son habituales.
3.- La serendipia ayuda, es esencial y no debe ser subestimada ni exagerada.
4.- La investigación científica sistemática y la serendipia no se excluyen sino que, más bien, se complementan.
5.- En general, la serendipia tiene a desparecer o a ser disimulada en las narraciones a posteriori cuando se publican los resultados; se racionaliza el método y no hay lugar a la casualidad.
6.- Antes decíamos por suerte o por casualidad, ahora decimos por serendipia.
7.- La mayor parte de los que aceptan y practican la serendipia son de mente abierta, perceptivos, curiosos, intuitivos, ingeniosos, flexibles, artistas, con sentido del humor y laboriosos.
8.- La intuición es una anticipación que no puede ser explícita antes o cuando ocurre y, entonces, la serendipia, por definición, sigue a la intuición.
Referencias:
Bunge, M. 2013. La ciencia: su método y su filosofía. Laetoli. Pamplona. 144 pp.
Capanna, P. 2011. Serendipias. Los descubrimientos que se realizan por “casualidad”. Página 12 Futuro Diciembre 3.
Coppo, J.A. 2012. Serendipia. Revista Veterinaria 23: 71-76.
Darbellay, F. et al. 2014. Interdisciplinary research boosted by serendipity. Creativity Research Journal doi: 10.1080/10400419.2014.873653
Forni, P. 2011. Robert Merton. Miriada 4: 1-4.
Hofmann, A. 1970. The discovery of LSD and subsequent investigations on naturally occurring hallucinogens. En “Discoveries in Biological Psychiatry”, p. 98-109. Ed. por F.J. Ayd, Jr. & B. Blackwell. J.B. Lippincott Co. Philadelphia/Toronto. 254 pp.
Luria, S.E. 1955. The T2 mystery. Scientific American 192: 92-98.
Maurois, A. 1963. La vida de Sir Alexander Fleming. Eds. Cid. Madrid. 318 pp.
Medawar, P.B. 1988. Los límites de la ciencia. Fondo de Cultura Económica. México. 141 pp.
Roberts, R.M. 1992. Serendipia. Descubrimientos accidentales en ciencia. Alianza Ed. Madrid. 443 pp.
Stix, G. 2011. El primer “viaje” alucinógeno. Investigación y Ciencia enero: 7.
Taton, R. 1967. Causalidad y accidentalidad de los descubrimientos científicos. Ed. Labor. Barcelona. 172 pp.
Valer, N.B. 2005. A serendepidade na Medicina e na Anestesiologia. Revista Brasileira de Anestesiologia 55: 224-249.
Van Andel, P. 1994. Anatomy of the unsought finding serendipity: origin, history, domains, traditions, appearances, patterns and programmability. British Journal for the Philosophy of Science 45: 631-648.
Villanueva Meyer, M. 2012. René Laënnec (1781-1826): Inventor del estetoscopio y maestro del examen médico. Galenus 35: 70-71.
Villanueva Meyer, M. 2014. Alexander Fleming: Pionero en el uso de la penicilina. Galenus 47: 68-69.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Un viaje a Serendipia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Naukas Bilbao 2017 – Diana González: Identidad digital y robots
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Diana González nos plantea una cuestión muy simple: ¿de verdad eres capaz de diferenciar entre un humano y un robot?
Diana González (Pamplonetario): Identidad digital y robotsEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Diana González: Identidad digital y robots se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las barreras a los edificios de consumo de energía casi nulo en el sur de Europa
En los próximos años, existe un compromiso legal de todos los países de Europa para mejorar la eficiencia energética de los edificios que se traduce en construir edificios de consumo de energía casi nulo (EECN, o nZEB en inglés), es decir, edificios con un consumo energético mínimo. La Directiva 31/2010/EU fija dos fechas clave: todos los edificios públicos deberán ser EECN a partir del 1 de enero de 2019 y dos años más tarde, el 1 de enero de 2021, deberán serlo todos los edificios de nueva construcción. “Falta sólo un año para el primer compromiso, y sin embargo, muchos países están lejos de alcanzar ese nivel de eficiencia energética en los edificios. Los países que más han avanzado en este reto son los países del centro y norte de Europa”, explica Juan María Hidalgo, coautor del estudio.
Esta investigación liderada por la Université de Liege ha sido realizada por más de una docena de investigadores Europeos y analiza la situación de la edificación en siete países del sur de Europa (Chipre, Francia, Grecia, Italia, Portugal, Rumanía y España). Cada país tiene matices en las definiciones técnicas que hacen muy difícil la comparación directa de las normativas y programas de impulso de los EECN. Por ello, “los participantes en el estudio hicimos un esfuerzo para consensuar una metodología común. Era la única manera de hacer comparaciones reales de igual a igual”, añade Hidalgo.
La investigación se ha centrado en el estudio comparativo de las barreras sociales y tecnológicas para el desarrollo de los EECN tanto en la nueva construcción como en la rehabilitación del inmobiliario existente. Hasta ahora, muchos estudios justificaban los retrasos sur-norte debido al contexto económico. Sin embargo, este trabajo ha mostrado que hay otras barreras, como las sociológicas y las condiciones climatológicas de cada país que afectan y mucho a la consecución de los objetivos de los edificios de consumo de energía casi nulo. “La escasa formación de prácticamente todos los agentes, desde la administración, pasando por los operarios de la construcción, hasta la ciudadanía hay una gran cadena humana en la que todavía no se comprende en qué consiste un EECN y cómo conseguirlo”, subraya Hidalgo. Por otro lado, “el diseño de edificios debe ser estudiado más a detalle para solucionar los cambios de estación como el invierno y el verano etc”, añade Hidalgo. “El País Vasco puede ser un buen banco de pruebas para ello ya que tiene casi todas las climatologías del estudio. A pesar de ser un territorio pequeño tenemos que aplicar criterios de diseño muy distintos en zonas de costa, zonas de montaña, zonas del sur…”.
“Si estas barreras no se solucionan, es muy probable que haya insatisfacción con el resultado real, ya que podrían darse problemas de confort térmico, sobrecalentamiento, sobrecostes innecesarios en la construcción etc. a menudo empeorados por un mal funcionamiento de los edificios”, comenta el investigador. Para ello, “el estudio propone mejoras para las normativas, diseño, construcción y uso para de este tipo de edificios”, añade.
Asimismo, el investigador afirma que es más fácil construir un EECN nuevo por las posibilidades de ubicación y orientación, el empleo de materiales nuevos y tecnologías integradas en el diseño, que llevar este concepto al ámbito de la rehabilitación, pues hay menos flexibilidad de maniobra y los costes también aumentan.
Según Juan María Hidalgo, “esperamos que este trabajo contribuya a solucionar las principales dificultades del sector y nos permita llegar al 2020 con un sector de la edificación más preparado, con mejores herramientas y mayor concienciación”. De este modo, “se podrán construir EECN que satisfagan las necesidades de todas las personas, con el mínimo coste y el menor impacto ambiental posible”.
Referencia:
Shady Attia, Polyvios Eleftheriou, Flouris Xeni, Rodolphe Morlot, Christophe Menézo, Vasilis Kostopoulos, Maria Betsi, Iakovos Kalaitzoglou, Lorenzo Pagliano, Maurizio Cellura, Manuela Almeida, Marco Ferreira, Tudor Baracu, Viorel Badescu, Ruxandra Crutescu, Juan Maria Hidalgo-Betanzos (2017) Overview and future challenges of nearly zero energy buildings (nZEB) design in Southern Europe Energy and Buildings doi: 10.1016/j.enbuild.2017.09.043
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Las barreras a los edificios de consumo de energía casi nulo en el sur de Europa se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La espaguetización cerca de un agujero negro
La espaguetización es el efecto de las fuerzas de marea gravitacionales sobre un astronauta flotando en el espacio cerca de un agujero negro. Cuando estás de pie en el suelo hay una diferencia entre la aceleración de la gravedad en tu cabeza y en tus pies, pero es tan pequeña que no notas nada. Sin embargo, cerca de un objeto de gran masa, como un agujero negro de masa estelar, la diferencia puede ser grande. Conforme te acerques al agujero negro pasará de ser incómoda a un doloroso potro de tortura medieval que te acabará desmembrando.
Los agujeros negros son muy pequeños, tanto que son los objetos astrofísicos más compactos que se conciben. Su tamaño viene dado por el radio de Schwarzschild de su horizonte de sucesos, la frontera más allá de la cual ni siquiera la luz puede escapar. Este radio es proporcional a su masa, en concreto, R = 2 G M/c2, donde G = 6,67 × 10−11 N · m2 kg−2 es la constante de gravitación universal de Newton, c = 3,00 × 108 m/s es la velocidad de la luz en el vacío y M es la masa del agujero negro. La masa de un agujero negro se suele medir en unidades de masa solar (M☉), luego su radio R = 2,95 (M/M☉) km. Por ejemplo, un agujero negro de 10 masas solares tendrá un radio de 29,5 km y uno de 100 masas solares un radio de solo 295 km.
Para calcular la diferencia de fuerzas gravitacionales entre la cabeza y los pies de un astronauta hay que usar un modelo de esta persona junto con su traje espacial. Supongamos que mide 1,70 metros de altura con el traje puesto y que su masa es de 150 kilogramos (unos 80 kg para el traje espacial y unos 70 kg para su peso). Para hacer los cálculos más sencillos vamos a suponer que la cabeza con casco y los pies con botas pesan lo mismo, sean m = 20 kg cada uno, no viéndose afectado el resto del cuerpo; además, supondremos que la distancia entre los centros de masa de la cabeza y de los pies es d = 1,50 m. Un cálculo sencillo [1] nos dice que la diferencia de fuerzas entre la cabeza y los pies es ∆F = R m c2 d/r3, donde m es la masa común de pies y cabeza, d es la distancia que separa sus centros de masa y r es la distancia que separa el centro de masas del astronauta y el centro del agujero negro.
Usando la fórmula anterior puedes hacer los cálculos para cualquier agujero negro que desees. Solo como ejemplo supondré un agujero negro de 10 masas solares y 61 km de diámetro, con lo que ∆F = 3,11 × 109 / (r/R)3 newtons (N). Para un astronauta a una distancia de 200 radios de Schwarzschild, unos 5900 km, se obtiene ∆F = 388 N; esto equivale a soportar unos 40 kg de peso sujeto a los pies de un astronauta que esté colgado por un cable de acero a pocos metros de la superficie terrestre (como ilustra la figura 2). Quizás sea algo incómodo, pero se puede soportar sin problemas.
La distancia más próxima al agujero negro que podrá soportar el astronauta depende de lo que soporte su cuerpo. Pero seguro que estará muy incómodo a una distancia 130 radios de Schwarzschild, unos 3800 km, pues ∆F = 1400 N; esto equivale a soportar unos 140 kg de peso bajo los pies. ¿Cuánto podrá soportar hasta que empiece a desmembrarse? A una distancia de 100 radios de Schwarzschild, unos 3000 km, soportará ∆F = 3100 N, un peso colgante de unos 310 kg tirando de los pies. ¿Podría acercarse a unos 1500 km del agujero negro? No, pues a unos 50 radios de Schwarzschild debería ser capaz de soportar unos 2500 kg de peso colgados de los pies.
Los agujeros negros son objetos muy pequeños y el disco de acreción de materia que les rodea suele tener menos de 10 radios de Schwarzschild de diámetro. El ojo humano tiene una resolución angular mínima de un minuto de arco, o sea, unos 30 cm a 1 km de distancia (0,3 miliradianes). La Luna y el Sol tienen un diámetro aparente en el cielo de unos 9 miliradianes. Para ver el disco de acreción de un agujero negro con un tamaño similar al de la Luna en el cielo hay que acercarse a unos 1100 radios de Schwarzschild; a esa distancia las fuerzas de marea gravitacionales serán tan pequeñas que el astronauta no las notará.
¿Qué pasa con un agujero negro sin disco de acreción? Un agujero negro sin disco de acreción deforma la imagen del fondo estelar a su alrededor gracias a su efecto como lente gravitacional. Para disfrutar de este efecto (muy popular en las representaciones artísticas de los agujeros negros que decoran las noticias sobre las ondas gravitacionales detectadas por LIGO/Virgo) hay que acercarse a unos 220 radios de Schwarzschild. Por fortuna a esa distancia el astronauta sentirá que sus pies le pesan un poco, pero por lo demás estará perfectamente cómodo.
En la divulgación de la Física una fórmula vale más que mil palabras. Te animo a usar la fórmula que decora este texto para realizar cálculos con otros agujeros negros, estrellas de neutrones y cuerpos astrofísicos. Sobre todo si eres profesor de enseñanza secundaria; vamos, anima a tus alumnos a realizar estos cálculos sencillos. La mejor manera de apreciar lo pequeños que son los agujeros negros es calcular cuánto nos podemos acercar a ellos para verlos con el mismo detalle con el que vemos la Luna en el cielo.
Este post ha sido realizado por Francis Villatoro (@Emulenews) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
Referencias
[1] Stylianos V. Kontomaris, Anna Malamou, “A presentation of the black hole stretching effect,” Physics Education 53: 015010 (2018), doi: 10.1088/1361-6552/aa8d22.
El artículo La espaguetización cerca de un agujero negro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Catástrofe Ultravioleta #22 HUMOR
A finales de los años cincuenta un tipo de gesto arisco se paseaba por los pasillos de los principales estudios de televisión empujando un misterioso carrito. En su interior había una caja cuyo contenido cambiaría la historia de la televisión y al forma en que hoy en día entendemos el humor. Para saber qué contenía tendrás que acompañarnos un ratito.
Agradecimientos: Ángel Martín, Berto Romero, Diego Cuevas, Ernesto Sevilla, Joaquín Reyes, Santiago de Luca, Pedro Toro, Raquel Sastre, Miguel Noguera, Antonio Castelo, Patricia Sornosa, José María del Río, Ray Jaén, Manuel Arias, el efecto halo y las risas de la gente muerta.
* Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.
El artículo Catástrofe Ultravioleta #22 HUMOR se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Revistas predadoras y la Ley de Goodhart
Cuando una medida se convierte en un objetivo deja de ser una buena medida, dice la Ley de Goodhart, bien conocida en el campo de la sociología. Y si lo pensamos un poco es lógico:Los humanos somos, bueno, humanos, de manera que consciente o inconscientemente tendemos a tomar el camino del mínimo esfuerzo hacia el cumplimiento de nuestros objetivos. Si el objetivo es una medida concreta buscaremos la manera de alcanzarla con el menor coste para nosotros, tenga o no tenga sentido desde el punto de vista de la intención original; como en el viejo chiste soviético, si el objetivo de la factoría es hacer 1.000 toneladas de tornillos podemos cumplirlo fabricando un único tornillo de 1.000 toneladas, aunque sea perfectamente inútil y absurdo en el contexto de la planificación global. Y si en algo somos buenos los humanos es en buscar atajos, simplificaciones, recortes y reinterpretaciones para justificar casi cualquier manipulación de esta clase.
Por eso cualquier medida que se designa como objetivo es susceptible de ser retorcida del modo más torticero posible, y por eso deja de ser una buena medida de lo que ocurre en el sistema: porque automáticamente deja de tener valor como indicación objetiva de su estado. Esta es la razón de que el número de publicaciones se haya convertido en una pésima medida del estado de un sistema de investigación, y de la existencia de un nuevo fenómeno como son las famosas ‘revistas predadoras’. Un resultado previsible según la ley de Goodhart.
Si el modo de avanzar en lo profesional y de recibir mejor financiación para la investigación científica es aumentar el número de publicaciones (maximizar esta medida en particular) los científicos se encuentran con un poderoso incentivo para manipular esta variable. Si pueden estirar los resultados de un experimento a tres publicaciones en lugar de a una, lo harán; si pueden maximizar los resultados de su tesis en términos de número de artículos publicados tienen que hacerlo. Si lo que cuenta a la hora de obtener un puesto de trabajo o de conseguir una beca es el número de artículos publicados quien no lleve a cabo este tipo de estrategias resultará perjudicado en la carrera y se quedará atrás. Las plazas, y los proyectos, serán para quien sí lo haga.
Aquí es donde surgen las ‘revistas predadoras’, que simplemente aprovechan esta necesidad de millones de investigadores de todo el mundo para sacar dinero. Lo que ofrecen es simple: publicar artículos de baja o nula calidad de modo rápido y sin muchas preguntas a cambio de dinero. Muchos investigadores cuentan con presupuestos para publicar, ya que algunas revistas (incluso de la máxima calidad) cobran por la publicación. Estas ‘revistas predadoras’ tan sólo obvian la parte cara del asunto: la revisión por pares, el análisis de calidad previo, y proporcionan una vía para a cambio de dinero añadir de modo sencillo una línea al currículo. Dotadas de nombres rimbombantes que suenan legítimos, con frecuencia radicadas en países como China o la India y a veces complementadas por congresos y seminarios de nombre impresionante y calidad nula estas revistas cubren un nicho de mercado: el de los investigadores desesperados por cumplir con el requisito de número de publicaciones que se les impone.
El resultado, por supuesto, es que el sistema completo deja de funcionar. Los criterios de calidad casi han desaparecido reemplazados por criterios basados en la pura cantidad; el dar mayor puntuación a las revistas de alto impacto no basta, porque ahora es el impacto de las revistas lo que se ha pervertido (siguiendo la Ley de Goodhart). Los currículos se alargan y en el fárrago de publicaciones resulta muy difícil separar el grano (las revistas serias que son leídas por otros científicos) de la paja (las predadoras que nadie lee). Los requisitos de mínimos se hacen astronómicos, como los recientes de la ANECA española que de media exigen 130 artículos para cualificarse para la categoría de catedrático. Y la medida, que se supone que sirve para garantizar una producción científica razonable, se hace completamente irrelevante e incluso contraproducente. Hasta tal punto que ahora es necesario luchar contra la proliferación de ‘revistas predadoras’ que, como malas hierbas, amenazan con ahogar el sistema científico convencional.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo Revistas predadoras y la Ley de Goodhart se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Algo raro pasa alrededor de Gliese 436
En el imaginario colectivo los planetas de un sistema solar giran alrededor de su estrella en el mismo plano, y este plano es también el plano ecuatorial de la estrella. La estrella también gira, y su eje de giro se alinea con los ejes de giro de las órbitas planetarias, dando la impresión de un sistema bien ordenado. Pero el universo es caprichoso en sus creaciones.
Gliese 436 es una estrella de la que se ha escrito mucho, ya que alberga un planeta del tamaño de Neptuno, Gliese 436b, que se evapora como un cometa. En una investigación cuyos resultados se publican ahora en Nature, un equipo de investigadores encabezados por Vincent Bourrier, de la Universidad de Ginebra (Suiza), demuestran que, además de su enorme nube de gas, el planeta Gliese 436b también tiene una órbita muy especial. Es “polar”: en lugar de orbitar en el plano ecuatorial de la estrella, el planeta pasa casi por encima de los polos estelares.
La inclinación orbital es la última pieza de un rompecabezas que ha desconcertado a los astrónomos durante 10 años: a diferencia de los planetas del Sistema Solar cuyas órbitas forman círculos casi perfectos (aunque sean en realidad elipses), la de Gliese 436b forma una elipse muy plana, es decir, su distancia a la estrella varía mucho a lo largo de su órbita.
Gliese 436b está sometido a enormes fuerzas de marea porque pasa increíblemente cerca de su estrella, apenas el 3% de la distancia que separa la Tierra del Sol. La estrella Gliese 436 es una enana roja cuya vida activa es muy larga, por lo que las fuerzas de marea que induce deberían haber conseguido haber acercado la órbita del planeta a un círculo pero, por alguna razón, no lo ha hecho.
¿Y cual podría ser la causa?
Las arquitecturas orbitales de los sistemas planetarios son registros fósiles que nos dicen cómo se han formado y evolucionado. Un planeta perturbado por el paso de una estrella cercana o por la presencia de otros planetas masivos en el sistema mantendrá un registro, por así decirlo, en su órbita. La existencia de un planeta desconocido, más masivo y distante que lo perturbase explicaría no solo por qué Gliese 436b no está en una órbita circular, sino también por qué está en una órbita polar.
Los mismos cálculos que apuntan a esta conclusión también predicen que el planeta no siempre ha estado tan cerca de su estrella, sino que podría haberse acercado recientemente (en términos astronómicos). Por lo tanto, el “planeta que se evapora” no siempre se habría evaporado, sino que habría sido empujado hacia la estrella por la gravedad de un planeta compañero aún no detectado. La caza no ha hecho más que empezar.
Referencia:
Vincent Bourrier et al (2017) Orbital misalignment of the Neptune-mass exoplanet GJ 436b with the spin of its cool star Nature doi: 10.1038/nature24677
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Algo raro pasa alrededor de Gliese 436 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¡Es la Aritmética!
El niño y los sortilegios es una fantasía lírica (en dos partes para solistas y coros con orquesta) de Maurice Ravel sobre un libreto de la escritora Sidonie Gabrielle Colette. Se estrenó en Montecarlo el 21 de marzo de 1925 y, un año más tarde, se presentó en el Teatro de la Ópera Cómica de París.
En 1916, Jacques Rouché, en ese momento el director de la Ópera de París, solicitó a su amiga Colette que escribiera un libreto para ballet, de ambiente fantástico, sobre los sueños de un niño perseguido por animales y objetos por él maltratados: Ballet pour ma fille. Ravel fue elegido para musicalizar la historia. Pero, debido a problemas personales, abandonó el proyecto hasta 1919, año en que retomó el libreto y descubrió sus posibilidades, decidiendo crear una ópera y no un ballet.
El niño y los sortilegios es una sucesión de cuadros independientes que mezclan diferentes géneros musicales: jazz, foxtrot, ragtime, polka, dúo maullador, vals y música coral. Para reproducir las numerosas onomatopeyas del libreto de Colette, Ravel utilizó instrumentos poco habituales, como un rallador de queso, una carraca con manivela, crótalos, bloques de madera, látigo,…
La obra tiene lugar en el interior de una casa en Normandía. El protagonista, el niño, intenta, con pereza, hacer sus deberes. A ver que las tareas no están terminadas, la madre castiga al niño dejándole como merienda una taza de té y un trozo de pan duro. Al quedarse solo, el protagonista demuestra su enojo rompiendo objetos y maltratando a los animales domésticos. Aburrido, se recuesta sobre un sillón; en ese momento entran en acción los sortilegios a los que alude el título: el sillón comienza a danzar con una silla, los muebles lo imitan enfadados con el protagonista,… El niño, atemorizado, llora. De las páginas de un libro por él destrozado acude una princesa a consolarlo, aunque le reprocha su conducta. Ella desaparece para ocupar su lugar un viejo amenazante, que le plantea problemas matemáticos para resolver: es la Aritmética. Sale la luna, el gato y la gata se unen en un ceremonioso dueto amoroso. Los animales que habitan el jardín desafían y amenazan al niño: entablan extraños diálogos, realizan frenéticas danzas, con tanta euforia que hieren a una ardilla. El niño, conmovido, ayuda al roedor. El resto de los animales, al ver el acto de compasión del protagonista, comienzan a dudar de su maldad. Lo acompañan hasta la casa, finalizando de este modo los sortilegios: el niño regresa al mundo real, reclamando a gritos la presencia de su madre.
En una de las escenas, las matemáticas son las encargadas de atormentar al niño.
[…] (Los patea. Voces chillonas salen de entre las páginas que dejan ver a las gesticulantes figuritas de los números. De un álbum abierto como un techo, salta un viejecillo jorobado, de nariz ganchuda, barbado, vestido con números, sombrero en forma de “pi”, ceñido con una cinta métrica y armado con una regla. Sostiene un libro de madera que golpea cadenciosamente. Baila mientras recita fragmentos de problemas.)
EL VIEJECILLO: ¡Dos grifos de agua fluyen a un tanque! ¡Dos ómnibus dejan una estación a veinte minutos de intervalo, valo, valo, valo! ¡Una campesina, sina, sina, sina, lleva todos sus huevos al mercado! ¡Un mercader de telas, telas, telas, telas, vende seis metros de trapo! (ve al niño y se le acerca de una manera malévola.)
EL NIÑO: (aterrado) ¡Dios mío! ¡Es la Aritmética!
EL VIEJECILLO, LOS NÚMEROS: ¡Tica, tica, tica! (Danzan alrededor del niño multiplicando sus maléficos pases.) Once más seis: ¡veinticinco! Cuatro más cuatro: ¡dieciocho! Siete por nueve: ¡treinta y tres!
EL NIÑO: (sorprendido) ¿Siete por nueve, treinta y tres?
LOS NÚMEROS: (levantando las hojas y chillando) Siete por nueve: ¡treinta y tres! etc.
EL NIÑO: (con audacia) Tres por nueve: ¡cuatrocientos!
EL VIEJECILLO: (balanceándose para mantener el ritmo) Milímetro, centímetro, decímetro, decámetro, hectómetro, kilómetro, miriámetro. ¡Sin fallar! ¡Qué felicidad! ¡Millones, billones, trillones, y fracciones!
LOS NÚMEROS, EL VIEJECILLO: ¡Dos grifos de agua fluyen a un tanque! etc.
LOS NÚMEROS: (hacen bailar al niño con ellos) Tres por nueve: ¡treinta y tres! Dos por seis: ¡veintisiete! ¿Cuatro más cuatro?… ¿Cuatro más cuatro?…Cuatro por siete: ¿cincuenta y nueve? Dos por seis: ¡treinta y uno! Cinco por cinco: ¡cuarenta y tres! Siete más cuatro: ¡cincuenta y cinco! (Giran desenfrenadamente. El niño, aturdido, cae al suelo. El Viejecillo y el coro se retiran.) Cuatro más cuatro: ¡dieciocho! Once más seis: ¡veinticinco!
(El niño se sienta con dificultad. La luna ilumina la habitación. El gato negro se desliza bajo el sillón. Se estira, bosteza y se relame. El niño no lo ve pues, cansado, tiene la cabeza apoyada en un taburete. El gato juega, haciendo rodar una bola de estambre. Se acerca al niño e intenta jugar con su cabeza rubia como si fuera una pelota.)
EL NIÑO: ¡Oh! ¡Mi cabeza! ¡Mi cabeza! […]
Es una lástima que las matemáticas se perciban sistemáticamente como una ‘maldición’… ¡incluso en la ópera!
Os dejo debajo la original versión de Giovanni Munari y Dalila Rovazzani, de esta escena de El niño y los sortilegios:
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo ¡Es la Aritmética! se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Sistemas respiratorios: los pigmentos respiratorios
Llamamos pigmentos respiratorios a un grupo de proteínas que tienen la propiedad de combinarse de forma reversible con oxígeno molecular. Por esa razón, pueden transportar oxígeno, captándolo en un lugar y liberándolo en otro. Todos los pigmentos respiratorios son metaloproteínas, o sea, proteínas que contienen átomos metálicos. Y los llamamos pigmentos porque, al menos en algunos momentos, tienen un color intenso.
El O2 tiene una solubilidad relativamente baja en agua, por lo que es muy limitada la capacidad de las disoluciones acuosas, como son la hemolinfa o el plasma sanguíneo, para transportar oxígeno. Gracias a los pigmentos respiratorios de los que los animales se han dotado, la capacidad de la sangre o equivalente para transportarlo es muy superior a la que tendrían sin ellos, y pueden satisfacer las necesidades que se derivan de altos niveles de actividad metabólica. Para hacernos una idea de lo que representa su contribución, 100 ml de sangre humana contienen, al salir del pulmón, 0,4 ml de O2 en forma disuelta y 19,6 ml combinados con la hemoglobina. O sea, la denominada capacidad de oxígeno de la sangre se multiplica por cincuenta gracias a su pigmento. Es cierto que los mamíferos somos los animales en los que la contribución del pigmento es máxima y que en otros puede ser muy inferior, pero en cualquier caso, se trata de una contribución importante.
Cuando un pigmento respiratorio se encuentra combinado con el oxígeno decimos que está oxigenado y, en caso contrario, que está desoxigenado. No utilizamos los términos oxidado y reducido para denominar esos dos estados alternativos. La combinación del oxígeno con un pigmento no es químicamente equivalente a una oxidación. En una oxidación los electrones de los átomos metálicos del pigmento son parcialmente transferidos a la molécula de oxígeno, pero no es una transferencia completa como la que ocurre en una oxidación. De hecho, si la molécula de pigmento se oxidase realmente perdería su capacidad para transportar oxígeno. Utilizamos los prefijos oxi- y desoxi- para denominar a las dos formas del pigmento: oxihemoglobina y desoxihemoglobina, por ejemplo. Hay cuatro tipos o categorías de pigmentos respiratorios: hemoglobinas, hemocianinas, hemeritrinas y clorocruorinas. Cada una de esas categorías agrupa a compuestos relacionados, no a estructuras químicas únicas.
Existen notables similitudes entre la forma en que los pigmentos respiratorios se unen al oxígeno y la forma en que las enzimas se unen a sus sustratos. En ambos casos la unión ocurre en sitios específicos, y se produce mediante enlace débil no covalente. Al unirse el O2 con el pigmento, este modifica ligeramente su conformación, como ocurre con las enzimas. Igualmente, en ambos casos cabe hablar de afinidad, que en este caso refleja la facilidad con la que el oxígeno se une al pigmento. Los pigmentos se puede unir con otras sustancias, también en sitios específicos, y esa unión modifica sus propiedades y la facilidad con que se combina con el oxígeno; a esas sustancias se las denomina moduladores alostéricos. Las moléculas de pigmento suelen estar formadas por dos o más subunidades. Las subunidades son proteínas unidas entre sí mediante enlaces no covalentes. Cada subunidad tiene un sitio de unión para el oxígeno y muestran cooperatividad entre los sitios de unión de las diferentes subunidades. Quiere ello decir que la unión de una molécula de oxígeno al sitio de unión de una subunidad, modifica la facilidad con la que otros sitios se combinan con otras moléculas de O2. Esas variaciones se producen como consecuencia de los cambios conformacionales antes citados.
Las hemoglobinas y las clorocruorinas consisten en largas cadenas de aminoácidos (globinas) unidas de forma no covalente a sendos grupos prostéticos (grupos hemo) que son metaloporfirinas. El grupo prostético es común a todos los pigmentos de una misma categoría, ya sean hemoglobinas o clorocruorinas, y es ahí donde se produce la unión con el oxígeno. Los pigmentos de una misma categoría difieren en las cadenas polipeptídicas. De hecho, la diversidad de propiedades y funciones de unas y otras hemoglobinas, por ejemplo, tiene su origen en las diferentes estructuras de sus cadenas. Los grupos hemo de las hemoglobinas y de las clorocruorinas son metaloporfirinas en las que el metal es el hierro. Las clorocruorinas tienen la particularidad de ser verdes en disoluciones diluidas y rojas en concentradas. Las hemoglobinas son rojas. Las hemocianinas son la segunda categoría pigmentaria más común. A diferencia de hemoglobinas y clorocruorinas, no tienen grupo hemo. Y además, en vez de hierro contienen cobre, que se encuentra unido directamente a la proteína. El sitio de unión con la molécula de O2 contiene dos átomos de metal. Cuando se encuentran desoxigenadas carecen de color, y cuando están combinadas con el O2 son azules. Por último tenemos las hemeritrinas, que, como las hemocianinas, carecen de grupo hemo. El metal de estas es el hierro, también ligado directamente a la proteína.
El pigmento respiratorio mejor conocido es la hemoglobina humana. La de un individuo adulto consta de cuatro subunidades (se dice que es tetramérica) cuyas globinas están formadas por algo más de 140 aminoácidos. Se conocen más de un centenar de formas mutantes, la mayoría de las cuales solo difiere de la forma normal en un único aminoácido. El peso molecular de las subunidades se encuentra entre 16000 y 17000 daltons. La sangre adulta contiene dos tipos de globinas, denominadas α (141 aminoácidos) y β (146 aminoácidos), de manera que en una molécula de hemoglobina hay dos de cada tipo. Hemos especificado que los datos anteriores corresponden a la hemoglobina de personas adultas, porque a lo largo del desarrollo, desde la fase embrionaria hasta semanas después del nacimiento, cambian de manera notable su composición y características. En otras especies no es raro que coexistan más de una variedad de hemoglobina en la sangre, cada una con diferentes características en lo relativo a su unión con el O2; esa variedad permite a los animales que la poseen transportar oxígeno en un amplio rango de condiciones ambientales.
Fuentes:
Richard W. Hill, Gordon A. Wyse & Margaret Anderson (2004): Animal Physiology. Sinauer Associates, Sunderland
John D. Jones (1972): Comparative physiology of respiration. Edward Arnold, Edinburgh
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas respiratorios: los pigmentos respiratorios se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El principio de constancia de la velocidad de la luz
El principio de relatividad es uno de los dos postulados a partir de los cuales Einstein derivó las consecuencias de la teoría de la invariancia, popularmente llamada de la relatividad. El otro postulado se refiere a la velocidad de la luz, y es especialmente importante cuando se comparan las observaciones entre dos marcos de referencia inerciales, aquellos marcos de referencia que están en reposo o se mueven con una velocidad uniforme relativa entre sí, ya que dependemos principalmente de la luz para hacer observaciones.
Cuando Einstein dejó la secundaria a la edad de 15 años, estudió por su cuenta para poder ingresar en el Instituto Politécnico Federal de Zúrich (Suiza). Probablemente fue durante esta época cuando Einstein consideró por primera vez un experimento mental importante. Se preguntó qué pasaría si pudiera moverse lo suficientemente rápido en el espacio como para alcanzar un rayo de luz. Maxwell había demostrado que la luz es una onda electromagnética que se propaga a la velocidad de la luz. Si Albert pudiera viajar en paralelo y a su misma velocidad no vería una onda propagándose. En cambio, vería los “valles” y las “crestas” de la onda fija y estacionaria con respecto a él. Esto contradecía la teoría de Maxwell, en la que no era posible ese paisaje “estacionario” en el espacio libre. De estas y otras consideraciones principalmente teóricas, Einstein concluyó en 1905 que la teoría de Maxwell debía ser reinterpretada: la velocidad de la luz tiene que ser exactamente la misma, debe ser una constante universal, para todos los observadores, independientemente de si se mueven (con velocidad constante) respecto a la fuente de la luz. Esta idea revolucionaria se convirtió en el segundo postulado de la relatividad especial de Einstein, el principio de constancia de la velocidad de la luz:
La luz y todas las demás formas de radiación electromagnética se propagan en el espacio vacío con una velocidad constante c que es independiente del movimiento del observador o del cuerpo emisor.
Lo que Einstein está diciendo es que ya estemos moviéndonos a una velocidad uniforme hacia, o alejándonos de una la fuente de luz, o de si nos movemos en paralelo o no a un haz de luz, siempre mediremos exactamente el mismo valor para la velocidad de la luz en el vacío, que es exactamente de 299.792.458 m/s [1] . A esta velocidad se le dio el símbolo c de “constante”. Si la luz viaja a través del vidrio o el aire su velocidad será algo más lenta, pero la velocidad de la luz en el vacío es una de las constantes físicas universales.
Es importante recordar que este principio solo se aplica a los observadores y las fuentes que están en marcos de referencia inerciales. Esto significa que se están moviendo a una velocidad uniforme o están en reposo uno con relación al otro [2].
Veamos una implicación inmediata de este principio tan simple, en el que empiezan a intuirse las peculiaridades de la teoría de la invariancia que la apartan de nuestro sentido común. Para ello hagamos unos pocos experimentos mentales muy sencillos.
Imaginemos que Mónica está sobre una plataforma con ruedas moviéndose a una velocidad uniforme de 5 m/s hacia Esteban, que permanece estático en el suelo. Mientras Mónica se mueve, arroja una pelota de tenis a Esteban a una velocidad para Mónica de 7 m/s. Esteban la atrapa, pero justo antes de hacerlo, rápidamente mide su velocidad [3]. ¿Qué velocidad obtiene? La respuesta, obviamente, es 5 +7 = 12 m/s, ya que las dos velocidades se suman.
Hagamos otro experimento. Mónica está en la plataforma alejándose a 5 m/s de Esteban. Nuevamente lanza la pelota a 7 m/s para ella a Esteban, quien nuevamente mide su velocidad antes de atraparla. ¿Qué velocidad mide ahora? Esta vez es -5+7 = 2 m/s, donde hemos adoptado la convención de que las cosas que se mueven hacia Esteban tienen velocidad de signo positivo y las que se alejan de signo negativo. Las velocidades se suman de nuevo [4]. Todo muy convencional e intuitivo.
Ahora intentemos estos mismos experimentos usando rayos de luz en lugar de pelotas de tenis. Cuando Mónica se mueve hacia Esteban, le apunta con el haz de un lápiz láser [5]. Esteban tiene un detector de luz que también mide la velocidad de la luz. ¿Qué velocidad de la luz mide? Mónica y Esteban se sorprenden al descubrir que Einstein tenía razón: la velocidad es exactamente la de la luz, ni más ni menos [6]; la velocidad de la plataforma no se ha añadido a c. Obtienen la misma velocidad c cuando la plataforma se aleja de Esteban. De hecho, incluso si aumentan la velocidad de la plataforma hasta casi la velocidad de la luz misma [3], la velocidad de la luz medida sigue siendo la misma, c,en ambos casos. Por extraño que parezca, la velocidad de la luz (o de cualquier onda electromagnética) siempre tiene el mismo valor, c,sin importar la velocidad relativa de la fuente y el observador.
En las próximas entregas veremos algunasde las consecuencias a las que llegó Einstein cuando juntó los dos postulados fundamentales de la teoría de la relatividad especial, el principio de relatividad y el principio de constancia de la velocidad de la luz en el vacío.
Notas:
[1] La exactitud de esta cifra es una convención moderna, ya que la unidad de longitud se deriva de la velocidad de la luz.
[2] El autor comprende que se pone pesado con estas repeticiones, y pide disculpas por ello. Pero considera imprescindible que la persona que lea cualquiera de estas entregas independientemente del resto sea en todo momento consciente de los límites de aplicación de las ideas que se discuten.
[3] Una licencia que permite el hecho de que esto solo sea un experimento mental
[4] Las restas no existen, son siempre sumas, lo que cambia es el signo de los factores.
[5] Asumimos que Mónica evita los ojos de Esteban y que ambos usan protección ocular adecuada durante el experimento.
[6] Despreciamos el pequeñísimo, pero no nulo, efecto del aire sobre la velocidad de la luz para no tener que realizar el experimento en el espacio.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El principio de constancia de la velocidad de la luz se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El filósofo que baila con las sepias
Antonio Martínez Ron, lector
Encontrar un libro de filosofía que se entienda y que además te atrape con su lectura no es fácil en los tiempos que corren. Y eso es lo que consigue Peter Godfrey-Smith con “Otras mentes. El pulpo, el mar y los orígenes profundos de la consciencia”, publicado por Taurus. Uno de los principales méritos del libro es precisamente el de centrarse en un asunto que no suele ser tema de conversación en el ascensor y convertirlo en algo apasionante. Durante más de 200 páginas el autor nos adentra en la evolución de los sistemas nerviosos y la naturaleza misma de la consciencia a partir de su experiencia con los cefalópodos. ¿Se imagina usted enfrascado en las andanzas de pulpos y sepias en el fondo del mar? Al principio yo tampoco, y terminé lamentando que se el libro se acabara tan rápido.
“Otras mentes” es un libro escrito por alguien que sabe de biología y además sabe pensar, una tarea para lo que la mayoría de nosotros ni sacamos tiempo ni estamos entrenados. Se agradece su sencillez y lucidez a la hora de explicar los procesos evolutivos que han llevado a los seres vivos a desarrollar diferentes soluciones para navegar por el mundo e interactuar con el entorno. Su comprensión sobre estos procesos es tan profunda que uno tiene la impresión de que los explica con más destreza que muchos especialistas con años de divulgación a sus espaldas.
El libro es un soplo de aire fresco por muchos motivos, pero el principal es la magistral mezcla entre dos campos del conocimiento, biología y filosofía, que deberían solaparse con más frecuencia de lo que estamos acostumbrados. A partir de lo que le han enseñado los pulpos en sus horas de inmersión en aguas australianas, Godfrey-Smith es capaz de hacernos pensar en lo que somos nosotros mismos y en lo que otorga al pensamiento consciente su singularidad. Para ello no nos habla de las frías abstracciones y enrevesadas entelequias a las que nos tienen habituados la mala filosofía y la mala neurociencia, sino que toma un punto de partida terrenal y cercano: ¿cómo integran otros seres sus experiencias sensoriales? ¿Cómo sería estar dentro del cuerpo de otra criatura, si es que acaso esto significa algo?
El resultado es como asomarse a un abismo en el que el artificio del “yo” se desvanece por momentos ante la certidumbre de que existen otras integraciones sensoriales cuya naturaleza no terminamos de entender, un viaje fascinante entre sepias con nombres de pintores expresionistas, pulpos que escupen a sus captores y calamares que nos miran con el interés que lo haría un alienígena. Y, sobre todo, un pequeño ejercicio de humildad para recordarnos que no somos únicos y que quizá la vida muestra una particular tendencia a crear sistemas conscientes, no solo aquí, sino en otros rincones del universo.
Ficha:
Autor: Peter Godfrey-Smith
Título: Otras mentes. El pulpo, el mar y los orígenes profundos de la consciencia
Año: 2017
Editorial: Taurus / Colección: Pensamiento
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
El artículo El filósofo que baila con las sepias se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¿Y si el cambio climático nos termina haciendo a todos más simpáticos?
Tienen las personas nacidas en el sur de España fama de ser alegres, abiertas a lo nuevo, amistosas y ‘echás p’alante’, especialmente comparadas con las del norte, más reservadas, calmadas, y conservadoras. En esto se mezclan los tópicos y las costumbres. También se mezcla la ciencia: según un estudio reciente, la temperatura del lugar en el que crecemos modela nuestro hábitos y con ello nuestra personalidad.
Esto nos sorprende apenas, porque la idea de que el clima afecta a nuestro estado de ánimo no es una novedad: está demostrado que los meses de invierno, más fríos y oscuros, generan estados similares a la depresión, especialmente en países nórdicos donde la luz del sol pasa meses en los que apenas brilla, mientras que al volver el calor los ánimos se elevan y nos sentimos llenos de energía.
El nuevo estudio sugiere que la cosa tiene mucha más miga de la que creíamos, y que el clima puede incluso modelar nuestra personalidad, y esto tendría una consecuencia inesperada: ¿si sigue avanzando el cambio climático, cambiará también nuestra personalidad?
Pero vayamos por partes. Investigaciones anteriores ya habían señalado que muchos aspectos de la personalidad humana varían de una región geográfica a otra: unas culturas son más acogedoras que otras, unas disfrutan más las actividades en el exterior que otras, unas disfrutan más relacionándose con otras personas que otras… Las causas de estas diferencias era lo que aun estaba por aclarar.
Una posible explicación es la temperatura media a la que viven las distintas culturas. Eso es lo que apunta este estudio, realizado por científicos de la Universidad de Pekín: que puesto que la temperatura es una cosa que varía de forma muy marcada a lo ancho y sobre todo a lo alto del globo, impacta en la personalidad de la gente a través de su influencia en sus hábitos cotidianos. No se trata, según los autores, de mirar simplemente si las personas han crecido en climas fríos o calientes; también de si lo han hecho en climas templados (unos 22 grados de media) o extremos, ya sea por arriba o por abajo.
El paper contempla de hecho dos estudios distintos, llevados a cabo en dos países enormes pero muy diferentes, Estados Unidos y China, para evitar que en las conclusiones se mezclasen otros factores, como las diferencias culturales o económicas que también pudiesen afectar a la personalidad de las personas. Analizaron datos de 5.500 personas de 59 ciudades chinas diferentes, y de 1,66 millones de personas de 12.500 códigos postales estadounidenses. Trazaron relaciones entre sus respuestas a tests de personalidad y las temperaturas medias de los lugares donde habían crecido.
Los resultados mostraron que las personas crecidas en climas con temperaturas templadas eran generalmente más afables, responsables, emocionalmente estables, extrovertidos y abiertos a nuevas experiencias, y que lo eran en ambos países sin importar su edad, género o ingresos económicos.
“Crecer en temperaturas cercanas a la comodidad psicofisiológica óptima anima a los individuos a pasar más tiempo en el exterior, y por tanto influye en su personalidad”, concluyen los autores.
Claro que aun hay algunas cosas a tomar con cautela en este tema. Por ejemplo, el estudio señala los habitantes de regiones chinas con climas más duros (Heilongjiang, Xinjang o Shandong ) son más colectivistas y se preocupan más por la comunidad, en comparación con sus compatriotas de zonas más templados (Sichuan, Guangdong o Fujian); mientras que los habitantes estadounidenses de zonas más extremas (Dakota del Norte y del Sur, Montana o Minnesota) son más individualistas que sus compatriotas de zonas más templadas (Hawaii, Luisiana, California o Florida).
Esto pone de manifiesto que el clima no es la única variable, y que también las condiciones económicas, entre otras muchas cosas, parecen tener algún impacto en cómo somos.
No es solamente que la relación entre clima y personalidad no sea todopoderosa. Es que insinuar que lo es nos pone ante una situación un poco incómoda: ¿si el clima moldea nuestra personalidad, y el clima está cambiando, cambiará nuestra personalidad con él? ¿Nos encaminamos hacia un mundo en el que todos seremos más afables, extrovertidos y aventureros? ¿Tan maleables resultamos por la temperatura?
Los autores son conscientes de este problema, y dejan la puerta abierta a seguir investigando: “a medida que el cambio climático continúa a través del mundo, podríamos observar cambios asociados en la personalidad humana. Las preguntas sobre la extensión de esos cambios esperan respuesta en futuras investigaciones”.
Referencia:
Wenqi Wei, Jackson G. Lu, Lei Wang. Regional ambient temperature is associated with human personality. Nature Human behaviour, 27 de noviembre de 2017. doi: 10.1038/s41562-017-0240-0
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo ¿Y si el cambio climático nos termina haciendo a todos más simpáticos? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las epidemias del pasado… y del futuro
Tras las guerras médicas, finalizadas en 448 a.e.c. con la derrota del ejército persa de Artajerjes I y la Paz de Calias, Atenas se encontraba en su máximo apogeo. Pericles, seguramente la máxima figura política de la Grecia clásica, gobernaba un imperio marítimo y, a decir del historiador Tucídides, lo hacía con talento y prudencia. Y sin embargo, la era de Pericles llegaría a su fin 17 años después, en parte al menos, por una serie de malas decisiones promovidas por el “primer ciudadano”.
En 431 a.e.c. Esparta, que lideraba una confederación de ciudades del Peloponeso, tuvo que apoyar a sus aliadas Mégara y Corinto que habían sido perjudicadas por Atenas, y atacó por tierra con sus hoplitas. Pericles había preparado a Atenas fortificando la ciudad y construyendo los dos “Muros Largos” que protegían el corredor hasta el Pireo, el puerto por el que afluían a la ciudad los suministros que necesitaba. Atenas era inferior a Esparta en tierra, pero tenía la flota más poderosa del Egeo y era, además, muy rica. Cuando la coalición lacedemonia atacó el Ática, las gentes de toda la región se refugiaron en el interior del recinto amurallado. A los 150.000 atenienses se les unieron entre 200.000 y 250.000 nuevos pobladores. En el verano de 430 se declaró una epidemia terrible que asoló la ciudad.
Tenemos noticias precisas de la epidemia gracias a Tucídides, quien sufrió en su persona la enfermedad. Los enfermos se arrastraban por las calles y morían cerca de las fuentes –a donde iban a beber-, y en los templos, donde se hacinaban los refugiados. “Morían como ovejas” escribe Tucídides. Pericles perdió a sus dos hijos legítimos, y él mismo también cayó enfermo y murió en el otoño de 429.
Se desconoce cuál es el patógeno que causó la epidemia. El mal surgió, según Tucídides, en Etiopía; se desplazó por el valle del Nilo hasta Egipto; y desde allí, por mar, llegó a Atenas a través del Pireo. Acabó con la vida de un tercio de los atenienses.
Según el epidemiólogo Paul Ewald, de la Universidad de Louisville (EEUU), la conocida como Gran Plaga de Atenas puede darnos una idea de cómo pueden desarrollarse las enfermedades más peligrosas para los seres humanos en el futuro. Frente a la extendida creencia de que las peores pandemias serán las que causen patógenos procedentes de animales –como el ébola o las gripes aviares- Ewald sostiene que esos patógenos no han convivido suficiente tiempo con los seres humanos como para haber desarrollado mecanismos eficaces para transmitirse entre personas. Los virus y bacterias con que convivimos producen síntomas e inducen respuestas por nuestra parte que facilitan mucho su dispersión.
Por esa razón, Ewald piensa que, en buena lógica evolutiva, es más probable que sean los virus y bacterias con los que más tiempo llevamos coevolucionando, y que han desarrollado buenos mecanismos de dispersión los que, bajo determinadas condiciones, puedan generar peligrosas epidemias. Enfermedades como el cólera, la viruela y las causadas por Staphylococcus aureus serían las mejores candidatas a protagonizar una pandemia peligrosa. Para que eso ocurra bastaría con que su capacidad de transmisión y virulencia se vieran favorecidas, tanto por las condiciones ambientales –grandes números de personas hacinadas- como por la aparición de alguna cepa de especial peligrosidad. Por esa razón, Ewald considera importante evitar condiciones que faciliten a los patógenos aumentar su virulencia y transmisibilidad, como las que se dan en hospitales hacinados o en grandes campos de refugiados. Porque puede que las epidemias del futuro se produzcan de modo similar a como lo hicieron en el pasado.
Fuentes:
Javier Murcia Ortuño (2007): De banquetes y batallas, Alianza Editorial, Madrid.
Wendy Orent (2017): How plagues really work Aeon.
El artículo Las epidemias del pasado… y del futuro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Guillermo Peris nos habla de la consecuencias que tienen para los humanos los saltos que pegan dentro del genoma algunos genes, unos trapecistas llamados transposones.
Guillermo Peris ''Los trapecistas del genoma''Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¿Son eficientes las plantas de energía marina?
La planta de energía marina o planta undimotriz de Mutriku es la única instalación comercial (no es un prototipo) en el mundo que funciona inyectando energía eléctrica generada por las olas a la red de manera regular. Está en funcionamiento desde el año 2011 y el estudio del grupo EOLO de la UPV/EHU ha analizado su comportamiento en el periodo 2014-2016. “Es importante conocer el funcionamiento real de la planta undimotriz, analizar cómo se comporta la tecnología empleada, y observar qué carencias y ventajas presenta para contribuir en su mejora”, afirma Gabriel Ibarra Berastegi, el autor principal del estudio. “La extracción de energía de las olas se encuentra en sus inicios y varios tipos de dispositivos y tecnologías se encuentran actualmente en desarrollo. Entre ellas, la tecnología OWC (Oscillating Water Column) empleada en Mutriku”, añade.
En la tecnología OWC, no son las olas las que mueven las turbinas directamente, sino una masa de aire comprimido que estas empujan. Se trata de una estructura cuya parte superior forma una cámara de aire y cuya parte inferior está sumergida en el agua. De esta manera, la turbina aprovecha el movimiento provocado por la ola tanto cuando viene como cuando se va, y el generador al que está acoplada inyecta la energía en la red. “Las turbinas generan electricidad que se vende de manera regular a la red eléctrica. En el caso de Mutriku, sucede en el 75% del tiempo. Hay ciertos parones cuando las olas son muy calmadas o incluso cuando son demasiado fuertes”, explica Ibarra.
La investigación se ha centrado en el estudio y análisis de los datos operacionales facilitados por el Ente Vasco de la Energía, que es quien gestiona la planta.
Una vez analizados y ordenados esos datos, “hemos visto que un indicador de rendimiento es el Factor de Capacidad (FC), que permite comparar distintas tecnologías de producción eléctrica”, explica el investigador principal del artículo. “En este caso, hemos calculado el FC de la planta de Mutriku y su valor es de 0,11, mientras que las instalaciones de energía eólica tienen un FC del orden de 0,2-0,3 y las solares de 0,4. Ello indica —apunta Ibarra— que la tecnología OWC de Mutriku necesita mejorar su FC para poder lograr situarse al nivel de los valores del resto de las fuentes de energías renovables”. “Creemos que la manera de lograrlo es mejorar la regulación y control de la velocidad de giro de las turbinas, es decir, gestionar adecuadamente la velocidad con la que gira la turbina en relación a las olas que vienen”, concluye.
Según Gabriel Ibarra, “estas conclusiones obtenidas a partir de los datos de una planta real como la de Mutriku, representan un avance que permite enfocar e identificar los siguientes pasos a dar para que la tecnología OWC alcance su madurez, facilitando así su penetración e implementación”.
Referencia:
G. Ibarra-Berastegi, J. Sáenz, A. Ulazia, P. Serras, G. Esnaola, C. García-Soto (2017) Electricity production, capacity factor, and plant efficiency index at the Mutriku wave farm (2014-2016) Ocean Engineering doi: 10.1016/j.oceaneng.2017.10.018
El artículo ¿Son eficientes las plantas de energía marina? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¡Iniesta de mi vida!
Uno de mis objetivos como divulgador científico es mostrar a la sociedad que la ciencia forma parte de sus vidas. Para ello divulgo la importancia del progreso científico en el desarrollo de fármacos, alimentos, ropa, dispositivos móviles y otro instrumentos sin los cuales sería imposible disfrutar de la calidad de vida que tenemos. Creo que entre muchos lo hemos conseguido. Una parte mayoritaria de la sociedad tiene claro que detrás de cada uno de los ejemplos que he citado se encuentra la ciencia. En los últimos tiempos he dado un paso más allá e intento mostrar al ciudadano como el progreso científico y tecnológico también se encuentra en lugares aparentemente alejados del mismo como, por ejemplo, una procesión de Semana Santa, un simple sándwich de queso o la embestida de un toro de lidia. Con ese objetivo hoy toca hablar de la ciencia y tecnología que esconde el deporte rey: el fútbol.
Todos nosotros nos acordamos lo que hicimos en momentos puntuales de nuestras vidas. El atentado de las Torres Gemelas o el golpe de Estado del 23-F son fechas que jamás se nos olvidarán. Tampoco donde estábamos la noche del 11 de julio de 2010, el día que la Selección Española se proclamó por primera y única vez en su historia Campeona del Mundo de Fútbol.
Aquel día vi el partido con los ojos del gran aficionado al fútbol que soy pero también, y aunque ustedes no lo crean, con los ojos de un científico. Mi reacción como aficionado no creo que les interese pero sí las dos conclusiones científico-tecnológicas que saqué tras el partido. La primera es que la ciencia se encuentra muy presente en el fútbol moderno. La segunda es que sin el progreso científico y tecnológico poco de lo ocurrido aquella noche en Johannesburgo hubiese sido posible. Se lo demostraré analizando desde el punto de vista de la ciencia y la tecnología lo que ocurrió en el minuto 116 de partido, momento en el que Andrés Iniesta marcó el gol que nos hizo campeones del mundo.
La presencia de la ciencia en el gol de Iniesta comenzó mucho antes de la final de Sudáfrica. Disciplinas como la medicina, la fisioterapia y, sobre todo, la psicología, fueron cruciales para que Andrés marcara el gol que jamás olvidaremos. Los tratamientos psicológicos no solo ayudan a motivar al futbolista. También a mantener la frialdad en momentos de máxima tensión como los muchos que hubo en el Mundial de 2010 donde ganamos casi todos los partidos por la mínima.
¿Y cómo ayudó la psicología a Andrés Iniesta? Ayudándolo a recuperarse muscular y mentalmente de un año dificilísimo. La lesión que sufrió meses antes Iniesta en el Barça y la muerte de su gran amigo Dani Jarque erosionó tanto su estado físico y mental que estuvo a punto de no ser convocado para ir al Mundial. Como Andrés reconoce en este fantástico capítulo del programa “Informe Robinson” el apoyo de médicos y fisioterapeutas, tanto del Barça como de la selección española, fueron vitales para que se recuperara a tiempo… y también para que superara la pequeña lesión que tuvo en el primer partido del Mundial ante Suiza que le impidió jugar el siguiente contra Honduras.
Un partido del que pocos se acuerdan pero que pudo dejarnos sin la copa de campeones del mundo fue el de octavos de final contra Paraguay. Aquel día otra disciplina científica, la estadística, tuvo un papel prioritario. A falta de media hora para el final el árbitro pitó un claro penalti contra España. Si hubiese marcado Cardozo, el jugador paraguayo encargado de lanzar la pena máxima, habría sido dificilísimo remontar. Sin embargo Casillas se lanzó al lado adecuado y detuvo el balón con una seguridad pasmosa.
La intuición y el azar tuvieron mucho que ver pero la ciencia también. Como se observa en el siguiente vídeo Casillas, tras detener el penalti, miró al banquillo y dedicó su decisiva parada a Pepe Reina, el portero suplente. ¿Por qué? Porque antes del partido Reina había estudiado detenidamente la forma de tirar los penaltis de Cardozo. Tras visionar muchos vídeos del jugador paraguayo había llegado a la conclusión de que casi todos los tiraba a la izquierda del portero. Se lo dijo a Iker desde el banquillo antes del lanzamiento, Casillas le hizo caso y atrapó el balón. Pura estadística.
Centrémonos en el gol de Iniesta en la final. La jugada más importante de la historia del fútbol español comenzó en el área española con un pase de Carles Puyol a Jesús Navas que recibió el esférico muy lejos de la portería rival. El balón que se empleó en el Mundial de Sudáfrica 2010, el controvertido Jabulani, ha sido uno de los más discutidos en la historia de los mundiales. Su inestable vuelo fue criticado por muchos porteros que no veían la forma de controlarlo… y es que en el diseño de los balones modernos la aerodinámica tiene mucho que decir. Polímeros como el poliuretano o el etiilvinilacetato se han sumado (y en algunos casos sustituido) al nailon, poliéster, caucho y algodón. Las modernas tecnologías de unión de los materiales que forman los balones les otorgan mayor redondez y mejor resistencia al agua. Además, las ranuras integradas de los modernos balones proporcionan buenas características de vuelo, corrigiendo los errores del Jabulani y haciéndolos más estables.
Tras recibir el esférico de Puyol, Jesús Navas hizo una carrera por la banda de más de 30 metros gracias a su potente zancada… y a la química de los nuevos materiales de las camisetas que mejoran el rendimiento deportivo de los futbolistas. Los jugadores holandeses, al ver que eran mas lentos que el extremo andaluz, intentaron agarrarlo pero no pudieron con la fuerza del sevillano ni con la elasticidad de la camiseta. La presencia en las equipaciones actuales de un compuesto químico como el elastano, también llamado lycra o spandex, las hace más elásticas. Sin esta fibra sintética, que en realidad es un copolímero uretano-urea, Navas no hubiese podido seguir corriendo al ser agarrado. Además, la ausencia de este material o un defecto en la fabricación provoca que las camisetas terminen desgarradas como le ocurrió en la pasada Eurocopa a 7 jugadores de la selección Suiza, lo que trajo nefastas consecuencias para la empresa responsable de la equipación.
El poliéster de las camisetas modernas provoca que sean transpirables y no retengan tanto el sudor como ocurría antiguamente con la ropa de algodón. La final del Mundial de Sudáfrica fue intensísima y tras 120 minutos trepidantes los jugadores acabaron casi deshidratados. ¿Se imaginan que todo el sudor hubiese quedado retenido en la camiseta? Muchos de ellos no hubiesen acabado el partido. Tampoco podemos olvidar la importancia de la presencia en las camisetas del poliuretano, compuesto que actúa como aislante térmico y es resistente al agua. En el Mundial de Fútbol 2010, donde la selección española jugó muchos partidos en condiciones climáticas muy diferentes, su papel fue fundamental.
La fantástica conducción del balón que hizo Navas fue posible gracias a la calidad del jugador pero también al buen césped del Soccer City, el campo de fútbol de Johannesburgo donde se jugó la final. La botánica, la biotecnología y la química agrícola ayudan a que los campos actuales se encuentren en perfecto estado y no tengan nada que ver con los irregulares terrenos donde se jugaron otros mundiales anteriormente. Las nuevas variedades de hierba, los fertilizantes y los modernos sistemas de regadío hacen que el balón circule a las mil maravillas.
Sin lugar a dudas, una de las grandes revoluciones del fútbol moderno reside en los campos con césped híbrido. De hecho el Mundial de Sudáfrica 2010 fue el primero donde se empleó este tipo de césped en varias sedes. En el césped híbrido predomina el natural (95%) sobre el sintético (5%) pero las millones de fibras artificiales implantadas por todo el campo tienen un efecto trascendental. Estas fibras se entrelazan con el césped natural logrando que el terreno de juego sea más resistente y más estable a la degradación, permitiendo una frecuencia de juego superior. Además, el césped híbrido tiene una mayor densidad vegetal por lo que el color verde es mucho más intenso. Pero la característica más importante para el futbolista de los céspedes híbridos es que tienen mayor capacidad de amortiguación, lo que reduce el número de lesiones.
Tras su maravillosa carrera Jesús Navas, exhausto, entregó el balón a Andrés Iniesta. El manchego hizo algo de lo que poco se ha hablado pero que fue crucial en el gol. Cuando recibió el balón se encontró rodeado de cuatro jugadores holandeses pero se deshizo de ellos dando un taconazo. Cesc Fábregas, que estaba a su espalda, quedó completamente solo con el esférico. La visión periférica de Iniesta es uno de sus valores añadidos… y también se entrena.
El equipo alemán del Hoffenheim utiliza en sus entrenamientos un sistema llamado ‘Helix’ que pone a prueba la visión periférica de los futbolistas. Se trata de una especie de simulador formado por una pantalla circular de 180 grados en la que van apareciendo jugadores realizando diferentes acciones del juego. Los jugadores, que emplean unas Google Glass en los entrenamientos, deben reconocer quiénes son los oponentes, quiénes son sus compañeros y definir sus acciones para pensar rápidamente cómo crear una situación de pase o cómo dejar atrás a sus rivales.
Cesc Fábregas, el jugador que recibió el balón procedente del taconazo de Iniesta gracias a su visión periférica, es uno de esos jugadores procedentes de La Masía que tienen lo que se conoce como el “ADN azulgrana”. Me refiero a intentar tener la posesión del balón el máximo tiempo posible. Desde que Cruyff fue nombrado entrenador del Barca ese es el sello de identidad del equipo azulgrana que luego adaptaron a la sección española Luis Aragonés y Vicente del Bosque.
Hay dos grandes culpables de que durante todos los partidos de la selección en el Mundial de Sudáfrica la posesión del balón cayera del lado español. Uno de ellos es la gran calidad de sus jugadores… el otro, las matemáticas. La disposición geométrica de los jugadores de “la Roja” a lo largo del terreno de juego fue perfecta y los diagramas de Voronoi (una construcción geométrica que permite construir una partición del plano euclídeo y que en el caso del fútbol muestran el espacio controlado por cada jugador) y las triangulaciones de Delaunay (una red de triángulos conexa y convexa que en el deporte rey conecta los jugadores con líneas), estaban presentes por todo el campo.
La aplicación al fútbol de estos conceptos matemáticos, asociados a la geometría computacional, es la clave de los famosos rondos de la selección que tanto daño hicieron a los rivales. Potentes selecciones como Portugal o Alemania sufrieron muchísimo ante “las matemáticas de la roja”. En el siguiente vídeo, del que tuve conocimiento gracias al blog del gran divulgador Francisco Villatoro, se aprecia la importancia de la geometría en la presión y posterior robo del balón, dos aspectos importantísimos en el juego de la selección española. Tras el saque inicial el equipo rojo presiona, fuerza un error del equipo azul y gana el control del balón. El centrocampista del equipo rojo abre espacio en el centro del campo, logrando tras un par de pases crear una oportunidad que acaba en gol.
Pero además de las matemáticas se necesita algo más para tener la posesión del balón: calidad técnica en los jugadores. Pocas veces se han juntado en un mismo equipo futbolistas con la técnica de Xavi Hernández. Busquets, Silva, Xabi Alonso, Navas, Iniesta, Fábregas, Villa, etc. Sus grandes virtudes son el perfecto control del balón, la rapidez de desplazamiento que imprimen al esférico y la precisión en el pase al “primer toque”, cualidades que muchos equipos entrenan con ayuda de modernas tecnologías.
En el siguiente vídeo se observa cómo hay equipos que emplean el innovador “Footbonaut” en sus centros de entrenamiento. Se trata de una caja de 20 metros cuadrados con cuatro máquinas que ‘disparan’ balones a diferentes velocidades y trayectorias hacia los futbolistas. El jugador tiene que recibir la pelota y en dos toques enviarla hacia el panel indicado de los 64 que tiene la estructura. Este instrumento es fundamental a la hora de realizar transiciones rápidas, con un máximo de dos toques seguidos de pase o tiro.
Mediante aplicaciones informáticas la máquina recoge los aciertos y errores de cada jugador y almacena la información. Posteriormente el entrenador analiza los resultados y elige qué jugadores son los que mejor se adaptan a su sistema de juego… y es que el fútbol no es ajeno al Big Data. Gracias al mismo los entrenadores conocen al instante cuantos pases correctos e incorrectos han dado sus jugadores, la distancia recorrida por cada uno, los futbolistas que mejor se acoplan al sistema defensivo u ofensivo diseñado, etc. El Big Data, que ha entrado de lleno en el fútbol moderno, también le sirve a los clubes para recoger información sobre futuros fichajes.
Sigamos con el gol de Iniesta. Fábregas, tras recibir el taconazo del jugador de Fuentealbilla, devolvió con ese primer toque que ya hemos visto como se entrena el balón a Jesús Navas. El sevillano, exhausto, dio un pase a Fernando Torres. El “Niño” realizó un centro al área buscando a Iniesta que se había desmarcado… pero se equivocó. Torres golpeó el balón suavemente y con el empeine de su pie derecho. El esférico salió en línea recta siguiendo la primera Ley de Newton, según la cual un cuerpo se mueve en la misma dirección y a la misma velocidad hasta que se le aplica una fuerza que lo haga variar de dirección. Como no apareció ninguna fuerza, el balón siguió su trayectoria rectilínea hasta que fue interceptado por un rival.
¿Qué hubiese ocurrido si Fernando Torres hubiese golpeado el esférico con el exterior del pie derecho (en lugar de con el empeine) imprimiéndole más fuerza, elevación y, sobre todo, mayor efecto? Que gracias al Efecto Magnus la pelota hubiese llegado a Iniesta, que se había desmarcado perfectamente buscando la región óptima de Voronoi.
En un lado del balón el aire se hubiese movido en dirección contraria al giro del mismo, aumentando la presión. En el otro lado el aire se movería en la misma dirección del giro de la pelota, creando un área de baja presión. Como consecuencia de la diferencia de presiones hubiese aparecido una fuerza perpendicular a la dirección de la corriente de aire. Esto hubiese provocado que el balón se curvara hacia la zona de baja presión y cambiara su trayectoria, superando a la defensa holandesa y dejando solo a Andrés Iniesta delante del portero gracias a la física del Efecto Magnus.
Para explicar el Efecto Magnus en el fútbol tradicionalmente se muestra el mítico gol de Roberto Carlos a la selección francesa que pueden observar aquí. También se aprecia en un gol de la selección española en el Mundial de Sudáfrica, concretamente en el que marcó David Villa a Chile en el tercer partido del Mundial y que nos dio el pase a octavos de final. En este enlace pueden verlo.
Pero hoy les voy a mostrar una joya donde se aprecia mucho mejor el Efecto Magnus. Se trata del gol que marcó Mohd Faiz Subri, jugador del Penang que milita en la liga de Malasia, y que ganó el Premio Puskas al mejor gol del 2016. Alucinante.
Desgraciadamente en Sudáfrica Torres no golpeó correctamente el balón y este fue interceptado por un defensa holandés. Por fortuna para el equipo español el esférico cayó de nuevo en los pies de Cesc Fábregas que, haciendo gala de su entrenada precisión, dio un pase perfecto a Andrés Iniesta dejándolo solo ante el portero holandés… y se armó la mundial, nunca mejor dicho.
Iniesta golpeó con fuerza el balón, que salió con una aceleración tremenda de su bota derecha y se coló en la portería holandesa… lo que tampoco hubiese ocurrido sin ayuda de los nuevos materiales con los que se fabrican las botas actuales y de su avanzada tecnología. Las botas modernas, mucho más ligeras que las antiguas, han mejorado la fricción entre el pie y la pelota favoreciendo el control, el pase y la precisión del tiro. Además de ser muy ligeras, las nuevas zapatillas se adaptan al pie como un guante y tanto las lengüetas, las suelas y los tacos están preparados para los innumerables disparos, giros y cambios de ritmo del fútbol moderno. Incluso para conseguir que el balón adquiera una gran aceleración ya no hace falta la fuerza con la que los jugadores de épocas pasadas golpeaban el esférico. Los innovadores materiales con los que se elaboran las botas son capaces de conseguir gran aceleración con mucho menor potencia de disparo. El balón disparado por Iniesta salió con tal aceleración de su bota derecha que dobló las manos del portero.
Lo que ocurrió después ya lo saben. Yo me abalancé sobre mi vecino rompiéndole una costilla y mi paisano José Antonio Camacho, en la retransmisión que hizo televisión de la final, gritó la célebre frase que ha quedado grabada para la eternidad: “¡¡Iniesta de mi vida!!”.
Estimados lectores, lo ocurrido en el gol de Iniesta en la final del Mundial de 2010 demuestra que la ciencia, la tecnología y el fútbol van cogidos de la mano… y es necesario que la sociedad sepa que el progreso científico y tecnológico se encuentra presente hasta en los sitios más insospechados. Disciplinas como la medicina, la química, la física, la informática, la fisioterapia, la óptica, las matemáticas, la botánica, el big data, la psicología y muchas otras aparecieron en el momento más importante de la historia del fútbol español que hizo feliz a millones de personas. Más de diez años después los avances científicos y tecnológicos siguen revolucionando el fútbol.
Sin embargo, después de Sudáfrica 2010 no hemos vuelto a ganar un Mundial. ¿Por qué? Porque en el fútbol, al igual que en el mejor de los laboratorios, el progreso científico no se pone de manifiesto si no está detrás el talento humano. A buen entendedor…
Este post ha sido realizado por José M. López Nicolás (@ScientiaJMLN) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo ¡Iniesta de mi vida! se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El frustrante viaje de un átomo de carbono, mención especial del jurado “On zientzia”
“El frustrante viaje de un átomo de carbono” de Julio Ruiz Monteagudo recibió la mención especial del jurado en la 7ª edición de los premios On zientzia. El ciclo del carbono puede explicarse de muchas maneras, pero pocas serán tan musicales, divertidas y didácticas como este vídeo de poco más de 4 minutos.
¿Tienes una idea genial para explicar un concepto científico en un vídeo? ¿Quieres ver tu trabajo emitido en televisión? La Fundación Elhuyar y el Donostia International Physics Center (DIPC) han organizado la octava edición de On zientzia, un concurso de divulgación científica y tecnológica enmarcado en el programa Teknopolis, de ETB. Este certamen pretende impulsar la producción de vídeos cortos y originales que ayuden a popularizar el conocimiento científico.
On zientzia tendrá tres categorías. El mejor vídeo de divulgación recibirá un premio de 3.000 euros. Para impulsar la producción de piezas en euskera, existe un premio de 2.000 euros reservado a la mejor propuesta realizada en ese idioma. Por último, con el objetivo de impulsar la participación de los estudiantes de ESO y Bachillerato, hay un premio dotado con 1.000 euros para el mejor vídeo realizado por menores de 18 años.
Los vídeos han de tener una duración inferior a los 5 minutos, se pueden realizar en euskera, castellano o inglés y el tema es libre. Deben ser contenidos originales, no comerciales, que no se hayan emitido por televisión y que no hayan resultado premiados en otros concursos. El jurado valorará la capacidad divulgativa y el interés de los vídeos más que la excelencia técnica.
Las bases las encuentras aquí. Puedes participar desde ya hasta el 25 de abril de 2018.
Edición realizada por César Tomé López
El artículo El frustrante viaje de un átomo de carbono, mención especial del jurado “On zientzia” se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: