S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 35 min 51 sec

¡Iniesta de mi vida!

ven, 2017/12/15 - 12:00

Uno de mis objetivos como divulgador científico es mostrar a la sociedad que la ciencia forma parte de sus vidas. Para ello divulgo la importancia del progreso científico en el desarrollo de fármacos, alimentos, ropa, dispositivos móviles y otro instrumentos sin los cuales sería imposible disfrutar de la calidad de vida que tenemos. Creo que entre muchos lo hemos conseguido. Una parte mayoritaria de la sociedad tiene claro que detrás de cada uno de los ejemplos que he citado se encuentra la ciencia. En los últimos tiempos he dado un paso más allá e intento mostrar al ciudadano como el progreso científico y tecnológico también se encuentra en lugares aparentemente alejados del mismo como, por ejemplo, una procesión de Semana Santa, un simple sándwich de queso o la embestida de un toro de lidia. Con ese objetivo hoy toca hablar de la ciencia y tecnología que esconde el deporte rey: el fútbol.

Todos nosotros nos acordamos lo que hicimos en momentos puntuales de nuestras vidas. El atentado de las Torres Gemelas o el golpe de Estado del 23-F son fechas que jamás se nos olvidarán. Tampoco donde estábamos la noche del 11 de julio de 2010, el día que la Selección Española se proclamó por primera y única vez en su historia Campeona del Mundo de Fútbol.

Iniesta celebrando el gol durante la final

Aquel día vi el partido con los ojos del gran aficionado al fútbol que soy pero también, y aunque ustedes no lo crean, con los ojos de un científico. Mi reacción como aficionado no creo que les interese pero sí las dos conclusiones científico-tecnológicas que saqué tras el partido. La primera es que la ciencia se encuentra muy presente en el fútbol moderno. La segunda es que sin el progreso científico y tecnológico poco de lo ocurrido aquella noche en Johannesburgo hubiese sido posible. Se lo demostraré analizando desde el punto de vista de la ciencia y la tecnología lo que ocurrió en el minuto 116 de partido, momento en el que Andrés Iniesta marcó el gol que nos hizo campeones del mundo.

La presencia de la ciencia en el gol de Iniesta comenzó mucho antes de la final de Sudáfrica. Disciplinas como la medicina, la fisioterapia y, sobre todo, la psicología, fueron cruciales para que Andrés marcara el gol que jamás olvidaremos. Los tratamientos psicológicos no solo ayudan a motivar al futbolista. También a mantener la frialdad en momentos de máxima tensión como los muchos que hubo en el Mundial de 2010 donde ganamos casi todos los partidos por la mínima.

¿Y cómo ayudó la psicología a Andrés Iniesta? Ayudándolo a recuperarse muscular y mentalmente de un año dificilísimo. La lesión que sufrió meses antes Iniesta en el Barça y la muerte de su gran amigo Dani Jarque erosionó tanto su estado físico y mental que estuvo a punto de no ser convocado para ir al Mundial. Como Andrés reconoce en este fantástico capítulo del programa “Informe Robinson” el apoyo de médicos y fisioterapeutas, tanto del Barça como de la selección española, fueron vitales para que se recuperara a tiempo… y también para que superara la pequeña lesión que tuvo en el primer partido del Mundial ante Suiza que le impidió jugar el siguiente contra Honduras.

Un partido del que pocos se acuerdan pero que pudo dejarnos sin la copa de campeones del mundo fue el de octavos de final contra Paraguay. Aquel día otra disciplina científica, la estadística, tuvo un papel prioritario. A falta de media hora para el final el árbitro pitó un claro penalti contra España. Si hubiese marcado Cardozo, el jugador paraguayo encargado de lanzar la pena máxima, habría sido dificilísimo remontar. Sin embargo Casillas se lanzó al lado adecuado y detuvo el balón con una seguridad pasmosa.

La intuición y el azar tuvieron mucho que ver pero la ciencia también. Como se observa en el siguiente vídeo Casillas, tras detener el penalti, miró al banquillo y dedicó su decisiva parada a Pepe Reina, el portero suplente. ¿Por qué? Porque antes del partido Reina había estudiado detenidamente la forma de tirar los penaltis de Cardozo. Tras visionar muchos vídeos del jugador paraguayo había llegado a la conclusión de que casi todos los tiraba a la izquierda del portero. Se lo dijo a Iker desde el banquillo antes del lanzamiento, Casillas le hizo caso y atrapó el balón. Pura estadística.

Centrémonos en el gol de Iniesta en la final. La jugada más importante de la historia del fútbol español comenzó en el área española con un pase de Carles Puyol a Jesús Navas que recibió el esférico muy lejos de la portería rival. El balón que se empleó en el Mundial de Sudáfrica 2010, el controvertido Jabulani, ha sido uno de los más discutidos en la historia de los mundiales. Su inestable vuelo fue criticado por muchos porteros que no veían la forma de controlarlo… y es que en el diseño de los balones modernos la aerodinámica tiene mucho que decir. Polímeros como el poliuretano o el etiilvinilacetato se han sumado (y en algunos casos sustituido) al nailon, poliéster, caucho y algodón. Las modernas tecnologías de unión de los materiales que forman los balones les otorgan mayor redondez y mejor resistencia al agua. Además, las ranuras integradas de los modernos balones proporcionan buenas características de vuelo, corrigiendo los errores del Jabulani y haciéndolos más estables.

Jabulani

Tras recibir el esférico de Puyol, Jesús Navas hizo una carrera por la banda de más de 30 metros gracias a su potente zancada… y a la química de los nuevos materiales de las camisetas que mejoran el rendimiento deportivo de los futbolistas. Los jugadores holandeses, al ver que eran mas lentos que el extremo andaluz, intentaron agarrarlo pero no pudieron con la fuerza del sevillano ni con la elasticidad de la camiseta. La presencia en las equipaciones actuales de un compuesto químico como el elastano, también llamado lycra o spandex, las hace más elásticas. Sin esta fibra sintética, que en realidad es un copolímero uretano-urea, Navas no hubiese podido seguir corriendo al ser agarrado. Además, la ausencia de este material o un defecto en la fabricación provoca que las camisetas terminen desgarradas como le ocurrió en la pasada Eurocopa a 7 jugadores de la selección Suiza, lo que trajo nefastas consecuencias para la empresa responsable de la equipación.

El poliéster de las camisetas modernas provoca que sean transpirables y no retengan tanto el sudor como ocurría antiguamente con la ropa de algodón. La final del Mundial de Sudáfrica fue intensísima y tras 120 minutos trepidantes los jugadores acabaron casi deshidratados. ¿Se imaginan que todo el sudor hubiese quedado retenido en la camiseta? Muchos de ellos no hubiesen acabado el partido. Tampoco podemos olvidar la importancia de la presencia en las camisetas del poliuretano, compuesto que actúa como aislante térmico y es resistente al agua. En el Mundial de Fútbol 2010, donde la selección española jugó muchos partidos en condiciones climáticas muy diferentes, su papel fue fundamental.

La química de una camiseta de fútbol

La fantástica conducción del balón que hizo Navas fue posible gracias a la calidad del jugador pero también al buen césped del Soccer City, el campo de fútbol de Johannesburgo donde se jugó la final. La botánica, la biotecnología y la química agrícola ayudan a que los campos actuales se encuentren en perfecto estado y no tengan nada que ver con los irregulares terrenos donde se jugaron otros mundiales anteriormente. Las nuevas variedades de hierba, los fertilizantes y los modernos sistemas de regadío hacen que el balón circule a las mil maravillas.

Sin lugar a dudas, una de las grandes revoluciones del fútbol moderno reside en los campos con césped híbrido. De hecho el Mundial de Sudáfrica 2010 fue el primero donde se empleó este tipo de césped en varias sedes. En el césped híbrido predomina el natural (95%) sobre el sintético (5%) pero las millones de fibras artificiales implantadas por todo el campo tienen un efecto trascendental. Estas fibras se entrelazan con el césped natural logrando que el terreno de juego sea más resistente y más estable a la degradación, permitiendo una frecuencia de juego superior. Además, el césped híbrido tiene una mayor densidad vegetal por lo que el color verde es mucho más intenso. Pero la característica más importante para el futbolista de los céspedes híbridos es que tienen mayor capacidad de amortiguación, lo que reduce el número de lesiones.

Tras su maravillosa carrera Jesús Navas, exhausto, entregó el balón a Andrés Iniesta. El manchego hizo algo de lo que poco se ha hablado pero que fue crucial en el gol. Cuando recibió el balón se encontró rodeado de cuatro jugadores holandeses pero se deshizo de ellos dando un taconazo. Cesc Fábregas, que estaba a su espalda, quedó completamente solo con el esférico. La visión periférica de Iniesta es uno de sus valores añadidos… y también se entrena.

El equipo alemán del Hoffenheim utiliza en sus entrenamientos un sistema llamado ‘Helix’ que pone a prueba la visión periférica de los futbolistas. Se trata de una especie de simulador formado por una pantalla circular de 180 grados en la que van apareciendo jugadores realizando diferentes acciones del juego. Los jugadores, que emplean unas Google Glass en los entrenamientos, deben reconocer quiénes son los oponentes, quiénes son sus compañeros y definir sus acciones para pensar rápidamente cómo crear una situación de pase o cómo dejar atrás a sus rivales.

Cesc Fábregas, el jugador que recibió el balón procedente del taconazo de Iniesta gracias a su visión periférica, es uno de esos jugadores procedentes de La Masía que tienen lo que se conoce como el “ADN azulgrana”. Me refiero a intentar tener la posesión del balón el máximo tiempo posible. Desde que Cruyff fue nombrado entrenador del Barca ese es el sello de identidad del equipo azulgrana que luego adaptaron a la sección española Luis Aragonés y Vicente del Bosque.

Hay dos grandes culpables de que durante todos los partidos de la selección en el Mundial de Sudáfrica la posesión del balón cayera del lado español. Uno de ellos es la gran calidad de sus jugadores… el otro, las matemáticas. La disposición geométrica de los jugadores de “la Roja” a lo largo del terreno de juego fue perfecta y los diagramas de Voronoi (una construcción geométrica que permite construir una partición del plano euclídeo y que en el caso del fútbol muestran el espacio controlado por cada jugador) y las triangulaciones de Delaunay (una red de triángulos conexa y convexa que en el deporte rey conecta los jugadores con líneas), estaban presentes por todo el campo.

La aplicación al fútbol de estos conceptos matemáticos, asociados a la geometría computacional, es la clave de los famosos rondos de la selección que tanto daño hicieron a los rivales. Potentes selecciones como Portugal o Alemania sufrieron muchísimo ante “las matemáticas de la roja”. En el siguiente vídeo, del que tuve conocimiento gracias al blog del gran divulgador Francisco Villatoro, se aprecia la importancia de la geometría en la presión y posterior robo del balón, dos aspectos importantísimos en el juego de la selección española. Tras el saque inicial el equipo rojo presiona, fuerza un error del equipo azul y gana el control del balón. El centrocampista del equipo rojo abre espacio en el centro del campo, logrando tras un par de pases crear una oportunidad que acaba en gol.

Pero además de las matemáticas se necesita algo más para tener la posesión del balón: calidad técnica en los jugadores. Pocas veces se han juntado en un mismo equipo futbolistas con la técnica de Xavi Hernández. Busquets, Silva, Xabi Alonso, Navas, Iniesta, Fábregas, Villa, etc. Sus grandes virtudes son el perfecto control del balón, la rapidez de desplazamiento que imprimen al esférico y la precisión en el pase al “primer toque”, cualidades que muchos equipos entrenan con ayuda de modernas tecnologías.

En el siguiente vídeo se observa cómo hay equipos que emplean el innovador “Footbonaut” en sus centros de entrenamiento. Se trata de una caja de 20 metros cuadrados con cuatro máquinas que ‘disparan’ balones a diferentes velocidades y trayectorias hacia los futbolistas. El jugador tiene que recibir la pelota y en dos toques enviarla hacia el panel indicado de los 64 que tiene la estructura. Este instrumento es fundamental a la hora de realizar transiciones rápidas, con un máximo de dos toques seguidos de pase o tiro.

Mediante aplicaciones informáticas la máquina recoge los aciertos y errores de cada jugador y almacena la información. Posteriormente el entrenador analiza los resultados y elige qué jugadores son los que mejor se adaptan a su sistema de juego… y es que el fútbol no es ajeno al Big Data. Gracias al mismo los entrenadores conocen al instante cuantos pases correctos e incorrectos han dado sus jugadores, la distancia recorrida por cada uno, los futbolistas que mejor se acoplan al sistema defensivo u ofensivo diseñado, etc. El Big Data, que ha entrado de lleno en el fútbol moderno, también le sirve a los clubes para recoger información sobre futuros fichajes.

Sigamos con el gol de Iniesta. Fábregas, tras recibir el taconazo del jugador de Fuentealbilla, devolvió con ese primer toque que ya hemos visto como se entrena el balón a Jesús Navas. El sevillano, exhausto, dio un pase a Fernando Torres. El “Niño” realizó un centro al área buscando a Iniesta que se había desmarcado… pero se equivocó. Torres golpeó el balón suavemente y con el empeine de su pie derecho. El esférico salió en línea recta siguiendo la primera Ley de Newton, según la cual un cuerpo se mueve en la misma dirección y a la misma velocidad hasta que se le aplica una fuerza que lo haga variar de dirección. Como no apareció ninguna fuerza, el balón siguió su trayectoria rectilínea hasta que fue interceptado por un rival.

¿Qué hubiese ocurrido si Fernando Torres hubiese golpeado el esférico con el exterior del pie derecho (en lugar de con el empeine) imprimiéndole más fuerza, elevación y, sobre todo, mayor efecto? Que gracias al Efecto Magnus la pelota hubiese llegado a Iniesta, que se había desmarcado perfectamente buscando la región óptima de Voronoi.

En un lado del balón el aire se hubiese movido en dirección contraria al giro del mismo, aumentando la presión. En el otro lado el aire se movería en la misma dirección del giro de la pelota, creando un área de baja presión. Como consecuencia de la diferencia de presiones hubiese aparecido una fuerza perpendicular a la dirección de la corriente de aire. Esto hubiese provocado que el balón se curvara hacia la zona de baja presión y cambiara su trayectoria, superando a la defensa holandesa y dejando solo a Andrés Iniesta delante del portero gracias a la física del Efecto Magnus.

Para explicar el Efecto Magnus en el fútbol tradicionalmente se muestra el mítico gol de Roberto Carlos a la selección francesa que pueden observar aquí. También se aprecia en un gol de la selección española en el Mundial de Sudáfrica, concretamente en el que marcó David Villa a Chile en el tercer partido del Mundial y que nos dio el pase a octavos de final. En este enlace pueden verlo.

Pero hoy les voy a mostrar una joya donde se aprecia mucho mejor el Efecto Magnus. Se trata del gol que marcó Mohd Faiz Subri, jugador del Penang que milita en la liga de Malasia, y que ganó el Premio Puskas al mejor gol del 2016. Alucinante.

Desgraciadamente en Sudáfrica Torres no golpeó correctamente el balón y este fue interceptado por un defensa holandés. Por fortuna para el equipo español el esférico cayó de nuevo en los pies de Cesc Fábregas que, haciendo gala de su entrenada precisión, dio un pase perfecto a Andrés Iniesta dejándolo solo ante el portero holandés… y se armó la mundial, nunca mejor dicho.

Iniesta golpeó con fuerza el balón, que salió con una aceleración tremenda de su bota derecha y se coló en la portería holandesa… lo que tampoco hubiese ocurrido sin ayuda de los nuevos materiales con los que se fabrican las botas actuales y de su avanzada tecnología. Las botas modernas, mucho más ligeras que las antiguas, han mejorado la fricción entre el pie y la pelota favoreciendo el control, el pase y la precisión del tiro. Además de ser muy ligeras, las nuevas zapatillas se adaptan al pie como un guante y tanto las lengüetas, las suelas y los tacos están preparados para los innumerables disparos, giros y cambios de ritmo del fútbol moderno. Incluso para conseguir que el balón adquiera una gran aceleración ya no hace falta la fuerza con la que los jugadores de épocas pasadas golpeaban el esférico. Los innovadores materiales con los que se elaboran las botas son capaces de conseguir gran aceleración con mucho menor potencia de disparo. El balón disparado por Iniesta salió con tal aceleración de su bota derecha que dobló las manos del portero.

Lo que ocurrió después ya lo saben. Yo me abalancé sobre mi vecino rompiéndole una costilla y mi paisano José Antonio Camacho, en la retransmisión que hizo televisión de la final, gritó la célebre frase que ha quedado grabada para la eternidad: “¡¡Iniesta de mi vida!!”.

Estimados lectores, lo ocurrido en el gol de Iniesta en la final del Mundial de 2010 demuestra que la ciencia, la tecnología y el fútbol van cogidos de la mano… y es necesario que la sociedad sepa que el progreso científico y tecnológico se encuentra presente hasta en los sitios más insospechados. Disciplinas como la medicina, la química, la física, la informática, la fisioterapia, la óptica, las matemáticas, la botánica, el big data, la psicología y muchas otras aparecieron en el momento más importante de la historia del fútbol español que hizo feliz a millones de personas. Más de diez años después los avances científicos y tecnológicos siguen revolucionando el fútbol.

Sin embargo, después de Sudáfrica 2010 no hemos vuelto a ganar un Mundial. ¿Por qué? Porque en el fútbol, al igual que en el mejor de los laboratorios, el progreso científico no se pone de manifiesto si no está detrás el talento humano. A buen entendedor…

Este post ha sido realizado por José M. López Nicolás (@ScientiaJMLN) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.

El artículo ¡Iniesta de mi vida! se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Saturno en un vaso de aceite
  2. Vida bajo la luz cenicienta
  3. El demonio de Maxwell
Catégories: Zientzia

El frustrante viaje de un átomo de carbono, mención especial del jurado “On zientzia”

jeu, 2017/12/14 - 17:00

“El frustrante viaje de un átomo de carbono” de Julio Ruiz Monteagudo recibió la mención especial del jurado en la 7ª edición de los premios On zientzia. El ciclo del carbono puede explicarse de muchas maneras, pero pocas serán tan musicales, divertidas y didácticas como este vídeo de poco más de 4 minutos.

¿Tienes una idea genial para explicar un concepto científico en un vídeo? ¿Quieres ver tu trabajo emitido en televisión? La Fundación Elhuyar y el Donostia International Physics Center (DIPC) han organizado la octava edición de On zientzia, un concurso de divulgación científica y tecnológica enmarcado en el programa Teknopolis, de ETB. Este certamen pretende impulsar la producción de vídeos cortos y originales que ayuden a popularizar el conocimiento científico.

On zientzia tendrá tres categorías. El mejor vídeo de divulgación recibirá un premio de 3.000 euros. Para impulsar la producción de piezas en euskera, existe un premio de 2.000 euros reservado a la mejor propuesta realizada en ese idioma. Por último, con el objetivo de impulsar la participación de los estudiantes de ESO y Bachillerato, hay un premio dotado con 1.000 euros para el mejor vídeo realizado por menores de 18 años.

Los vídeos han de tener una duración inferior a los 5 minutos, se pueden realizar en euskera, castellano o inglés y el tema es libre. Deben ser contenidos originales, no comerciales, que no se hayan emitido por televisión y que no hayan resultado premiados en otros concursos. El jurado valorará la capacidad divulgativa y el interés de los vídeos más que la excelencia técnica.

Las bases las encuentras aquí. Puedes participar desde ya hasta el 25 de abril de 2018.

Edición realizada por César Tomé López

El artículo El frustrante viaje de un átomo de carbono, mención especial del jurado “On zientzia” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Fallos científicos en el cine, mejor vídeo de divulgación joven “On zientzia”
  2. El mecanismo de la vida, mejor vídeo de divulgación joven “On zientzia”
  3. Soy esa bacteria que vive en tu intestino, mejor vídeo de divulgación “On zientzia”
Catégories: Zientzia

La potencia sin control no sirve de nada

jeu, 2017/12/14 - 11:59

«La potencia sin control no sirve de nada». Este es el eslogan de la que, con toda probabilidad, ha sido la campaña publicitaria de neumáticos más exitosa de la historia. Fue realizada en 1995 por la agencia de publicidad Young & Rubicam para Pirelli.

Uno de los cometidos pretendidos en el diseño de automóviles es que se mantengan pegados a la carretera. Esto se logra sobre todo gracias a la aerodinámica, de manera que, al aumentar la potencia el automóvil no se separe del suelo. Podríamos decir que la aerodinámica de un automóvil sería la contraria a la de un avión.

La aerodinámica es fundamental, sobre todo en los coches deportivos y de competición, pero, no hay que olvidar la importancia de los neumáticos. Mi padre, que se dedicó durante años a la industria del neumático, siempre dice que «los neumáticos son la única parte del coche que está en contacto directo con la carretera», por eso son tan importantes. No le falta razón.

Utilizamos ruedas desde hace miles de años, pero la idea de ponerle caucho en el borde exterior es relativamente nueva. Fue a principios del siglo XIX cuando por primera vez se utilizó este polímero natural para recubrir las ruedas de madera. Antiguamente se enfundaban en cuero o metal.

El caucho se obtiene de varios tipos de plantas, pero principalmente se extrae del látex que surge de los cortes hechos del tronco de Hevea brasiliensis. En la década de 1920 los laboratorios de Bayer inventarían el caucho sintético.

El caucho natural se somete a varios procesos sucesivos como la coagulación, el lavado y el refinado. El caucho natural resulta poco elástico y se reblandece fácilmente con el calor. Se desgasta con rapidez, así que su futuro no parecía muy prometedor.

El químico Charles Goodyear dedicó varios años de su vida a investigar el caucho. En 1839 descubrió el vulcanizado, que es un procedimiento que consiste en calentar el caucho en presencia de azufre en polvo. En resultado final es que las moléculas elásticas de caucho se quedan unidas entre sí mediante puentes de azufre. De esta manera se consigue un caucho más duro y resistente sin perder elasticidad. El vulcanizado es el proceso químico que dio origen a los neumáticos que utilizamos hoy en día.

Desgraciadamente Charles Goodyear no patentó su invento. El ingeniero Thomas Hancock, habiendo llegado más tarde a la misma conclusión se hizo con la patente en 1843. Fue entonces cuando se hicieron populares las ruedas de goma maciza.

Charles Goodyear sigue estando asociado al mundo del neumático debido a que una empresa de éxito de la industria de la automoción tomó su nombre. Sin embargo, esta compañía no tiene ninguna relación con él.

Hasta entonces los neumáticos eran de color claro, por lo que se ensuciaban con facilidad y comprometían la estética. En 1885 la empresa Goodrich decidió fabricar ruedas de color negro. Al tintar el caucho se hizo un descubrimiento sorprendente, los neumáticos negros duraban más. Esto es debido a que el tinte negro absorbe los rayos ultravioletas que son, en parte, los causantes del agrietamiento del caucho.

La primera rueda neumática —llena de aire— fue patentada en 1845 por el ingeniero Robert W. Thomson. Sin embargo, no fue hasta 1888 que el ingeniero John Boyd Dunlop, desarrolló el primer neumático con cámara de aire. Lo inventó para envolver las ruedas del triciclo que su hijo de nueve años usaba para ir a la escuela por las calles bacheadas de Belfast. Esas precarias cámaras de aire consistían en unos tubos de goma hinchados. Envolvió los tubos con una lona y los pegó sobre las llantas de las ruedas del triciclo. Patentó el neumático con cámara de aire en 1889. Había ganado en comodidad, aun así, al neumático le faltaban algunos obstáculos por vencer. Era muy trabajoso repararlos, ya que estaban adheridos a la llanta.

En 1891, Édouard Michelin, quien era conocido por su trabajo con el caucho vulcanizado, decidió desarrollar un neumático que pudiera separarse de la llanta y así facilitar el trabajo. Los neumáticos de Michelin resultaron tan prácticos que al año siguiente ya eran los que utilizaban la mayoría de ciclistas. Poco después también los llevarían los carruajes. En 1946, la compañía Michelin desarrolló el método de construcción de neumáticos radiales que supusieron un antes y un después en la conducción deportiva.

En los años 40 se incluyeron nuevos materiales en la composición del neumático, como el rayón, el nailon y el poliéster. Cuando terminó la segunda guerra mundial, se empezó a trabajar en la fabricación de un neumático que sellara herméticamente sobre la rueda, lo que al fin eliminó la necesidad de acompañarlos de cámara de aire. La evolución fue vertiginosa, propiciada en gran medida por la Fórmula 1. En los neumáticos modernos se utilizan más de doscientos materiales distintos, entre ellos el acero, la fibra de carbono o el kevlar. En la actualidad el caucho vulcanizado lo encontramos, sobre todo, en la superficie del neumático.

En automoción —y en otros aspectos de la vida— sigue siendo muy certero eso de que «la potencia sin control no sirve de nada». En las vallas publicitarias y en prensa, bajo este eslogan de Pirelli salía una magnífica imagen del deportista Carl Lewis con zapatos de tacón. En la versión televisiva del anuncio, la planta de sus pies estaba cubierta de caucho.

Y es que, entre otros aspectos ingenieriles, los neumáticos y en consecuencia la ciencia del caucho es fundamental para el control de la conducción. Al fin y al cabo, como dice mi padre, es la única parte del coche que está en contacto directo con el asfalto. Cuando vamos en coche los neumáticos son nuestros pies en el suelo.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo La potencia sin control no sirve de nada se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿La publicidad no sirve para nada?, ¡ja!
  2. Potencia y eficiencia de una máquina
  3. Fotovoltaicos siempre a máxima potencia
Catégories: Zientzia

Una hiperlente que permite ver un virus en la superficie de una célula viva

mer, 2017/12/13 - 17:00

Imagina que te digo que existe una lente óptica tan potente, una hiperlente, que permite ver detalles del tamaño de un pequeño virus en la superficie de una célula viva en su entorno natural. Suena increíble, tanto más cuanto más sepas de biología o de física, pero existe realmente.

Una representación artística de una hiperlente que permite ver una célula viva con detalle. Arriba a la izquierda, la estructura cristalina del nitruro de boro hexagonal (hBN). Imagen de Keith Wood, Vanderbilt University

La ciencia y la ingeniería han desarrollado muchos instrumentos capaces de producir imágenes con resolución a nanoescala, como microscopios basados en flujos de electrones y otros llamados de fuerza atómica. Sin embargo, estos instrumentos son incompatibles con organismos vivos, ya que, o bien operan bajo un alto vacío, o exponen las muestras a niveles nocivos de radiación, o requieren técnicas letales de preparación de muestras como la liofilización o extraen las muestras de su entorno natural basado en disoluciones.

La razón principal para desarrollar las llamadas hiperlentes (lentes ópticas con una resolución mucho menor que la longitud de onda de la luz empleada) es la posibilidad de que pudiesen proporcionar imágenes detalladas de las células vivas en sus entornos naturales utilizando luz de baja energía que no las dañe. El trabajo realizado por un equipo de investigadores encabezado por Alexander Giles, del Laboratorio de Investigación Naval de los Estados Unidos, ha llevado la construcción de hiperlentes un paso más allá simplemente purificando el material a niveles que hace unas décadas eran inimaginables.

El material óptico empleado es el nitruro de boro hexagonal (hBN), un cristal natural con propiedades de hiperlente. La mejor resolución que se había conseguido previamente usando hBN fue de 36 veces más pequeña que la longitud de onda infrarroja utilizada: aproximadamente el tamaño de la bacteria más pequeña. El nuevo trabajo describe mejoras en la calidad del cristal que mejoran su capacidad en un factor de diez.

Los investigadores lograron esta mejora al fabricar cristales de hBN usando boro isotópicamente purificado. El boro natural contiene dos isótopos que difieren en peso en aproximadamente un 10 por ciento, una combinación que degrada significativamente las propiedades ópticas del cristal en el infrarrojo.

Los científicos calculan que una lente hecha de su cristal purificado puede, en principio, capturar imágenes de objetos de 30 nanómetros de tamaño. Para poner esto en perspectiva, un pelo humano tiene entre 80.000 y 100.000 nanómetros de diámetro. Un glóbulo rojo humano tiene aproximadamente 9.000 nanómetros y los virus varían de 20 a 400 nanómetros.

La física de las hiperlentes es bastante compleja. El nivel de detalle con el que los microscopios ópticos pueden generar imágenes está limitado por la longitud de onda de la luz y el índice de refracción del material de la lente. Cuando esto se combina con los factores de apertura de la lente, la distancia desde el objeto a la lente y el índice de refracción del objeto bajo observación, se traduce en un límite óptico típico de aproximadamente la mitad de la longitud de onda utilizada para la obtención de las imágenes.

En las longitudes de onda infrarrojas utilizadas en este experimento, este “límite de difracción” es de aproximadamente 3.250 nanómetros. Este límite puede superarse mediante el uso de hBN debido a su capacidad para soportar polaritones de fonones superficiales, partículas híbridas formadas por fotones de luz que se acoplan con átomos del cristal que poseen carga y vibran. Estos polaritones tienen longitudes de onda mucho más cortas que la luz incidente.

El problema con el uso de polaritones ha sido siempre la rapidez con la que se disipan. Mediante el uso de cristales de hBN hechos con un 99% de boro isotópicamente puro, los investigadores han podido comprobar que existe una reducción drástica de las pérdidas ópticas en comparación con los cristales naturales, es decir, que aumenta el tiempo de vida del polaritón, lo que les permite viajar el triple de distancia. Este mayor recorrido se traduce en una mejora significativa en la resolución de las imágenes. El análisis teórico de los investigadores sugiere que es posible incluso otro factor de mejora de diez adicional.

En 1654, Anton van Leeuwenhoek utilizó uno de los primeros microscopios para descubrir el mundo desconocido hasta ese momento de la vida microscópica. Este resultado en el desarrollo de hiperlentes es un paso importante para llevar el descubrimiento de van Leeuwenhoek a un nivel completamente nuevo, que permitirá a los biólogos observar directamente los procesos celulares en acción, como virus invadiendo células o células inmunes que atacan invasores extraños, abriendo innumerables posibilidades en la investigación biomédica.

Referencia:

Alexander J. Giles et al (2017) Ultralow-loss polaritons in isotopically pure boron nitride Nature Materials doi: 10.1038/nmat5047

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Una hiperlente que permite ver un virus en la superficie de una célula viva se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Otra pieza en el puzle de la fotosíntesis
  2. Cómo fabricar hielo extraterrestre y verlo molécula a molécula
  3. Estroncio en la leche
Catégories: Zientzia

La artista Anni Albers, The Walking Dead y la teoría de nudos

mer, 2017/12/13 - 11:59

Las personas que han visitado durante las últimas semanas el Museo Guggenheim de Bilbao han tenido la suerte de poder disfrutar de una exposición interesante e inspiradora, “Anni Albers, tocar la vista” (6 de octubre de 2017 – 14 de enero de 2018). Esta exposición nos acerca a la obra de la artista de origen alemán, afincada en Estados Unidos, Anni Albers (1899-1994), quien seguramente sea la artista textil más importante del siglo XX, aunque también trabajó otras técnicas como el grabado, la pintura o el diseño de joyas.

Anni Albers, “Estudio para Colgadura no realizada” (sin fecha), Gouache sobre papel, The Josef and Anni Albers Foundation

La exposición está compuesta por alfombras y colgaduras textiles, telas, diagramas geométricos, dibujos y estudios para el diseño de obras textiles, joyas, aguatintas, litografías, serigrafías e impresiones offset, acuarelas y otros tipos de pinturas, en las cuales la geometría juega un papel fundamental.

Las personas que deseen más información sobre la exposición pueden visitar la página del Museo Guggenheim-Bilbao Anni Albers, tocar la vista o ver los cuatro videos que el museo ha colgado en su canal de youtube y que están aquí.

Anni Albers, “Segundo movimiento V” (1972), Aguatinta, The Josef and Anni Albers Foundation

La visita a la exposición Anni Albers, tocar la vista fue una experiencia enriquecedora. Descubrí a una artista excepcional y disfruté de unas creaciones artísticas increíbles. Tengo ganas de volver para sumergirme de nuevo en el arte de Anni Albers, y descubrir más sobre los procesos creativos, claramente conectados con las matemáticas, de esta artista. Aunque muchas de las obras de la exposición despertaron la curiosidad de mi mirada matemática, me gustaría destacar aquí la serie de obras dedicadas a los “nudos”, como su litografía Enredada (1963),

Anni Albers, “Enredada” (1963), litografía, The Josef and Anni Albers Foundation

o su, también litografía, Sin título (1963),

Anni Albers, “Sin título” (1963), litografía, The Josef and Anni Albers Foundation

que rápidamente me recordaron a la teoría de nudos de las matemáticas. De hecho, esta última obra me hizo recordar la fotografía realizada por un microscopio electrónico de un fragmento anudado del ácido desoxirribonucleico, ADN, cuyo estudio es uno de los campos de aplicación de la teoría de nudos.

Fotografía de un fragmento de ADN anudado visto con un microscopio electrónico, realizada por Steven A. Wasserman y Nicholas R. Cozzarelli

La teoría de nudos, que ya mencionamos brevemente en la entrada del Cuaderno de Cultura Científica La topología modifica la trayectoria de los peces, es una rama de la topología que se dedica al estudio matemático de los nudos, que surgió en el siglo XX, aunque tiene sus orígenes en el siglo XIX con el trabajo de matemáticos como el alemán Carl Friedrich Gauss (1777-1855), su alumno Johann B. Listing (1808-1882) o el inglés Peter G. Tait (1831-1901). La teoría de nudos tiene numerosas e importantes aplicaciones fuera de las matemáticas, como por ejemplo en biología molecular, medicina, mecánica estadística, física de polímeros y de cristales, teoría física de cuerdas, criptografía, o ciencias de la computación.

La idea matemática de nudo es una abstracción matemática de lo que sería un nudo físico. Se coge una cuerda, se anuda de una forma más o menos enrevesada y se pegan los extremos. Desde el punto de vista matemático nos interesa la línea cerrada que describe la cuerda, sin tener en cuenta el grosor de la misma, es decir, un nudo es una línea curva anudada cerrada, que no tiene puntos de intersección, en nuestro espacio tridimensional.

Como estamos hablando de nudos en topología, esto significa que podemos deformar estirando o encogiendo la línea, es decir, la cuerda, y cambiándola de forma en el espacio, lo cual no altera el nudo, siempre que no se corte o pegue la misma. De hecho, se dice que dos nudos son equivalentes, que para nosotros es tanto como decir que “son iguales desde el punto de vista topológico”, cuando se puede deformar un nudo en el otro de forma continua, es decir, sin realizar cortes, ni pegar.

El nudo más simple es cuando cogemos la cuerda y unimos los extremos sin anudar, es decir, es la circunferencia, en la que no existe un nudo como tal, podríamos decir que es el no-nudo. Cualquier deformación espacial de la circunferencia, como en la imagen de abajo realizada con el juguete Tangle, sigue siendo el no-nudo.

Cuatro deformaciones en el espacio del nudo trivial, realizadas con el juguete Tangle, luego los cuatro nudos resultantes son equivalentes entre sí, son el mismo nudo, el no-nudo

El nudo más sencillo no trivial es el nudo de trébol, que es cuando hacemos un nudo sencillo a la cuerda y después anudamos los extremos. Es imposible deformarlo al nudo trivial sin cortar la cuerda y volver a pegarla, luego topológicamente el no-nudo y el nudo de trébol no son el mismo, no son equivalentes.

Nudo de trébol en el espacio tridimensional. Jim Belk, de wikimedia

El nudo de trébol es un símbolo muy común desde la antigüedad, ya que su versión plana es la triqueta, o triquel, que fue ampliamente utilizada, por ejemplo, en el arte celta, en la religión cristina, como símbolo de la trinidad (padre, hijo y espíritu santo), en una de las versiones del Valnout alemán, que se relaciona con el dios Odín, o en el Mjolnir, martillo del dios Thor de la mitología nórdica. Y hoy en día nos la encontramos con mucha frecuencia en la cultura popular, por ejemplo, en la katana de Michonne de la serie de TV Walking Dead, así como en muchas otras series, películas o video juegos.

La katana de Michonne, de la serie The Walking Dead, tiene el símbolo de la triqueta, que es el nudo de trébol

Para estudiar los nudos se utilizan representaciones gráficas planas de los mismos, que son proyecciones sobre el plano de los nudos tridimensionales, como si les hiciéramos una fotografía. Se utilizan solo las proyecciones buenas, las llamadas regulares, en las que solamente hay un número finito de puntos dobles (cruces) como puntos singulares. En las proyecciones no regulares perderíamos parte de la información del nudo. Estas representaciones se llaman diagramas del nudo. Son líneas continuas en el plano, que solo se pintan discontinuas cuando esa parte del nudo pasa por debajo de la que ya está pintada, como se muestra en los siguientes ejemplos. También podemos pensar en los diagramas de los nudos, como la representación de un nudo, como cuerda anudada, que apoyamos en una superficie plana.

Tres diagramas diferentes del nudo de Saboya, o nudo del ocho

El nudo de Saboya, o nudo del ocho, que aparece en la anterior imagen, es un nudo cuyo diagrama tiene cuatro cruces, el diagrama del trébol tenía solamente tres, y se llama así porque aparece en el escudo de armas de la Casa de Saboya.

Escudo de armas de la Casa de Saboya con distintas copias del diagrama del nudo de ocho, o de Saboya

A continuación, mostramos el diagrama del nudo de la obra Sin título (1963), de Anni Albers.

La teoría de nudos estudia las propiedades topológicas de los nudos, en particular, el problema más importante es la clasificación de los diferentes nudos que existen, el cual incluye el problema de reconocimiento, es decir, determinar cuándo dos nudos son equivalentes, para lo cual se desarrollan herramientas matemáticas que nos permitan saber cuándo dos nudos son, o no, equivalentes (el mismo desde el punto de vista topológico).

En particular, deberemos de estudiar cuando dos diagramas corresponden a nudos equivalentes. Por ejemplo, nos podemos preguntar si un diagrama complejo como el que aparece en la imagen de abajo, y que se conoce como nudo gordiano de Haken, es topológicamente equivalente al no-nudo, es decir, que no hay nudo, solamente está enmarañado. El propio matemático alemán Wolfgang Haken, conocido por demostrar junto al matemático estadounidense Kenneth Appel el teorema de los cuatro colores, demostró que efectivamente dicho nudo es equivalente al no-nudo.

Nudo gordiano de Haken

En la década de 1920, que fueron los inicios de la teoría de nudos, el matemático alemán Kurt Reidemeister (1893-1971), dio una primera herramienta para determinar cuándo dos diagramas correspondían a nudos equivalentes. Demostró que:

Dos diagramas representan nudos equivalentes si, y sólo si, se puede pasar de uno a otro mediante un número finito de transformaciones del tipo I, II y III (que se muestran a continuación).

Transformaciones de Reidemeister de tipo I, II y III de los diagramas de nudos

A continuación, vemos un nudo con tres cruces que es equivalente al nudo de trébol, puesto que mediante una serie de movimientos de Reidemeister puede transformarse uno en otro, como se muestra en la siguiente imagen.

Los movimientos de Reidemeister transforman el diagrama con tres cruces inicial en el diagrama del nudo de trébol, luego ambos son equivalentes, corresponden al mismo nudo topológico

Existe un tipo especial de nudos, aquellos que son equivalentes a su imagen especular. Se llaman nudos anfiquirales. La imagen especular de un nudo es aquella que se obtiene como reflejo en un espejo, es decir, es el nudo simétrico respecto a un plano del espacio. Dado el diagrama de un nudo, entonces el diagrama del nudo imagen especular del primero es igual salvo que tiene los cruces dados la vuelta, es decir, la línea continua se convierte en discontinua, y la discontinua en continua.

El nudo de Saboya es un nudo anfiquiral, como se muestra en la siguiente imagen, mientras que el nudo de trébol puede demostrarse que no es anfiquiral.

Otra división importante de los nudos de cara a su estudio y clasificación es en nudos primos y nudos compuestos. La idea es descomponer los nudos en otros más simples, los llamados nudos primos, que son los que no se pueden descomponer en otros más simples aún y a partir de los cuales se generan todos los demás, y entonces centrar el estudio general de los nudos en estos.

Por lo tanto, tenemos dos “operaciones” con nudos, que son una inversa de la otra, la descomposición y la suma conexa. Un nudo se descompone mediante una esfera (en el diagrama plano sería una circunferencia) que corta transversalmente al nudo en dos puntos, por los que se corta el nudo generándose dos partes disjuntas, cada una de las cuales se cierra de nuevo al pegar los dos puntos extremos mediante un segmento, generándose así dos nudos. Un nudo es primo si no se puede descomponer en dos nudos no triviales.

Descomposición del conocido como nudo de la abuela en dos copias del nudo de trébol

Cualquier nudo no primo se obtiene mediante la operación inversa a la anterior, la suma conexa, a partir de un número finito de nudos primos. En la imagen siguiente vemos la suma conexa del nudo de trébol y de su imagen especular, que es el nudo de rizo o nudo cuadrado.

Suma conexa del nudo de trébol y su imagen especular, que es el nudo de rizo, o nudo cuadrado

El nudo de la abuela, que es la suma conexa de dos copias del nudo de trébol, es un nudo no anfiquiral, mientras que el nudo de rizo, que es la suma conexa del nudo de trébol y su imagen especular, sí es anfiquiral. En consecuencia, ambos nudos no son equivalentes.

Algunos de los nombres de los nudos matemáticos, como el nudo del ocho, el nudo de la abuela, el nudo de rizo, el nudo del cirujano o el nudo del amor verdadero, entre otros, derivan de los nombres de los nudos físicos, los nudos utilizados en la navegación y en muchas otras actividades de nuestra sociedad, como la escalada, la medicina, la costura o la decoración, desde la antigüedad.

Según el diccionario de la RAE, un nudo (físico) es un “lazo que se estrecha y cierra de modo que con dificultad se pueda soltar por sí solo, y que cuanto más se tira de cualquiera de los dos cabos, más se aprieta”. En matemáticas, para estudiar cómo de anudado está un nudo se unen los dos cabos del mismo, cerrando el nudo y no dejando que se pueda deshacer.

Poster de estilo vintage con nudos marineros, entre los que están el nudo simple (2), que da lugar al nudo de trébol, el nudo de ocho (3), el nudo de la abuela (4), el nudo de rizo o cuadrado (5) o el nudo doble (7), relacionado con el nudo del cirujano

Pero continuemos con el estudio topológico de los nudos. Con el fin de resolver el problema de la clasificación de los nudos se introducen invariantes de los mismos. Los invariantes son objetos (por ejemplo, un número, un polinomio o un grupo) o propiedades (como la tricoloreabilidad) de un nudo, que tienen el mismo valor para todos los nudos equivalentes. En consecuencia, si un invariante es distinto para dos nudos, estos no pueden ser equivalentes.

Un primer ejemplo de invariante sería el “mínimo número de cruces de un nudo”. Consideremos un nudo N, se define el mínimo número de cruces c(N) del nudo N, como el menor número de cruces que puede tener un diagrama D de N, es decir, si denotamos por c(D) el número de cruces de un diagrama D, sería el mínimo valor de c(D), para todos los diagramas D del nudo N.

Si c(N) = 0, entonces N es el nudo trivial. No existen nudos para los cuales el mínimo número de cruces sea 1 o 2, cualquier diagrama que dibujemos con 1 o 2 cruces se puede transformar mediante movimientos de Reidemeister en el no-nudo. Los únicos nudos con c(N) = 3 son el nudo de trébol, y su imagen especular, mientras que el único con c(N) = 4 es el nudo de Saboya.

La primera clasificación de los nudos la realizó el matemático inglés Peter G. Tait en 1846, sin las herramientas aún de la topología, e incluía todos los nudos primos con mínimo número de cruces menor o igual que 7, que son el no-nudo y los 14 que aparecen en la imagen de abajo (obsérvese que en dicha clasificación no se está distinguiendo entre un nudo y su imagen especular).

Clasificación de los nudos con mínimo número de cruces menor o igual que 7. Cada color se corresponde con los nudos con el mismo número mínimo de cruces, desde 3 hasta 7

Un invariante sencillo, que nos permitirá distinguir entre algunos nudos que no son equivalentes, es la tricoloreabilidad. Un diagrama se dice que es tricoloreable si, dado un conjunto de tres colores, se puede asignar un color a cada arco del diagrama de forma que: i) se utilizan al menos dos de los tres colores; ii) si en un cruce aparecen dos de los colores, entonces también aparece el tercero.

Se puede demostrar fácilmente que la coloreabilidad no varía con los tres tipos de movimientos de Reidemeister, por lo que, si un diagrama es tricoloreable, lo es cualquier otro equivalente. Es decir, si un diagrama es tricoloreable y otro no, entonces se corresponden con nudos no equivalentes.

La tricoloreabilidad no varía con los tres movimientos de Reidemeister

El no-nudo es trivialmente no tricoloreable, ya que no se puede utilizar más de un color, el nudo de trébol sí es tricoloreable y el nudo de Saboya no.

Veamos un ejemplo de cómo distinguir nudos, con el mismo número mínimo de cruces, mediante la tricoloreabilidad. Los nudos 71 y 74, que podemos ver en la clasificación anterior (el primero y cuarto de los nudos con mínimo número de cruces 7), y que tienen mínimo número de cruces, no son equivalentes, ya que 71 no es tricoloreable, mientras que 74 sí lo es.

Claramente el nudo 71 no es tricoloreable, puesto que, si pintamos uno de los segmentos de un color, por ejemplo, rojo, solo pueden ocurrir dos cosas, o todos los demás son también rojos, con lo cual no se utilizan al menos dos colores, o los colores de los demás segmentos quedan determinados y al llegar de nuevo al segmento rojo inicial habrá tres cruces cada uno con dos colores y por cada color elegido para el segmento que falta por marcar se obtienen dos cruces con solo dos colores, como se muestra en la siguiente imagen.

El nudo 71 no es tricoloreable

Mientras que el nudo 74, que es un nudo celta y también el nudo infinito del Budismo, es tricoloreable, como se muestra en la siguiente imagen.

El nudo 74 es tricoloreable

Continuará en mi siguiente entrega de la sección Matemoción del Cuaderno de Cultura Científica…

…CONTINUARÁ…

Colgante con el nudo infinito del budismo

Bibliografía

1.- Museo Guggenheim-Bilbao, Anni Albers, tocar la vista, 6 de octubre de 2017 – 14 de enero de 2018.[]

2.- The Josef and Anni Albers Foundation

3.- Canal de youtube del Museo Guggenheim-Bilbao, Anni Albers, Tocar el viento.

4.- Raúl Ibáñez, La topología modifica la trayectoria de los peces, Cuaderno de Cultura Científica, 2016.

5.- María Teresa Lozano, La teoría de nudos en el siglo XX, Un Paseo por la Geometría 1998/99, Departamento de Matemáticas, UPV/EHU, 1999. Versión on-line en divulgamat

6.- Sergio Ardanza Trevijano, Excursiones matemáticas en biología, Un Paseo por la Geometría 2005/06, Departamento de Matemáticas, UPV/EHU, 2006. Versión on-line en divulgamat

7.- Martín Gardner, Huevos, nudos y otras mistificaciones matemáticas, Gedisa, 2002.

8.- Colin C. Adams, The Knot Book, An Elementary Introduction to the Mathematical Theory of Knots, AMS, 2001.

9.- Stephan C. Carlson, Topology of Surfaces, Knots, and Manifolds, John Wiley and Sons, 2001.

10.- The Knot Atlas

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo La artista Anni Albers, The Walking Dead y la teoría de nudos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La teoría de grafos y “Così Fan Tutte”
  2. Arthur Cayley, la teoría de grafos y los isómeros químicos
  3. El quipu: ¿algo más que un registro numérico?
Catégories: Zientzia

Los tipos celulares humanos y su origen embrionario

mar, 2017/12/12 - 17:00

El desarrollo embrionario comienza en los animales con la división del óvulo fecundado y las sucesivas subdivisiones posteriores. En las esponjas, tras la quinta subdivisión se forma una larva ovoide de 32 células, a partir de la cual se desarrolla el individuo adulto. En el resto de animales, tras la séptima subdivisión el embrión está formado por 128 células que se disponen en una capa y adopta forma esférica. Ese estado se denomina blástula, y en su interior hay una cavidad denominada blastocele que está llena de líquido o de vitelo.

A continuación se produce la gastrulación; algunas células migran hacia el interior y se disponen en dos capas, de manera que el embrión adopta la forma de un recipiente aproximadamente esférico que delimita una cavidad llena de líquido con una apertura al exterior. Esa configuración se denomina gástrula. Su capa externa es el ectodermo y la interna el endodermo. Los animales diblásticos -cnidarios y ctenóforos- retienen ese esquema básico a partir del cual desarrollan sus estructuras. En los más simples -los cnidarios- el ectodermo da lugar a la epidermis y el endodermo a la gastrodermis, y aunque tienen diversos tipos celulares, esas capas pueden considerarse sus únicos tejidos. En rigor no se puede decir que tengan órganos. En los embriones del resto de animales se desarrolla una tercera capa a partir del endodermo que se dispone entre las otras dos: el mesodermo. Cada una de esas tres capas da lugar a un conjunto de tipos celulares. Se presenta a continuación un breve repaso de los grandes grupos de tipos celulares en la especie humana en función de su origen embrionario.

A partir del endodermo surgen las células secretoras epiteliales de las glándulas exocrinas, que son las que vierten sus productos al exterior o a algunos órganos del sistema digestivo. Son veintisiete tipos celulares. Entre ellas se encuentran las células de las glándulas salivares, glándulas lacrimales, glándulas sudoríparas, próstata, glándulas de Bartholí, y también de glándulas del estómago, como las que producen pepsinógeno o ácido clorhídrico. Origen endodérmico tienen también los treinta y seis tipos celulares que producen hormonas (endocrinas). A este grupo pertenecen, entre otras, las de la pituitaria anterior, un buen número de células propias de los tractos respiratorio e intestinal, de las glándulas tiroides, paratiroides y adrenal, o de los islotes de Langerhans del páncreas.

Del ectodermo derivan principalmente células del tegumento y del sistema nervioso. Hay quince tipos celulares del sistema tegumentario; la mayoría de ellas son células epiteliales queratinizantes. Las del sistema nervioso son mucho más numerosas. Están, por un lado, las transductoras -convierten información sensorial en potenciales eléctricos de membrana-; son dieciséis, aunque si se consideran los cuatro tipos de células fotorreceptoras, habría que contar diecinueve. Por otro lado, tenemos las células del sistema nervioso autónomo, colinérgicas, adrenérgicas y peptidérgicas, con varios tipos celulares dentro de cada categoría. Otros doce tipos corresponden a células que dan soporte a sistemas receptores o a neuronas del sistema periférico. Y por supuesto, a este gran grupo pertenecen las neuronas y células gliales del sistema nervioso central; en esta categoría hay una gran variedad de células de difícil clasificación, pero su número podría rondar los veinticinco. Y para terminar con este grupo, habría que considerar los dos tipos celulares del cristalino.

Finalmente, están las células que derivan del mesodermo. De ese origen son los tres tipos celulares que almacenan grasas (los dos adipocitos y el lipocito del hígado). También lo son los que desempeñan funciones de barrera en el riñón (siete) y en otros órganos (doce). Hay veintiún tipos cuya función es producir matrices de material extracelular. También derivan del mesodermo las células contráctiles (más de una docena) y las de la sangre y del sistema inmunitario (más de veinte). Y para terminar hay ocho tipos celulares de origen mesodérmico que son germinales o que proporcionan soporte y nutrientes a las células germinales.

A la hora de valorar esta información ha de tenerse en cuenta que no todos los especialistas dan por buenas ciertas distinciones entre unos tipos celulares y otros, y que en algunos casos, las categorías no están del todo claras o se encuentran en revisión permanente. Las células nerviosas, por ejemplo, tienen especial dificultad.

A modo de resumen, se puede decir que hay más de sesenta tipos celulares de procedencia endodérmica, más de setenta de procedencia ectodérmica y más de ochenta de procedencia mesodérmica. En conjunto, los seres humanos tenemos más de doscientos veinte tipos celulares. Es muy posible que esa cifra sea muy similar en el resto de primates y, hasta donde sabemos, ningún otro grupo animal hay tal diversidad celular. En otras palabras, en ningún otro grupo hay tal diversificación de funciones o, utilizando una expresión más propia de otras disciplinas, tanta división del trabajo. Hay autores que consideran la diversidad de tipos celulares como un buen indicador de complejidad, por lo que de acuerdo con esa idea, los seres humanos seríamos los animales más complejos. No sé si esa consideración es adecuada, pero si aceptamos que la división del trabajo proporciona una mayor eficacia, quizás si podamos decir que somos la especia con mayor eficacia biológica.

Fuente: List of distinct cell types in the adult human body

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Los tipos celulares humanos y su origen embrionario se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Historia mínima de la complejidad animal
  2. A mayor tamaño, mayor complejidad
  3. Sistemas nerviosos: el sistema periférico de vertebrados
Catégories: Zientzia

El principio de relatividad (y 4): la versión de Einstein

mar, 2017/12/12 - 11:59

Montaje experimental para la comprobación del principio de relatividad de Einstein en un hotel.

Al formular su propia teoría de la invariancia [1], Einstein lo que va a hacer es ampliar la invariancia de Galileo afirmando que el principio de relatividad debe aplicar a todas las leyes de la física, como las leyes que rigen la luz y otros efectos del electromagnetismo, no solo a la mecánica. Einstein usó este principio como uno de los dos postulados de su teoría, de la cual luego derivó las consecuencias por deducción.

El principio de relatividad de Einstein podría expresarse de la siguiente manera:

Todas las leyes de la física son exactamente las mismas [2] para cada observador en cada marco de referencia que está en reposo o moviéndose con una velocidad relativa uniforme. Esto significa que no hay ningún experimento que se pueda realizar dentro de un marco de referencia que revele si éste está en reposo o moviéndose a una velocidad uniforme.

Como vemos esto no es más que el principio de relatividad de Galileo en el que se ha sustituido “las leyes de la mecánica” por “todas las leyes de la física”.

Como decir repetidamente “marcos de referencia que están en reposo o en velocidad uniforme en relación con otro marco de referencia” es bastante prolijo, los físicos le dan un nombre a este concepto, marcos de referencia inerciales, ya que la ley de inercia de Newton se cumple en ellos. Los marcos de referencia que se aceleran respecto a otros se denominan marcos de referencia no inerciales.

Los marcos de referencia no inerciales no están incluidos en la parte de la teoría de la invariancia que estamos tratando; debido a esta limitación a esta parte de la teoría se la conoce popularmente como teoría de la relatividad especial. Está restringida pues a marcos de referencia inerciales, aquellos que están en reposo o se mueven con una velocidad uniforme relativa entre sí.

Si nos fijamos, según el principio de relatividad en la versión de Einstein, las leyes del movimiento de Newton y todas las otras leyes de la física siguen siendo las mismas para los fenómenos que ocurren en cualquier marco de referencia inercial. Este principio no dice en absoluto que “todo es relativo”. Por el contrario, demanda que busquemos las relaciones que no cambian cuando pasamos nuestra atención de un marco de referencia en movimiento a otro. Las mediciones físicas, pero no las leyes físicas [2], dependen del marco de referencia del observador.

El principio de relatividad es, como decíamos antes, uno de los dos postulados a partir de los cuales Einstein derivó las consecuencias de la teoría de la invariancia. El otro postulado se refiere a la velocidad de la luz, y es especialmente importante cuando se comparan las observaciones entre dos marcos de referencia inerciales en movimiento relativo, ya que dependemos principalmente de la luz para hacer observaciones. Trataremos de él en nuestra próxima entrega de la serie.

Notas:

[1] Popularmente conocida como teoría de la relatividad.

[2] Por eso Einstein se refería a su teoría como teoría de la invariancia, porque las leyes no varían.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El principio de relatividad (y 4): la versión de Einstein se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El principio de relatividad (2): la versión de Galileo
  2. El principio de relatividad (3): la invariancia de Galileo
  3. El principio de relatividad (1): movimiento relativo
Catégories: Zientzia

La reacción de las madres al llanto de los bebés es universal

lun, 2017/12/11 - 11:59


Los bebés humanos no se diferencian demasiado de los bebés de otras especie de mamíferos al señalar estados de malestar mediante vocalizaciones que expresan disgusto. Esas situaciones pueden ser la separación de la cría de la madre, el hambre o el malestar físico por algún golpe o enfermedad. Los bebés lloran, pero otras crías de corta edad emiten sonidos equivalentes. De la misma forma, las madres de las especies de mamíferos suelen responder a esos llantos o vocalizaciones recogiendo a la cría, estableciendo alguna forma de contacto físico o comunicándose con ella; a veces también defendiéndola de posibles depredadores o alimentándola. Y en ocasiones son las madres de otros bebés u otras cuidadoras las que reaccionan, mostrando incluso fuertes respuestas emocionales. Esto se ha observado, además de en humanos, en marmotas, focas, gatos, murciélagos, y otras especies.

Dada la gran dependencia de las crías humanas de la atención y cuidado de los adultos, y la larga historia de tal dependencia, no es de extrañar que algunos mecanismos de la respuesta de estos a las crías sean automáticos y se hallen, de alguna forma, impresos en sus sistemas nerviosos. Así, algunas reacciones del sistema nervioso autónomo y del sistema nervioso central de los padres a las caras de los bebés difieren de las respuestas a las caras de los adultos. Pero igualmente podría ocurrir que haya respuestas que varíen en función de factores culturales.

Una investigación reciente ha aportado elementos de interés para valorar en qué medida las respuestas de las madres humanas al llanto de sus bebés son universales o varían de unas culturas a otras. El resultado más sobresaliente de esa investigación es que las madres primíparas (primerizas) responden al llanto de sus criaturas de forma similar, con independencia de sus orígenes culturales1. Todas ellas cogen al bebé en sus brazos y le hablan, pero no tratan de distraerlo, de mostrarles cariño de forma explícita, ni les dan de mamar en esas circunstancias, como hacen las de otras especies de mamíferos. Tanto las madres primerizas al oír llorar a sus criaturas, como otras más experimentadas al oír a otros bebés, muestran patrones comunes de actividad encefálica: se activan el área motora suplementaria -área de la corteza cerebral implicada en la programación, generación y control de acciones motoras y secuencias de habla-, así como las regiones temporales superiores relacionadas con el procesamiento de estímulos sonoros. La activación de esas áreas parece producirse, además, antes de que las madres tengan plena consciencia de que van a responder al llanto, lo que constituye una indicación de la importancia de tal comportamiento en términos, lógicamente, de la supervivencia de la cría.

En mujeres que no son madres, sin embargo, no se producen esas respuestas de la actividad encefálica al llanto de los bebés. Al oírlos, las madres presentan respuestas más pronunciadas que las mujeres que no lo son en zonas encefálicas implicadas en el procesamiento de emociones, lo que, además de su significado funcional, da cuenta de una considerable plasticidad en el encéfalo materno, ya que los cambios en las respuestas pueden producirse en periodos muy breves de tiempo, de tan solo tres meses incluso.

Este estudio pone de manifiesto el carácter universal de la respuesta de las madres al llanto de sus criaturas y de otros bebés. Y sus resultados son acordes con otros trabajos en los que se ha mostrado el amplio surtido de comportamientos maternos que favorecen la supervivencia de la progenie. El llanto es una poderosa herramienta, además de señalar la condición física de los más pequeños (un llanto poderoso es señal de buena condición) es la alarma que se dispara cuando las cosas no van del todo bien. Que la madre responda a la alarma como su mensaje merece no solo favorece la supervivencia de la criatura; si además, responde de forma diferente al llanto que a otro tipo de llamadas que no indican riesgo inminente, el bebé aprende a confiar en la seguridad que le proporciona el vínculo, con lo que ello implica a los efectos de adquirir el comportamiento prosocial tan importante para el resto de su vida en el grupo.

Fuente: Marc H. Bornstein et al (2017): Neurobiology of culturally common maternal responses to infant cry. PNAS

1 Este aspecto concreto de la investigación que ha servido de referencia se estudió en madres de los siguientes países: Argentina, Bélgica, Brasil, Camerún, Francia, Kenia, Israel, Italia, Japón, Korea del Sur, y los Estados Unidos. Los trabajos de actividad encefálica (FMRi) se limitaron a madres de China, Italia y Estados Unidos.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo La reacción de las madres al llanto de los bebés es universal se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cuando los bebés comienzan a combinar gesto y habla
  2. Digitalización universal de la computación cuántica analógica en un chip superconductor
  3. El altruismo en las mujeres se ve recompensado
Catégories: Zientzia

El pintor que engañó a los nazis, pero no a la química.

dim, 2017/12/10 - 11:59

Amsterdam tras la liberación (1945)

Amsterdam, junio de 1945

La ciudad había sido liberada y, pese a que las cicatrices que había dejado la guerra tardarían en cerrarse, se respiraba optimismo y alegría en la ciudad. Sin embargo, Han no paraba de dar vueltas en un catre mugriento. La falta de morfina le impedía dormir y la acusación que pesaba sobre su persona no ayudaba en absoluto. A duras penas se levantó y profirió un grito más frío que los barrotes que le confinaban en aquella celda:

  • ¡Estúpidos! ¡Idiotas! ¡Eso no es un Vermeer! ¡Esa obra la pinté yo!

Había sido condenado por un crimen que no había cometido. Era inocente. Más o menos.

La Haya, 1928

Desde que en 1913 abandonase los estudios de arquitectura y se dedicase a la pintura, Han van Meegeren se había abierto un hueco en el panorama artístico holandés. No le faltaba talento e incluso había ganado algún que otro premio. Réplicas de su obra, El cervatillo, realizada para la princesa Juliana, colgaban de las paredes de una multitud de casas (Imagen 1). Por si fuera poco, era un reconocido retratista. Pero, tras su segunda exposición en solitario, su carrera sufriría un gran revés. Una crítica supuso su epitafio como pintor: “Posee todas las virtudes, excepto la originalidad”. El estilo de van Meegeren, heredado de los grandes maestros del XVII, no encajaba en el siglo de las nuevas vanguardias. El orgullo y el desprecio por el arte moderno no le permitieron encajar ese golpe. Si sus obras no podían ser admiradas en su época, no le quedaba otro remedio: las haría viajar en el tiempo.

Imagen 1. El cervatillo, de Han van Meegeren (1921). Fuente

Riviera francesa, 1932

La venganza es un plato que se sirve frío. Pero, además, hay que saber cocinarlo. Han había decidido esconderse en las sombras y elaborar un minucioso plan para ridiculizar al lobby de la crítica artística. Se mudó con su familia a una pequeña localidad de la Costa Azul y se dispuso a pintar una gran obra maestra al estilo de Vermeer. Y no se limitaría a realizar una burda copia, pintaría un original que pudiese haber hecho el famoso pintor. ¿Y por qué elegir a dicho artista? Por una parte, porque había dejado escasas obras para la posteridad y una nueva causaría un tremendo impacto. Por otra, y quizás la más importante, porque cuadros como La callejuela o La joven de la perla le otorgaban, según algunos, el título de mejor pintor de su siglo. Estas cosas hay que hacerlas a lo grande.

Imagen 2. Cristo en casa de Marta y María (160×142 cm), de Vermeer (1654-56). Fuente

Pero para pintar como el genio de Delft hacía falta algo más que sed de venganza y un aplastante dominio de la técnica. Había que mimar los detalles hasta el extremo. Van Meegeren hizo acopio de los pigmentos que usaba el flamenco (bermellón, blanco de plomo, lapislázuli, etc.) e incluso fabricó sus propios pinceles siguiendo la costumbre de la época. Por otra parte, recopiló auténticas obras del siglo XVII. Las obras por sí mismas no le importaban lo más mínimo, pero necesitaba lienzos que hubiesen sufrido el desgaste de 300 años. Con precisión de cirujano eliminó la pintura sobre el lino y así consiguió el soporte ideal para sus cuadros. Durante los siguientes años se dedicó a perfeccionar su técnica hasta que estuvo seguro de que nadie le descubriría. Una vez listo, sólo faltaba seleccionar el tema para su obra y qué mejor que recurrir a otro gran maestro del que Vermeer había recibido influencias: Caravaggio. La cena de Emaús sería el tema elegido.

Imagen 3. Cena de Emaús (140×197 cm) de Caravaggio (1596-1602). Fuente

Seguro que van Meegeren no podía estar más satisfecho al dar su última pincelada. Pero todavía quedaba un tremendo obstáculo. La pintura al óleo se va secando y agrietando con los años. Con aquel cuadro todavía húmedo no engañaría a ningún experto. Pero, como decíamos, todo estaba cuidado hasta el extremo. El holandés había mezclado los pigmentos con baquelita, un polímero que se endurece con el calor. Sólo quedaba meter el lienzo en el horno. Tras sacarlo, le dio una capa de barniz y lo enrolló de modo que surgiesen craqueladuras en las marcas que habían dejado las antiguas obras sobre los soportes reusados. Y como quiera que los cuadros acumulan suciedad a lo largo de los años (y no digamos de los siglos), ensució la superficie para deslucir su reciente creación. Lo había conseguido: había pintado un Vermeer.

Mónaco, Septiembre de 1937

El corazón del doctor Abraham Bredius nunca había latido tan rápido. Un tratante le había hecho llegar un cuadro para examinar (Imagen 4). No cabía duda. Era una obra maestra de Vermeer o, según sus propias palabras, era “la gran obra maestra” de Vermeer. Y él lo haría público. Una medalla más en su gloriosa carrera.

Imagen 4. La cena de Emaús (115-127 cm), de Han van Meegeren (1936-37). Fuente

A Hans van Meegeren solo le faltaba dar el último estoque. Según sus planes, había llegado el momento de humillar a la crítica y a esos supuestos expertos en arte encabezados por Bredius. Pero algo le hizo cambiar de opinión. Se sospecha que la fortuna que había logrado con la venta del cuadro tuvo algo que ver (más de cuatro millones y medio de euros al cambio actual). Con ese dinero compró una mansión en Niza y siguió trabajando con la técnica que tanto había tardado en depurar.

Berlín, agosto de 1943

Las fuerzas del Eje han perdido el Norte de África, pronto caerá Italia. Quizás por eso Hermann Göring decide poner a salvo su incomparable colección de arte. En ella destaca una obra de Vermeer: Cristo entre los adúlteros (Imagen 5).

Imagen 5. Cristo entre los adulteros (96×88 cm), de Han van Meegeren (1943). Fuente

Mina de sal de Altausse (Austria), mayo de 1945

La Segunda Gran Guerra llega a su fin y los aliados siguen ganando terreno. Al entrar en la mina de sal de Altausse encuentran cientos de cajas almacenadas con un total de más de 6000 obras de arte (Imagen 6). El valor de aquellas piezas es incalculable. Hay una que hará especial ilusión al recién liberado pueblo holandés, una que lleva la firma insigne de Vermeer.

Imagen 6. Obras de arte encontradas en posesión de los nazis en las minas de sal de Altausse (1945). Fuente

Las investigaciones de las autoridades holandesas no se hacen esperar y el comerciante nazi que había vendido la obra a Göring pronto confiesa el origen de aquella pieza. Todos los focos apuntan hacia un pintor holandés que había desaparecido del panorama artístico: Han van Meegeren. Había expoliado patrimonio de su propio país, había negociado con los invasores. Aquello era alta traición y se pagaba con la vida.

Amsterdam, finales de 1945

Han van Meegeren se jugaba la cabeza con cada pincelada. Había conseguido esquivar la condena, pero solo a cambio de demostrar que era capaz de falsificar un Vermeer. Durante seis semanas tuvo lugar uno de los juicios más peculiares de la historia. El pintor no solo exigió su material, sino también tabaco, alcohol y morfina, alegando que le eran completamente necesarias para desatar su creatividad. Volvió a elegir un cuadro en el que Cristo era el gran protagonista: Jesús entre los doctores. Pese a que su técnica había empeorado, consiguió salvar el cuello. En aquella corte se pintó el último Vermeer (Imagen 7).

Imagen 7. Han van Meegeren pintando su última obra enfrente de un panel de expertos (1945). Fuente

Amsterdam, finales de 1947

Quien es capaz de crear un Vermeer puede crear cualquier historia. Van Meegeren esgrimió que sus obras solo tenían la finalidad de engañar a los nazis para salvar el patrimonio patrio. Había pasado de traidor a héroe. Una encuesta realizada ese mismo año le situaba como la persona más popular de su país, solo tras el primer ministro y por encima del propio principie, para cuya mujer había pintado aquel cervatillo cuando todavía era un pintor honesto.

En cualquier caso, el falsificador se enfrentaba ahora a cargos de fraude. En este juicio no sería necesario que cogiese de nuevo el pincel. Su modus operandi quedaría al descubierto gracias a pruebas más fiables: entraba en acción la evidencia científica. Y lo hacía de la mano de Paul Coremans, doctor en Química Analítica y responsable científico de Museos Reales de Bellas Artes de Bélgica. Gracias a meticulosos análisis químicos se confirmó la presencia de baquelita (polímero comercializado a partir de 1910), tal y como van Meegeren había confesado. Además, se hallaron rastros de Albertol, una resina sintetizada en 1910 que habían encontrado en el taller del falsificador, y azul cobalto, pigmento descubierto en 1802 y que, obviamente, Vermeer nunca pudo usar (Imagen 8). La suciedad escondida entre las craqueladuras, que tanto habían ayudado a engañar a los expertos, resultó no ser natural, sino tinta india con la que van Meegeren había dado un toque añejo a sus pinturas.

Frente al tribunal y la multitud que seguía el juicio, Coreman fue mostrando las evidencias una a una. El propio van Meegeren quedó impresionado – Un trabajo excelente, señoría- le confesó al juez. Sin duda, aquel 29 de octubre marcó un antes y un después en cuanto a la importancia de los estudios científicos en obras artísticas.

Imagen 8. Pruebas presentadas contra van Meegeren en la acusación de fraude. Fuente

Dos semanas después Van Meegeren fue condenado a un año a prisión, aunque jamás cumpliría dicha condena. El hombre que engañó a Göring falleció el 30 de diciembre. No sin antes haber visto consumada su venganza.

Han van Meegeren fue uno de los mejores falsificadores de todos los tiempos, el mejor si hacemos caso a la opinión del propio Coreman. Posiblemente su engaño no se hubiese descubierto hasta mucho después de no haberse visto envuelto en esta rocambolesca historia. Algo que nos lleva a pensar cuántos falsificadores habrá de los que no conozcamos ni el nombre. ¿No son esos realmente los mejores? Aquellos cuyas obras descansan en las paredes de museos y colecciones privadas sin que nadie se percate, a la espera de que algún estudio científico desvele su verdadero origen. Para reflexionar sobre este hecho acabemos con una sentencia que dejó durante su juicio el protagonista de nuestro relato:

Ayer esta pintura valía millones y expertos y amantes del arte hubiesen venido de cualquier parte del mundo para admirarla. Hoy no vale nada, y nadie cruzaría la calle ni para verla gratis. Pero la pintura no ha cambiado. ¿Qué es lo que ha cambiado?”

Epilogo

Tras la muerte de van Meegeren hubo quien se negó a creer su confesión y llegó a denunciar a Coreman por devaluar las obras de arte que seguían considerando auténticos Vermeers. En 1968, la revista Science publicaba un artículo en el que el estudio de radioisótopos de polonio y radio demostraba que obras como La cena de Emaús habían sido pintadas en el siglo XX (sirve este artículo también para hacer arqueología científica y ver que diferentes eran las publicaciones de aquella época). Desde entonces los métodos científicos han ido avanzando y se han realizado nuevos análisis (presencia de impurezas, análisis cromatográficos, etc.) que siguen descubriendo fallos en las falsificaciones de van Meegeren, dejando en evidencia que hoy sería casi imposible engañar a todo el mundo como él hizo.

Para saber más

R. C. Willams “The Forensic Historian: Using Science to Reexamine the Past” M.E. Sharpe (2013).

J. S. Held (1951) “Reviewed Works: Van Meegeren’s Faked Vermeers and de Hooghs: A Scientific Examination by P. B. Coremans, A. Hardy, C. M. Hutt; Back to the Truth: Vermeer–Van Meegeren, Two Genuine Vermeers by Jean Decoen, E. J. Labarre” College Art Journal, 10 (4) 432-436. DOI: 10.2307/772736

Essential Vermeer: Han van Meegeren’s Fake Vermeers

Essential Vermeer: Vermeer: Erroneous Attributions and Forgeries

B. Keisch (1968) “Dating Works of Art through Their Natural Radioactivity: Improvements and Applications” Science 160 (3826) 413-415 DOI: 10.1126/science.160.3826.413

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

El artículo El pintor que engañó a los nazis, pero no a la química. se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas14 La química del arte…pero bien
  2. Los cimientos de la química neumática al estilo van Helmont (y 3)
  3. Biringuccio, la química práctica y rentable del XVI
Catégories: Zientzia

Naukas Bilbao 2017- Daniel Torregrosa: ¡Estamos rodeados!

sam, 2017/12/09 - 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

Daniel Torregrosa nos advierte, por si no lo supiésemos, de que estamos rodeados de químicos. Y pone algunos ejemplos. Imposible permanecer impasible ante semejantes barbaridades.

Daniel Torregrosa: ¡Estamos rodeados!

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017- Daniel Torregrosa: ¡Estamos rodeados! se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017, en directo
  2. Naukas Pro 2017: Amaia Zurutuza y el grafeno
  3. Naukas Pro 2017: Carlos Briones y el origen de la vida
Catégories: Zientzia

La enseñanza multilingüe de las lenguas

ven, 2017/12/08 - 17:00

Una investigación llevada a cabo en el Departamento de Teoría e Historia de la Educación por la profesora Elizabet Arocena, dirigida por el investigador Ikerbasque Durk Gorter y la catedrática de la UPV/EHU Jasone Cenoz, ha concluido que existen bases pedagógicas para poder implantar y extender el enfoque multilingüe en la enseñanza de las lenguas en las aulas.

Según explica la profesora e investigadora Arocena, “los hablantes multilingües no aíslan las lenguas en sus mentes. Es decir, no son una suma de hablantes monolingües. Rebasan los límites interlingüísticos, y, por ejemplo, utilizan en su lengua más débil lo aprendido en sus otras lenguas”. Actualmente, muchos investigadores internacionales ponen en tela de juicio la tendencia a enseñar idiomas por separado y defienden otro enfoque más generalizado, un enfoque multilingüe; es decir, proponen dotarlos de herramientas que les ayuden a utilizar en otras lenguas lo aprendido en una de ellas.

El objetivo de la investigación de Arocena ha sido analizar hasta qué punto está extendido el enfoque multilingüe en los centros de enseñanza vascos y si existen en ellos bases pedagógicas para poder implantarlo y extenderlo. Para ello, la investigadora ha llevado a cabo entrevistas entre el profesorado de distintas lenguas y ha observado sus clases, con el objetivo de recabar sus opiniones y analizar sus modos de impartir clase. Por otra parte, para analizar las tendencias del alumnado, ha solicitado a los y las alumnas cumplimentar una encuesta de información general (edad, lengua materna, qué uso hacen de las lenguas, cuándo…); además, la investigadora ha analizado tres redacciones de cada estudiante.

La investigadora ha recopilado diversas opiniones y creencias del profesorado. Entre otras conclusiones, el profesorado destaca que para la enseñanza de las lenguas consideran al alumnado monolingüe, y que persiguen el objetivo de conseguir el mismo nivel que las personas monolingües en ese idioma, aunque saben que es muy difícil conseguirlo en las tres lenguas por igual. Asimismo, creen que en las clases no se debe hacer referencia a otras lenguas como ayuda en la enseñanza, que no se debe dar una alternancia de código en clase. Sin embargo, Arocena ha constatado que la utilización de otras lenguas en la enseñanza lingüística es más frecuente de lo esperado, sobre todo para explicar vocabulario y conceptos difíciles.

Por otra parte, de los textos redactados por el alumnado, la investigadora ha concluido que los estudiantes rompen con las barreras inducidas por el enfoque monolingüista, ya que utilizan en una lengua recursos que han aprendido para otra. De hecho, “hemos constatado que además de transferir léxico, el alumnado es capaz de transferir recursos de puntuación, organización textual y contenidos”, añade Arocena. En opinión de la investigadora, las características de las redacciones ponen de manifiesto que “es necesario considerar al hablante como multilingüe, debido a que no escribe de diferente manera en uno u otro idioma. A menudo no tenemos en cuenta todo ello, y es muy importante contemplar las herramientas que los alumnos utilizan como multilingües que son: ¿Si saben utilizar un recurso en una lengua, por qué no les enseñamos cómo transferirlo a sus otras lenguas? ¿Por qué no utilizamos dicha transferencia en el proceso de aprendizaje de otra lengua?”.

Referencia:

E. Arocena-Egaña et al (2015) Teachers’ beliefs in multilingual education in the Basque country and in Friesland Journal of Immersion and Content-Based Language Education doi: 10.1075/jicb.3.2.01aro

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo La enseñanza multilingüe de las lenguas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El oído absoluto y las lenguas tonales
  2. El aprendizaje del inglés es mejor si se usa para aprender otra cosa
  3. Los cuantificadores se aprenden en el mismo orden, sea cual sea la lengua
Catégories: Zientzia

Relojes astronómicos

ven, 2017/12/08 - 12:00

En una época en la que los dispositivos digitales nos permiten saber la hora con una precisión sin precedentes o en que las aplicaciones móviles pueden darnos datos astronómicos exactos, quizás no seamos capaces de entender en toda su amplitud el sentido de maravilla que suscitaba entre nuestros antepasados un artilugio capaz de dar esta información de antemano.

Durante muchos siglos, los relojes astronómicos fueron lo más parecido a los ordenadores actuales. No sólo permitían conocer la hora y la fecha del año, muchos de ellos daban además las horas de salida y puesta del Sol, las fases de la Luna o las posiciones de los planetas y las estrellas. Mediante engranajes cuidadosamente calculados y vinculados con los ritmos de los astros, estos mecanismos permitían reproducir ciclos astronómicos y determinar con antelación fenómenos tan complejos como los eclipses de Sol o de Luna.

Aunque hay quien considera al Mecanismo de Anticitera un precursor de estas calculadoras mecánicas, la edad dorada de los relojes astronómicos tiene lugar entre los siglos XIV y XVI. En esta época, las ciudades más prósperas comienzan a instalar estas prodigiosas maquinas. Si bien existen algunas variaciones importantes entre los distintos modelos, los relojes astronómicos se pueden clasificar en tres tipos principales.

Los primeros dos tipos se denominan “de astrolabio”, incluyen un círculo eclíptico giratorio y manecillas para indicar los movimientos del Sol y de la Luna, además de la hora. Este tipo de mecanismos permitía ofrecer todas las indicaciones propias de un astrolabio (Sol, Luna, estrellas brillantes, planetas). El primero de estos tipos engloba los relojes de astrolabio realizados en Lund, Doberan, Estrasburgo (reloj antiguo), Frankfurt y Praga, todos ellos anteriores a 1500.

Reloj astronómico de Lund (Suecia). Foto: © Paco Bellido

El segundo tipo de relojes de astrolabio engloba los realizados en Munster, Ulm, Lyon, Olomouc, Estrasburgo (reloj nuevo), posteriores al año 1500. La principal diferencia entre los dos tipos estriba en la proyección de la bóveda celeste utilizada, polo norte en el primer tipo y polo sur en el segundo.

Detalle del reloj astronómico de la Catedral de Estrasburgo. Foto: © Paco Bellido

El tercer tipo de reloj astronómico monumental tiene su origen en Italia, concretamente en el reloj construido en Padua por Jacopo Dondi. Este tipo de reloj consta de un cuadrante y varios círculos concéntricos que indican las horas, las 12 constelaciones zodiacales, la posición del Sol y de la Luna en el cielo y su fase correspondiente y, en el centro del reloj, el disco de la Tierra que porta las manecillas de las horas. En Italia se pueden ver relojes de este tipo en Venecia, Brescia y Cremona. También hay ejemplos en otros países, por ejemplo en Danzig (Polonia) y Rostock (Alemania) y en varias ciudades británicas: Hampton Court, Exeter, Ottery, Wells y Wimborne.

El reloj astronómico de Padua. Foto: © Paco Bellido

Los primeros relojes astronómicos representaban el sistema solar atendiendo al modelo geocéntrico. En el centro del dial se situaba un disco o esfera que representaba la Tierra, ubicada en el centro del Universo. El Sol, la luminaria mayor, solía aparecer representado por una esfera dorada que giraba alrededor de la Tierra. En este esquema la experiencia cotidiana iba de la mano de la visión cosmológica imperante en la Europa precopernicana.

El reloj astronómico del Torrazzo de Cremona. Foto: © Paco Bellido

Sobre la fachada sur del Ayuntamiento de la Ciudad Vieja de Praga se encuentra el más conocido de los relojes astronómicos. Está formado por tres componentes principales: un calendario perpetuo que indica el santo del día y la fecha; una esfera astronómica, que indica las posiciones del Sol y de la Luna en el cielo y, en la parte superior, el desfile de los apóstoles, una cabalgata mecánica que atrae a multitud de turistas cada hora.

La parte más antigua del reloj, el mecanismo y la esfera astronómica, datan de 1410 y son obra del relojero Mikuláš de Kadaň y del profesor Jan Šindel. Alrededor de 1490 se agregó el calendario perpetuo y se añadieron las esculturas góticas que decoran la fachada del reloj. En 1552 fue reparado por Jan Taborský y a partir de esta fecha funcionó intermitentemente.

Detalle del astrolabio del reloj astronómico de Praga. Foto: © Paco Bellido

El reloj astronómico reproduce la forma de un astrolabio mecánico. También se puede interpretar como un planetario primitivo que muestra el aspecto actual del universo.

Las catedrales y grandes templos son otro lugar habitual de estos ingeniosos mecanismos. Durante buena parte de la historia, las horas de la liturgia se determinaron mediante relojes de sol, clepsidras y relojes de arena, pero a finales del siglo XIII empiezan a aparecer relojes mecánicos en monasterios e iglesias que permiten calcular con exactitud la fecha de las fiestas religiosas móviles, en particular, la fecha de la Pascua. En ocasiones, como ocurre en Beauvais (Francia), el reloj encierra un mensaje espiritual de gran simbolismo religioso.

La ciudad alsaciana de Estrasburgo fue una de las primeras en disponer de un gran reloj monumental. La construcción del primer reloj de la catedral tuvo lugar entre 1352 y 1354. Algunas piezas del reloj original se pueden ver actualmente en un museo de la ciudad, pero la catedral cuenta con un nuevo reloj astronómico, el tercero que ha tenido. Una maravilla creada por el autodidacta Jean-Baptiste Schwilgué (1776-1856), quien dedicó su vida a la tarea de volver a poner en marcha el ingenio astronómico de la catedral.

Reloj astronómico de Estrasburgo. Foto: © Paco Bellido

Este reloj ha servido de inspiración a multitud de relojeros de todo el mundo. Por ejemplo, al danés Jens Olsen, uno de los fundadores de la Sociedad Astronómica Danesa, que en 1955 pudo cumplir su sueño de poner en marcha su reloj astronómico compuesto por 15.448 piezas individuales, aunque él no vivió para verlo. El reloj de Olsen se puede visitar en el Ayuntamiento de Copenhague y está considerado uno de los más precisos del mundo. La rueda dentada que se mueve más despacio da una vuelta cada 25.753 años.

El ingenio mecánico de Jens Olsen. Foto: © Paco Bellido

Algunos relojes astronómicos ofrecen una cantidad de información realmente asombrosa. La Torre Zimmer de Lier (Bélgica), por ejemplo, no solo indica con precisión la posición de los principales planetas, en su interior se encuentra el departamento de cálculos astronómicos donde encontramos toda una serie de diales que indican desde el período de Saros, hasta la ubicación de los cometas Encke y Halley, pasando por la posición de los radiantes de las principales lluvias de meteoros.

La Torre Zimmer de Lier (Bélgica) ideada en los años treinta del siglo pasado por Louis Zimmer. Foto: © Paco Bellido

Un buen número de estos relojes históricos están incluidos en la Lista del Patrimonio de la Humanidad de la UNESCO, no en vano son maravillas de la ingeniería mecánica y una muestra indiscutible del ingenio humano.

Este post ha sido realizado por Paco Bellido (@ElBesoenlaLuna) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Relojes astronómicos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Relojes y cronómetros (I): la conexión astronómica
  2. Relojes y cronómetros (III): el problema de la longitud
  3. Relojes de ADN
Catégories: Zientzia

El mecanismo de la vida, mejor vídeo de divulgación joven “On zientzia”

jeu, 2017/12/07 - 17:00

“El mecanismo de la vida” de Leonel Virosta Gutiérrez es el vídeo ganador del premio joven al mejor vídeo de divulgación de la 6ª edición de los premios On Zientzia. Leonel explica el funcionamiento de las células, como se forma un bebé, cómo infecta un virus y una cantidad increíble de cosas en tan solo 5 minutos.

¿Tienes una idea genial para explicar un concepto científico en un vídeo? ¿Quieres ver tu trabajo emitido en televisión? La Fundación Elhuyar y el Donostia International Physics Center (DIPC) han organizado la octava edición de On zientzia, un concurso de divulgación científica y tecnológica enmarcado en el programa Teknopolis, de ETB. Este certamen pretende impulsar la producción de vídeos cortos y originales que ayuden a popularizar el conocimiento científico.

On zientzia tendrá tres categorías. El mejor vídeo de divulgación recibirá un premio de 3.000 euros. Para impulsar la producción de piezas en euskera, existe un premio de 2.000 euros reservado a la mejor propuesta realizada en ese idioma. Por último, con el objetivo de impulsar la participación de los estudiantes de ESO y Bachillerato, hay un premio dotado con 1.000 euros para el mejor vídeo realizado por menores de 18 años.

Los vídeos han de tener una duración inferior a los 5 minutos, se pueden realizar en euskera, castellano o inglés y el tema es libre. Deben ser contenidos originales, no comerciales, que no se hayan emitido por televisión y que no hayan resultado premiados en otros concursos. El jurado valorará la capacidad divulgativa y el interés de los vídeos más que la excelencia técnica.

Las bases las encuentras aquí. Puedes participar desde ya hasta el 25 de abril de 2018.

Edición realizada por César Tomé López

El artículo El mecanismo de la vida, mejor vídeo de divulgación joven “On zientzia” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Fallos científicos en el cine, mejor vídeo de divulgación joven “On zientzia”
  2. Soy esa bacteria que vive en tu intestino, mejor vídeo de divulgación “On zientzia”
  3. Keats vs Feynman, mejor vídeo de divulgación “On zientzia”
Catégories: Zientzia

La tentación de la posesión

jeu, 2017/12/07 - 11:59

Por definición el conocimiento es compartido, ya que el saber que no se transmite es como si no existiera. Esto supone que la ciencia, como conocimiento del universo, es por necesidad de todos los humanos que quieren compartirla: no puede existir un trozo del saber que tenga dueño. Y sin embargo somos humanos y los científicos no son inmunes a la tentación de la posesión: la tendencia a apropiarse y hacer suyo un campo, un conocimiento o una técnica y a considerar un intruso o algo peor a quien pretende inmiscuirse y compartir. Con ser una querencia natural en la Humanidad cuando ocurre en ciencia trae malas consecuencias.

La cosa empieza simple, con el legítimo orgullo de haber encontrado una técnica potente, de haber realizado un importante avance en un campo muy especializado o de haber resuelto un problema especialmente enrevesado, pero pronto se convierte en una cuestión de propiedad: la técnica no puede retocarse, modificarse o aplicarse a otros problemas, el avance en la comprensión de un campo se puede extender a otros, la solución del enrevesado problema es la única solución posible de cualquier otro problema. Quien desea utilizar la técnica o la teoría es considerado un intruso, un advenedizo, alguien que en el fondo desea aprovecharse del trabajo ajeno; sólo el creador inicial se considera con derecho a explotar las consecuencias y derivaciones de sus avances. Así se crean escuelas cerradas de pensamiento compuestas por los discípulos del maestro original que funcionan como verdaderos clubes que tienen reservado el derecho de admisión.

Como consecuencia los avances se ralentizan, los conocimientos tienden a fosilizarse y las disciplinas o subdisciplinas empiezan a ser abandonadas por la gente más brillante, que no quiere quedar atrapada en un campo dominado por una única teoría o hipótesis defendida por una falange de discípulos celosos de cualquier recién llegado. El problema se complica aún más cuando el avance científico depende del acceso a piezas materiales concretas: especímenes particulares, fósiles o datos imposibles de replicar. Se conocen casos de fósiles humanos, por ejemplo, que han pasado años (o décadas) ocultos y sin que la profesión pudiese acceder a ellos porque el descubridor original estaba preparando una descripción inicial que jamás llegaba.

En según qué campos este tipo de ‘secuestro’ de evidencia física es imposible: todas las Arabidopsis thaliana o Drosophila melanogaster tienen los mismos genes, igual que todas las galaxias son analizables desde cualquier telescopio; por eso es mucho más difícil que un laboratorio, gran pope o escuela de seguidores se apropie de una ruta genética o de una teoría cosmológica, aunque tampoco se pueda considerar inimaginable. A veces una teoría, hipótesis o técnica puede ser para el científico que la crea casi como un hijo (intelectual) y generar el mismo tipo de reacciones de posesión y protección que crea un descendiente físico.

Porque no hay sensación más estimulante que comprender un pedacito del misterio que es el cosmos después de años de preguntas y un sinfín de ingeniosos y fallidos intentos de entenderlo; imagine dedicar décadas de su vida a resolver un intrincado rompecabezas sin tener la imagen de la caja y tras años de lento y doloroso avance descubrir la pieza que hace que todo tenga sentido, la clave que permite por fin contemplar el conjunto y entenderlo. Nuestro cableado interno responde ante esto con un subidón difícil de describir, tanto más intenso como que en realidad no hay ninguna garantía de que el esfuerzo y la dedicación vayan a dar resultado: cuando se compra un rompecabezas se sabe que es casi seguro que pueda resolverse, pero cuando se aborda un problema científico cabe la posibilidad de que nunca se alcance la solución. Cuando llega, si es que llega, es casi imposible transmitir la sensación a quien no se dedica a esto.

Y de ahí la tentación de la posesión, tan humana y por ello tan comprensible al mismo tiempo que tan problemática para el avance del conocimiento. Un riesgo real que sólo podría eliminarse si los científicos fuesen robots.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo La tentación de la posesión se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La ciencia y la duda
  2. Pena de muerte contra el fraude científico
  3. Ciencia, poder y comercio
Catégories: Zientzia

La presencia de sales podría hacer que exista una tectónica de placas en Europa

mer, 2017/12/06 - 17:00

La capa helada de la luna de Júpiter, Europa, podría tener placas tectónicas similares a las de la Tierra. La presencia de actividad tectónica de placas podría tener implicaciones importantes para la posibilidad de que exista vida en el océano bajo la superficie de la luna.

El nuevo estudio, realizado por un equipo de investigadores encabezado por Brandon Johnson, de la Universidad Brown (Estados Unidos), usa modelos computacionales para demostrar que la subducción, esto es, el que una placa tectónica se deslice debajo de otra y se hunda profundamente en el interior de un planeta, es físicamente posible en la capa de hielo de Europa. Estos resultados refuerzan estudios anteriores de la geología de superficie de Europa que encontraron regiones donde la capa de hielo de la luna parece expandirse de una manera similar a las dorsales oceánicas de la Tierra. La posibilidad de subducción es otra pista más en el misterio tectónico.

Un aspecto añadido a la posibilidad de subducción que hace de este fenómeno algo especialmente relevante en Europa es que la corteza superficial está enriquecida con oxidantes y otras fuentes de energía química aprovechables por algún tipo de vida. La subducción proporciona un medio para que estos compuestos químicos entren en contacto con el océano líquido que los científicos creen que existe bajo el hielo de Europa.

En la Tierra, la subducción se debe principalmente a las diferencias de temperatura entre una placa descendente y el manto circundante. El material de la corteza es mucho más frío que el material del manto, y por lo tanto más denso. Esa mayor densidad proporciona la flotabilidad negativa necesaria para hundir una placa profundamente en el manto. Aunque estudios geológicos previos ya habían apuntado a que algo como la subducción podría estar sucediendo en Europa, no estaba claro exactamente cómo funcionaría ese proceso en un mundo helado.

El problema es el siguiente: hay pruebas de que la corteza de hielo de Europa tiene dos capas: una fina capa exterior de hielo muy frío que se encuentra sobre una capa de hielo convectivo ligeramente más cálido. Si una placa de la capa de hielo exterior se hunde en el hielo más caliente, su temperatura aumenta rápidamente hasta igualar a la del hielo circundante. En ese momento, la placa tendría la misma densidad del hielo circundante y, por lo tanto, dejaría de descender.

Pero el modelo desarrollado por Johnson y sus colegas presenta una forma en la que la subducción podría ocurrir en Europa, independientemente de las diferencias de temperatura. El modelo señala que, aparte de las posibles diferencias en porosidad, si hubiera cantidades variables de sales en la capa de hielo de la superficie, esto podría proporcionar las diferencias de densidad necesarias para que una placa se subdujera. Las sales la harían más densa y permitirían que se hundiese, independientemente de la temperatura.

La cuestión entonces es, ¿existe algo que nos permita sospechar de que existan esas diferencias en contenido en sales en Europa? La respuesta es sí.

Como si fuera el magma del manto que llega a la superficie a través de un volcán terrestre, dejando todo el territorio con una capa de roca volcánica fértil, ocasionalmente el agua del océano interior de Europa llega a la superfice y dejaría un alto contenido de sal en la corteza, ya que se cree que es salado.

Además de aumentar la probabilidad de un océano habitable en Europa, este estudio también apunta a un nuevo lugar en el sistema solar en el que estudiar un proceso que jugó un papel crucial en la evolución de nuestro propio planeta, la tectónica de placas.

Referencia:

Brandon C. Johnson (2017) Porosity and salt content determine if subduction can occur in Europa’s ice shell Journal of Geophysical Research: Planets doi: 10.1002/2017JE005370

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo La presencia de sales podría hacer que exista una tectónica de placas en Europa se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. De la tectónica de placas
  2. Ciencia Express: la tectónica de placas
  3. En Groenlandia el hielo recupera el agua que pierde por sublimación
Catégories: Zientzia

La magia del teorema de Zeckendorf

mer, 2017/12/06 - 11:59

Hace unos años, en Blogdemaths, se presentaba un juego de cartas –de esos de adivinación que tanto desconciertan a la gente– que escondía una bella propiedad matemática. Vamos a explicar el juego.

Dispones de diez ‘cartas mágicas’ que puedes descargar en este enlace.

Las diez ‘cartas mágicas’.

Ahora puedes ‘lucirte’ delante de un amigo o amiga, siguiendo siguientes pasos:

  1. pide a tu colega que elija un número entre 1 y 100,

  2. muéstrale cada una de las diez cartas anteriores y pregúntale en cuáles de ellas figura el número elegido,

  3. y ‘por arte de magia’… ¡aciertas el número!

¿Cómo se ‘adivina’ el número? Imaginemos que tu colega ha elegido el número 32. Entre las diez cartas, estas tres son las que contienen el número 32:

Cartas que contienen el número 32.

Ahora basta con sumar los primeros números –los situados arriba y a la izquierda–. En este caso: 3+8+21, que suman ¡32!

Aunque hay que tener un poco de gracia para que el truco luzca –es decir, hay que aparentar que se tienen dotes mágicas–, en realidad todo depende de un teorema matemático, el que da nombre a esta entrada. Y, por supuesto, las cartas están preparadas para que esto suceda. La distribución de los números en estas cartas se basa en el teorema de Zeckendorf –que debe su nombre al matemático Édouard Zeckendorf (1901-1983)– y que afirma lo siguiente (ver la nota final):

Todo entero positivo se escribe, de manera única, como suma de números de Fibonacci no consecutivos. A esa escritura única se le llama la ‘descomposición de Zeckendorf’ del número en cuestión.

Recordar que los números de Fibonacci son los que aparecen en la sucesión de Fibonacci, que comienza con el 0 y el 1, y cada término se obtiene al sumar los dos anteriores (0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144,…).

¿Cómo se elaboran entonces las diez cartas? Los primeros números de cada una de ellas corresponden a los diez primeros números de la sucesión de Fibonacci –tras haber eliminado los dos primeros términos, el 0 y el 1–:

1, 2, 3, 5, 8, 13, 21, 34, 55 y 89.

Como dice el teorema de Zeckendorf, cualquier número menor que 100 puede escribirse como una suma de estos números –deben ser sólo estos diez, ya que el siguiente número en la sucesión de Fibonacci es el 144–, y de manera única.

Así, cada número entero entre 1 y 100 sólo aparece en una única combinación de cartas, precisamente las que definen la descomposición de Zeckendorf. Por ejemplo, el número 32 es el único número que aparece en las cartas que comienzan por 3, 8 y 21 (ya que 3+8+21=32).

¿Y el resto de los números? Tras haber anotado el primer número de cada carta –1, 2, 3, 5, 8, 13, 21, 34, 55 y 89–, para cualquier número menor que 100, encontramos su descomposición de Zeckendorf –es decir, su expresión como suma de números de Fibonacci no consecutivos, que es única, como ya se ha comentado–, y entonces lo incorporamos en las cartas correspondientes a esos números de Fibonacci.

¿Te apetece probar el truco?

Nota: La descomposición de Zeckendorf

Vamos a calcular la del número 100. Para ello se toma el mayor número de Fibonacci que es menor o igual que 100, que es el 89; se hace la diferencia 100–89=11. El mayor número de Fibonacci que es menor o igual que 11 es 8; se hace la diferencia 11–8=3, que ya es un número de Fibonacci, con lo que la descomposición de Zeckendorf de 100 es: 100=89+8+3.

Es cierto que hay otras descomposiciones de 100 como sumas de números de Fibonacci (por ejemplo, una de ellas es 100=55+34+8+2+1), pero solo la anterior consta de números de Fibonacci no consecutivos. La prueba de este teorema puede hacerse por recurrencia, tanto la existencia como la unicidad de la descomposición.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo La magia del teorema de Zeckendorf se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La magia de los números (el teorema de Moessner)
  2. El teorema de Marion (Walter)
  3. El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba
Catégories: Zientzia

Sistemas circulatorios: células sanguíneas

mar, 2017/12/05 - 17:00

Además de iones como Na+ o Cl–, gases disueltos como O2 y CO2, y moléculas orgánicas de diferentes tamaños como glucosa o lipoproteínas, en los fluidos de los sistemas circulatorios hay células. En vertebrados hay tres grandes familias: glóbulos rojos (o eritrocitos), glóbulos blancos (o leucocitos) y trombocitos. Y cada una de ellas cumple funciones diferentes.

Eritrocitos

Estas son, con diferencia las células más abundantes en la sangre. En un solo mililitro de la de pollo hay tres mil millones, siete mil millones en la de vaca o cerdo, diez mil millones en la de caballo, y trece mil millones en la de cabra. Contienen en su interior hemoglobina, una proteína que se combina con O2 y con CO2 con facilidad y a la que, por ser de color, llamamos pigmento; el color rojo se lo debe al átomo de hierro que contiene. En invertebrados, como veremos en otra ocasión, hay pigmentos diferentes de la hemoglobina, y en unos pocos grupos se encuentran en el interior de corpúsculos en la hemolinfa; su color no tiene por qué ser rojo, pues depende del metal que contiene.

La principal función de estas células es respiratoria: transportan O2 de los órganos respiratorio a los tejidos y CO2 en sentido contrario. En la mayor parte de los vertebrados tienen forma oblonga oval, y los más grandes son los de los reptiles. Los de mamíferos son planos y con forma de disco en el que la parte externa es más gruesa que el centro: parecen donuts sin agujero central. Probablemente esas características facilitan, al aumentar la relación superficie:volumen, la difusión hacia y desde el interior del glóbulo rojo.

Los eritrocitos tienen una membrana muy flexible, por lo que pueden penetrar en capilares cuyo diámetro es inferior al suyo propio. El diámetro de los eritrocitos de mamíferos es de 8 µm, mientras que el de algunos capilares es de 3 µm.

Los eritrocitos de aves tienen un núcleo inactivo y los de mamíferos carecen de núcleo. Quizás por esa razón su vida es muy breve: entre 100 y 110 días los de mamíferos domésticos, y alrededor de un mes los de loros y pollos. Los eritrocitos no funcionales son eliminados por macrófagos, principalmente en el bazo. Este órgano sirve también de almacén. Los caballos, por ejemplo, duplican la concentración de eritrocitos en la sangre cuando empiezan a correr al expulsar, mediante contracciones, los que tiene almacenados en el bazo. Y algo muy similar hacen los mamíferos marinos antes de sumergirse; en estos los eritrocitos cumplen funciones de almacén de oxígeno.

La reposición de los glóbulos rojos se produce, de manera permanente, a partir de tejidos llamados hemopoiéticos. En los peces óseos esa función la cumplen el riñón y el bazo. En mamíferos y aves se producen en la médula de determinados huesos mediante un proceso denominado eritropoiesis. Los seres humanos producimos entre dos y tres millones de glóbulos rojos por segundo. Los eritrocitos proceden de células troncales pluripotentes, cuyas divisiones y diferenciación dan lugar a estas células (y también a leucocitos y trombocitos). Su generación está regulada, de manera que su cantidad se mantiene bastante constante, y en ella participa la hormona eritropoietina. La eritropoiesis se ajusta en respuesta a la pérdida, por hemorragia, de glóbulos rojos, o al transitar a un medio hipóxico.

Leucocitos

Los leucocitos son las unidades móviles del sistema de defensa de los vertebrados. Los hay de diferentes tipos y el número o proporción en que se encuentran en la sangre depende del tipo de elemento patógeno al que han de hacer frente. Repasaremos a continuación las clases de leucocitos de los mamíferos, sin entrar en cuestiones propias del campo más específicamente inmunológico.

  • Los neutrófilos son células fagocitarias de gran movilidad que incorporan y destruyen materiales indeseados; se los comen, literalmente. A menudo tienen la capacidad de reconocer agentes invasores y destruirlos sin que medie ningún otro elemento.
  • Los eosinófilos secretan sustancias que destruyen gusanos parasitarios.
  • Los basófilos liberan histamina, que provoca inflamación, y heparina, un anticoagulante. Facilitan así la llegada de sangre a una zona infectada y, con la sangre, otros leucocitos.
  • Los monocitos se transforman en macrófagos, que son células fagocitarias de gran tamaño ligadas a tejidos. Una vez han fagocitado y digerido un invasor, despliegan fragmentos del invasor (antígenos) en su superficie, de manera que informa así a los linfocitos del ataque.
  • Los linfocitos T citotóxicos destruyen células invadidas por virus o células mutantes sin fagocitarlas; también hay linfocitos T colaboradores, cuya función consiste en activar otras células inmunitarias. Los linfocitos B se transforman en plasmocitos, células que producen anticuerpos e inmunoglobulinas, que son glucoproteínas que reconocen de manera unívoca un antígeno específico y se adhieren a él.
  • Las células asesinas naturales o linfocitos grandes son una clase especial de linfocitos que de forma espontánea y relativamente no específica lisan células infectadas con virus y células cancerosas.

Trombocitos

Los trombocitos son células que se encuentran en la sangre de todos los vertebrados excepto la de mamíferos. Circulan en estado inactivo y se activan cuando en un tejido próximo se produce una herida. En ese momento se empiezan a romper en fragmentos o plaquetas, que son las que intervienen para que la sangre se coagule y se cicatrice la herida producida. En los mamíferos las cosas son algo diferentes, pues las plaquetas no proceden de eritrocitos circulantes, sino de megacariocitos, que son células que se encuentran en la médula ósea.

Los megacariocitos proceden de las misma células troncales que dan lugar a leucocitos y eritrocitos. Son, como su prefijo indica, de gran tamaño: su radio es de unas 30 µm. De la superficie de los megacariocitos se desprenden unas vesículas que se hallan envueltas por membrana celular, y que contienen citoplasma y algunos orgánulos celulares pero carecen de núcleo. Son las plaquetas. Un megacariocito puede llegar a producir unas mil unidades. Al cabo de un periodo que no llega a dos semanas, son retiradas de la circulación por macrófagos y repuestas por nuevas plaquetas. Una hormona, denominada trombopoietina es la responsable de activar el desarrollo de nuevos megacariocitos y de que los ya existentes eleven la producción de nuevas plaquetas. Como ocurre con los eritrocitos, el bazo actúa como almacén, pues una tercera parte de las plaquetas existentes se encuentra en ese órgano. Se liberan a la circulación, en función de las necesidades, mediante contracciones del bazo que son estimuladas por el sistema nervioso simpático.

Las plaquetas se encuentran en estado inactivo en el sistema circulatorio y su activación se produce en respuesta a una hemorragia en un tejido próximo. Como se ha señalado, carecen de núcleo pero contienen orgánulos y sistemas enzimáticos para la síntesis de productos de secreción, que son almacenados en gránulos dispersos por el citosol. Contienen, además, actina y miosina en altas concentraciones, lo que les permite contraerse. Tanto la secreción de sustancias diversas, como la posibilidad de contraerse son funcionalidades importantes para conseguir la hemostasia que es la función que desempeñan estos fragmentos celulares.

En los animales cuyo fluido circulatorio es la hemolinfa también existen sistemas de células que realizan la función de los trombocitos y las plaquetas. En insectos, por ejemplo, las heridas en el exoesqueleto provocan la coagulación de la hemolinfa. Hay en esta un conjunto de células (en una concentración de unos cincuenta millones por mililitro), que son denominados de forma colectiva hemocitos. Los denominados hemocitos hialinos secretan filamentos de proteína cuando se produce una herida. Esos filamentos interactúan con otras proteínas disueltas en la hemolinfa y forman una placa insoluble en el lugar donde se ha producido la herida.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sistemas circulatorios: células sanguíneas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas circulatorios: proteínas plasmáticas
  2. Sistemas circulatorios: los compartimentos líquidos de los animales
  3. Sistemas respiratorios: el pulmón de los mamíferos
Catégories: Zientzia

El principio de relatividad (3): la invariancia de Galileo

mar, 2017/12/05 - 11:59

Experimento de física relativista galileana en Coria del Río (Sevilla, España)

Hemos visto que los experimentos mentales de Galileo con mariposas y pelotas de baloncesto en un barco nos permitían ver que para una persona en un marco de referencia, ya esté éste en reposo o en movimiento uniforme, no hay forma de determinar la velocidad de el marco de referencia en el que está haciendo experimentos mecánicos en ese marco de referencia. Todo lo que ocurre en el marco de referencia ocurre como si estuviese en reposo.

Pero, ¿cómo lo ve alguien fuera del marco de referencia? Supongamos que dejas caer una pelota en un marco móvil. Para ti, montado en el marco móvil, un barco que navega por un río tranquilo, por ejemplo, parece caer directamente al suelo. Pero, ¿cómo ve el movimiento de la pelota alguien que no se mueve contigo? ¿Cómo lo ve tu amiga que está en la orilla del río cuando pasa tu barco? Otra forma equivalente de realizar el experimento es que tu amiga esté quieta mientras tú caminas a velocidad uniforme botando la pelota. ¿Qué ves tú y qué ve ella?

El mismo hecho descrito por dos observadores en marcos de referencia en movimiento relativo uniforme. (a) Desde el marco de la persona que camina botando la pelota. (b) Desde el marco de la persona que la observa desde una posición estática.

Si nos fijamos, en ambos casos tu amiga notará que, desde su punto de vista, la pelota no cae y sube en línea recta. Por el contrario, la pelota sigue la trayectoria parabólica de un proyectil, con una velocidad uniforme en la dirección horizontal (la del barco o la tuya caminando), así como una aceleración uniforme en la dirección vertical.

Este experimento tan simple lleva al sorprendente resultado de que dos personas diferentes en dos marcos de referencia diferentes describen el mismo hecho de dos maneras diferentes. Mientras caminas o pasas navegando, estás en un marco de referencia con respecto al cual la pelota está en reposo antes de ser liberada. Cuando la sueltas, la ves cayendo en línea recta a tu lado y aterriza a tus pies. Pero la persona que te observa, en su propio marco de referencia, dirá que ve algo completamente diferente: una pelota que comienza contigo, no en reposo sino en movimiento uniforme, y al soltarla se mueve, no en línea recta, sino trazando una parábola hacia el suelo, impactando en el suelo a tus pies. Además, esto es exactamente lo que esperaría ver, ya que la bola comenzó moviéndose horizontalmente y luego debe trazar la trayectoria curva de un proyectil que cae por efecto de la gravedad.

Entonces, ¿quién tiene razón? ¿La bola cae directamente hacia abajo o sigue la trayectoria curva de un proyectil? La respuesta de Galileo fue: ambos tenéis razón. ¿Pero cómo puede ser eso? ¿Cómo puede haber dos observaciones diferentes y dos explicaciones diferentes para un mismo hecho físico, una pelota cayendo a los pies de alguien?

La respuesta es que observadores diferentes observan el mismo evento de manera diferente cuando están observando el evento desde diferentes marcos de referencia en movimiento relativo. La bola comienza estacionaria con respecto a un marco (el tuyo), mientras que, hasta su liberación, está en movimiento constante (uniforme) en relación con el otro marco de referencia (el de tu amiga). Ambos observadores ven que todo sucede como cabe esperar de las leyes de Newton aplicadas a su situación [1]. Pero lo que ven es diferente para cada observador. Dado que no existe un marco de referencia absoluto (ningún marco de referencia en velocidad uniforme es mejor o preferible a cualquier otro que se mueva con velocidad uniforme), no hay movimiento absoluto, y las observaciones hechas por ambos observadores son igualmente válidas.

Galileo se dio cuenta de que la persona que está en reposo con respecto a la pelota no puede determinar mediante ningún experimento mecánico que implique pelotas que caen, planos inclinados, etc., si está en reposo o en movimiento uniforme en relación con cualquier otra cosa, ya que todos estos experimentos ocurrirán como si simplemente estuviera en reposo. Una bola que cae desde una torre en la Tierra en movimiento golpeará la base de la torre como si la Tierra estuviera en reposo. Dado que nos movemos con la Tierra, siempre que se pueda considerar que la Tierra se mueve con velocidad uniforme [2], no hay ningún experimento mecánico que nos permita determinar si estamos o no realmente en reposo o en movimiento uniforme.

Notas:

[1] Las observaciones de los acontecimientos dependen de los marcos de referencia pero no así las leyes de la mecánica. Las leyes son las mismas (en otras palabras, son invarientes) en los marcos de referencia que están en movimiento uniforme relativo o en reposo. Todos los objetos que observamos que se mueven con respecto a nosotros siguen las mismas leyes de la mecánica. Por ello, de igual forma que esto se llama principio de relatividad de Galileo, podría llamarse principio de invariancia de Galileo.

[2] Descartamos por despreciable y a efectos del ejemplo el hecho de que durante el breve período de tiempo del experimento la Tierra en realidad gira, lo que es un cambio de dirección y, por tanto, un cambio en la velocidad o, lo que es lo mismo, una aceleración.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El principio de relatividad (3): la invariancia de Galileo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El principio de relatividad (2): la versión de Galileo
  2. El principio de relatividad (1): movimiento relativo
  3. La teoría de la invariancia
Catégories: Zientzia

Historias de la malaria: Paul Müller, el DDT y Rachel Carson

lun, 2017/12/04 - 17:00

Sin una parte razonable de suerte, casi ningún descubrimiento se conseguiría. Pero los resultados no se basan completamente en la suerte. El descubrimiento del DDT se hizo durante un trabajo laborioso y, ciertamente, a veces monótono; el verdadero científico es aquel que posee la capacidad de comprender, interpretar y evaluar el significado de lo que a primera vista puede parecer un descubrimiento sin importancia.”
Profesor G. Fischer, del Karolinska Institutet, Estocolmo, en la entrega del Premio Nobel a Paul Müller en 1948.

DDT (1955)

Se llamaba Othmar Zeidler, había nacido en Viena en 1850 y se graduó como químico, aunque dedicó casi toda su vida a regentar una farmacia. El segundo protagonista de esta historia es Paul Hermann Müller, de Olten, en Suiza, nacido en 1899, químico y Premio Nobel de Medicina y Fisiología en 1948. Y nuestra tercera protagonista es Rachel Carson, de Homestead, en Estados Unidos, nacida en 1907, bióloga, especialista en biología marina, interesada por el medio ambiente, escritora y divulgadora. Todos están unidos por una molécula cuyos beneficios y daños a la humanidad y al ambiente todavía, después de siglo y medio de la primera vez que se sintetizó, siguen en debate. Es el dicloro difenil tricloroetano, conocido en todo el planeta como DDT.

DDT

El primero de nuestros protagonistas tiene un papel corto pero esencial en esta historia. Othmar Zeidler estudió química y entró en el laboratorio de Adolf von Baeyer, en la Universidad de Estrasburgo, entonces en Alemania, y allí sintetizó el DDT en 1874, entre otros compuestos que incluyó en su tesis. El DDT quedó archivado y olvidado. Era, para ser exactos en su nomenclatura química, el 1,1,1-tricloro-2,2-bis(4-clorofenil)-etano, de fórmula (ClC6H4)2CH(CCl3). Es un compuesto soluble en grasas y disolventes orgánicos, casi insoluble en agua, y con 354 de peso molecular.

Zeidler volvió a Austria dos años más tarde, en 1876, y, como su padre, pasó a regentar una farmacia en Viena hasta su muerte en 1911.

Paul Hermann Müller

El segundo protagonista es Paul Hermann Müller, químico suizo que, en 1925, entró a trabajar en la planta de Basilea de la empresa de química y farmacia Geigy. Colaboró en la síntesis de colorantes para la industria textil y, en 1935, investigó y desarrolló protectores de plantas contra las bacterias. Entonces su empresa le asignó como objetivo conseguir productos con capacidad insecticida.

En aquellos años, los insecticidas o eran productos naturales escasos y caros o productos sintéticos poco efectivos. Algunos de los insecticidas más eficaces eran también tóxicos para las personas. Müller estableció como condiciones en su investigación, que luego detalló en su discurso de aceptación del Premio Nobel, que los productos resultantes fueran tóxicos y mataran, es obvio, el mayor número de insectos posible, por contacto y con rapidez, sin causar daños a las plantas o a las personas, no debían ser irritantes, con poco olor o inodoros y nunca con un olor desagradable. Además, debían ser estables y de bajo coste.

Como apuntan Walter Jarman y Karlheinz Ballschmiter, era signo de aquellos tiempos, hace varias décadas, que no se tuvieran en cuenta dos características que serían esenciales en la actualidad: degradación efectiva y no acumulación en el ambiente, y no acumulación en los organismos vivos.

Durante los estudios de Müller, antes y durante la Segunda Guerra Mundial, se produjo una escasez de alimentos en Suiza, en parte provocada por los daños que los insectos provocaban en los cultivos. Además, coincidió con una extensa y mortal epidemia de tifus en la Unión Soviética post revolucionaria. Ambos hechos empujaron a Geigy y, en concreto, a Müller a continuar la búsqueda de un insecticida sintético y eficaz.

Calliphora vomitoria

Müller comenzó a ensayar compuestos del archivo de la empresa y de otras fuentes y a medir su actividad insecticida. Los insectos que utilizaba para probar los compuestos eran moscas, de la especie Calliphora vomitoria, la conocida mosca de la carne. En septiembre de 1939, después de cuatro años y 349 compuestos ensayados, encontró uno que acababa en poco tiempo con sus moscas. Era el dicloro difenil tricloroetano, que pronto se haría popular como DDT.

Puso en una caja cerrada 100 moscas Calliphora y lo fumigó con DDT. Al principio, parecía que el compuesto no provocaba ningún efecto pero, después de una hora, todas las moscas habían muerto. Sacó Müller los cadáveres de la caja, la lavó con agua hirviendo y jabón, introdujo otras 100 moscas y, sin pulverizar más DDT, en una hora murieron todas. Era un producto con gran poder insecticida y, además, persistente.

Era el compuesto que había sintetizado Zeidler más de medio siglo antes y que había quedado olvidado. Probar su actividad como insecticida no había sido en absoluto el objetivo de la investigación del farmacéutico vienés. Pero sí lo era para Paul Müller.

Solo seis meses más tarde, Geigy patentó el DDT en Suiza en 1940, en Gran Bretaña en 1942, y en Estados Unidos y Australia en 1943. Fue en Gran Bretaña y en 1943 donde se empezó a utilizar y popularizar el nombre de DDT. Rápidamente sacó al mercado mezclas, con diferentes nombres comerciales, que contenían DDT en diferentes concentraciones.

El primer ensayo sistemático del DDT en agricultura se hizo en Suiza, en 1941, y contra el escarabajo de la patata. En 1943, en plena Segunda Guerra Mundial, Geigy mandó una muestra a Estados Unidos y el Departamento de Agricultura demostró la eficacia del DDT contra el escarabajo de la patata que era, en aquellos años, uno de los principales y más baratos alimentos. Más tarde se ensayó con el mismo éxito con piojos, pulgas y mosquitos. Se propuso la hipótesis de que enfermedades como la malaria, el tifus o la peste, transmitidas por insectos quizá, por fin, se podrían controlar.

Contra los insectos transmisores de enfermedades la primera campaña se hizo en Argelia, en 1943, contra el tifus. Italianos y alemanes, en Italia y en 1943, fueron los primeros en utilizar el DDT contra los mosquitos del género Anopheles transmisores de la malaria. Por la misma época, las tropas de Estados Unidos comenzaron a fumigar en la islas del Pacífico y otras zonas cercanas, con malaria endémica, para eliminar la malaria y ayudar en la guerra con Japón. Es curioso que entonces se sabía que el ejército de Estados Unidos utilizaba como insecticida un compuesto secreto muy eficaz. Ahora sabemos que era el DDT.

En las décadas entre los cincuenta y los setenta, el DDT ayudó a erradicar la malaria de muchos países, como ocurrió, por ejemplo, en España. Es el principal responsable de la eliminación de las especies de mosquito. del género Anopheles, vector del plasmodio de la malaria. La primera vez que se utilizó a gran escala el DDT contra el mosquito de la malaria fue en 1944, en Italia, contra el Anopheles labranchiae, transmisor de la malaria en las marismas del sur de la península. La campaña la hizo el ejército de Estados Unidos junto a la Fundación Rockefeller. Al sur de Roma abundan las marismas, de nuevo inundadas por el ejército alemán en retirada, y con la malaria como enfermedad endémica

La campaña comenzó en 1944 y 1945 en Castel Volturno, al norte de Nápoles, con gran éxito en la eliminación del mosquito y en la caída del número de enfermos. Un año más tarde, en 1945, se organizó una campaña similar cerca de Roma, en las marismas Pontinas. Terminó con un éxito parecido a la campaña de Nápoles, y el mosquito llegó a desaparecer de los alojamientos de las tropas. Fumigar los edificios era el método más eficaz y, además, justo después de la guerra había todavía minas y explosivos sobre el terreno y era peligroso fumigar a campo abierto.

El primer ensayo a gran escala lo organizó el ejército de Estados Unidos y la Fundación Rockefeller en la isla de Cerdeña entre 1946 y 1951. En 1946 los casos de malaria en la isla eran 75000 y en 1955 quedaban 9 pacientes de malaria.

A principios de los cincuenta, cuando el DDT empezaba su recorrido por el planeta, había 350 millones de enfermos y suponían 3.5 millones de muertes al año. En Europa, el insecticida consiguió eliminar la malaria en el Mediterráneo y, en concreto, además de en España, Italia, Grecia, Israel y Turquía. Por ejemplo, en Sri Lanka, los casos de malaria pasaron de 2800000 en 1948 a 17 en 1963, y para 1968, después de prohibir el DDT, ya había, de nuevo, un millón de enfermos. En la India bajaron de 100 millones a 300000 entre 1935 y 1969. Y en Bangladesh desapareció la enfermedad.

Era el resultado de la aplicación masiva de DDT, lo que entonces se empezó a llamar la dedetización. Para 1965, la malaria había sido erradicada de países que, en conjunto, sumaban 600 millones de habitantes.

Rachel Carson

Sin embargo, pronto se empezó a sospechar que el DDT había perdido parte de su eficacia por la aparición de resistencias en insectos y, en concreto, en los mosquitos Anopheles trasmisores de la malaria. La primera publicación con un caso de resistencia de un Anopheles al DDT llegó de Grecia. Fue en 1953 aunque Rachel Carson, en su libro Primavera silenciosa menciona que las moscas del Valle Tennessee, en Estados Unidos, ya eran resistentes en 1948. En Grecia, se había detectado la resistencia al insecticida en 1951 en algunas zonas de fumigación en el Peloponeso.

Otro aviso sobre esa resistencia de los mosquitos apareció en 1958 y llegó desde Bombay, en la India, y trataba de la especie Anopheles culicifacies. Esta especie, para 2007, era resistente en 286 distritos de la India.

Para 1987, 57 especies del género Anopheles de 62 países eran resistentes a uno o a varios insecticidas. Volvió a crecer el número de enfermos junto con la resistencia de los mosquitos y la prohibición de su uso en muchos países. En la India había 100000 enfermos en 1965, 2.4 millones en 1974, y entre 50 y 70 millones en 1977. Ese año y en todo el planeta se calculó que había 150 millones de enfermos. De nuevo, la carga que suponía la malaria era uno de los mayores frenos para el crecimiento económico de los países en desarrollo. Además, la prohibición del DDT provocó, en pocos años, la muerte de 50 millones de personas.

Por su contribución al control de varias enfermedades transmitidas por insectos a través del hallazgo del DDT, Paul Müller recibió el Premio Nobel de Medicina y Fisiología en 1948. El texto de la concesión del premio decía que era por “su descubrimiento de la gran eficacia del DDT como veneno de contacto contra los artrópodos” y por “el uso del DDT en la evacuación de campos de concentración, de prisioneros y deportados. Sin ninguna duda… ha salvado la vida y la salud de miles de personas.”

La tercera protagonista de nuestra historia es la bióloga marina Rachel Carson. Trabajó para el Departamento de Pesca del Gobierno de Estados Unidos, a menudo para escribir textos y divulgar aspectos de la vida marina y, en concreto, de las pesquerías. En 1958 se mudó a Maryland por asuntos familiares y allí conoció el uso y los efectos del DDT por su uso en la agricultura. Se utilizaba fumigándolo con avionetas y en cantidades muy grandes, sin ningún control. Aquellos que les guste el cine recordarán la tantas veces repetida escena del ataque de la avioneta fumigadora a Cary Grant en la película de Alfred Hitchcock Con la muerte en los talones, de 1959, uno de los años con más uso del DDT. Podemos pensar que algo así experimentó Rachel Carson en los campos de Maryland.

Comenzó a reunir datos sobre el DDT y sus efectos y a escribir su libro más conocido e influyente, Primavera silenciosa, publicado en 1962. Rastreó el camino del DDT por la cadena alimenticia y demostró que, a medida que se acumulaba, exterminaba o alteraba la genética de muchas especies.

El DDT se convirtió en un símbolo de las interferencias de la especie humana con la naturaleza. Rachel Carson, con su libro, contribuyó a unir esfuerzos y objetivos a favor del ambiente y se le reconoce que ayudó a formar el movimiento ecologista. Para Rachel Carson, la naturaleza no nos pertenece pues nuestra especie es parte de ella aunque, sin duda, la modificamos a nuestra conveniencia.

Fue, por tanto, Rachel Carson, la que comenzó a reunir evidencias de los peligros del DDT aunque nunca propuso eliminar su uso sino, más bien, gestionarlo con precaución y más control que hasta aquellos años. También dio a conocer en su libro la posibilidad, ya con los primeros resultados, de utilizar el control biológico. Así comenzó la polémica, con estudios que demostraban los daños que provocaba y otros estudios no los encontraban. Además, fuertes intereses económicos y grupos de presión intentaban influir en el veredicto definitivo de las autoridades gubernamentales, en concreto, de la Agencia de Protección Ambiental (EPA) de Estados Unidos. Como hipótesis curiosa aparece que, detrás de los estudios que demostraban los peligros del DDT, estaban las empresas fabricantes de insecticidas que intentaban su prohibición para introducir sus propios productos, más caros y cuyas patentes controlaban.

Algunos expertos afirman que el DDT, a corto plazo y en envenenamientos con grandes dosis, puede dañar el sistema nervioso periférico y el hígado y, a largo plazo y con dosis menores, no hay datos que demuestren peligros para la especie humana aunque es carcinógeno para el hígado en ratones.

En el ambiente, el DDT provoca fallos en la reproducción y el desarrollo y la muerte en muchas especies de aves y después de fumigaciones masivas. Además, son sensibles al DDT el fitoplancton marino, los peces y los moluscos bivalvos. Es muy persistente y se transporta a grandes distancias en la atmósfera y, por ello, se encuentra, por ejemplo, en el Ártico.

No hay que olvidar, como hizo notar Paul Müller en su discurso de aceptación del Premio Nobel, que la acción del DDT en el envenenamiento de insectos está lejos de ser explicada con precisión. Sin embargo, era fácil sospechar que, si provocaba tanto daño en los insectos, se podía deducir que podían provocar parecidos daños al resto de seres vivos.

En Estados Unidos, después de grandes presiones de expertos y de ciudadanos en general, después del éxito del libro de Rachel Carson, en 1969 se prohibió el uso del DDT en el control de plagas agrícolas y para 1972 se prohibió su uso al aire libre. En muchos países ni siquiera se prohibió pero no se podía utilizar pues los países ricos y las instituciones no daban fondos a muchos proyectos de erradicación de la malaria simplemente porque utilizaban DDT. Daba mala imagen al donador de los fondos.

Era el DDT el protagonista de una historia que, entre 1945 y 1972, pasó de héroe a villano. Ilustra el cambio en los valores, en la ciencia y en la política y la sociedad, con la llegada del ecologismo, del cuidado del ambiente en el que la especie humana vive, del que forma parte y en el que influye y cambia.

Fue en mayo de 2001 cuando se firmó la Convención de Estocolmo sobre Contaminantes Orgánicos Persistentes que prohibía el uso de nueve grupos de productos químicos, sobre todo los organoclorados y, entre ellos, el DDT. Pero, unos años más tarde, el 15 de septiembre de 2006, la Organización Mundial de la Salud anunció que el DDT se podía usar de nuevo para erradicar la malaria con fumigaciones exclusivamente en el interior de las viviendas, método muy efectivo contra los mosquitos y no peligroso para el ambiente. Para muchos expertos es muy útil en la lucha contra esta enfermedad pues ahuyenta a los mosquitos antes de que piquen e impide su entrada en las viviendas. Además, dura dos veces más que otros insecticidas y es cuatro veces más barato. En situaciones concretas de salud pública, el DDT sigue siendo la elección más eficaz, sobre todo en África y en otras regiones tropicales con malaria endémica.

Como escribe George Davidson, de la Escuela de Higiene y Medicina Tropical de Londres, no es fácil decidir sobre el uso o la prohibición del DDT, un insecticida del que no hay evidencias claras de que haya matado a nadie y, sin embargo, hay muchas pruebas de que ha salvado miles de vidas. Según la ficha del DDT del Instituto Nacional de Seguridad e Higiene en el Trabajo, es “posiblemente carcinógeno para los seres humanos” y “la experimentación animal muestra que esta sustancia posiblemente cause efectos tóxicos en la reproducción humana”. Sobre su acción en el ambiente, la ficha dice que “la sustancia es muy tóxica para los organismos acuáticos. Esta sustancia puede ser peligrosa para el ambiente; debería prestarse atención especial a las aves. En la cadena alimentaria referida a los seres humanos tiene lugar bioacumulación, concretamente en la leche y organismos acuáticos. Se aconseja firmemente impedir que el producto químico se incorpore al ambiente”. Me vale como diagnóstico final.

Referencias:

Angulo, E. 2014. El caso de Rachel Carson. Cuaderno de Cultura Científica. 14 abril.

Bouwman, H. et al. DDT: fifty years since Silent Spring. European Environmental Agency. P: 240-259.

Brown, P.J. 1997. Malaria, miseria, and underpopulation in Sardinia: The “Malaria Blocks Development” cultural model. Medical Anthropology 17: 239-254.

Dash, A. et al. 2007. The biology and control of malaria vectors in India. Current Science 92: 1571-1578.

Dash, A.P. et al. 2007. Resurrection of DDT: A critical appraisal. Journal of Medical Research 126: 1-3.

Davidson, G. 1982. Who doesn’t want to eradicate malaria. New Scientist 96: 731-736.

Earle, D.P. 1979. A history of malaria and its ironies. Transactions of the American Clinical and Climatological Association 90: 1-26.

Edwards, J.G. 2004. DDT: A case study in scientific fraud. Journal of American Physicians and Surgeons 9: 83-88.

Franco, S. 1985. La apoteosis del DDT y el problema de la erradicación del paludismo en América latina. Nueva Antropología 7, 28: 129-152.

Hayes, W.J. 1955. Present status of our knowledge of DDT intoxication. American Journal of Public Health 45: 478-485.

Jarman, W.H. & K. Ballschmiter. 2012. From coal to DDT: the history of the development of the pesticide DDT from synthetic dyes till Silent Spring. Endeavour 36: 131-142.

Müller, P.H. 1948 (1964). Nobel Lectures in Physiology or Medicine 1942-1962. Nobel Foundation-Elsevier. Amsterdam. P. 221-239.

Panosian, C. 2006. Prevención y tratamiento de la malaria. Investigación y Ciencia febrero: 6-13.

Perkins, J.H. 1978. Reshaping technology in wartime: The effct of military goals in entomological research and insecto-control practices. Technology and Culture 19: 169-186.

Russell, E.P., II. 1999. The strange career of DDT. Experts, federal capacity, and environmentalism in World War II. Technology and Culture 40: 770-796.

Shah, S. 2010. The fever. How malaria has ruled humankind for 500000 years. Picador. New York. 309 pp.

Sharma, V.P. 2003. DDT: The fallen angel. Current Science 85: 1532-1537.

Shore, B. 2010. The imaginations of unreasonable men: inspiration, visión, and purpose in the quest to end malaria. Public Affairs. New York. 392 pp.

Snowden, F.M. 2006. The conquest of malaria: Italy, 1900-1962. Yale University Press. New Haven & London. 296 pp.

Stapleton, D.H. 2009. Historical perspectives on malaria: The Rockefeller Antimalaria Strategy in the 20th century. Mount Sinai Journal of Medicine 76: 468-473.

Tren, R. & R. Bate. 2001. Malaria and DDT story. The Institute of EConomic Affairs. London. 107 pp.

Wadhwa, V. et al. The history and progression of Malaria: A global and regional view. Advances in Asian Human-Environmental research DOI: 10.1007/978-90-481-3358-1_1

Wikipedia. 2017. Paul Hermann Müller. 14 June.

Yang, J. et al. 2017. Abuse of Rachel Carson and misuse of DDT science in the service of environmental deregulation. Angewandte Chemie International Edition 56: 10026-10032.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Historias de la malaria: Paul Müller, el DDT y Rachel Carson se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Historias de la malaria: El mosquito
  2. Historias de la malaria: El charlatán y caballero Sir Robert Talbor
  3. Historias de la malaria: Charles Louis Alphonse Laveran y el protozoo
Catégories: Zientzia

Adiós al yeti: las desventuras y tribulaciones de un criptozoólogo

lun, 2017/12/04 - 11:59

Así imaginó Disney al Yeti (Fotograma de Monstruos S.A.)

Por si no se habían enterado, recientemente nos hemos quedado sin Yeti. Ocurrió la semana pasada cuando investigadores de la Universidad de Búfalo publicaron un estudio en el que habían analizado el ADN de muestras del supuesto Yeti dispersas por todo el mundo en museos y colecciones privadas: pelos, piel, dientes, huesos y hasta restos de excrementos recogidos en el Himalaya y el Tibet y que durante décadas se ha creído que pertenecían a la misteriosa criatura, un animal sin terminar de identificar, quizá medio hombre medio oso…

Bien, pues resulta que no es medio nada. Es un oso. U ocho osos diferentes, vaya. Pero ese es el animal al que pertenecen esas muestras. Todas excepto una, que resultó ser de un perro.

Supuesto cuero cabelludo de un yeti, en el monasterio Khumjung, en Nepal (Wikipedia)

Nuestro gozo en un pozo porque a la vez que nuestro lado racional nos dice que las probabilidades de que realmente existiese el Yeti tal y cómo lo describen las leyendas locales tibetanas y como ha pasado al imaginario global eran realmente pequeñas, esa parte de nosotros que se queda fascinada con los cuentos de criaturas imposibles y las películas de monstruos sufre una pequeña decepción cada vez que un científico, con su método empírico y sus evidencias, decide poner fin a una de esas pequeñas parcelas de misterio que aún nos quedan por resolver.

La pseudociencia de la criptozoología

Adiós al Yeti, pues, decíamos, que se suma a la cola de misterios resueltos para chasco de muchos. Y ya van quedando menos en la lista de los no resueltos, aunque alguno hay. Y aunque pocos han oído hablar de ella, son el material de estudio de su propia disciplina científica. O, más bien, pseudocientífica. Es la criptozoología.

La criptozoología se postula como el estudio científico de los animales y criaturas de cuya existencia no existen pruebas científicas, lo cual ya es un poco contradictorio. El Yeti, el monstruo del lago Ness, el chupacabras, los vampiros, el kraken, el leviatán o las sirenas son algunos de sus sujetos de estudio más conocidos.

Monstruo del lago Ness de Heikenwaelder Hugo (Wikipedia)

Los autodenominados criptozoólogos tratan de determinar y defienden la existencia de estos seres muchas veces conjeturados a partir de restos fósiles de animales extintos y otras veces a partir de leyendas, el folclore y la cultura local de distintas regiones del mundo. Aunque en general han recibido poca atención de la comunidad científica y se considera más bien un fenómeno cultural similar al fenómeno ovni, ellos defienden sus investigaciones y actividades basándose en algunos descubrimientos sorprendentes que ha hecho la zoología en los últimos siglos, como el calamar gigante (que habría dado pie a la leyenda del kraken) o el celacanto (un pez que se creía extinto desde hacía miles de años y que se descubrió vivo 1998).

Algunas obras fundacionales dieron luz a esta pseudodisciplina. En 1892, Andhonid Cornelis Oudemans publicaba La gran serpiente marina, que tuvo una gran. Entre 1941 y 1948, Willy Ley, escrito y científico, publicó The Lungfish, the Dodo and the Unicorn, que fue traducido a muchos idiomas, incluido al español varios años después.

Portada de ‘The Lungfish, the Dodo and the Unicorn’

Pero se considera a Bernard Heuvelmans, zoólogo, el creador del término criptozoología, y también de su descripción: “el estudio de los animales sobre cuya existencia solo poseemos evidencia circunstancial y testimonial, o bien evidencia material considerada insuficiente por la mayoría”. En 1955 publicó Tras la pista de animales desconocidos, considerado por muchos como la base de esta disciplina.

Según el autor, la criptozoología es una disciplina que debe ser ejercida con rigor científico, pero a su vez debe ser vista con una actitud abierta e interdisciplinaria, saliéndose del encorsetado método científico, digamos, tradicional. Además, es importante prestar atención y dedicar tiempo a estudiar las tradiciones y creencias populares, ya que, aunque suelen estar mezcladas con elementos fantásticos, pueden contener parte de verdad que ayude a guiar la investigación sobre estos animales aun desconocidos.

Para defender estos principios y proseguir estas investigaciones existen en el mundo numerosas asociaciones de criptozoólogos. La más conocida es la International Society of Cryptozoology, que estuvo en marcha hasta 2005, cuando desapareció por motivos económicos. El símbolo de la ISC era un okapi, un animal conocido por los pigmeos pero ignorado por los científicos hasta su descubrimiento oficial en 1901.

Símbolo de la International Society of Cryptozoology.

Por qué la criptozoología no puede ser una ciencia

A pesar de sus aspiraciones científicas, la criptozoología choca frontalmente con los principios científicos básicos continuamente. Un ejemplo es su negativa a aceptar que una hipótesis debe ser descartada cuando no se cumplan sus predicciones, porque los criptozoólogos parecen inasequibles al desaliento.

Numerosas pruebas en los últimos años han descartado, entre otros, la existencia de Nessie, el monstruo del lago Ness: imágenes por satélite, escáneres del fondo del lago… Igual que ahora con el Yeti y como ha ocurrido antes con otras , todas las supuestas pruebas de su existencia han sido rebatidas, pero esos resultados han sido ignorados y esas criaturas siguen en la lista de animales a descubrir.

Esta imagen captada por satélite es considerada por los criptozoólogos una prueba de la existencia del monstruo del lago Ness. Pruebas posteriores demostraron que un barco generaba esas estelas sobre el agua.

Otra contradicción con la que chocan a menudo los criptozoólogos tiene que ver con los principios básicos de la biología y la genética: que la existencia indefinida de un solo individuo es naturalmente imposible, y que hace falta una población mínima de ejemplares para que existan posibilidades de reproducción viable dentro de una especie. Eso quiere decir que, de existir Nessie o el Yeti, no existiría solo uno, sino unos cuantos, lo cual aumentaría lógicamente las probabilidades de un avistamiento fiable y con ello del descubrimiento oficial que reconociese científicamente su existencia. Y eso, hasta ahora, no ha ocurrido.

Por último, hay que reconocer que los criptozoólogos juegan en cierta desventaja. A menudo se señala como prueba en contra de su especialidad que la criptozoología nunca ha descubierto ni un solo ejemplar de las criaturas que estudia, mientras que los zoólogos descubren decenas de nuevas especies cada año.

Según estos estudiosos, se trata de una afirmación ignorante o hecha con mala fe. Después de todo, argumentan, la criptozoología es la única disciplina cuyos éxitos, en vez de aumentar su campo de estudio, lo disminuyen: si una criatura es descubierta y estudiada, saldrá de la criptozoología para entrar en la zoología.

No es el caso con el último estudio sobre el yeti, ya que no estamos hablando del descubrimiento de una nueva especie, pero existen otros ejemplos, como el del calamar gigante, que los criptozoólogos identifican con el kraken de las leyendas marinas.

Por todos estos motivos, la criptozoología es considerada por la mayoría una disciplina pseudocientífica. Como dirían aquellos que no deben ser nombrados: que estudien lo que quieran, pero que no lo llamen ciencia.

Referencia:

Lindqvist, Charlotte; Lan, Tianying; Gill, Stephanie; Bellemain, Eva; Bischof, Richard; Ali Nawaz, Muhammad (29 de Noviembre 2017). «Evolutionary history of enigmatic bears in the Tibetan Plateau–Himalaya region and the identity of the yeti». Proceedings of The Royal Society B. doi:10.1098/rspb.2017.1804.

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Adiós al yeti: las desventuras y tribulaciones de un criptozoólogo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Adiós a las microesferas de plástico en los cosméticos
  2. La menopausia… ¿para qué sirve? Seguimos sin respuesta
  3. Antes de que el león se hiciese con el trono de rey de la selva
Catégories: Zientzia

Pages