Sistemas circulatorios: proteínas plasmáticas
El plasma sanguíneo contiene numerosas sustancias, aunque el agua representa más del 90% de su masa. En mamíferos a las proteínas plasmáticas corresponde entre un 6% y un 8%, mientras que las sustancias inorgánicas (Na+ y Cl–, principalmente) no son más del 1%. El resto corresponde a nutrientes (glucosa, aminoácidos, lípidos y vitaminas), restos nitrogenados, gases (O2 y CO2) y hormonas.
Las proteínas plasmáticas se encuentran en suspensión (o disolución) coloidal en el plasma y, dado que la mayor parte no pueden atravesar membranas o filtros biológicos (son demasiado grandes como para pasar por los poros de las paredes capilares), permanecen en el plasma sin acceder al líquido intersticial, en los animales con sistema circulatorio cerrado, ni a las células, en los de sistema abierto. Ejercen por ello una presión osmótica distinta de la que ejercen las sustancias disueltas de menor tamaño. Se denomina presión coloidosmótica y es responsable de que no se produzca excesiva transferencia de agua de la sangre al líquido intersticial. Además del efecto coloidosmótico, las proteínas plasmáticas amortiguan los cambios de pH de la sangre.
Aparte de los vertebrados, el grupo cuyas proteínas plasmáticas (en este caso de la hemolinfa) mejor se conocen es el de los artrópodos. De especial importancia es una familia implicada en la formación del exoesqueleto que, como es sabido, se renueva repetidas veces para permitir el aumento de tamaño. La construcción del caparazón nuevo conlleva la polimerización de fenoles por fenoloxidasas (PO), proceso en el que participan dos clases de proteínas: (1) hexamerinas, que transportan fenoles a las células epiteliales que producen el exoesqueleto, y (2) formas inactivas de las POs (ProPO), que se activan tras la muda y cuando se necesita reparar tejido dañado. Las ProPOs están también implicadas en las respuestas inmunes de los artrópodos.
En la sangre de los vertebrados hay tres clases principales de proteínas: albúminas, globulinas y fibrinógeno. En el cuerpo humano las albúminas representan el 55% y contribuyen por ello de forma importante a la presión coloidosmótica del plasma. Aparte del papel osmótico su principal función es la de transportar, combinándose con ellas, sustancias insolubles en agua, como bilirrubina, sales biliares y ácidos grasos. Las globulinas representan el 38% y se encuentran en tres posibles formas: alfa (α), beta (β) y gamma (γ). Cumplen funciones de (1) transporte; α-globulinas y β-globulinas específicas transportan sustancias tales como la hormona tiroidea, el colesterol o el hierro (esta última se llama transferrina y es la más abundante); (2) coagulación (α-globulinas y β-globulinas); (3) reguladoras: son α-globulinas ciertas proteínas que se encuentran inactivas y que son precursoras de, por ejemplo, hormonas; son activadas por señales específicas en función de su necesidad; (4) inmunitarias: las inmunoglobulinas (anticuerpos) son γ-globulinas.
Dada su naturaleza hidrofóbica, el transporte de sustancias lipídicas en la sangre se produce mediante la formación de complejos lipoproteínicos. La mayor parte de los triglicéridos, el colesterol y los fosfolípidos se encuentran en el plasma en forma de gotitas unidas a transportadores proteicos, formando complejos de lipoproteínas que son solubles. Los cuatro tipos de lipoproteínas son: (1) de alta densidad (HDLs), con alto contenido proteico, menor de fosfolípidos y menor aún de colesterol; (2) de baja densidad (LDLs), con menor contenido de proteína, algo de fosfolípidos y más de colesterol; (3) muy baja densidad (VLDLs), con muy bajo contenido de proteína y alto de lípido, triglicéridos en este caso; y (4) quilomicrones, que son producidos por las células absortivas del intestino y que transportan triglicéridos, colesterol y fosfolípidos tras una comida.
El colesterol que se transporta mediante lipoproteínas de baja densidad (LDL) es el conocido popularmente como “colesterol malo”, porque la función de esas lipoproteínas es la de transportar el colesterol a las células y, por lo tanto, también lo transporta a las que tapizan el interior de los vasos sanguíneos, razón por la cual contribuye a que se acumule en esos enclaves. Es por ello causa importante de patologías cardiovasculares. A diferencia del LDL, el “colesterol bueno” es retirado de las células por lipoproteínas de alta densidad para transportarlo al hígado y metabolizarlo allí. De ahí el diferente significado de una y otra forma de lipoproteínas.
Además de las reseñadas hasta ahora, hay animales en cuyas cavidades internas el fluido correspondiente (líquido celómico, hemolinfa o sangre) contiene proteínas con funciones respiratorias. Se trata de pigmentos respiratorios que no se encuentran en el interior de células especializadas, sino que desempeñan sus funciones manteniéndose en suspensión coloidal. Nos referiremos a estas proteínas en una próxima anotación dedicada a específicamente a los pigmentos respiratorios.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas circulatorios: proteínas plasmáticas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El principio de relatividad (2): la versión de Galileo
Einstein no fue el primero en hablar de marcos de referencia y movimiento relativo. Casi 300 años antes ya lo había hecho Galileo, quien también sería pionero en el uso de experimentos mentales, un procedimiento que después Einstein haría famoso. El principio de relatividad de Einstein no es más que una expansión del de Galileo. Si estudiamos éste, que es muy intuitivo, el otro nos parecerá poco menos que trivial.
Galileo lo explicó con estas palabras (en traducción libre nuestra) en un experimento mental que recogió en su obra “Dialogo sopra i due massimi sistemi del mondo Tolemaico, e Coperniciano” de 1632:
Enciérrate con un amigo en la cabina principal bajo cubierta de algún barco grande, y lleva contigo algunas moscas, mariposas y otros animalillos voladores. Lleva también un recipiente grande de agua con unos peces; cuelga una botella que se vacíe gota a gota en un recipiente ancho puesto debajo. Con la nave en reposo, observa cuidadosamente cómo los animalillos vuelan con la misma velocidad a todos los lados de la cabina. Los peces nadan indiferentemente en todas direcciones; las gotas caen en el recipiente que está debajo; y, al arrojar algo a tu amigo, no necesitas lanzarlo con mayor fuerza en una dirección que en otra, si las distancias son iguales; al saltar con los pies juntos, avanzas espacios iguales en todas direcciones. Cuando hayas observado todas estas cosas con cuidado (aunque no hay duda de que cuando la nave está parada, todo debe suceder de esta manera), haz que la nave avance con la velocidad que desees, siempre que el movimiento sea uniforme y no fluctúe de una u otra manera. Descubrirás que no hay el menor cambio en todos los efectos nombrados, ni podrás decir a partir de de ninguno de ellos si se estás en [un barco en] movimiento o parado.
Hoy podemos realizar el mismo experimento con mariposas o pelotas de baloncesto en un barco, en un automóvil, un tren o, mejor aún, en un avión que se mevan a velocidad constante. Hemos visto que cada uno de estos sistemas sería un marco de referencia para nuestras observaciones. El hecho de que los movimientos de las pelotas de baloncestoy las mariposas permanezcan igual, independientemente de si el marco de referencia se mueve o no a velocidad constante, indica que las leyes de movimiento de Newton son las mismas (de hecho, todas las leyes de la mecánica, la ciencia del movimiento) son las mismas para todos los marcos de referencia en reposo o que se mueven con una velocidad uniforme relativa entre sí. Esta conclusión es lo que se llama principio de relatividad galileano. Formalmente se puede expresar así:
Las leyes de la mecánica son exactamente las mismas para cualquier observador en cualquier marco de referencia que está en reposo o se mueve con una velocidad uniforme.
Dado que los objetos se mueven en un marco de referencia que está en reposo o en velocidad uniforme como lo harían en un marco en reposo, de ahí se deducen dos cosas importantes. La primera es que no hay manera de averiguar la velocidad del propio marco de referencia a partir de cualquier experimento mecánico realizado dentro de ese marco. Es decir, si viajamos en un avión a velocidad constante y sin turbulencias, no podemos averiguar a qué velocidad se está moviendo el avión realizando experimentos mecánicos dentro del avión.
Y la segunda es que tampoco podemos elegir un marco de referencia como el marco “verdadero”, el que está “absolutamente en reposo”. Por lo tanto, como ya vimos que apuntaba Einstein, Galileo ya sabía que no puede haber tal cosa como la velocidad “absoluta” de un objeto. Todas las velocidades medidas son relativas. Einstein redescubrió este principio eliminando las capas de sedimentos que siglos de física newtoniana y espacios absolutos habían depositado encima.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El principio de relatividad (2): la versión de Galileo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Diversidad religiosa y el estrés de las enfermedades infecciosas
Hace tres años Corey Finher y Randy Thornhill publicaron un libro en el que presentaron su teoría del estrés parasitario, teoría según la cual los patógenos con los que las poblaciones de una especie entran en contacto a lo largo del tiempo inciden en el desarrollo de los valores y cualidades de esa especie. Ya antes habían publicado algunos de sus resultados, así como avances de la teoría. En uno de los trabajos con más repercusión testaron una hipótesis en virtud de la cual la diversidad religiosa existente en una zona geográfica está directamente relacionada con el grado de estrés que las enfermedades infecciosas ejercen sobre las sociedades humanas. De acuerdo con esa hipótesis, cabe esperar que en los países con mayor variedad de enfermedades infecciosas presentar una mayor diversidad religiosa. La base argumental de la relación causa-efecto subyacente es la siguiente:
(1) Un grupo humano tiene inicialmente una distribución geográfica y un repertorio cultural y distribución de inmunidad uniformes.
(2) Con el tiempo, la inmunidad empieza a variar espacialmente, debido a la emergencia localizada de nuevos patógenos y a la evolución, también localizada, de inmunidad adaptativa en respuesta a aquellos.
(3) Bajo esas condiciones se seleccionan comportamientos que tratan de evitar el contacto con personas infectadas o potencialmente infectadas con los patógenos peligrosos. Estos comportamientos son (a) la “dispersión limitada”, reduciendo la interacción con personas de otros grupos, y (b) “socialidad restringida” a los miembros del grupo (y por lo tanto, adaptados inmunológicamente). Esta “socialidad restringida” se produce mediante el contacto (servicio religioso, reciprocidad, caza cooperativa, crianza cooperativa, etc.) y emparejamiento con individuos similares.
(4) Ese contacto selectivo promueve la divergencia cultural, al limitarse el flujo de valores e ideas entre los diferentes grupos humanos y, como consecuencia, da lugar a un aumento en la diversidad religiosa.
(5) La carrera “parásito-huésped” que se establece entre el patógeno y la persona infectada constituye un poderoso mecanismo evolutivo que puede incrementar la divergencia cultural dentro del rango cultural original del huésped.
(6) Cuanto mayor es la riqueza de patógenos en un área, mayor es la oportunidad para que se produzca variación espacial en las correspondientes carreras evolutivas “parásito-huésped”. La frecuencia, variación e intensidad de (2) (3) (4) y (5) covariarán de forma positiva con la diversidad de enfermedades infecciosas. Esto es, la diversidad de enfermedades dará lugar a una mayor diversidad cultural y religiosa.
La hipótesis la contrastan analizando la covariación de la diversidad religiosa y la diversidad de patógenos en 214 países, y estimando la correlación lineal entre ambas variables. Obtuvieron una correlación de 0’75, un valor extraordinariamente alto para variables de esta naturaleza. Concluyeron, por lo tanto, que el análisis realizado constituía un fuerte respaldo para su hipótesis.
A partir de los resultados los autores sostienen que, sin descartar el efecto de otros posibles factores, la aparición de nuevas religiones cumple la función de aislar a grupos humanos que se encuentran geográficamente próximos para así protegerlos de las infecciones para las que no están inmunológicamente protegidos. Sirva este ejemplo para ilustrar la teoría a la que hemos hecho mención al comienzo.
Fuente: Corey Fincher y Randy Thornhill (2008): Assortative sociality, limited dispersal, infectious disease and the genesis of global pattern of religion diversity Proceedings of the Royal Society B, 275: 2587-2594
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Diversidad religiosa y el estrés de las enfermedades infecciosas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Eran nuestras ballenas
No falta quien diga que los primeros hombres que afrontaron tamaña aventura necesitábase estuvieran muy excitados y que fuesen excéntricos y exaltados. Preténdese, además, que los primitivos pescadores de esos monstruos no fueron los discretos hombres del Norte, sino nuestros vascos, héroes del desvarío. Andarines terribles, cazadores del Monte Perdido y desenfrenados pescadores, recorrían en barquichuelos su caprichoso mar, el golfo o sumidero de Gascuña, dedicándose a la pesca del atún. Notaron aquellos intrépidos navegantes que las ballenas retozaban, y comenzaron a perseguirlas, lo mismo que se encarnizan detrás de la gamuza en los barrancos, los abismos y los más espantosos resbaladeros. A esa pieza de caza (la ballena) muy tentadora por su tamaño y por las vicisitudes que causa el perseguirla, hiciéronla guerra a muerte doquiera que la encontrasen y sin notarlo, empujábanla hacia el polo.
Allí el pobre coloso creyó poder vivir tranquilo, no suponiendo que los hombres fuesen tan locos que lo persiguieran hasta en aquellas apartadas regiones. La pobre ballena dormía muy sosegada, cuando nuestros atolondrados héroes se acercaron a ella cautelosamente.
Apretando su cinturón colorado, el más fornido, el más ágil saltaba de su barquichuelo, y ya encima de aquella mole inmensa, sin preocuparse del riesgo que pudiese correr su vida, lanzando un ¡han! prolongado, hundía el arpón en las carnes del confiado monstruo.
Jules Michelet, El mar, 1861.
El 22 de abril de 2015 se derogó en Islandia la ley que permitía matar vascos desde 1615. Ese día, según informaban las notas de prensa, el comisario Jónas Guomundsson suprimió la ley en presencia del Ministro de Educación y Cultura de Islandia, Illugi Gunnarsson, el Diputado General de Guipúzcoa, Martín Garitano, y Xabier Irujo, como descendiente de uno de los vascos asesinados, y Magnus Rafnsson, descendiente de uno de los islandeses que mataron a los vascos en 1615.
En aquellos años, islandeses y vascos tenían un acuerdo para la caza de ballenas. Los vascos instalaron una estación ballenera en la región de los Fiordos del Oeste. Cuando acabó la estación de caza y los vascos volvían a casa, una tormenta y los icebergs hicieron encallar tres barcos en los escollos de la costa. La mayoría sobrevivieron al naufragio y pudieron regresar pero unos cuantos se quedaron en la estación. Al mes siguiente, los que permanecieron fueron asesinados siguiendo la orden de las autoridades y según la ley, recién dictada, que permitía matar vascos. Solo hubo un superviviente.
Las primeras menciones escritas a balleneros vascos en Islandia están fechadas a comienzos del siglo XVII, en 1610, en la región de los Fiordos del Oeste, en el noroeste de la isla, aunque hay autores, como Alex Aguilar, de la Universidad de Barcelona, que lo fecha en documentos de 1412. También se cuenta que tres balleneros vascos estaban en Strandir en 1608 y otro, en el mismo lugar, en 1613. Este último atracó para extraer la grasa de las ballenas, que los vascos llamaban saín, y que era su producto comercial más valioso. En 1614 llegaron 11 barcos y en 1615 fueron 16. Y entre los de este año están los tres que naufragaron y los supervivientes fueron asesinados. Según las crónicas islandesas de la época, los mandaban los capitanes Martinus de Billa de Franca, Pedro de Arguirre y Stephan de Tellaria. De los 82 marineros que llegaron a tierra, 13 fueron asesinados mientras pasaban la noche en la estación, y otros 18 murieron en la campaña contra ellos de la población del lugar, liderada por el gobernador local Ari Magnusson.
En los diez años siguientes no hay mención a la presencia de balleneros extranjeros. Después, hasta comienzos del siglo XVIII, hay menciones esporádicas a la llegada de balleneros vascos. En 1712 se mencionan por escrito y por última vez y, después, lo prohibieron las leyes de Islandia. Sin embargo, en esos años la relación con los islandeses fue tan estrecha que existen tres glosarios de euskera-islandés de finales del siglo XVII y comienzo del XVIII. Los han estudiado varios expertos y, entre ellos, está Viola Giulia Miglio, de la Universidad de California en Santa Barbara. Los glosarios están depositados en archivos de Reykiavik, en Islandia.
La relación entre la especie humana y las ballenas viene de muy antiguo. Se han encontrado imágenes en rocas en Alaska fechadas hace 6000-8000 años, o en Noruega, de hace 9000-10000 años. En el País Vasco se han recuperado arpones de hueso de ballena, fechados hace unos 13000 años, en la cueva Lumentxa, en Lekeitio.
En la vertiente norte de Pirineos y según los estudios de Jean-Marc Pétillon, de la Universidad de Toulouse 2, existía, entre 13000 y 15000 años atrás, una industria que transformaba huesos de ballena en armas y herramientas, sobre todo en puntas de lanza de gran tamaño. Encontró artefactos, que publicó como la evidencia más antigua de industria con huesos de ballena, en la cueva de Isturitz, en Iparralde. Y más instrumentos en 11 cuevas del norte de Pirineos, de esta a oeste, y siempre fabricados con huesos de origen el Atlántico.
Algunos de esos instrumentos viajaron más de 350 kilómetros hasta el lugar donde se han encontrado. Las fechas de algunos de ellos llegan a los 17000 años atrás. Sin embargo, no se han localizado los talleres donde se fabricaban y tampoco se conoce si proceden de ballenas varadas en la costa o cazadas por balleneros. Pero, por el número de instrumentos encontrados y las distancias que han recorrido, tampoco parece que se obtengan los huesos originales en episodios esporádicos de caza o accidentales de varamiento. Propone Pétillon que, de alguna manera, debía existir algún tipo de caza de ballenas más sistemático.
Restos de ballena más recientes se han encontrado en un castro cerca de Gijón, la Campa de Torres, con fecha de entre 2300 y 2400 año, aunque, como es habitual, se desconoce si fue caza o varamiento.
La ballena que cazaban los vascos en el Cantábrico era la llamada, con propiedad, ballenas de los vascos o ballena franca (o right whale, en inglés), y de nombre científico Eubalaena glacialis. Este especie pesaba unas 60 toneladas, con un rango de 36 a 72 toneladas, media unos 15 metros, con máximos de 18 metros, y llevaba 270 barbas.
En verano, la ballena de los vascos migraba hacia el norte, hacia las Svalbard, Noruega e Islandia y, en invierno, viajaban al sur hasta Madeira, Azores, las costas del noroeste de África y, por supuesto, el Golfo de Vizcaya. Era la época del parto y, durante un tiempo, viajaban juntas la madre y el ballenato. Además, era la época en que se firmaban los contratos de caza entre los balleneros implicados y sus armadores y financiadores. Incluso entra en el contrato el atalayero, aquel que avisaba de la llegada de una ballena para que salieran de caza. Lo hacía desde la atalaya que, aunque se han perdido muchas, todavía se conserva alguna como, por ejemplo, la del monte Ulia en Donosti.
La embarcación de los balleneros vascos para la caza de la ballena era la chalupa o, también llamada barco, vizcaína, ballenera, piragua,… Más o menos tenía 10 metros de eslora y de 2 a 2.5 metros de manga, con unos 12 marineros, con 10 remeros más el timonel a popa y el arponero a proa. Llevaban queso y vino, mantas y ropa de abrigo y, por ejemplo, en Orio, unos 150 metros de soga, dos arpones, dos jabalinas grandes y una pequeña.
La principal riqueza de las ballenas era su grasa, el llamado saín, que calentaba e iluminaba edificios en toda Europa. Las barbas de la ballena, material flexible pero escaso, tenía muchos usos, y los huesos que sujetaban las barbas servían de mango de herramientas, sobre todo de cuchillos. La carne de la ballena se consumía fresca y, también, se secaba o salaba y se vendía en toda Europa.
Los testimonios escritos sobre balleneros vascos más antiguos están fechados en 1059, en Bayona, sobre la venta de carne del cetáceo, o en 1181 en Donosti con el reglamento y los impuestos a abonar por esa venta. También hay documentos de Santoña en 1190 o en Motrico en 1200. En Asturias la primera fecha documentada es de 1232 y en Galicia es 1371. Hasta 47 puertos del Cantábrico tuvieron asentamientos balleneros, y, por lo menos, 14 de ellos tienen una ballena en el escudo.
Toda la infraestructura, costumbres, práctica, tecnología y reglamentos de la caza de ballenas en el País Vasco son necesarios para las expediciones que, hemos visto, se hacían a Islandia y, también, a Terranova, a las islas Spitzberg o a Groenlandia. Para cazar ballenas en estos largos viajes se necesita aprender en casa, construir barcos adecuados, conseguir financiación, provisiones y demás pertrechos, y, a la vuelta, donde vender lo capturado, sobre todo la carne y la grasa.
En el Cantábrico y según varios autores con opiniones diferentes, el apogeo de la caza de ballenas varía desde el siglo XII y XIII hasta los siglos XIV y XV. Ya en el siglo XVI, el número de ballenas avistadas en la costa cantábrica disminuye y en el XVII casi desaparecen. Quizá fue una de la razones que empujó a los balleneros vascos hacia el norte y el oeste en busca de presas. Conocían sus migraciones anuales al norte y al sur y, simplemente, las siguieron. Hay autores que afirman que se llegaban a cazar, en el siglo XVI, hasta 100 ejemplares al año, y en muchos casos eran ballenas recién paridas con su ballenato. Los balleneros sabían que, si cazaban primero a la cría, mucho más fácil de atrapar, la madre no la abandonaría y podía ser capturada a continuación.
También hay que mencionar que desde el siglo XVI, quizá incluso desde mucho antes, en el siglo XIV, los vascos pescaban bacalao y ballenas en Terranova. Quizá por entonces ya eran conocidos en el Atlántico Norte europeo, en Islandia en concreto.
Los países del norte de Europa pronto aprendieron a cazar ballenas y descubrieron el negocio que suponía, sobre todo la venta de la grasa. Y parece que lo aprendieron de los balleneros vascos pues era habitual que contrataran, por ejemplo en Holanda e Inglaterra, a arponeros vascos. Así lo decretó, en 1612, el rey Jacobo II de Inglaterra.
No es fácil reunir cifras de las ballenas que se cazaban en aquellos años. Cuando se pagaban impuestos, los llamados diezmos, al gobierno, a algunas autoridades o a la Iglesia, los datos, siempre aproximados pueden dar una idea de las poblaciones de ballenas de la época. Alfredo Salvador y Carlos Nores, del Museo Nacional de Ciencias Naturales de Madrid y de la Universidad de Oviedo, respectivamente, han recopilado datos de Zarauz, Getaria y Lekeitio. Dan 35 capturas a principios del siglo XVI, y caen hasta 5 capturas a principios del XVIII. Hay quien da la fecha de 1766 como el final de la caza de ballenas en el Cantábrico. Durante los siglos XVIII y XIX hubo algunas capturas esporádicas, e incluso se perdieron las herramientas para cazar y se olvidaron las técnicas de acercamiento y captura.
La última ballena se cazó en Orio el 14 de mayo de 1901. Y se cazó con dinamita pues, como decía, las técnicas tradicionales se habían perdido.
Además de a Islandia, como ya hemos visto, los balleneros vascos fueron de caza a Terranova, en su singladura más conocida y popular. Eran mares ricos en bacalao y hay autores que sugieren que los vascos fueron a Terranova, en primer lugar, a pescar bacalao y, de paso, aprovecharon el paso de las ballenas.
Las primeras citas de balleneros vascos en Terranova que se aceptan por los estudiosos se fechan en el segundo cuarto del siglo XVI, en concreto en 1531, tal como cuenta Selma Huxley, de la Universidad de St.John’s, en Terranova. Volvían a casa con bacalao y carne de ballena en salmuera, más el saín y las barbas de las ballenas. Entonces, con un gran desarrollo de los astilleros, y la llegada de saín y bacalao, en el País Vasco la economía se basaba en el hierro y la fabricación de herramientas y armas, y, por supuesto, en la ballena, y más en el bacalao. Los balleneros vascos fueron los primeros que montaron toda una organización social para la caza de ballenas con objetivos comerciales. También era un hecho aceptado que los vascos, en la primera mitad del siglo XVI, tenían los mejores barcos. Así que, en ese siglo, los balleneros vascos eran mayoría en Terranova.
Durante todo el siglo XVI llegaron a Terranova de 15 a 20 barcos cada verano, y traían de vuelta unos 9000 barriles de saín. A finales de siglo, declina la caza de ballenas y van pocos barcos a Terranova. La mayoría de los barcos y los marineros son alistados obligatoriamente en la Armada Invencible de Felipe II contra Inglaterra. Y el desastre que supuso también desbarató la flota vasca, tanto por pérdida de naves como de tripulaciones experimentadas. El Tratado de Utrecht, en 1713, concedió aquellas tierras a franceses e ingleses y terminó con los viajes de los balleneros vascos.
También en Terranova, como ocurría en Islandia, había una relación estrecha entre los balleneros vascos y los indios de la zona, sobre todo con los mik’mac y, todavía, algunas palabras en euskera sobreviven en su lengua y en el francés de Canadá.
Incluso podemos conocer la dieta de los balleneros con los hallazgos del grupo de William Fitzhugh, de la Institución Smithsonian, en el yacimiento de Hare Harbour, en la Isla Petit Mécatina, en el Golfo de San Lorenzo. Hay restos de ballena de Groenlandia, no de la ballena de los vascos, y bacalao que capturaban para traer a casa y comerciar. Los restos que nos indican su dieta son de aves como alcas, frailecillos, gaviotas, gansos, patos, cisnes, perdices y cuervos; de mamíferos como focas, cerdo doméstico, jabalí, caribú, vaca y zorro; y frutas como avellanas, nueces, melocotones y ciruelas.
En la actualidad, la ballena de los vascos es rara en el Atlántico Norte occidental, en las costas de Norteamérica, y mucho más rara en el Atlántico Norte oriental, en las costas europeas. Es difícil saber cuantas ballenas de los vascos quedan. A principios del siglo XX estaba cercana a la extinción, cuando se estimaba que había unos 60 ejemplares, cifra basada en escasas evidencias y más en suposiciones personales. Después se fue recuperando lentamente pero, en la década de los noventa, comenzó de nuevo a disminuir su número.
Entre 1980 y 2000, el Acuario de Nueva Inglaterra fotografió unos 10000 avistamientos de cetáceos, y Masami Fujiwara y Hal Caswell, del Instituto Oceanográfico de Woods Hole, identificaron en esas imágenes a 350 ballenas de los vascos. Los autores deducen que había poco más de 300 individuos de Eubalaena glacialis a principios de este siglo. Parece que estaban muriendo las ballenas en edad de ser madres. Los autores proponen que salvando, cada año, a dos ejemplares que puedan tener crías la población se estabilizaría. La protección legal internacional de especies en peligro de extinción considera que la ballena de los vascos es la especie de gran tamaño con más riesgo de desaparecer.
A menudo se ha propuesto que se ha llegado a esta situación, por lo menos en Norteamérica, por la caza de los vascos en el siglo XVI, seguido por la acción de los balleneros de la costa oeste de Estados Unidos (recordar Moby Dick) durante los siguientes dos siglos y medio. Sin embargo, cuando Brenna McLeod y su grupo, de la Universidad Trent, en Canadá, analizaron el ADN de los 218 huesos de ballena encontrados en el asentamiento de balleneros vascos de Red Bay, en Labrador, solo uno de ellos es de la ballena de los vascos. La mayoría son de otra especie de ballena, la Balaena mysticetus, conocida como ballena de Groenlandia o ballena boreal. Para cuando llegaron a la zona de Terranova los balleneros vascos, la población de Eubalaena glacialis era mucho menor de lo que se suponía. No hay que olvidar que la ballena de los vascos tiene el dudoso honor de ser la que tiene la más larga historia de ser cazada entre todas las ballenas.
Referencias:
Aguilar, A. 1996. A review of old Basque whaling and its effect on the Right Whales (Eubalaena glacialis) of the North Atlantic. Reports of the International Whaling Comission Special Issue, 10: 191-199.
Arrinda, A. 1977. La pesca en Euskalerria. Caja de Ahorros Municipal. San Sebastián. 261 pp.
Azkarate, A. et al. 1992. Balleneros vascos del siglo XVI (Chateau Bay, Labrador, Canadá). Estudio arqueológico y contexto histórico. Servicio Central de Publicaciones del Gobierno Vasco. Vitoria-Gasteiz. 261 pp.
Azpiazu, J.A. 2000. Balleneros vascos en el Cantábrico. Ttarttalo. Donostia. 172 pp.
Bakker, P. 1991. “La lengua de las tribus costeras es medio vasca”. Un pidgin vasco y amerindio utilizado por europeos y nativos americanos de Norteamérica, h. 1540-h. 1640. Anuario del Seminario de Filología Vasca “Julio de Urquijo” 25: 439-467.
Barthelmess, K. 2009. Basque whaling in pictures, 16th-18th century. Itsas Memoria. Revista de Estudios Marítimos del País Vasco 6: 643-667.
Campos Santacana, M.K. & M. Peñalba Otaduy. 1997. La caza de la ballena. Su influencia en los usos y costumbres desde la Edad Media. Zainak, Cuaderno de Antropología y Etnografía, 15: 251-262.
Ciriquiain Gaiztarro, M. 2010 (1961). Los vascos en la pesca de la ballena. Biblioteca Vascongada de los Amigos del País. San Sebastián. 270 pp.
Edvardsson, R. & M. Rafnsson. 2006. Basque whaling around Iceland. Archeological investigation in Strakatangi, Steingrimsfjordur. The Natural History Institute of Vestfirdir. Bolungarvik, Iceland. 25 pp.
Escribano-Ruiz, S. & A. Azkarate. 2015. Basque fisheries in Eastern Canada, a special case of cultural encounter in the colonizing of North America. En “Archaeology of culture contact and colonization in Spanish and Portuguese America”, p. 239-256. Ed. por P.P.A. Funari & M.X. Senatore. Springer Int. Publ. Switzerland.
Estes, J.A. et al (Eds.). 2006. Whales, whaling, and ocean ecosystems. University of California Press. Berkeley.
Fujiwara, M. & H. Caswell. 2001. Demography of the endangered North Atlantic right whale. Nature 414: 537-541.
Graells, M.P: 1889. Las ballenas en las costas oceánicas de España. Memorias de la Real Academia de Ciencias Exactas, Físicas y Naturales de Madrid XIII: 1-115.
Huxley Barkham, S. 1984. The Basque whaling establishments in Labrador 1536-1632 – A summary. Arctuc 37: 515-519.
Jenkins, J.T. 1921. A history of whale fisheries, from the Basque fisheries of the tenth century to the hunting of the finner whale at the present date. H.F & G. Witherby. London. 336 pp.
Kurlansky, M. 2000. La historia vasca del mundo. Ed. El Gallo de Oro. Bilbao.
McLeod, B.A. et al. 2010. DNA profile of a sixteenth century western North Atlantic right whale (Eubalaena glacialis). Conservation Genetics 11: 339-345.
Michelet, J. 1999 (1861). El mar. www.elaleph.com
Miglio, V.G. 2008. “Go shag a horse!”: The 17th-18th century Basque-Icelandic glossaries revisited. Journal of the North Atlantic. 1: 1-12.
Orue-Etxebarria, X. 2012. Hierro, ballenas y barcos: factores del poder económico de Bizkaia durante la Edad Media (I/II). Euskonews 623-624. 4 y 11 mayo.
Otero, X. 2017. William W. Fitzhugh. Zazpika 21 mayo: 23-31.
Pétillon, J.-M. 2008. First evidence of a whale bone industry in the western European Upper Paleolithic: Magdalenian artifacts from Isturitz (Pyrénées-Atlantiques, France). Journal of Human Evolution 54: 720-726.
Pétillon, J.-M. 2013. Circulation of whale-bone artifacts in the northern Pyrenees during the late Upper Paleolithic. Journal of Human Evolution 65: 525-543.
Salvador, A. & C. Nores. 2011. Ballena de los vascos – Eubalaena glacialis (Müller, 1776). En “Enciclopedia Virtual de los Vertebrados Españoles”. Ed. por A. Salvador & J. Cassinello. Museo Nacional de Ciencias Naturales. Madrid.
Unsain, J.M. 2012. Balleneros vascos. Imágenes y vestiugios de una historia singular. Untzi Museoa – Museo Naval. Donostia-San Sebastián. 175 pp.
Wikipedia. 2017. History of Basque whaling. 4 March.
Zulueta, J. de. 2000. The Basque whalers: The source of their success. Mariner’s Mirror. International Quarterly Journal of the Society for Nautical Research 86: 261-271.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Eran nuestras ballenas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Lourdes Basabe y los microlaboratorios
El pasado 14 de septiembre de 2017 se celebró la primera edición de Naukas Pro, en el que Centros de Investigación, Laboratorios, científicos de renombre o equipos de trabajo contaron con 20 minutos para explicar a un público general en qué consiste su trabajo.
7ª conferencia: Lourdes Basabe, investigadora Ikerbasque, del Cluster de Microfluidica UPV/EHU, Centro de Investigación Lascaray.
Loudes Basabe presenta una charla sobre su trabajo en el laboratorioEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Lourdes Basabe y los microlaboratorios se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El consumidor etnocéntrico
La literatura ha tratado los conceptos de producto local, producto regional y producto tradicional como si fuesen independientes. Sin embargo, en la práctica, estos conceptos están interrelacionados en muchos productos de alimentación. El trabajo ahora publicado pretende resolver dos cuestiones principales: por una parte, conocer la valoración de productos de alimentación que reúnan las características de los productos locales, regionales y tradicionales, a través del análisis de marcas concretas de productos; por otra, estudiar el posible vínculo entre el nivel de etnocentrismo de los consumidores y la valoración y la compra efectiva de marcas locales-regionales-tradicionales.
El etnocentrismo es un concepto elaborado por la antropología para definir la tendencia emocional que hace de la cultura propia el criterio exclusivo para interpretar los comportamientos de otros grupos, razas o sociedades y, en virtud de ello, rechazar, excluir o marginar todo aquello que no forme parte de ella. En ese sentido, y aplicado al consumo de productos locales, regionales y tradicionales, hablaríamos de la predisposición de las personas por consumir ese tipo de alimentos frente a otros de origen diferente.
La mayoría de estudios previos plantean al consumidor la valoración y la intención de compra de productos locales o tradicionales, pero a un nivel general, abstracto, que no permite al encuestado valorar una marca concreta que puede encontrar disponible en el mercado y que efectivamente puede consumir. “Creemos que una aportación importante de este trabajo es el nivel de análisis elegido. Es decir, analiza marcas específicas dentro de diferentes categorías de productos en dos entornos geográficos diferentes en España”, explica Aitor Calvo Turrientes.
Para realizar el análisis se han considerado cuatro productos con denominación de origen. Todos ellos reúnen las características atribuidas a los productos locales-regionales-tradicionales: D.O.P. Queso Idiazabal, D.O.P. Rioja (Rioja Alavesa), D.O.P. Torta del Casar y D.O.P. Dehesa de Extremadura. Para el estudio, una muestra de consumidores vascos y extremeños han respondido a una serie de cuestiones relacionadas con la valoración y compra de estos productos, así como sobre sus tendencias etnocéntricas.
“Los resultados muestran que esos productos gozan de una alta consideración por parte de los consumidores, que los compran en una proporción elevada frente a otras alternativas.Además, se observa que los niveles de etnocentrismo del consumidor están relacionados, en ocasiones, pero no siempre, con la compra efectiva de esas marcas locales-regionales-tradicionales, lo que pone de manifiesto la necesidad de incluir la categoría del producto en el análisis de los efectos del etnocentrismo del consumidor”, concluye el investigador.
Referencia:
Pilar Fernández Ferrín, Aitor Calvo Turrientes, Belén Bande, Miren Artaraz Miñón, M. Mercedes Galán Ladero. (2017) The valuation and purchase of food products that combine local, regional and traditional features: The influence of consumer ethnocentrism Food Quality and Preference doi: 10.1016/j.foodqual.2017.09.015
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El consumidor etnocéntrico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Vida bajo la luz cenicienta
Auguste Comte, filósofo augusto no solo de nombre y padre del positivismo, figura inscrito con letras de oro en el panteón de Patinazos Épicos de la Historia gracias a esta lapidaria sentencia con la que —prácticamente— abrió en 1835 el segundo tomo de su Curso de Filosofía Positiva:
Concebimos la posibilidad de determinar sus formas, sus distancias, sus tamaños y sus movimientos; mientras que en modo alguno podríamos jamás averiguar su composición química, su estructura mineralógica o, con más razón, la naturaleza de la materia organizada que viva en su superficie […]
Les Luthiers nos enseñaron que no hay que perder ocasión de hacer la epistemología y por ello es de ley reconocer que la ciencia moderna le debe algo al positivismo de Comte. Eso, sin embargo, no salvó al filósofo francés de ser sumariamente atropellado con un avance fulgurante escasas décadas después de publicar su seminal obra. Hubo un aviso veinte años antes: en 1815, el joven Joseph Fraunhofer —que nunca dejaría de ser joven, para desgracia suya y de todos— había puesto a trabajar un espectrómetro con el que descubrió que a la luz solar le faltaban 574 líneas. 574 colores de menos que anunciaban la era que abrieron definitivamente Kirchhoff y Bunsen en 1859, en la que podríamos conocer a distancia la composición química de los astros: la era de la espectroscopia.
No podemos culpar a Comte de no verlo venir: no tenía el don de la presciencia ni un Google decimonónico al que consultar lo que además parece un resultado francamente antiintuitivo: ¿cómo vamos a poder conocer la composición de mundos a los que jamás podremos viajar? (Nota: si la especie humana acaba viajando por todo el Universo ocuparé con gusto mi sitio junto a Comte en ese panteón de Patinazos Épicos.) Lo cierto es que la capacidad de los átomos y las moléculas de emitir y absorber frecuencias concretas de luz nos ha conferido un superpoder: el de conocer la composición, a distancias inimaginables, de las estrellas, las nebulosas ¿y las atmósferas de los planetas?
El poder de los espectros
Descomponer la luz de otros mundos mediante un prisma es algo que lleva haciéndose rutinariamente desde hace más de un siglo y medio. Esta técnica nos ha enseñado que la composición de todos los cuerpos visibles del Universo es muy uniforme y está dominada por los elementos más simples que existen: hidrógeno (74%) y helio (24%). El 2% restante («metales» para los astrónomos) es la fracción minoritaria que centra el interés de astroquímicos y exobiólogos. El misterio aún envuelve muchos aspectos relacionados con la vida, pero parece claro que es un fenómeno de base química relacionado con la aparición de la complejidad. Sin ese dos por ciento de elementos «extra», los enlaces e interacciones posibles entre átomos se verían fatalmente limitados. Encontrar las firmas espectroscópicas de estos elementos y las moléculas que forman es clave si pretendemos averiguar, algún día, si existe vida más allá de la burbuja de aire que rodea nuestra pequeña mota azul.
Desde finales de los años 80, la creciente precisión en los métodos astrométricos de detección de exoplanetas —mayoritariamente medidas de velocidad radial (coloquialmente «bamboleo» estelar) y, sobre todo, de tránsitos (ocultaciones parciales de estrellas por planetas que las orbitan y que provocan pequeños cambios en la luz recibida de éstas)— ha permitido que los descubrimientos de sistemas planetarios aumenten con un ritmo exponencial. Aunque las formas de llevar a cabo las medidas, así como su precisión, favorecieran en un principio el descubrimiento de lo que se dio en llamar «jupíteres calientes», planetas muy grandes y muy cercanos a sus respectivas estrellas, es cada vez más frecuente encontrarse con descubrimientos de planetas más pequeños y ubicados en las zonas de habitabilidad teóricas de sus sistemas estelares.
Sin duda no estamos muy lejos de ubicar planetas de tamaño terrestre transitando ante sus estrellas con órbitas que les permitirían, al menos teóricamente, sustentar agua líquida de forma permanente en su superficie. Auténticos análogos terrestres alrededor de soles lejanos: pero una cosa es encontrar un lugar que podría albergar vida y otra, muy distinta, es descubrirlo. ¿Podemos siquiera soñar con tal cosa?
Si es posible detectar la minúscula fracción de luz de una estrella que, durante una ocultación planetaria, atraviesa la atmósfera del planeta para llegar hasta nuestros instrumentos, también debería poderse —restando previamente el espectro de la luz normal de la estrella— hallar la huella espectroscópica de la composición de la atmósfera planetaria. Esto, que parece una hazaña imposible, ya ha ocurrido en varias ocasiones. Un ejemplo de la precisión que puede alcanzarse hoy: utilizando técnicas de espectroscopia diferencial y el instrumento HARPS en el telescopio de 3,6 metros del Observatorio Europeo Austral (ESO) en La Silla, Chile, pudo caracterizarse la presencia de sodio atómico en la atmósfera alta de HD 189733b. Este planeta orbita una estrella de tipo espectral K (una enana naranja; nuestro Sol es una enana amarilla de tipo G) a 62,9 años luz de distancia en la constelación Vulpecula. Con una masa de 1,15 veces la de nuestro Júpiter y una órbita que le lleva a rodear su estrella cada 2,2 días, las medidas basadas en el espectro han podido incluso confirmar que su atmósfera contiene vientos de 7000 kilómetros por hora que arrastran incesantes lluvias de cristal fundido: silicatos de sodio a 700 °C.
Está claro que HD 189773b está casi todo lo lejos que se puede estar de ser un «análogo terrestre», pese a que su color (que, increíblemente, también ha podido ser estimado) debería ser un azul profundo —haciendo de él otro «punto azul pálido» en la inmensidad del espacio. Pero cuando algún día encontremos un planeta realmente similar a nuestra Tierra, algo que solo es cuestión de tiempo, ¿cómo sabremos que puede albergar vida? La respuesta a esta pregunta, más allá de la medida de características orbitales que nos lleven a inferir posibles temperaturas superficiales, pasa naturalmente por el análisis de datos espectrográficos. Y qué mejor análisis que poder comparar el espectro de un planeta así con el de la única muestra que conocemos de planeta que alberga vida: ¿por qué no medir el espectro de la luz del Sol reflejada o transmitida por la propia Tierra a gran distancia?
La forma obvia de obtener ese espectro consistiría en lanzar una sonda que se alejara mucho de la Tierra —idealmente unos cuantos años-luz— e hiciera la medida. Lo más cerca que hemos estado de conseguir algo así han sido las imágenes del «punto azul pálido»: la original de 1990 tomada por la sonda Voyager 1 a casi cinco horas y media de distancia a la velocidad de la luz (5900 millones de kilómetros) o la más reciente tomada por la sonda Cassini en 2013 desde la órbita de Saturno a 1500 millones de kilómetros. Lamentablemente, ni la Voyager 1 ni la Cassini estaban equipadas para realizar un espectro de la luz solar reflejada por la Tierra desde sus puntos de vista. Que alguna vez se lance una misión tan lejos con un propósito tan limitado parece, además, harto improbable. Sin embargo, hay una forma más sencilla de obtener la misma información gracias a nuestra compañera de viaje en el Sistema Solar: la Luna.
La luz cenicienta
La Luna, vista desde la Tierra, presenta lo que llamamos fases: cambios en su iluminación superficial debidos a las posiciones relativas de la Luna, la Tierra y el Sol. La fase «nueva» corresponde al momento de la órbita de la Luna en la que se encuentra situada directamente entre la Tierra y el Sol, y por tanto nos muestra su mitad oscura; para llegar a la fase «llena» la Luna debe recorrer la mitad de su órbita alrededor de la Tierra hasta encontrarse en el punto en que nos muestra su mitad iluminada —y por tanto, la Tierra está ubicada entre el Sol y la Luna. Si observamos el sistema con un poco de detenimiento, no es complicado darse cuenta de que las fases lunares están complementadas con otras análogas terrestres, pero exactamente invertidas: vista desde la Luna, la Tierra presenta la fase opuesta a la que se ve en la Luna desde la Tierra, como si se miraran en un espejo.
Además, debido a que la Luna tiene la rotación acoplada con la traslación alrededor de la Tierra, siempre muestra el mismo lado. Esto tiene como consecuencia que para cualquier punto de la cara visible de la Luna, la Tierra siempre está en aproximadamente el mismo lugar del firmamento (la libración orbital provoca un pequeño desplazamiento mensual aparente de la Tierra en el cielo lunar). Las diferencias de tamaño y de albedo superficial entre la Tierra y la Luna provocan así un interesante fenómeno: la noche lunar en la cara visible está siempre iluminada por la Tierra llena, y esta iluminación es mucho más intensa que la que provoca la Luna llena en la noche terrestre. Tanto, que puede percibirse desde la Tierra en forma de una iluminación difusa de la zona nocturna de la Luna, sobre todo cuando ésta se encuentra próxima a su fase nueva o hace pocos días que la ha pasado.
Este efecto de iluminación se denomina «luz cenicienta», y tiene la propiedad de que uniformiza completamente la luz que proviene de la cara iluminada de la Tierra debido a la rugosidad aleatoria del terreno lunar —esto es, devuelve una «luz media» de la reflejada por la Tierra. La luz cenicienta que observamos en la fase nueva de la Luna debería por tanto contener información del espectro medio de reflexión de la superficie terrestre, exactamente tal y como se vería desde un punto muy alejado del espacio que no permitiera resolver detalle superficial alguno. Es decir, como si se tratara del espectro de reflexión de un exoplaneta.
El espectro de la luz cenicienta revela de la Tierra una serie de potentes marcadores biológicos, entre los que destacan oxígeno molecular y metano en cantidades alejadas de su equilibrio químico —y que por tanto deben ser mantenidas por algún proceso externo, así como la presencia de un «borde rojo» (red edge): una zona de cambio rápido de la reflectividad en el infrarrojo cercano. La clorofila presente en las plantas terrestres absorbe una gran cantidad de luz en la zona visible del espectro, pero se hace casi transparente para longitudes de onda superiores a los 700 nanómetros.
Cuando logremos obtener un espectro de suficiente calidad de la luz de un exoplaneta similar a la Tierra podremos aplicar estas mismas técnicas de análisis para intentar determinar parámetros de la composición de su superficie y su atmósfera. ¿Aparecerán estos biomarcadores? ¿Veremos otros diferentes? El estudio del espectro de la luz de mundos lejanos nunca podrá ofrecernos una certeza absoluta acerca de «la naturaleza de la materia organizada que vive en su superficie», como dijo Comte; pero podrá acercarnos a la solución del enigma de la vida en el Universo mucho más de lo que jamás pudo soñarse hasta hace apenas un suspiro de la historia de la Humanidad.
Este post ha sido realizado por Iván Rivera (@Brucknerite) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU
Para saber más
Comte, A. (1835). Cours de philosophie positive (Vol. II, 19ème leçon). Paris: Borrani et Droz. Visitado el 29/10/2017 en http://gallica.bnf.fr/ark:/12148/bpt6k762681/f9.image.
Nous concevons la possibilité de déterminer leurs formes, leurs distances, leurs grandeurs et leurs mouvements ; tandis que nous ne saurions jamais étudier par aucun moyen leur composition chimique, ou leur structure minéralogique, et, à plus forte raison, la nature des corps organisés qui vivent à leur surface […]
Kirchhoff, G. (1860). Ueber die Fraunhofer’schen Linien. Annalen der Physik und Chemie, 185(1), 148-150. doi:10.1002/andp.18601850115.
Suess, H. E., & Urey, H. C. (1956). Abundances of the Elements. Reviews of Modern Physics, 28(1), 53-74. doi:10.1103/revmodphys.28.53.
Richmond, M. Spectroscopy of exoplanets. Rochester Institute of Technology. Visitado el 05/11/2017 en http://spiff.rit.edu/classes/extrasol/lectures/spectra/spectra.html.
Wyttenbach, A., Ehrenreich, D., Lovis, C., Udry, S., & Pepe, F. (2015). Spectrally resolved detection of sodium in the atmosphere of HD 189733b with the HARPS spectrograph. Astronomy & Astrophysics, 577. doi:10.1051/0004-6361/201525729.
Marín, D. (15/02/2014). El planeta azul en el que llovía cristal. Naukas. Visitado el 05/11/2017 en http://danielmarin.naukas.com/2013/07/11/el-planeta-azul-en-el-que-llovia-cristal/.
Arnold, L. (2007). Earthshine Observation of Vegetation and Implication for Life Detection on Other Planets. Space Science Reviews, 135(1-4), 323-333. doi:10.1007/s11214-007-9281-4.
Sterzik, M. F., Bagnulo, S., & Palle, E. (2012). Biosignatures as revealed by spectropolarimetry of Earthshine. Nature, 483(7387), 64-66. doi:10.1038/nature10778.
El artículo Vida bajo la luz cenicienta se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Fallos científicos en el cine, mejor vídeo de divulgación joven “On zientzia”
“Fallos científicos en el cine” de Mario Martínez es el vídeo ganador del premio joven al mejor vídeo de divulgación de la 7ª edición de los premios On Zientzia. Mario recoje las mayores pifias científicas recurrentes en el cine en un vídeo muy cinematográfico.
¿Tienes una idea genial para explicar un concepto científico en un vídeo? ¿Quieres ver tu trabajo emitido en televisión? La Fundación Elhuyar y el Donostia International Physics Center (DIPC) han organizado la octava edición de On zientzia, un concurso de divulgación científica y tecnológica enmarcado en el programa Teknopolis, de ETB. Este certamen pretende impulsar la producción de vídeos cortos y originales que ayuden a popularizar el conocimiento científico.
On zientzia tendrá tres categorías. El mejor vídeo de divulgación recibirá un premio de 3.000 euros. Para impulsar la producción de piezas en euskera, existe un premio de 2.000 euros reservado a la mejor propuesta realizada en ese idioma. Por último, con el objetivo de impulsar la participación de los estudiantes de ESO y Bachillerato, hay un premio dotado con 1.000 euros para el mejor vídeo realizado por menores de 18 años.
Los vídeos han de tener una duración inferior a los 5 minutos, se pueden realizar en euskera, castellano o inglés y el tema es libre. Deben ser contenidos originales, no comerciales, que no se hayan emitido por televisión y que no hayan resultado premiados en otros concursos. El jurado valorará la capacidad divulgativa y el interés de los vídeos más que la excelencia técnica.
Las bases las encuentras aquí. Puedes participar desde ya hasta el 25 de abril de 2018.
Edición realizada por César Tomé López
El artículo Fallos científicos en el cine, mejor vídeo de divulgación joven “On zientzia” se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La práctica de la ciencia y la práctica del sexo
Como hemos repetido a menudo y es obvio, los científicos son humanos. Y como el resto de los humanos los romances, escarceos, líos y tragedias o comedias amorosas abundan en los lugares donde trabajan. No miente aquel viejo refrán que dice que el hombre es fuego, la mujer estopa, y viene el diablo y fú; sopla, igual en un laboratorio que en una oficina o una tienda, en una factoría o en un taller, en la tripulación de un barco que en trabajo de campo. En el día a día de la ciencia hay muchas parejas que se conocieron en el trabajo como en cualquier otro campo, a veces con sus pequeñas catástrofes domésticas como divorcios o traumáticas separaciones, a veces con la complicidad añadida de estar con alguien que sabe exactamente a qué te dedicas, a veces incluso con consecuencias sobre el trabajo mismo o sobre la carrera de uno u otro participante. Está en la naturaleza humana.
Algunos tipos de práctica científica pueden incluso ser especialmente dados a este tipo de situaciones. La sensación de formar un pequeño club especial con los pocos que entienden tu (necesariamente reducido) campo de estudio; la incomprensión de familia, pareja y amigos. Las largas jornadas de laboratorio hasta horas intempestivas, a menudo con pausas forzadas, siempre con poco respeto a fiestas y vacaciones. Las estancias de estudio en instituciones ajenas, quizá en el extranjero; la obligatoria etapa itinerante del postdoc. Las jornadas de campo, alejados los investigadores del resto de la gente, aislados en precarios alojamientos y condiciones de vida; las aventuras y desventuras de la prospección, la observación o el viaje remoto y la sensación de que lo que pasa en el campo permanece en el campo. Las personas en situaciones de aislamiento y soledad somos vulnerables a la tentación. Las personas caen, a menudo, en ella.
Esto es simple y llana naturaleza humana, pero como en otras actividades también puede contener rastros de otro elemento, como es el poder, que lo convierte en algo mucho más turbio. En ciencia y en el ámbito académico es común que trabajen juntos personas de diferentes edades y muy diferentes categorías en lo que se refiere a prestigio, influencia y poder real. Alumnos y profesores, doctorandos y catedráticos, técnicos y postdocs forman parte de la mezcla de personas que trabajan juntos. Algunas categorías están en situación social y profesional privilegiada: el profesor titular, el catedrático de la asignatura, el director del departamento. Otras tienen su futuro por desarrollar y por tanto son vulnerables: quien está asentado en la práctica académica y científica puede tener un impacto desmesurado en las perspectivas de carrera profesional de un doctorando o un postdoc, para bien o, ay, para mal. Porque la historia nos enseña que cuando las personas tienen poder sobre otras personas siempre hay alguna que abusa de ese poder. Y es cuando se mezclan las cosas del querer o la lujuria con el desequilibrio de poder cuando todo se complica.
La actual oleada de descubrimientos sobre abusos a mujeres por parte de hombres poderosos en diferentes industrias (medios, TV, cine, fuerzas armadas, etc.) no ha librado al mundo de la ciencia. Se están publicando casos en los que hombres en situación dominante desde el punto de vista profesional han abusado de esa posición para obtener favores de mujeres u otros hombres. Se han hecho públicos hechos que van desde la situación incómoda al acoso o casi la agresión sexual en entornos como la astronomía o la geología de la Antártida, y sin duda se conocerán muchos más. Los foros profesionales y las charlas de café abundan en comentarios más o menos maliciosos sobre científicos que tienen las manos demasiado largas, o que de forma sistemática y en serie seducen a sus estudiantes más atractivas. La ciencia, por desgracia, no proporciona necesariamente una moral a quienes la practican. Y los abusos durante demasiado tiempo han quedado impunes.
Cuando existe un fuerte desequilibrio entre el poder de los participantes incluso las relaciones consentidas quedan manchadas de sospecha. Y estos desequilibrios pueden ser muy marcados y tener consecuencias muy desagradables incluso cuando las relaciones sentimentales (o sexuales) no forman parte del problema y es simplemente un conflicto intelectual. Bien está que cada vez sean menor tolerables este tipo de comportamientos que deben ser erradicados; también de los laboratorios y los centros de investigación, como del resto de la sociedad.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo La práctica de la ciencia y la práctica del sexo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La invariancia de Lorentz supera dos pruebas más
Cada vez que alguien consulta su posición en la superficie del planeta usando un GPS está confirmando la teoría de la relatividad de Einstein, de la misma forma que cada vez que se enciende una pantalla se confirma la existencia de los electrones. Con todo,los científicos no se quedan nunca conformes, y si en el úlltimo siglo no se hubiesen hecho ya suficientes pruebas de que la relatividad funciona, quizás la más espectacular la reciente detección de ondas gravitacionales, siempre quedará comprobarlo con más precisión si cabe.
La llamada invariancia de Lorentz significa que una medición física no debe depender de la velocidad u orientación del marco de referencia del laboratorio. Es una simetría fundamental en la relatividad y en el modelo estándar de la física de partículas, pero ciertas ideas que intentan unificar las dos teorías predicen su ruptura. A pesar de numerosos estudios, sin embargo, no se ha encontrado prueba alguna de violaciones de la simetría de Lorentz. Dos equipos de investigadores lo han recomprobado estableciendo de paso algunos de los límites más estrictos hasta la fecha sobre tales violaciones.
Para comprobar la simetría de Lorentz, ambos equipos usaron el mismo marco teórico, que describe la simetría para todas las partículas y fuerzas, incluida la gravedad, en términos de coeficientes que son nulos cuando se cumple la simetría. Pero derivaron los coeficientes usando datos obtenidos de dos tipos muy diferentes de experimentos.
El equipo encabezado por Natasha Flowers, del Carleton College (Minnesota, Estados Unidos) analizó medidas tomadas en el transcurso de unos pocos años con gravímetros superconductores, dispositivos que determinan la aceleración gravitatoria local midiendo la posición de una esfera superconductora que levita en un campo magnético. Los valores de los coeficientes resultantes son todos consistentes con cero, pero en comparación con estudios gravimétricos previos, algunos de los valores son más de 10 veces más precisos, mientras que otros se han obtenido por primera vez.
Mientras tanto, el encabezado por Adrien Bourgoin, de la Universidad de Bolonia (Italia), analizaron los datos de 48 años de experimentos de medición con el experimento LR3, en el que los rayos láser emitidos desde la Tierra se reflejan en los espejos en la superficie de la Luna colocados por las misiones Apolo 11, 14 y 15 para medir el movimiento orbital y rotacional del satélite. En este caso los investogadores también encuentran que los datos son consistentes con coeficientes nulos. Sin embargo, para algunos de los coeficientes, la precisión es de 100 a 1000 veces mejor que la de las mejores estimaciones actuales.
Esta visto, en esta época de incertidumbre, si quieres aprender algo que describa cómo funciona el universo con una fiabilidad contrastada, estudia la teoría de la relatividad.
Referencias:
Natasha A. Flowers et al (2017) Superconducting-Gravimeter Tests of Local Lorentz Invariance Phys. Rev. Lett. doi: 10.1103/PhysRevLett.119.201101
Adrien Bourgoin et al (2017) Lorentz Symmetry Violations from Matter-Gravity Couplings with Lunar Laser Ranging Phys. Rev. Lett. doi: 10.1103/PhysRevLett.119.201102
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La invariancia de Lorentz supera dos pruebas más se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Compartiendo un rumor
Compartimos debajo un ¿rumor?… ¡No! De momento, un problema propuesto en 2001 en Crux Mathematicorum, revista científica publicada por la Sociedad Canadiense de Matemáticas, y que contiene problemas matemáticos para estudiantes de secundaria y pregrado.
Ana, Beatriz, Carlos, David, Elena, Fátima, Guillermo, Hugo e Inés forman parte de la comisión de estudiantes de su Facultad. Se reúnen con poca frecuencia y, además, al ser sus ideas bastante diferentes, no conversan demasiado.
En la siguiente tabla se resumen las relaciones entre estas nueve personas (cada una está representada por la inicial de su nombre): 0 significa que las dos personas no se hablan y 1 que lo hacen con frecuencia.
Se sabe que Ana compartió hace unos días un rumor con los dos colegas con los que mantiene comunicación (David y Guillermo), que lo escucharon una vez y solo una –esta vez que Ana se lo transmitió–. A su vez, cada uno de ellos se lo contó a una de las personas con las que habitualmente habla.
Si numeramos a Ana, como iniciadora del rumor con un 1, y Elena fue la novena y última del grupo en escuchar el rumor, ¿quién fue la quinta persona en enterarse de él?
La solución propuesta por la propia revista solo requiere un poco de lógica para usar de la mejor manera los datos proporcionados.
En efecto, sabemos que Ana inicia el rumor y que Elena es la última persona que se entera.
Entre las demás personas –eliminando también a David y Guillermo que lo saben por Ana y que no vuelven a escuchar el rumor–, Fátima y Hugo son los que menos relaciones tienen, al hablarse solo con dos de las personas del grupo. Así que empezaremos por ellos.
Según los datos de la tabla, a Fátima le debe llegar el rumor vía Inés y se lo cuenta después a Beatriz (IFB) o viceversa (BFI). Del mismo modo, Hugo se lo escucha a Beatriz y se lo transmite después a Carlos (BHC) o viceversa (CHB).
Al unir estos dos fragmentos del itinerario del rumor, obtenemos la serie de cinco personas (CHBFI) o (IFBHC). Además, ninguno de estos dos posibles caminos recorridos por el rumor se une con A o con E, ya que Ana no se habla ni con Carlos ni con Inés, y lo mismo sucede con Elena.
Por el anterior comentario, David y Guillermo deben ir necesariamente en los extremos de (CHBFI) o (IFBHC). Pero, David no se habla con Carlos, aunque si con Inés. Guillermo, al contrario, se habla con Carlos, pero no con Inés.
Así, podemos asegurar que el orden de transmisión del rumor entre estas siete personas –excluyendo a Ana y Elena– ha sido (GCHBFID) o (DIFBHCG). Añadiendo a Ana y Elena a esta serie, quedaría que el rumor iniciado por Ana ha llegado a Elena de alguna de estas dos maneras: (AGCHBFIDE) o (ADIFBHCGE).
De cualquiera de los dos modos, la quinta persona en enterarse del rumor ha sido Beatriz.
Notas:
Visto en: The Grapevine, Futility Closet, 16 noviembre 2017
Extraído de: R.E.Woodrow, The skoliad Corner no. 8, Crux Mathematicorum 27:3 (Abril 2001), pág. 194
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Compartiendo un rumor se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los compartimentos líquidos de los animales
La mayor parte de los animales tienen una cavidad interna denominada celoma en cuyo interior hay un fluido, el líquido celómico. En los grupos en que se halla bien desarrollado, el interior del celoma está recubierto por un epitelio de origen mesodérmico denominado peritoneo. El celoma separa el intestino de la pared corporal y en su interior se encuentran los órganos. En varios grupos animales alberga un conjunto de células –celomocitos- que ejercen funciones inmunitarias. El líquido celómico protege frente a los golpes y presiones que recibe la pared corporal y que podrían deformar las estructuras internas; y también proporciona estabilidad a la estructura general del animal y al mantenimiento de la postura corporal ejerciendo la función de esqueleto hidrostático. Además, pone en contacto unos órganos con otros y transporta entre ellos gases, nutrientes y productos de deshecho. También permite el almacenamiento de gametos durante su maduración. El líquido celómico se mueve gracias a la acción de cilios o por la contracción de la musculatura de la pared corporal. Hay grupos, como los poliquetos y oligoquetos (anélidos), en los que la segmentación corporal ha conducido a la correspondiente segmentación de la cavidad celómica. Y en otros como, por ejemplo, hirudíneos (anélidos), moluscos y artrópodos, dicha cavidad ha quedado reducida a pequeñas áreas: canalículos en sanguijuelas, espacios que albergan corazón y gónadas en moluscos, y espacios asociados a la reproducción y excreción en artrópodos.
El celoma se desarrolló en los animales triblásticos, pero se perdió en algunos grupos –llamados acelomados-, seguramente a causa de una reducción del tamaño corporal1. Además de estos, esponjas y cnidarios, también carecen de cavidad interna. Ninguno de estos animales tiene un órgano respiratorio distinto del tegumento, por lo que necesitan, a cambio, una gran superficie corporal en relación con su volumen o masa; y cuando tienen sistema digestivo, este cuenta con muchas proyecciones o ramificaciones de manera que llegan a la proximidad de casi todas las células. Todas las sustancias que necesitan incorporar o eliminar se transfieren por pura difusión; de ahí la gran importancia de contar con extensas superficies de intercambio.
En otros linajes, la pérdida del celoma se vio compensada por la aparición de lo que se denomina un pseudoceloma que es, en realidad, el blastocele embrionario que se mantiene a lo largo de toda la vida. Los animales pseudocelomados –así se llaman- carecen de sistema vascular, de manera que las sustancias son transferidas por difusión desde el interior al exterior y viceversa, o entre diferentes órganos.
Como se ha dicho, la mayor parte de los animales son celomados. Ya se ha señalado que en los que tienen un celoma bien desarrollado el líquido celómico puede cumplir funciones de comunicación y de transporte de diferentes sustancias entre los diferentes órganos. Sin embargo, tiene una seria limitación, ya que no puede dirigirse con precisión a diferentes destinos, ni ser impulsado con intensidades diferentes en una u otra dirección. Y además, en algunos grupos la cavidad celómica se ha visto muy reducida. Por esas razones, en los celomados que han alcanzado una mayor complejidad estructural, el celoma ha sido sustituido a esos efectos por sistemas circulatorios.
Como vimos aquí, hay sistemas circulatorios abiertos y cerrados. Los moluscos gasterópodos y bivalvos, y los artrópodos tienen sistemas abiertos. En ellos la hemolinfa –el equivalente de la sangre- se mueve a través de vasos y se vierte a los espacios extracelulares, de manera que baña directamente las tejidos con los que intercambia sustancias. La cavidad interna formada por los espacios extracelulares se denomina hemocele. En los moluscos, la hemolinfa es impulsada por el corazón y llega, a través de arterias que se ramifican de forma progresiva, hasta los espacios extracelulares; después es recuperada por las venas y devuelta al corazón. En los artrópodos el esquema es algo diferente. El corazón de los insectos, por ejemplo, es un tubo dispuesto en posición dorsal que impulsa la hemolinfa hacia delante. La aorta da continuidad al corazón y alcanza la zona anterior del cuerpo, donde vierte la hemolinfa al hemocele. Aquella, después, se desplaza hacia la parte trasera y va reingresando en el corazón a través de unos poros, denominados ostia, que se distribuyen longitudinalmente. El sistema de los crustáceos es, por comparación con el de insectos, mucho más complejo; el corazón, también en posición dorsal, bombea la hemolinfa hacia la parte posterior, a través de una aorta y arterias que se ramifican al llegar a los tejidos; y al retornar hacia el corazón pasa antes por las branquias. La hemolinfa contiene varios tipos celulares, denominados de forma genérica hemocitos. Ejercen funciones diversas: defensa frente a patógenos, coagulación y, en algunos casos, transporte de gases respiratorios.
Anélidos, moluscos cefalópodos y vertebrados tienen sistemas circulatorios cerrados. A diferencia de los anteriores, la sangre fluye de forma continua a través de los elementos que lo constituyen sin ser vertida y recuperada a y desde una cavidad interna. No obstante, el plasma sanguíneo si puede salir de los capilares y ser recuperado posteriormente en los mismos capilares o a través del sistema linfático. Esa “fuga” y posterior recuperación constituye lo que se denomina intercambio capilar, y es el mecanismo que facilita el reparto de sustancias a los tejidos o su toma para su posterior eliminación. La sangre está formada por el plasma –agua con diferentes sustancias disueltas y proteínas en suspensión coloidal- y por células especializadas que, en vertebrados pueden ser de tres tipos: eritrocitos o glóbulos rojos, leucocitos o glóbulos blancos, y trombocitos, de los que se derivan las plaquetas (salvo en mamíferos, en los que las plaquetas proceden de los megacariocitos de la médula ósea). Los glóbulos rojos transportan oxígeno y CO2, los blancos son parte del sistema inmunitario, y las plaquetas ejercen funciones de coagulación en la cicatrización de heridas.
Además de los líquidos citados hasta ahora (celómico, hemolinfa y sangre), todos los animales tienen un fluido que baña sus células al que llamamos líquido intersticial. En los animales con sistema circulatorio abierto no hay discontinuidad entre ese líquido y la hemolinfa, y sí hay una cierta discontinuidad con la sangre en los animales con sistema cerrado. Finalmente, está el líquido intracelular, al que ya nos referimos aquí al tratar cuestiones relativas a los fenómenos osmóticos a tener en consideración en los animales.
1 Hay especialistas que sostienen que los animales celomados proceden de un antecesor acelomado.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Los compartimentos líquidos de los animales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El principio de relatividad (1): movimiento relativo
La teoría de la relatividad de Einstein se parece más a la teoría heliocéntrica de Copérnico que a la gravitación universal de Newton. La teoría de Newton es lo que Einstein llamaba una “teoría constructiva”. Se construyó en gran parte a partir de resultados experimentales (Kepler, Galileo) usando el razonamiento, hipótesis estrechamente relacionadas con leyes empíricas y conexiones matemáticas. Por otro lado, la teoría de Copérnico no se basaba en ninguna prueba experimental concreta y nueva, sino principalmente en cuestiones estéticas. Einstein se refería a este tipo de planteamientos como una “teoría de principios”, ya que se basaba en ciertos principios supuestos sobre la naturaleza, cuya validez podría entonces contrastarse con el comportamiento observado del mundo real. Para Copérnico, estos principios incluían las ideas de que la naturaleza debía ser simple, armoniosa y “bella”. En este sentido, Einstein pensaba en términos copernicanos. Como después diría uno de sus estudiantes más cercanos, Banesh Hoffmann,
Se podía ver que Einstein estaba motivado no por la lógica en el sentido estricto de la palabra, sino por un sentido de la belleza. Siempre buscó la belleza en su trabajo. Igualmente, le impulsaba un profundo sentido religioso que se satisfacía al encontrar leyes maravillosas, leyes simples en el Universo.
El trabajo de Einstein sobre la relatividad comprende dos partes: una “teoría especial” y una “teoría general”. La teoría especial se refiere a los movimientos de observadores y acontecimientos que no sufren ninguna aceleración. Las velocidades permanecen uniformes. La teoría general, por otro lado, incluye las aceleraciones.
La creación de la teoría de la relatividad especial de Einstein comenzó con consideraciones estéticas que le llevaron a formular dos principios fundamentales sobre la naturaleza. Una vez formulados estos dos principios, Einstein simplemente siguió la lógica que se derivaba de estos dos principios hasta donde fuera que le llevase. Como resultado Einstein derivó de ellos una nueva teoría de los conceptos de espacio, tiempo y masa, conceptos que están en la base de toda la física. Démonos cuenta de que Einstein no estaba construyendo una nueva teoría para acomodar datos experimentales nuevos y desconcertantes*, sino que derivaba, por deducción, las consecuencias que sobre los fundamentos de todas las teorías físicas tenían sus principios básicos.
Aunque se iban acumulando algunas pruebas experimentales en contra de la física clásica de Newton, Maxwell y sus contemporáneos, a Einstein le preocupaba desde joven la forma inconsistente en que se usaba la teoría de Maxwell para tratar el movimiento relativo. Esto le condujo al primero de sus dos postulados básicos: el principio de relatividad, y al título del que quizás sea su artículo más famoso, “Sobre la electrodinámica de los cuerpos en movimiento”.
Pero empecemos por el principio: ¿qué es el movimiento relativo? Una forma de analizar el movimiento de un objeto es determinar su velocidad promedio, que se define como la distancia recorrida durante un tiempo dado, por ejemplo, 13,0 cm en 0,10 s, o 130 cm/s. Imaginemos que estamos jugando con un cochecito que se mueve con esa velocidad promedio sobre una mesa, y la distancia recorrida la medimos en relación a un metro fijo que tenemos sobre ella. Supongamos ahora que la mesa tiene ruedas y que se desplaza en la misma dirección y sentido que el cochecito por la habitación a 100 cm/s con respecto al suelo de la habitación. Luego, en relación con un metro situado en el suelo, el coche se mueve a una velocidad diferente, 230 cm/s (100 +130), aunque el cochecito se sigue moviendo a 130 cm/s con respecto a la mesa. Por tanto, al medir la velocidad promedio del cochecito, primero debemos especificar qué usaremos como referencia para medir la velocidad. ¿Es la mesa, o el suelo u otra cosa? La referencia que elegimos finalmente se llama el “marco de referencia” (ya que podemos considerarlo como el marco de la imagen que recoge los hechos observados). Todas las velocidades se definen así en relación a un marco de referencia que elegimos.
Pero, siguiendo con el razonamiento, observamos que si usamos el suelo como nuestro marco de referencia, tampoco éste está en reposo. Se está moviendo con relación al centro de la Tierra, ya que la Tierra está girando. Además, el centro de la Tierra se mueve en relación con el Sol; y el Sol se mueve en relación con el centro de la Vía Láctea, y así sucesivamente. . . . ¿Alguna vez llegamos al final de esta regresión? O, dicho de otra manera, ¿hay algo que esté en reposo absoluto? Newton y casi todo el mundo después de él pensaba que sí. Para todos ellos, el espacio era el que estaba en reposo absoluto. En la teoría de Maxwell, se cree que este espacio está lleno de una sustancia que no es como la materia normal. Es una sustancia, llamada “éter”, que los físicos supusieron durante siglos como portadora de la fuerza gravitacional. Para Maxwell, el éter mismo está en reposo en el espacio, y explica el comportamiento de las fuerzas eléctricas y magnéticas y la propagación de ondas electromagnéticas.
Aunque todos los esfuerzos experimentales a fines del siglo XIX para detectar el éter en reposo habían terminado en fracaso, Einstein estaba más preocupado desde el principio, no con este fracaso, sino con una inconsistencia en la forma en que la teoría de Maxwell trataba el movimiento relativo. Einstein se centró en el hecho de que son solo los movimientos relativos de los objetos y los observadores, más que cualquier supuesto movimiento absoluto, lo más importante en esta o cualquier teoría. Por ejemplo, en la teoría de Maxwell, cuando se mueve un imán a una velocidad v con respecto a una bobina fija de alambre, se induce una corriente en la bobina, que puede calcularse con anticipación mediante una fórmula determinada. Ahora bien, si el imán se mantiene fijo y la bobina se mueve a la misma velocidad v, se induce la misma corriente, pero se necesita una ecuación diferente para calcularla de antemano. ¿Por qué debería ser así ?, se preguntó Einstein, ya que solo la velocidad relativa v es lo que cuenta? Como las velocidades absolutas, como el espacio y el tiempo absolutos, no aparecían en los cálculos ni pueden determinarse experimentalmente, Einstein declaró que los absolutos, sobre la base de la supuesta existencia del éter, eran “superfluos”, innecesarios.
El éter parecía útil para imaginar cómo viajaban las ondas de luz, pero no era necesario. Y como tampoco se podía detectar, después de la publicación de su teoría por parte de Einstein, la mayoría de los físicos llegaron a aceptar que simplemente no existía. Por la misma razón, se podía prescindir de las nociones de reposo absoluto y movimiento absoluto. En otras palabras, concluía Einstein, todo movimiento, ya sea de objetos o de haces de luz, es movimiento relativo. Debe definirse con relación a un marco de referencia específico, que puede o no estar en movimiento relativo a otro marco de referencia.
Nota:
* Si nos fijamos, Einstein no seguía el llamado “metodo científico” estándar, que asume que existen datos experimentales que las teorías actuales no pueden explicar. La forma de trabajar de Eisntein, en general, basada en principios estético-filosóficos, nunca se acomodó a la descripción del método hipotético deductivo, considerado como “el” método científico. A este respecto, puede resultar interesante leer La tesis de Duhem-Quine (V): Los métodos de la ciencia
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El principio de relatividad (1): movimiento relativo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Catástrofe Ultravioleta #21 PHARMA
En este capítulo nos disponemos a recorrer, desde cero, todos los pasos que se necesitan para descubrir un nuevo medicamento. Entraremos en docenas de laboratorios y conoceremos de primera mano en qué consiste la investigación farmacéutica.
Agradecimientos: Javier Burgos (FIBAO), Juan Diego Unciti (Nanogetic), Manuel Bioque, José Marqués, Pedro Torres y José Riquelme de la fundación AVITE.
* Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.
El artículo Catástrofe Ultravioleta #21 PHARMA se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Acciones policiales proactivas bajo la lupa científica
En la serie Mindhunter, estrenada recientemente en Netflix y que recomiendo a todo el mundo que vea ya, ahora mismo (en cuanto termine de leer este artículo que con tanto cariño he escrito, obviamente), dos agentes del FBI comienzan en los años 70 a analizar desde una perspectiva científica el comportamiento de determinados criminales.
Lo que estos agentes intentan es aplicar un conocimiento metódico, estadístico, sólido y fiable a la prevención de determinados crímenes utilizando como objetos de estudio a aquellos que los han cometido anteriormente. Además del guion y los personajes, especialmente los malos, basados por cierto en criminales reales, lo interesante de la serie es ver cómo las intervenciones policiales comienzan a seguir criterios científicos.
La historia está basada en hechos reales. Se inspira en un libro Mind Hunter: Inside FBI’s Elite Serial Crime Unit escrito por Mark Olshaker y John E. Douglas, dos exagentes del FBI que llevaron a cabo precisamente la labor que realizan los protagonistas en la serie. Un buen ejemplo de cómo la ciencia se aplica a la investigación criminal.
No solo los crímenes pueden someterse a la meticulosa lupa científica. También las intervenciones de la propia policía. Recientemente las Academias Nacionales de Ciencias, Ingeniería y Medicina de Estados Unidos han publicado un informe en el que analizan cuáles de las llamadas prácticas policiales proactivas realmente funcionan para reducir la incidencia del crimen en una zona y cuáles no. Se trata de aumentar la eficacia de los cuerpos policiales y mejorar sus resultados yendo más allá de la mera intuición y aportando una visión estadística rigurosa.
El informe se refiere a las técnicas policiales proactivas, aquellas que se emplean para eliminar y reducir los crímenes, en oposición a las técnicas reactivas, aquellas que se limitan a investigar y resolver crímenes ya cometidos. En cada una de ellas han tratado de responder a varias preguntas: cuál es su impacto en los índices de criminalidad en la zona donde se implementan, cuál es la reacción que producen en la población de la zona, si se están utilizando de forma ética y legal y si existe en su aplicación algún sesgo racial.
Las técnicas policiales que sí reducen el crimen
Un ejemplo es el llamado en inglés hot spots policing o policía en puntos calientes. Esta técnica trata de reducir la criminalidad haciendo que siempre haya agentes apostados en aquellas zonas donde se concentra un mayor número de crímenes. Según los estudios analizados en el informe, esta técnica hace que se reduzcan los delitos cometidos en ese punto sin desplazarlos a las zonas de alrededor.
También ha demostrado su eficacia la acción policial orientada a los problemas (problem-oriented policing). Esta técnica trata de determinar qué causas subyacen en los crímenes de una zona y actuar sobre ellas, ya sea mejorando la iluminación en un punto concreto, arreglando mobiliario urbano o aportando alternativas de ocio para la juventud que de otra forma serían carne de cañón.
Otra técnica analizada es la que llaman de disuasión focalizada (focused deterrence), un intento por mantener controlados a delincuentes reincidentes analizando las causas subyacentes de la criminalidad (marginación, tráfico y consumo de drogas, pobreza, falta de alternativas) e implementando programas que impliquen a las fuerzas de seguridad, a los vecinos y a los servicios sociales en conjunto.
Las técnicas policiales con menos impacto
Algunas de las acciones policiales analizadas no han demostrado ser tan eficaces. Es el ejemplo del alto-interrogación-cacheo (stop-question-frisk), una técnica que consiste en dar el alto por la calle, interrogar y registrar a sospechosos habituales. Los resultados señalan que cuando esta técnica se emplea en puntos concretos con altos índices de criminalidad y sobre criminales con alto riesgo de reincidencia sí parece ser eficaz a corto plazo, pero no existen evidencias sólidas que señalen ese mismo efecto a largo plazo.
Tampoco parece muy clara la efectividad de la técnica de las ventanas rotas (broken-window policing). Está basada en la teoría de que vigilar y controlar entornos urbanos evitando crímenes leves como vandalismo, basura en las calles o consumo de alcohol en público evita que la criminalidad escale y aumente en número e intensidad. Según el informe, esta técnica tiene un impacto a corto plazo, pero pequeño o nulo en la reducción de la criminalidad cuando se aplica de forma agresiva aumentando las detenciones por delitos menores.
La última técnica examinada se llama en inglés procedural justice policing y podríamos traducirla como lo justo de los procedimientos policiales. Se trata de poner el foco en las interacciones policiales con el público y los habitantes de un lugar concreto para transmitir la legitimidad de las acciones policiales, consiguiendo así que la población se involucre y colabore con la policía, consiguiendo una reducción del crimen. Aunque son positivas para mejorar la imagen de la policía en una zona determinada, según el informe no hay evidencias suficientes que confirmen la eficacia de estas iniciativas.
La relación de la policía con el público
El informe de las Academias de Ciencias, Ingeniería y Medicina analiza también cómo la implementación de estas políticas policiales afecta a las relaciones de los cuerpos de seguridad con la población.
Las investigaciones disponibles que las intervenciones policiales en lugares donde se concentra el crimen, como su presencia en puntos calientes, no suelen tener efectos negativos a corto plazo sobre la comunidad en la que se realizan, pero tampoco mejoran la imagen de la policía en esa comunidad. Por eso hacen falta más estudios que permitan entender cuáles son sus efectos a largo plazo.
En cambio, las intervenciones policiales que analizan y tratan de resolver las causas subyacentes del crimen sí que muestran de forma consistente una mejora entre pequeña y moderada de la opinión que la población tiene de la policía. Eso no quita para que siga siendo necesario estudiar las consecuencias a medio y largo plazo.
¿Son técnicas racistas?
El informe ha tratado de determinar si la aplicación de estas políticas policiales proactivas deja entrever un patrón racista. Según sus conclusiones, cuando la policía actúa sobre gente o zonas de alto riesgo, algo común en estas técnicas, son muy probables las disparidades raciales en las interacciones entre los agentes y los ciudadanos. Sin embargo, considera que esto no sirve para establecer de forma concluyente hasta que punto son resultado de una anomalía estadística, un sesgo implícito del observador o un verdadero ánimo racista por parte de los cuerpos policiales.
Por eso hace un llamamiento a ampliar las investigaciones en este campo, de forma que las comunidades y departamentos de policía preocupados por una posible desigualdad racista puedan contar con datos fiables sobre los que actuar. Lo mismo ocurre con los datos a medio y largo plazo sobre la eficacia de estas técnicas, así como la eficacia a mayor escala, observando no solo por zonas sino por ciudades: que no existen.
Referencia:
National Academies of Sciences, Engineering, and Medicine (2017) Proactive Policing: Effects on Crime and Communities. Washington, DC: The National Academies Press. doi: 10.17226/24928.
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo Acciones policiales proactivas bajo la lupa científica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Trepar o correr
Los chimpancés tienen fama de forzudos y, dependiendo de cómo se mire, es una fama merecida. Un kilogramo de músculos de chimpancé desarrolla más fuerza que la misma masa muscular de un ser humano. Ahora bien, nosotros somos de mayor tamaño que ellos, y eso compensa la diferencia. En otras palabras, aunque siempre se ha pensado que un chimpancé puede destrozar a un hombre en una pelea, la realidad no es tan dramática.
Es cierto, no obstante, que los músculos de nuestros primos son más fuertes que los nuestros, un 50% más por unidad de masa. Una pequeña parte de esa diferencia –la correspondiente a un 15%- parece obedecer a factores de carácter anatómico, pero la mayor parte –el 35%- se debe al tipo de fibras musculares de una y otra especie. Simplificando algo las cosas, se puede decir que hay dos tipos de fibras, unas son de contracción rápida y otras de contracción lenta. Y resulta que dos terceras partes de las fibras de los chimpancés son de contracción rápida y, por ello, desarrollan más fuerza. Pero en humanos, en general, las proporciones no son tan diferentes; por esa razón, al tener más fibras lentas, nuestros músculos desarrollan menos fuerza.
La mayor fuerza de los chimpancés tiene una clara contrapartida: sus fibras musculares se fatigan antes. Volviendo a simplificar algo las cosas, se puede afirmar que las fibras de contracción rápida se fatigan con facilidad y las de contracción lenta son muy resistentes a la fatiga. Y lo normal, como suele ocurrir en estos casos, es que esas diferencias tengan relación con el modo de vida o con la práctica de alguna actividad física: los corredores de largas distancias suelen tener mucha mayor proporción de fibras de contracción lenta y resistentes, mientras que los velocistas tienen más fibras rápidas y fatigables.
Por otra parte, si tenemos en cuenta el modo de vida de los chimpancés, entenderemos fácilmente que sus músculos, con abundantes fibras rápidas, son muy adecuados para trepar a los árboles, balancearse y saltar de rama en rama. Que esos músculos se fatiguen con facilidad no constituye una limitación de importancia, porque sus saltos, balanceos y movimientos, en general, no se suelen prolongar durante largo tiempo.
Humanos y chimpancés tuvimos un antepasado común que vivió hace entre siete y ocho millones de años. Su modo de vida era mayoritariamente arbóreo, por lo que es de suponer que su musculatura era similar a la de los chimpancés actuales. Los seres humanos, sin embargo, adoptamos un modo de vida diferente, caracterizado principalmente por la bipedestación. Somos homínidos andarines y se nos da muy bien correr largas distancias, sobre todo bajo las altas temperaturas que han predominado en las horas centrales del día en las sabanas de África durante los tres o cuatro últimos millones de años. Fue precisamente, esa capacidad la que nos proporcionó una ventaja decisiva con respecto a otros animales y la que nos permitió desarrollar la caza de persistencia. Pero esa capacidad dependía críticamente de dos rasgos fisiológicos claves: Uno es la posibilidad de disipar calor mediante la evaporación del sudor, y eso explica que perdiésemos el pelaje al colonizar la sabana, porque el sudor que se evapora en el pelaje apenas enfría la piel. Y el otro es la resistencia a la fatiga; por eso en nuestros músculos hay una proporción mayor de fibras lentas y resistentes que en los chimpancés. Al fin y al cabo, ellos pertenecen a un linaje cuyos miembros trepan y saltan de rama en rama, pero los del nuestro tuvieron que andar y correr sin descanso durante horas.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 16 de julio de 2017.
El artículo Trepar o correr se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Naukas Pro 2017: Lluis Montoliu y el albinismo
El pasado 14 de septiembre de 2017 se celebró la primera edición de Naukas Pro, en el que Centros de Investigación, Laboratorios, científicos de renombre o equipos de trabajo contaron con 20 minutos para explicar a un público general en qué consiste su trabajo.
6ª Conferencia: Lluis Montoliu, Centro Nacional de Biotechología (CNB-CSIC)
LLuis Montoliu explica su trabajo en biotecnologíaEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Pro 2017: Lluis Montoliu y el albinismo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los beneficios de las prendas de compresión para los jugadores de fútbol
A pesar de que se hayan publicado numerosos estudios científicos sobre los procesos subyacentes a la recuperación post-ejercicio, el conocimiento de los procesos de recuperación permanece en un estadio de subdesarrollo científico en comparación con el avance experimentado en el área del entrenamiento para el fútbol. Actualmente, se están estudiando los efectos de algunas estrategias de recuperación de la fatiga o del daño muscular inducido por el ejercicio en futbolistas, pero, hasta la fecha, ningún trabajo había evaluado los beneficios de llevar diferentes tipos de prendas de compresión durante partidos de futbol y el posterior periodo de recuperación. La tesis doctoral de Diego Marqués Jiménez, ‘Efectividad de las prendas de compresión como modalidad de recuperación de la fatiga muscular en jugadores de fútbol’, viene s suplir esta carencia.
La tesis hace un compendio de cuatro investigaciones, entre las que hay una revisión de los principales mecanismos de fatiga y daño muscular en fútbol, así como consideraciones a tener en cuenta para la evaluación del proceso de recuperación en fútbol, una revisión sistemática con meta-análisis sobre los efectos de la terapia compresiva en la recuperación del daño muscular por ejercicio y dos estudios experimentales que analizan la influencia de jugar partidos de fútbol llevando diferentes prendas de compresión, y la de las mismas durante los tres días posteriores al partido.
Las demandas competitivas y las elevadas y variables exigencias físicas a las que es sometido el futbolista pueden derivar en un gran nivel de fatiga y estrés en los sistemas fisiológicos, pudiendo afectar al tiempo para recuperarse por completo después de la competición y tener una incidencia en el rendimiento en los días posteriores al partido. Además, y dado que el deportista pasa más tiempo recuperando que entrenando, optimizar el periodo de recuperación mediante la aplicación de diferentes estrategias de recuperación es un procedimiento esencial en la preparación del próximo partido o entrenamiento. Así, esta tesis doctoral aporta más información sobre una estrategia que puede optimizar dichos procesos de recuperación.
Los resultados de la revisión sistemática con meta-análisis muestran que las prendas de compresión pueden favorecer la recuperación después del ejercicio, pero los resultados necesitan corroboración y son poco concluyentes, ya que la mayoría de los estudios incluidos tienen una alta heterogeneidad, de modo que deben ser interpretados con cautela. Los resultados de los estudios experimentales muestran que, a pesar de la poca significación estadística alcanzada, los diferentes tipos de prendas de compresión podrían tener un efecto positivo tanto en la atenuación de las respuestas provocadas tanto por la fatiga como por el daño muscular inducido por el ejercicio.
En respuesta a los síntomas de la fatiga, las perneras de compresión parecen ser más efectivas y, en respuesta a los síntomas del daño muscular, las perneras y musleras de compresión parecen ser las más efectivas. En cualquier caso, y como el autor señala, “la alta variabilidad en la respuesta física del futbolista a las exigencias de un partido de futbol pone de manifiesto la necesidad de nuevos estudios en situaciones reales de juego, que permitan establecer conclusiones prácticas y que sean aplicables teniendo en cuenta dicha la variabilidad”. Esto permitiría verificar la influencia de esta estrategia de recuperación en las respuestas físicas, fisiológicas y perceptivas en futbolistas.
Referencias:
Marqués-Jiménez, D., Calleja-González, J., Arratibel, I., Delextrat, A., Terrados, N. ‘Fatigue and recovery in soccer: evidence and challenges’. The Open Sports Sciences Journal, 10, (Suppl 1: M5) 52-70 (2017).
Marqués-Jiménez D, Calleja-González J, Arratibel I, Delextrat, A., Terrados, N. ‘Are compression garments effective for the recovery of exercise-induced muscle damage? A systematic review with meta-analysis’. Physiology y Behavior, 153: 133–484. (2016).
Marqués-Jiménez D, Calleja-González J, Arratibel I, Delextrat, A., Uriarte, F., Terrados, N. ‘Physiological and physical responses to wearing compression garments during soccer matches and recovery’. J Sports Med Phys Fitness (2017). Doi: 10.23736/S0022-4707.17.07831-8.
Marqués-Jiménez D, Calleja-González J, Arratibel I, Delextrat, A., Uriarte, F., Terrados, N. ‘Influence of different types of compression garments on exercise-induced muscle damage markers after a soccer match’. Research in Sports Medicine (2017) (aceptado y pendiente de publicación).
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Los beneficios de las prendas de compresión para los jugadores de fútbol se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:12000 francos para conquistar el mundo
No hay duda de que Napoleón era un hombre con una mente brillante. Pero a conquistar medio mundo no se llega sino subiéndose a hombros de gigantes.
Napoleón conquistó tierras, derrotó ejércitos, sentía que podía con todo… menos con las bacterias y el escorbuto que sufrían sus soldados debido a una alimentación basada básicamente en carne cocida y algo de pan. Carne, además, en dudoso estado porque no conseguían que durase más de 3 o 4 días.
Como hombre listo que era, Napoleón sabía que sus soldados debían estar sanos y bien alimentados para enfrentarse a la batalla en sus mejores condiciones. Permanecían largas temporadas fuera de Francia y el abastecimiento era complicado. Necesitaba una solución.
Esa solución se la dio Nicolás Appert, pastelero francés interesado en conseguir que los alimentos se conservaran durante más tiempo. Este pastelero revolucionó el mundo con un método que hoy todos utilizamos y que lleva su nombre, apertización. Puede que esta palabra no les suene, pero ¿y si les digo “conservas”? Todos tenemos alguna lata de tomate o atún en nuestra casa y se lo debemos a él.
Nicolás Appert consiguió que los alimentos se mantuvieran en perfectas condiciones durante largas temporadas aunque no sabía bien por qué, ya que en aquella época no tenía medios para averiguarlo. Para ello utilizó botellas de vidrio con la boca ancha donde introducía los alimentos y que sumergía parcialmente dentro de cazuelas con agua hirviendo (al baño maría). Antes las cerraba especialmente bien con corcho y cera, sujetándolas con alambres para evitar que el aire entrara en ellas. Estudió los tiempos, cantidad y temperatura dependiendo del alimento. Se dio cuenta de la importancia de una estricta higiene a la hora de manipular los alimentos y de que un cierre hermético era clave para que su método funcionara correctamente.
Él no fue consciente en ese momento, pero acababa de descubrir la esterilización por calor. Posteriormente Louis Pasteur consiguió dar una explicación científica a los experimentos de Nicolás Appert. Al igual que Napoleón, Pasteur se subió a hombros de este gigante y le agradeció sus experimentos, ya que gracias a ellos llegó a tirar por tierra la teoría de la “generación espontánea” e inventó la hoy llamada pasteurización. Eso sí, 54 años después que Appert.
El método de Appert llamó la atención de Napoleón, como no podía ser de otra manera, y comenzó a usarlo para abastecer a la marina francesa. Otorgó a Nicolás el premio de 12.000 francos fruto de un concurso creado para aquel que encontrara una manera eficaz de conservar alimentos (dudosa manera de invertir en ciencia, no lo cuenten por ahí, no vaya a ser que les copien). Con esos 12.000 francos Appert abrió la primera fábrica de conservas que, pese a que fue quemada y destruida en la guerra franco-prusiana, estuvo en activo hasta 1933. No hizo mal negocio Napoleón: 12.000 francos por conquistar el mundo.
Appert era un hombre inquieto y no dejó nunca de hacer experimentos y, por supuesto, de proporcionarle soluciones a las tropas napoleónicas. Quizá por casualidad se dio cuenta de que, eliminando completamente el agua de un caldo, obtenía una pasta (él la llamaba “cubo de caldo”) a la que si se le incorporaba nuevamente agua, aunque fuera mucho tiempo después, volvía a convertirse en un caldo similar al original. Nicolás Appert inventó el caldo concentrado que tan explotado ha sido posteriormente como recurso para potenciar el sabor en los guisos o simplemente convertirlo de nuevo en caldo.
Como se podrán imaginar, esto fue otra gran revolución para facilitar la alimentación del ejército. Napoleón estaba realmente encantado con Nicolás Appert. Sus descubrimientos consiguieron unas tropas bien alimentadas, que junto a una gran estrategia le llevaron a construir un imperio de unas magnitudes asombrosas.
Basándose siempre en diferentes momentos de la desecación de productos, Appert llegó también a inventar el concentrado de leche, es decir, la leche condensada. Gran cantidad de nutrientes, altamente calórica, de fácil conservación y duradera. Un manjar para quien se encuentra en el frente.
Con alimentos en conserva, comenzando por legumbres, siguiendo por frutas y verduras, con caldo concentrado con el que podían aportar nutrientes en una sopa calentita y la leche condensada, la marina de Napoleón tenía una importante ventaja añadida sobre las tropas de otros países. No había quien pudiera con ellos. Napoleón, gracias a Nicolás Appert había vencido al gran ejército de bacterias que consumían sus alimentos y a terribles enfermedades como el escorbuto que mermaban los recursos humanos de sus contrincantes.
Esto llevó a Nicolás Appert a convertirse en héroe nacional, ganando la medalla de oro de la Société d’Encouragement pour l’Industrie Nationale por facilitar el acceso a este tipo de alimentos no sólo a la marina y ejército sino a toda la población francesa.
Pero no todo iba a ser fácil para Napoleón, es evidente que no finalizó con éxito su conquista mundial (si no, estaría leyendo esto en francés), y todo comenzó en Rusia. Allí los métodos de Nicolás Appert encontraron un fallo: las botellas en las que se conservaban los alimentos eran frágiles y se rompían, además no se podían apilar con facilidad. Cuando conseguían alcanzar su destino, muchas de ellas llegaban rotas y no se podían aprovechar los alimentos que contenían. Este declive, unido a las adversas condiciones rusas, fue el principio del fin de Napoleón.
Mientras tanto, sus enemigos se habían fijado en el método de Appert, lo mejoraron y encontraron una solución para la fragilidad de los envases. El inglés Durant le pide al rey Jorge la patente del método para conservar alimentos tan sólo dos meses después de que Nicolás publicara el libro “Le livre de tous les ménages ou L’Art de conserver, pendant plusieurs années, toutes les substances animales et végétales” (El libro de todos los hogares o El arte de preservar, durante varios años, todas las sustancias animales y vegetales). Durant, que nunca llegó a fabricar ni una sola lata, vendió esta patente a Bryan Donkin y John Hall, dueños de una fundición donde comienzan a fabricar latas de hierro cubiertas de estaño. Desde luego que era un método más cómodo y práctico para el envío de alimentos a los soldados e igual de eficaz.
Appert también lo intentó, pero ya era tarde, los ingleses ya eran capaces de fabricar alimentos en conserva y con mayores ventajas. Aunque no crean que los ingleses eran tan listos. Tuvieron que pasar 45 años hasta que un americano Ezra J. Warner, inventara el abrelatas. Hasta ese momento se utilizaban navajas o bayonetas, o incluso disparos de fusil para abrir las dichosas latitas.
Nicolás Appert no patenta ninguno de sus métodos anteponiendo las necesidades de la población a sus propios intereses económicos. Lamentablemente muere solo y arruinado en 1841 a los 92 años. Su cadáver es enterrado en una fosa común. Triste final para el pastelero que ayudó a Napoleón a conquistar medio mundo.
Hoy en día nos queda su legado: el caldo concentrado, la leche condensada, la obtención de gelatina y los inicios de lo que posteriormente sería el autoclave: básico para la esterilización tanto de objetos como de las propias conservas.
Aunque no conozcamos el nombre de su método, la apertización, lo utilizamos con frecuencia en nuestros hogares cuando preparamos conservas caseras (háganlo con cuidado, si no cierran herméticamente el envase, puede contaminarse con bacterias peligrosas como el Clostridium botulinum).
Ahora, cada vez que añadan un poco de caldo concentrado al guiso o calienten un tarro al baño maría para hacer una conserva, acuérdense del pastelero que revolucionó la conservación de alimentos durante la Revolución francesa y ayudó a ganar a Napoleón la guerra más importante, la de la alimentación.
Este post ha sido realizado por Gemma del Caño (@FarmaGemma) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.
Referencias:
Historia y Biografías. Nicolás Appert
Historia de la alimentación militar en Europa durante los siglos XIX y XX. Miguel Krebs. 2008
El gran libro de las conservas. Carol W. Costenbader
Fundación Cotec para la innovación tecnológica. DOCUMENTOS COTEC SOBRE NECESIDADES TECNOLÓGICAS. Conservas Vegetales.
Tatiana Díaz. Octubre 2014. Napoleón y las conservas de alimentos, el inicio militar de un avance científico-tecnológico.
El artículo 12000 francos para conquistar el mundo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Por qué la filosofía es tan importante para la educación científica
Subrena E. Smith
Cada semestre, enseño cursos sobre filosofía de la ciencia a estudiantes de grado en la Universidad de New Hampshire. La mayoría de los estudiantes se matriculan en mis cursos para satisfacer los requisitos de educación general, y la mayoría de ellos nunca antes han asistido una clase de filosofía.
El primer día del semestre, trato de darles una idea de lo que va la filosofía de la ciencia. Comienzo por explicarles que la filosofía aborda cuestiones que no pueden resolverse solo con los hechos, y que la filosofía de la ciencia es la aplicación de este enfoque al campo de la ciencia. Después de esto, explico algunos conceptos que serán centrales para el curso: inducción, pruebas y método en la investigación científica. Les digo que la ciencia procede por inducción, las práctica de recurrir a observaciones pasadas para hacer afirmaciones generales sobre lo que aún no se ha observado, pero que los filósofos consideran que la inducción está inadecuadamente justificada y, por lo tanto, es problemática para la ciencia. Luego me refiero a la dificultad de decidir qué prueba se ajusta a cada hipótesis de manera única, y por qué es vital para cualquier investigación científica tener esto claro. Les hago saber que “el método científico” no es singular y directo, y que existen disputas básicas sobre cómo debería ser la metodología científica. Por último, hago hincapié en que, aunque estos temas son “filosóficos”, sin embargo tienen consecuencias reales sobre cómo se hace ciencia.
En este punto, a menudo me hacen preguntas como: “¿Cuáles son sus credenciales?””¿A qué universidad asistió?” y “¿Es usted una científica?”
Tal vez hacen estas preguntas porque, como filósofa de extracción jamaicana, encarno un grupo de identidades poco común, y sienten curiosidad por mí. Estoy segura de que eso es en parte así, pero creo que hay más, porque he observado un patrón similar en un curso de filosofía de la ciencia impartido por un profesor más estereotípico. Como estudiante de posgrado en la Universidad de Cornell en Nueva York, trabajé como profesora asistente en un curso sobre la naturaleza humana y la evolución. El profesor que lo impartía daba una impresión física muy diferente a la mía. Era blanco, varón, barbudo y de unos 60 años: la imagen misma de la autoridad académica. Pero los estudiantes eran escépticos sobre sus puntos de vista sobre la ciencia, porque, como algunos decían, desaprobantes: “No es un científico”.
Creo que estas respuestas tienen que ver con dudas sobre el valor de la filosofía en comparación con el de la ciencia. No es de extrañar que algunos de mis alumnos duden de que los filósofos tengan algo útil que decir acerca de la ciencia. Son conscientes de que científicos prominentes han declarado públicamente que la filosofía es irrelevante para la ciencia, si no completamente inútil y anacrónica. Saben que la educación STEM (ciencia, tecnología, ingeniería y matemáticas, por sus siglas en inglés) tiene una importancia mucho mayor que cualquier cosa que las humanidades puedan ofrecer.
Muchos de los jóvenes que asisten a mis clases piensan que la filosofía es una disciplina confusa que solo se ocupa de cuestiones de opinión, mientras que la ciencia se dedica al descubrimiento de hechos, a proporcionar pruebas y la difusión de verdades objetivas. Además, muchos de ellos creen que los científicos pueden responder a las preguntas filosóficas, pero los filósofos no tienen nada que aportar a las científicas.
¿Por qué los estudiantes universitarios tratan tan a menudo a la filosofía como completamente distinta y subordinada a la ciencia? En mi experiencia, destacan cuatro razones.
Una tiene que ver con la falta de conciencia histórica. Los estudiantes universitarios tienden a pensar que las divisiones departamentales reflejan divisiones precisas en el mundo, por lo que no pueden darse cuenta de que la filosofía y la ciencia, así como la supuesta división entre ellas, son creaciones dinámicas humanas. Algunos de los temas que ahora se etiquetan como “ciencia” en algún momento estuvieron bajo encabezados diferentes. La física, la más segura de las ciencias, estuvo una vez el ámbito de la “filosofía natural”. Y la música correspondía naturalmente a la facultad de matemáticas. El alcance de la ciencia se ha reducido y ampliado, dependiendo de la época y el lugar y los contextos culturales donde se practicó.
Otra razón tiene que ver con los resultados concretos. La ciencia resuelve problemas del mundo real. Nos da tecnología: cosas que podemos tocar, ver y usar. Nos da vacunas, cultivos transgénicos y analgésicos. La filosofía no parece, para los estudiantes, tener elementos tangibles que mostrar. Pero, por el contrario, los tangibles filosóficos son muchos: los filosóficos experimentos mentales de Albert Einstein hicieron posible la Cassini. La lógica de Aristóteles es la base de la informática, que nos dio ordenadores portátiles y teléfonos inteligentes. Y el trabajo de los filósofos sobre el problema mente-cuerpo preparó el terreno para el surgimiento de la neuropsicología y, por lo tanto, de la tecnología de imagenes del encéfalo. La filosofía siempre ha estado trabajando silenciosamente a al sombra de la ciencia.
Una tercera razón tiene que ver con las preocupaciones sobre la verdad, la objetividad y el sesgo. La ciencia, insisten los estudiantes, es puramente objetiva, y cualquiera que desafíe esa visión debe estar equivocado. No se considera que una persona sea objetiva si aborda su investigación con un conjunto de supuestos previos. Por contra, sería “ideológica”. Pero todos somos “parciales” y nuestros prejuicios alimentan el trabajo creativo de la ciencia. Este problema puede ser difícil de abordar, ya que la concepción ingenua de la objetividad está muy arraigada en la imagen popular de lo que es la ciencia. Para abordarlo, invito a los estudiantes a mirar algo cercano sin ningún prejuicio. Luego les pido que me digan lo que ven. Se paran … y luego reconocen que no pueden interpretar sus experiencias sin recurrir a ideas anteriores. Una vez que se dan cuenta de esto, la idea de que puede ser apropiado hacer preguntas sobre la objetividad en la ciencia deja de ser tan extraña.
La cuarta fuente de incomodidad para los estudiantes proviene de lo que ellos consideran que es la educación científica. Una tiene la impresión de que piensan que la ciencia consiste principalmente en enumerar las cosas que existen -los “hechos” – y que la educación científica es enseñarles cuáles son estos hechos. Yo no respondo a estas expectativas. Pero como filósofa, me preocupa principalmente cómo se seleccionan e interpretan estos hechos, por qué algunos se consideran más importantes que otros, las formas en que los hechos están empapados de prejuicios, y así sucesivamente.
Los estudiantes a menudo responden a estas cuestiones declarando con impaciencia que los hechos son hechos. Pero decir que una cosa es idéntica a sí misma no es decir nada interesante acerca de ella. Lo que los estudiantes quieren decir con “los hechos son hechos” es que una vez que tenemos “los hechos” no hay lugar para la interpretación o el desacuerdo.
¿Por qué piensan de esta manera? No es porque esta sea la forma en que se practica la ciencia sino, más bien, porque así es como normalmente se enseña la ciencia. Hay una cantidad abrumadora de hechos y procedimientos que los estudiantes deben dominar para llegar a ser competentes científicamente, y solo tienen un tiempo limitado para aprenderlos. Los científicos deben diseñar sus cursos para mantenerse al día con un conocimiento empírico en rápida expansión, y no tienen el placer de dedicar horas de clase a preguntas que probablemente no están capacitados para abordar. La consecuencia involuntaria es que los estudiantes a menudo salen de sus clases sin darse cuenta de que las preguntas filosóficas son relevantes para la teoría y la práctica científica.
Pero las cosas no tienen por qué ser así. Si se establece la plataforma educativa adecuada, los filósofos como yo no tendrán que trabajar a contracorriente para convencer a nuestros estudiantes de que tenemos algo importante que decir acerca de la ciencia. Para esto necesitamos la ayuda de nuestros colegas científicos, a quienes los estudiantes ven como los únicos proveedores legítimos de conocimiento científico. Propongo una división explícita del trabajo. Nuestros colegas científicos deberían continuar enseñando los fundamentos de la ciencia, pero pueden ayudar dejando claro a sus alumnos que la ciencia está repleta de importantes cuestiones conceptuales, interpretativas, metodológicas y éticas que los filósofos están en una posición única para abordar, y que lejos de ser irrelevantes para la ciencia, los asuntos filosóficos se encuentran en su núcleo.
Sobre el autor: Subrena E. Smith es profesora ayudante de filosofía en la Universidad de New Hampshire (Estados Unidos).
Texto traducido y adaptado por César Tomé López a partir del original publicado por Aeon el 13 de noviembre de 2017 bajo una licencia Creative Commons (CC BY-ND 4.0).
El artículo Por qué la filosofía es tan importante para la educación científica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: