S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 42 min 34 sec

Inteligencia y ateísmo

lun, 2018/02/05 - 11:59

Los británicos R. Lynn y J. Harvey, y el danés H. Nyborg, se preguntaron si la idea que Richard Dawkins expresa en The God Delusion de que no es inteligente creer en la existencia de Dios es o no correcta. Y la respuesta a esa pregunta la publicaron en abril de 2008 en la edición digital (en 2009 en papel) de la revista Intelligence en un artículo titulado Average intelligence predicts atheism rates across 137 nations. El estudio da cuenta de la existencia de una correlación negativa significativa entre la inteligencia (expresada mediante el índice “g” de inteligencia general) y el grado de religiosidad de la población de diferentes países.

Los autores, en su introducción, revisaron los trabajos anteriores sobre este mismo tema, e indicaron que las evidencias de la existencia de una relación negativa entre inteligencia y fe religiosa proceden de cuatro fuentes diferentes: 1) Existencia de correlación negativa entre las dos variables; como ejemplo, en un estudio realizado con más de 14.000 norteamericanos jóvenes el IQ varió de la siguiente forma: no religiosos = 103’09; algo religiosos = 99’34; bastante religiosos = 98’28; muy religiosos = 97’14. 2) Menores porcentajes de personas con creencias religiosas entre las personas más inteligentes que en el conjunto de la población. 3) Disminución de las creencias religiosas de niños y adolescentes conforme crecen y desarrollan sus habilidades cognitivas. 4) Disminución de la creencia religiosa durante el siglo XX conforme aumentaba la inteligencia de la población.

Los resultados del estudio se resumen en que la correlación entre el nivel de inteligencia general “g” y la variable “incredulidad religiosa” (religious disbelief) era de 0’60 para un conjunto de 137 países. Si se analizaban por separado los segmentos superior e inferior en que puede dividirse el conjunto de datos (para comprobar si la relación es consistente en todo el rango) se obtenían correlaciones positivas en ambos, aunque esa correlación era alta en el tramo superior y baja en el inferior. O sea, la máxima variación se producía entre los países con mayor nivel de inteligencia y mayor “incredulidad religiosa”.

Un último elemento de interés de ese trabajo es que los autores atribuían las diferencias observadas a factores de naturaleza genética e indicaban que la religiosidad (o creencias religiosas) es altamente heredable (heredabilidad de 0’4-0’5)1.

Los resultados comentados en los párrafos anteriores no constituyen ninguna excepción, sino que se han visto confirmados en diferentes ocasiones y en contextos muy diferentes. Por otro lado, se ha comprobado también que la religiosidad influye en el estilo cognitivo. De acuerdo con la denominada “hipótesis del procesamiento dual”, la cognición tiene una componente intuitiva (rápida) y otra componente lógica (lenta). Y recientemente se han obtenido pruebas experimentales que demuestran un vínculo entre religiosidad y estilo cognitivo. Por ello, se ha sugerido que el efecto de la religiosidad sobre la inteligencia se sustenta en sesgos cognitivo-comportamentales que dan lugar a dificultades al detectar situaciones en las que la intuición y la lógica entran en conflicto. En otras palabras, los individuos religiosos tienden a hacer uso de la componente lógica de la cognición en menor medida que los no religiosos y detectan peor contradicciones entre el razonamiento y la intuición. Y por esa razón obtendrían peores resultados en los test psicométricos.

Richard E. Daws y Adam Hampshire, del Imperial College de Londres, han publicado hace unas semanas en la revista Frontiers of Psycology las conclusiones de un trabajo en el que han sometido a contraste empírico la hipótesis recogida en el párrafo anterior; y sus resultados parecen avalarla.

Su investigación confirma que, en promedio, las personas no religiosas realizan mejor las tareas cognitivas que las religiosas. La magnitud del efecto es pequeña pero significativa, y es acorde con una diferencia de 2-4 puntos en el cociente de inteligencia (CI), tal y como habían puesto de manifiesto estudios psicométricos anteriores a gran escala. La comparación entre ateos y creyentes más dogmáticos llega a arrojar una diferencia de 6.45 puntos en el CI.

Según los autores del estudio, el sesgo cognitivo-comportamental antes descrito sería el causante del efecto de la religiosidad sobre los resultados de los test de inteligencia y no obedecería, por lo tanto, a una menor inteligencia por sí misma. Esa conclusión se ve reforzada por el hecho de que el efecto de la religiosidad se relaciona de forma significativa con los componentes de los test relativos al razonamiento y apenas tiene relación con la memoria de trabajo. Los fallos de razonamiento surgirían cuando los procesos intuitivos rápidos no son contrarrestados por los procesos lógicos lentos. Las diferencias en la calidad del razonamiento serían, por lo tanto, relativas a la capacidad y estilo cognitivo de los individuos, no a su inteligencia.

En conclusión, de acuerdo con el trabajo reseñado, la religiosidad estaría asociada con un peor desempeño en las tareas que provocan un conflicto cognitivo. Ese efecto puede reflejar sesgos cognitivos-comportamentales aprendidos que propician una toma de decisiones basada en mayor medida en intuiciones; y no sería consecuencia de una menor capacidad para entender reglas lógicas complejas o para mantener información en la memoria de trabajo.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

Nota:

1 Se entiende por heredebailidad el porcentaje de la variabilidad observada en un rasgo dado que es atribuible a la herencia genética.

El artículo Inteligencia y ateísmo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Pro 2017: Julián Estévez y la inteligencia computacional
  2. La búsqueda de la inteligencia artificial, en la próxima zientziateka
  3. Máquinas inteligentes (II): Inteligencia artificial y robótica
Catégories: Zientzia

El síndrome de Frankenstein (o de Frankenfood )

dim, 2018/02/04 - 11:59

La novela Frankenstein o El moderno Prometeo, de Mary W. Shelley, se publicó en Londres el 1 de enero de 2018. Celebremos, a nuestra manera, el 200 aniversario de un evento que es crucial en la relación de la ciencia con la sociedad en nuestro tiempo.

“Tu eres mi creador, pero yo soy tu dueño: ¡obedece!”
Mary W. Shelley, Frankenstein o El moderno Prometeo, 1818.

Una definición del síndrome de Frankenstein aparece en Wikipedia: es el temor de que los descubrimientos de la ciencia se vuelvan contra la especie humana y la dañen o, incluso, la destruyan. Es, en último término, el temor patológico hacia las creaciones humanas. Así, en nuestro tiempo, nos asustan las vacunas, los móviles, la electricidad, las ondas electromagnéticas, las centrales nucleares o, como veremos, las plantas transgénicas.

Entre los descubrimientos más recientes que tanto temor provocan están las organismos modificados genéticamente (GMO, del inglés Genetically Modified Organism), llamados, con propiedad y acierto, Frankenfoods. Es un término que se puede juzgar peyorativo, y que se aplica, sobre todo, a las plantas y animales modificados genéticamente en el laboratorio. El término apareció por primera vez el 16 de junio de 1992, en el New York Times, en una carta al director, firmada por Paul Lewis, profesor de inglés del Colegio Boston, y enviada en respuesta a un artículo de Edmund Andrews, publicado el 13 de junio, que presentaba la patente del primer alimento modificado genéticamente, en este caso, un tomate. Era una patente de la empresa DNA Plant Technology Corporation que, en el grupo dirigido por Pamela Dunsmuir, había insertado en el tomate los genes que dirigían la síntesis de péptidos anticongelantes en el lenguado de invierno. Este pez, de nombre científico Pseudopleuronectes americanus, resiste el frío en su área de distribución de la costa este de Estados Unidos, en el Atlántico Norte. Así se conseguía un tomate resistente al frío, tanto en el campo como luego en el almacenamiento y transporte refrigerados. A este tomate le llamaron Flav Savr.

Consiguieron la patente en 1992, la noticia apareció en el New York Times en junio y provocó la respuesta de Paul Lewis que, en su carta al director, decía:

Desde que el barón de Mary Shelley liberó de su laboratorio a su creación que mejoraría la especie humana, los científicos no han parado de traer a la vida novedades parecidas. Si ellos quieren vendernos Frankenfoods, quizá es el momento de convocar a los campesinos, prender las antorchas y asaltar el castillo.”

La realidad es que, en estos momentos, el 75% de los alimentos procesados que se consumen en Estados Unidos tienen alguno o varios de las ocho GMO que se comercializan en la actualidad: maíz, soja, alfalfa, remolacha azucarera, colza, algodón, papaya y calabacín.

Precisamente ahora, en las últimas semanas, el salmón gigante transgénico se ha puesto a la venta en Canadá. La empresa que lo comercializa ha declarado que ya ha vendido unas cuatro toneladas y media en filetes. En Estados Unidos también tienen permiso para comercializar este salmón desde 2015, pero todavía no ha llegado al mercado.

Era inevitable que a este salmón se le llamara Frankenfish, y es la primera especie animal GMO que llegará, y ha llegado en Canadá, a nuestra cocina y nuestra mesa.

Y, de nuevo recientemente, Sánchez y Parrott, de la Asociación Gremial ChileBio CropLife, de Santiago de Chile, y de la Universidad de Georgia, respectivamente, han publicado un meta-análisis sobre los trabajos que tratan de los riesgos de las GMO.

Un 5% de los estudios publicados sobre riesgos de plantas transgénicas concluyen que representan algún peligro. En total, son 35 artículos de un total de casi 700. Es curioso que, de esos 35 trabajos, el 43% venga de Italia o el 17% de Egipto y, en cambio, solo uno trate de investigaciones hechas en Estados Unidos, aunque la publicación venga de Australia.

Son investigaciones puntuales con GMO concretas, aunque, cuando llegan a los medios y al público, lo que es típico y habitual, el riesgo para una sola especie se amplia a todos los cultivos de transgénicos.

En general, los estudios vienen de pocos laboratorios y se publican en revistas no muy importantes. Además, presentan problemas metodológicos que invalidan sus conclusiones. Después de 20 años de cultivos comerciales de GMO, los autores del meta-análisis destacan que todavía no se ha publicado ningún trabajo que demuestre efectos peligrosos para la salud humana.

Termino, por ahora, sobre este asunto con la recomendación de repasar el blog de José Miguel Mulet y, ya que parece que hay tantas publicaciones interesantes en los últimos meses sobre las GMO, y lean la entrada titulada “AntiOGM, si no tienes argumentos: invéntalos.

Vamos a profundizar en la acción de los medios en relación con el síndrome de Frankenstein. Son importantes para difundir la ciencia entre los ciudadanos y crear una cultura científica que ayude a tomar decisiones. En Estados Unidos, Mary Nucci y Robert Kubey, de la Universidad Estatal de Nueva Jersey, han repasado las noticias sobre las GMO en las tres cadenas nacionales de televisión más vistas: ABC, CBS y NBC.

Ya sabemos que la televisión es un medio esencial para difundir noticias con rapidez y a grandes audiencias. Sin embargo, el tratamiento de las GMO en estas tres cadenas es menor y más ligero que en la prensa escrita. Solo se le concede más tiempo en momentos puntuales de crisis. En general, el público sabe poco de las GMO, lo que no impide que, en muchos casos, tenga fuertes convicciones a favor o en contra.

Además, no hay que olvidar que, como escribe José Miguel Mulet, los periodistas aplican un exagerado principio de equidistancia en asuntos, como el de las GMO, que van desde un consenso científico extendido a declaraciones de falsedad manifiesta. Aunque también es cierto que, por lo menos en Estados Unidos, lo que llega de los científicos profesionales al público no influye mucho cuando se forman una opinión, basada más en creencias que en evidencias.

El mismo grupo, liderado por Mary Nucci, también analiza las noticias sobre GMO en la prensa escrita entre 1992 y 2002. Después de repasar cientos de referencias en periódicos y revistas de tirada nacional en Estados Unidos, destacan que el enfoque es muy variado así como el número de noticias, con picos en 1999 y 2000.

Sin embargo, el resultado final es confuso, los debates son continuos, las exageraciones abundan y, en último término, el ciudadano no sabe si las GMO suponen un riesgo o no. Así, un 31% de los consumidores no pueden nombrar un caso concreto sobre los riesgos de las GMO y, algunos, como mucho, recuerdan que es “algo relacionado con el maíz”. En el estudio de Kami Silk y sus colegas, de la Universidad Estatal de Michigan, encuestan a 958 ciudadanos, con 482 mujeres, con edades de 18 a 73 años, y edad media de 29.5 años. El grupo mayor, con 357 voluntarios, no tiene muchos conocimientos sobre las GMO y, también, su respuesta es emocional y tibia. Están a la espera de más información para tomar una decisión. En el otro extremo, otro grupo, con 50 voluntarios, son anti-GMO y las consideran peligrosas, sobre todo porque son parte de nuestros alimentos y las ingerimos. Es más, la mayoría de los encuestados no es consciente de que ya come GMO. Recordar que, en Estados Unidos, el 75% de los alimentos llevan algún GMO. Incluso algunos, quizá muchos, se asustan pues tienen asumido que con los GMO ingerimos “genes”, lo que, creen, es imposible cuando comemos los alimentos de siempre.

El término Frankenfood entró rápidamente en el debate sobre las GMO, siempre con una base psicológica importante en el síndrome de Frankenstein. Evoca profundas respuestas emocionales, como las provocaba la criatura de la novela de Shelley y, sobre todo, la película dirigida por James Whale en 1931. Frankenfood aparece con la incertidumbre que crea la continua polémica sobre las GMO. Es una metáfora que nos ayuda a comprender lo que para muchos supone el peligro de las GMO. Y refleja el miedo que la ciencia y la tecnología provocan en muchas personas y, todavía más, si se considera que la ciencia sobrepasa lo que algunos consideran sus límites. Ese límite es, como en la novela y se repite con las GMO, crear vida.

Además, es un debate que no es fácil simplificar pues, como tantos otros desacuerdos en nuestra complicada sociedad actual, incluye ciencia, política, ideología, salud humana y ambiental, patentes, economía, grandes multinacionales y la opinión pública de una cultura globalizada. Solo con mencionar Frankenfood ya sentimos creencias, emociones e ideología.

Referencias:

Andrews, E.L. 1992. Patents: Keeping ice out of flood that’s frozen. New York Times June 13.

Glass-O’Shea, B. 2011. The history and future of genetically modified crops: Frankenfoods, superweeds, and the developing world. Journal of Food Law and Policy 7: 1-33.

Hightower, R. et al. 1991. Extression of antifreeze proteins in transgenic plants. Plant Molecular Biology 17: 1013-1021.

Maximen, A. 2012. Politics holds back animal engineers. Nature 490: 318-319.

Mazanek, C. 2016. Frankenfoods: Conceptualizing the Anti-GMO argument in the Anthropocene. News Errand’s: The Undergraduate Journal of American Studies 3: 1-12.

McInnery, C. et al. 2004. The flow of scientific knowledge from lab to the lay public. The case of genetically modified food. Science Communication 26: 1-31.

Nucci, M.L. & R. Kubey. 2007. “We begin tonight with fruits and vegetables”. Genetically modified food on the evening news 1980-2003. Science Communication 29: 147-176.

Sánchez, M.A. & W.A. Parrott. 2017. Characterization of scientific studies usually cited as evidence of adverse effects of GM food/feed. Plant Biotechnology Journal DOI: 10.1111/pbi.12798

Shelley, M.W. 2001 (1818). Frankenstein o El moderno Prometeo. Cátedra. Madrid. 356 pp.

Silk, K. et al. 2005. Gene cuisine or Frankenfood? The theory of reasoned action as an audience segmentation strategy for messages about genetically modified foods. Journal of Health Communication 10: 751-767.

Van Ennennaam, A.L. & W.M. Muir. 2011. Transgenic salmon: a final leap to the grocery shelf? Nature Biotechnology 29: 706-710.

Wikipedia. 2016, Síndrome de Frankenstein. 16 febrero.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo El síndrome de <i>Frankenstein</i> (o de <i>Frankenfood</i> ) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los 2 casos del síndrome de Hikikomori en España
  2. El caso de Rin Tin Tin y sus amigos
  3. Una herramienta para evaluar el síndrome premenstrual
Catégories: Zientzia

Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático

sam, 2018/02/03 - 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

José Miguel Viñas: Me río yo del cambio climático

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – María José Calderón y Belén Valenzuela: Esta física es la leche
  2. Naukas Bilbao 2017 – Daniel Marín: Algo se muere en el alma cuando una sonda se va
  3. Naukas Bilbao 2017 – Mónica Lalanda: Una muerte de cómic
Catégories: Zientzia

Cómo criopreservar células madre

ven, 2018/02/02 - 17:00

Foto del biosistema con la tinción calceína-etidio tras la congelación (células vivas teñidas de verde y muertas de rojo).

Las células madre mesenquimales son células adultas y pluripotentes con morfología fibroblastoide y capacidad de diferenciarse a diversos linajes celulares como condrocitos, osteocitos y adipocitos entre otros. Su uso para el tratamiento de enfermedades de diverso carácter se está incrementando de manera considerable en la última década.

Una de las aplicaciones en las que se están utilizando (todavía en ensayos clínicos) es el tratamiento de la osteoartritis, la cual se caracteriza por una degeneración paulatina del cartílago articular y el tejido circundante. Las últimas investigaciones parecen mostrar que estas células son capaces de regenerar el tejido dañado y cambiar la comunicación circundante del tejido inflamado, pudiendo reducir el dolor causado por esa enfermedad. En el caso de tratar tejidos cartilaginosos, diversas investigaciones han descrito que las células madre derivadas del líquido sinovial poseen características superiores a las extraídas de otros tejidos.

La Unidad de Cirugía Artroscópica (UCA) ubicada en el Hospital Vithas San José de Vitoria-Gasteiz, dirigida por Mikel Sánchez, ha elaborado un andamio o matriz que ha mostrado unas propiedades muy favorables para el cultivo y crecimiento de esas células. La matriz se elabora a partir de plasma rico en plaquetas, líquido sinovial y células madre mesenquimales derivadas del líquido sinovial de un mismo paciente.

La formación de este biosistema es simple y tiene la ventaja de que no necesita del aislamiento celular del líquido sinovial, lo que incrementaría el coste y el tiempo de producción del mismo. Los pacientes con osteoartritis necesitan tratamiento más de una vez durante la enfermedad y se ha demostrado que esas células, con el incremento de la edad del paciente, pierden algunas de sus propiedades beneficiosas. Por ello, la preservación de ese biosistema con las células madre mesenquimales después de su primera extracción podría tener un gran potencial terapéutico para el tratamiento de la osteoartritis en un mismo paciente en el futuro.

Es en ese ámbito donde el grupo NanoBioCel de la Facultad de Farmacia de la UPV/EHU, dirigida por el catedrático José Luis Pedraz, participa. La preservación de diversas células en biomateriales es una nueva línea de investigación impulsada en ese grupo y ha propiciado su colaboración con la UCA para poder preservar ese biosistema para su futuro uso.

Existen diferentes métodos para la preservación de células en biomateriales, pero en NanoBioCel se han especializado en la criopreservación lenta, donde las muestras han de ser tratadas previamente y son congeladas siguiendo un perfil de congelación concreto, permitiendo recuperar su función y características tras su descongelación. El trabajo conjunto de los dos grupos ha propiciado que este innovador estudio para la preservación de una de las terapias celulares más investigadas haya sido posible.

En el trabajo, se han utilizado muestras de diferentes pacientes para realizar la matriz viva y ha sido realizado en pequeña escala. En primer lugar, se demostró que la matriz optimizada por la UCA era la adecuada para la preservación de las células madre mesenquimales.

En una segunda parte del trabajo, se quiso determinar la composición óptima de esa solución y, combinando diferentes moléculas, se obtuvieron diferentes soluciones con notables efectos protectores durante la congelación.

Por último, para poder estar seguros de cuál era la mejor combinación para preservar el biosistema, se realizaron ensayos más específicos para determinar la funcionalidad de las células que se encargarían de reparar los tejidos, confirmando que sus características no se perdían durante su almacenamiento a bajas temperaturas.

Todo apunta, pues, a que con ese biosistema es posible preservar las características beneficiosas de las células y de la matriz en la que se encuentran. Este trabajo abre una nueva puerta para la preservación de las células madre mesenquimales reduciendo tanto el coste como la complejidad de los procesos, dos de los obstáculos que suelen frenar el paso al uso clínico.

Referencia:

Haritz Gurruchaga at al (2017) Cryopreservation of Human Mesenchymal Stem Cells in an Allogeneic Bioscaffold based on Platelet Rich Plasma and Synovial Fluid Scientific Reports doi: 10.1038/s41598-017-16134-6

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Cómo criopreservar células madre se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Microcápsulas biomiméticas de células madre
  2. Naukas Pro 2017: Manuel Collado y las células madre
  3. Ciencia express: Qué son las células madre
Catégories: Zientzia

Del zumo de naranja a la selva, un ejemplo de reciclaje extremo

ven, 2018/02/02 - 12:00

Cuando en 2013 Timothy Treuer, investigador del Departamento de Ecología y Biología Evolutiva de la Universidad de Princeton, buscaba una zona en la que un colega le había mencionado que realizaron un experimento 15 años antes, tuvo que volver a pasar una segunda vez para dar con ella. Fue incapaz de ver a la primera la señal de más de dos metros con brillantes letras amarillas que señalaba la zona. Estaba casi oculta por la vegetación. ¿Qué pasó hace dos décadas en ese lugar?

En 1997 un matrimonio de investigadores de la Universidad de Pensilvania, Daniel Janzen y Winnie Hallwachs, se encontraban trabajando como consultores para el Área de Conservación de Guanacaste en Costa Rica que por aquel momento buscaba ser reconocida por la UNESCO. Esta pareja de ecólogos tuvieron una brillante idea: proponer a la empresa de zumos Del Oro que, a cambio de que estos donaran parte de sus terrenos forestales a la futura zona protegida, les dejarían depositar gratuitamente sus restos de materia orgánica en una zona del parque degradada por la sobreexplotación ganadera. Un win-win en toda regla.

Restos de naranjas en Guanacaste. Fuente: Universidad de Princeton

Más de 1000 camiones depositaron 12.000 toneladas de pieles y pulpa de naranja en una zona delimitada de tres hectáreas. La idea era realizar un seguimiento anual de este aporte de materia orgánica pero una empresa rival, TicoFruit, pleiteó contra el acuerdo. El juez consideró que Del Oro estaba contaminando un parque nacional y lo revocó. El área cubierta de restos de naranja cayó en el olvido hasta que en el verano de 2013, cuando Treuer discutía líneas de investigación con Janzen, este mencionó la historia y le dijo que esa zona nunca había sido estudiada a fondo más que para identificar especies por parte de los taxónomos del parque.

Treuer decidió acercarse a echar un vistazo en un viaje que tenía que realizar a Costa Rica y ver si de verdad valía la pena estudiar ese lugar. Lo que se encontró al llegar fue una frondosa vegetación de árboles y lianas que lo cubrían todo, nada que ver con el otro lado de la carretera que constituía la zona control del experimento. Supo inmediatamente que tenía que volver a estudiarlo para cuantificar lo que estaban viendo sus ojos y determinar si realmente el muro verde que tenía delante se debía a los desperdicios depositados allí lustros antes.

El resultado de 12.000 toneladas de restos de naranjas y 16 años de lluvias tropicales. Fuente: Universidad de Princeton

El estudio de biodiversidad y suelo fue realizado recogiendo muestras y analizando las especies tres metros alrededor de transectos de 100 metros que se replicaron en el área de control. Las muestras de suelos fueron combinadas con otras realizadas y analizadas en el año 2000 por una de las co-autoras de la investigación, la Dr. Laura Shanks, cuyos resultados nunca fueron publicados.

Las conclusiones fueron espectaculares. La biodiversidad era tres veces mayor en la zona fertilizada respecto a la zona control y la diferencia de biomasa superficial era del 176 %. El suelo contenía mas riqueza en nutrientes, tanto macro como micro, y las fotografías mostraban que el dosel de copas de arboles era significativamente superior.

Estos datos abren una vía de colaboración entre las industrias alimentarias de la zona que no saben que hacer con sus residuos orgánicos (las opciones son pagar por su incineración o enterramiento) y las áreas de conservación natural dentro de lo que se llama economía circular o de residuo cero.

Al fin y al cabo la mayoría de los problemas ambientales están producidos por industrias que fabrican lo que la gente necesita y es necesaria una mayor colaboración entre estos entes y los gestores de la conservación para que los restos de estas compañías puedan convertirse algo aprovechable.

Estos casos de economía circular exitosa no solo son un win-win para los agentes implicados sino para el resto de la sociedad.

Este post ha sido realizado por Txema Campillo (@Txemacg) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Referencias:

Treuer, T. L. H, et al. (2017), Low-cost agricultural waste accelerates tropical forest regeneration. Restor Ecol. doi:10.1111/rec.12565

Orange is the new green: How orange peels revived a Costa Rican forest. Servicio de noticias de la Universidad de Princeton.

El artículo Del zumo de naranja a la selva, un ejemplo de reciclaje extremo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Tesoros que oculta el reciclaje
  2. Antes de que el león se hiciese con el trono de rey de la selva
  3. Las cartas de Darwin: ¡La geología por encima de todo!
Catégories: Zientzia

Programar no es “divertido”, es técnica y éticamente complejo

jeu, 2018/02/01 - 17:00

Walter Vannini

Michael/Flickr

La programación [1] de ordenadores es pan comido. O eso es lo que los gurús de las habilidades digitales del mundo nos quieren hacer creer. Desde la promesa de la entidad sin ánimo de lucro Code.org de que “¡Cualquiera puede aprender!” hasta el comentario del director ejecutivo de Apple, Tim Cook, de que escribir código es “divertido e interactivo”, el arte y la ciencia de hacer software ahora son tan accesibles como el alfabeto.

Desafortunadamente, este mundo ideal no tiene relación con la realidad. Para empezar, el perfil de la mente de una programadora [2] es bastante raro. Además de ser altamente analíticas y creativas, las desarrolladoras de software necesitan una concentración casi sobrehumana para administrar la complejidad de sus tareas. La atención maníaca al detalle es imprescindible; las chapuzas están verboten [3]. Alcanzar este nivel de concentración requiere un estado mental llamado estar “in the flow” [4], una relación casi simbiótica entre la humana y la máquina que mejora el rendimiento y la motivación.

Programar no es el único trabajo que exige una intensa concentración. Pero nunca escucharás a nadie decir que la neurocirugía es “divertida”, o que la ingeniería estructural es “fácil”. Cuando se trata de la programación, ¿por qué los encargados de diseñar las políticas y los tecnólogos pretenden lo contrario? Por un lado, ayuda a atraer gente al campo en un momento en el que el software (en palabras del capitalista de riesgo Marc Andreessen) está “devorando al mundo”, por lo que, al aumentar la reserva de trabajadores, se mantiene la industria funcionando y los salarios bajo control. Otra razón es que la misma palabra “programación” suena rutinaria y repetitiva, como si hubiera algún tipo de clave que las desarrolladoras apliquen de memoria para resolver cualquier problema. No ayuda que Hollywood haya descrito al ‘programador’ como un pirata informático socialmente cuestionado, que teclea primero y piensa después, inevitablemente blanco y masculino, con el poder de frustrar a los nazis o introducirse en la CIA.

Insistir en el glamur y la diversión de programar es la forma incorrecta de familiarizar a las niñas con la informática. Insulta su inteligencia y planta la noción perniciosa en sus cabezas de que no necesitas disciplina para progresar. Como sabe cualquier persona con una exposición mínima a crear software, tras un minuto de teclear hay una hora de estudio.

Es mejor admitir que programar es complicado, técnica y éticamente. Los ordenadores, por el momento, solo pueden ejecutar órdenes, en diversos grados de sofisticación. De modo que depende de la desarrolladora ser clara: la máquina hace lo que tú dices, no lo que quieres decir. Cada vez se confían más ‘decisiones’ al software, incluidas las de vida o muerte: piensa en automóviles que conducen por sí mismos; o en armas semi-autónomas; o en Facebook y Google haciendo inferencias sobre tu estado civil, psicológico o físico, antes de venderlo al mejor postor. Sin embargo, rara vez interesa a las empresas y a los gobiernos alentarnos a investigar qué ocurre tras estos procesos.

Todas estas situaciones se construyen sobre cimientos exquisitamente técnicos. Pero no podemos reaccionar ante ellas respondiendo preguntas exclusivamente técnicas. La programación no es un detalle que pueda dejarse a las “técnicas” bajo el falso pretexto de que sus elecciones serán “científicamente neutrales”. Las sociedades son demasiado complejas: lo algorítmico es político. La automatización ya ha asestado un golpe a la seguridad laboral de los trabajadores poco cualificados en fábricas y almacenes de todo el mundo. Las oficinistas son las siguientes en la fila. Los gigantes digitales de hoy funcionan con una fracción de las empleadas de los gigantes industriales de ayer, así que la ironía de alentar a más personas a trabajar como programadores es que ellas mismas se están movilizando lentamente para quedarse sin trabajos.

En un mundo cada vez más intrincado y conectado, donde el software desempeña un papel cada vez más importante en la vida cotidiana, es irresponsable hablar de programar como una actividad liviana. El software no es simplemente líneas de código, ni es simplemente técnico. En unos pocos años, entender de programación será una parte indispensable de la ciudadanía activa. La idea de que programar ofrece un camino sin problemas para el progreso social y la mejora personal funciona en beneficio de la creciente tecno-plutocracia que se está aislando tras su propia tecnología.

Sobre el autor: Walter Vannini es consultor e investigador digital y reside en Milán (Italia).

Texto traducido y adaptado por César Tomé López a partir del original publicado por Aeon el 23 de septiembre de 2016 bajo una licencia Creative Commons (CC BY-ND 4.0).

Notas del traductor:

[1] Traducimos “coding” como “programar”, pensando que es mejor y más simple que “codificar” o “escribir código”.

[2] Todas las palabras que hacen referencias de género este texto se traducen en femenino ya que, en definitiva, se refieren a persona o personas. Así, por ejemplo, “programadora” se refiere a “persona programadora”. Solo existe una excepción obligada por el contexto.

[3] “Prohibidas”. En alemán en el original.

[4] Literalmente, “en el flujo”.

Aeon counter – do not remove

El artículo Programar no es “divertido”, es técnica y éticamente complejo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un rebaño de vacas pastando como sistema complejo
  2. Lo verdaderamente divertido es hacer Ciencia
  3. Ni lo más importante ni lo más divertido
Catégories: Zientzia

Pseudociencia y arrogancia

jeu, 2018/02/01 - 11:59

Vivimos en tiempos de magia y hechicería en los que mucha gente cree que el universo, de una u otra forma, tiene voluntad y querencia y atiende a las necesidades y los ruegos de los humanos. Abundan las teorías mágicas sobre vibraciones, cristales, memoria del agua o la capacidad de curar cualquier enfermedad mediante plantas; millones de personas sinceramente creen que llevando un determinado tipo de mineral o tomando agua azucarada según un retorcido y complejo ritual mejorará su salud, su vida, o su suerte. En un mundo en el que la tecnología lleva a cabo prodigios y la ciencia ha avanzado hasta lo inimaginable en la comprensión del cosmos un significativo porcentaje de la población escoge rechazar estos avances y explicaciones para refugiarse en lo místico, lo desconocido y lo ignoto prefiriendo creer que las reglas del Universo son optativas y están sujetas de alguna manera a nuestra voluntad.

Los defensores de las pseudociencias a menudo usan como explicación de sus creencias el rechazo a la arrogancia de la ciencia, la tecnología y la sociedad a la que pertenecen. En su discurso el conocimiento de la medicina, la ingeniería o la física son insuficientes para explicar por completo el cosmos, pero aun así se arrogan ser la única explicación. En las justificaciones de la efectividad de una pseudoterapia o en la explicación de complejas conspiraciones como los chemtrails siempre hay un elemento de desconfianza y rechazo a lo que se presenta como una aplastante maquinaria tecnocientífica asociada a mecanismos sociales y políticos opresivos. Para sus partidarios las teorías alternativas que subyacen bajo terapias ancestrales o naturales o bajo prácticas pseudomágicas como el uso de cristales, colores o Flores de Bach son teorías de la liberación: un modo de resistirse a la aplastante conformidad de la sociedad, un sustrato teórico para la oposición y la revolución contra una sociedad tiránica que rechaza al disidente y aplasta las alternativas. En su mente los defensores de la magia forman parte de la resistencia contra la opresión.

Y sin embargo cuando se analizan sus argumentos en realidad lo que subyace es justo lo contrario: una especie de retorcida sensación de superioridad moral sobre los ‘pobres creyentes’ que aceptan las explicaciones de la ciencia. Los antivacunas se consideran víctimas de la perversa industria farmacéutica, y no les falta razón cuando denuncian la existencia de abusos en ciertas compañías y circunstancias. Pero cuando rechazan vacunar a sus hijos porque temen efectos secundarios graves su actitud es de superioridad: yo conozco algo que tú no sabes, y por tanto estoy más capacitado que tú para tomar decisiones. Lo mismo ocurre con los defensores de la sensibilidad química múltiple, la alergia a las ondas electromagnéticas, los chemtrails o la homeopatía: una buena parte de sus razonamientos destilan la superioridad del que desconfía de la ‘versión oficial’, una especie de ‘cuñadismo científico’ que desprecia la explicación estándar porque él mismo está por encima y sabe más.

En muchas ocasiones esta arrogancia está acompañada de una actitud francamente aprovechada que consiste en usar las ventajas de la explicación ‘oficial’ pero sin asumir los costes. Un ejemplo está en los antivacunas, cuyos hijos están protegidos por la inmunidad grupal proporcionada por los hijos de los demás que sí están vacunados y que según la ideología ‘anti’ corren por tanto con los riesgos. A menudo los tratamientos homeopáticos que acompañan a una terapia ‘convencional’ son los únicos que sus defensores recuerdan cuando se produce una curación, que achacan al agua azucarada olvidando convenientemente el medicamento alopático.

Los creyentes en las explicaciones alternativas no son por tanto oprimidos miembros de la resistencia que luchan contra la aplastante persecución de una maquinaria implacable, sino convencidos de su propia virtud que piensan estar en un plano superior de conocimiento y consciencia. No se trata de denunciar la arrogancia ajena sino de ejercer la propia, convencidos de que su conocimiento es superior al de los demás y de que su razón está por encima de la ajena. Buena es la crítica, el escepticismo y la desconfianza; nadie tiene por qué aceptar religiosamente explicaciones o conocimientos., Pero mucho ojo cuando esa sana desconfianza se convierte en celo proselitista y arrogante, porque nada ciega más a las personas que la fe en su propia superioridad: una trampa en la que resulta demasiado fácil caer.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo Pseudociencia y arrogancia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ni ciencia, ni pseudociencia, ciencia patológica.
  2. Ciencia, política y hechos
  3. Ciencia: es complicado
Catégories: Zientzia

El metanol es clave para entender cómo se forman las estrellas

mer, 2018/01/31 - 17:00

Si a la pregunta de cómo nacen las estrellas masivas alguien dijese que una forma de averiguarlo sería estudiando el metanol, ese alcohol que puede conseguir que te quedes ciego si tomas una bebida alcohólica destilada de aquella manera, diríamos probablemente que no coordina demasiado bien. Salvo que supiésemos del último resultado de Boy Lankhaar, de la Universidad Tecnológica Chalmers (Suecia) y sus colaboradores, claro.

Imagen: Wolfgang Steffen/Boy Lankhaar et al. (2018)

Durante el último medio siglo se han descubierto muchas moléculas en el espacio. Utilizando radiotelescopios los astrónomos han podido, con la ayuda de estas moléculas, investigar lo que sucede en las oscuras y densas nubes donde nacen nuevas estrellas y planetas.

Los científicos pueden medir la temperatura, la presión y los movimientos del gas cuando estudian la firma (las señales características) de las moléculas en los datos que detectan. Pero especialmente donde nacen las estrellas más masivas hay otra variable importante que es más difícil de medir: los campos magnéticos.

El uso de mediciones de metanol (CH3OH) en el espacio para investigar los campos magnéticos se sugirió hace muchas décadas. En el gas denso que rodea a muchas estrellas recién nacidas, las moléculas de metanol brillan intensamente como láseres de microondas, los llamados máseres, naturales. Las señales que podemos medir de los máseres de metanol son fuertes y emitidas a frecuencias muy específicas. Debido a su ocurrencia en las partes más densas de las regiones de formación de estrellas, los máseres son la principal fuente de mediciones de fuerza y morfología del campo magnético alrededor de estrellas en formación.

Los primeros intentos de medir las propiedades magnéticas del metanol en condiciones de laboratorio, algo necesario para poder interpretar las señales espaciales, no han tenido todo el éxito esperado. Por ello Lankhaar y sus colegas decidieron construir un modelo químico teórico, a partir de primeros principios, asegurándose de que fuera consistente tanto con la teoría anterior como con las mediciones de laboratorio disponibles.

Este modelo arrojan unos nuevos resultados, que incluyen la compleja estructura hiperfina debida a la rotación interna de la molécula, que abren nuevas posibilidades para comprender los campos magnéticos en el universo a base de estudiar las señales del metanol en las regiones en las que se están formando estrellas.

Estos resultados también muestran cómo la química teórica puede ayudar a resolver los problemas en astroquímica. Se requieren cálculos teóricos sumamente detallados para poner de manifiesto en qué señales se traduce la complejidad molecular, y necesitamos esta traducción para interpretar las medidas muy precisas que hacemos con los mejores radiotelescopios actuales. Es en cierto modo paradójico que se necesiten expertos en la muy planetaria ciencia química en sus aspectos más teóricos para conseguir nuevos descubrimientos futuros sobre la formación de las estrellas.

Referencia:

Boy Lankhaar et al (2018) Characterization of methanol as a magnetic field tracer in star-forming regions Nature Astronomy doi: 10.1038/s41550-017-0341-8

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo El metanol es clave para entender cómo se forman las estrellas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Hay más estrellas masivas de lo que se creía y lo que eso implica para la historia del universo
  2. Cómo diseñar un sistema para comunicarse con el otro lado de la galaxia
  3. Un juego de mesa para entender la irreversibilidad
Catégories: Zientzia

El Organum Mathematicum: una enciclopedia portátil

mer, 2018/01/31 - 11:59

Athanasius Kircher (1602-1680) fue uno de los científicos más importantes de la época barroca. Él y sus cinco hermanas y hermanos ingresaron en diversas órdenes religiosas, ya que la familia era demasiado pobre para costearles los estudios. Él fue ordenado sacerdote jesuita en 1628, en cuyas instituciones se formó en humanidades, ciencias naturales y matemáticas, lenguas clásicas y filosofía, entre otras.

Estudió e investigó en campos tan diversos como la vulcanología, el chino, el magnetismo o una posible escritura universal. Tenía reputación como experto en resolver jeroglíficos, en parte por su conocimiento de la lengua copta. Tal era su fama que el alquimista Georgius Barschius, uno de los primeros propietarios del famoso Manuscrito Voynich, le escribió en varias ocasiones para que intentara descifrarlo, aunque no tuvo ningún éxito.

A lo largo de su obra describió diferentes artilugios e inventó varias máquinas, con éxito diverso. El Organum Mathematicum fue precisamente uno de sus inventos: fue descrito completamente en el monumental y póstumo Organum Mathematicum : Libris IX Explicatum (1668) escrito por Gaspar Schott (1608-1666), ayudante del jesuita.

Era un dispositivo diseñado para ayudar a realizar cálculos matemáticos y de otro tipo. Se inspiró en otros instrumentos como el ábaco de Napier, algunos almanaques y su propia Arca Musarithmica. –dispositivo inventado por el jesuita para componer música eclesiástica: a través de simples técnicas combinatorias era capaz de producir millones de piezas de música polifónica en cuatro partes–.

El Organum Mathematicum de Athanasius Kircher ilustrado en el libro Organum Mathematicum de Gaspar Schott (1668). Imagen: Wikimedia Commons.

El Organum Mathematicum era una especie de caja, un cofre de madera divido en nueve o más compartimentos, cada uno de los cuales contenía unas varillas de madera –Kircher las llamaba tariffa– que ayudaban a realizar diferentes cálculos de matemáticas y otras ciencias o artes.

Como hemos comentado, cada compartimento estaba dedicado a un tema: aritmética, geometría, fortificaciones, cronología, orografía, astronomía, astrología, esteganografía y música. Y, a su vez, cada uno de ellos contenía unas veinticuatro varillas de madera –coloreadas en su parte superior y en forma triangular– con definiciones e información sobre el tema correspondiente.

Las varillas aritméticas eran capaces de realizar la multiplicación de números de varios dígitos y divisiones; las geométricas ayudaban a determinar alturas; las de fortificaciones apoyaban el diseño de planos de baluartes; las varillas de la sección de cronología podían usarse para determinar las fechas de festividades eclesiásticas como la Pascua; las correspondientes al compartimento de orografía contenían la información necesaria para construir relojes de sol; las de la sección de astronomía proporcionaban, para cada día del año, información sobre la duración del día y la noche, los horarios de salida y puesta del sol y la duración de los crepúsculos matutino y vespertino –todo ello basado en mediciones tomadas a 48 grados de latitud (Viena) –; las de astrología contenían tablas describiendo los movimientos de los planetas, la constelación Draco y también daba interpretaciones astrológicas de los doces signos del zodiaco; las de esteganografía se usaban para encriptar y descifrar textos –usando un cifrado de transposición cíclica basado en una palabra clave–; finalmente, en el compartimento de música, las varillas ayudaban a personas sin formación a componer música eclesiástica, de la misma manera que en su Arca Musarithmica –contenían conjuntos de frases que podían combinarse aleatoriamente para componer versos acordes a la música y produciendo millones de himnos. En las referencias 4, 5 y 6 se dan ejemplos de composiciones musicales usando esta máquina–.

Para usar el Organum Mathematicum se tomaban los listones correspondientes al tema elegido, y se reordenaban para efectuar la operación requerida. Por ejemplo, en el de aritmética, para multiplicar 74 por 8, se elegía la varilla negra del compartimiento de aritmética y se colocaba junto a los listones numerados 7 y 4. La octava línea de la varilla de punta negra devolvía el producto deseado.

Organum Mathematicum en el Museo Galileo en Florencia (Italia). Imagen ´compuesta a partir de dos extraídas de Wikimedia Commons.

El Organum Mathematicum servía para componer música de manera automática, para efectuar operaciones… era una pequeña enciclopedia portátil, un sistema global de organización del conocimiento, un ancestro de nuestros modernos ordenadores.

Más información:

  1. Organum Mathematicum, Museo virtual Galileo

  2. Das Organum mathematicum aus München

  3. The Organum Mathematicum: A 17th Century Computer, Neatorama, 2015

  4. Jim Bumgardner, Kircher’s Mechanical Composer: A Software Implementation, Crazy Dad

  5. Organum Mathematicum, Crazy Dad, 2006

  6. Christophe Robert, A. Kircher : Organum Mathematicum – Mode d’emploi, MusicAlgo, 2017

  7. Wikipedia

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo El <i>Organum Mathematicum</i>: una enciclopedia portátil se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un espectrómetro Raman portátil mide el punto óptimo de maduración del tomate
  2. #Naukas14 La música de las esferas
  3. El joven Arquímedes
Catégories: Zientzia

Sistemas respiratorios: moduladores de la afinidad de los pigmentos

mar, 2018/01/30 - 17:00

Las características básicas del pigmento respiratorio de un mismo individuo pueden experimentar importantes variaciones como consecuencia de la acción de varios agentes moduladores. La más importante de esas modulaciones es la conocida como efecto Bohr, pero no es la única.

El efecto Bohr

El efecto Bohr se llama así por Christian Bohr, padre de los Bohr más famosos, Niels (físico) y Harald (matemático) Bohr .

El efecto Bohr lo experimentan algunos pigmentos respiratorios y consiste en una reducción de la afinidad por efecto de la concentración de CO2 o de H+ en la sangre. En términos gráficos se puede decir que la elevación de la concentración de protones y de CO2 sanguíneos provoca un desplazamiento de la curva de disociación del pigmento hacia la derecha. El efecto fue dado a conocer en 1904 por un trío encabezado por Christian Bohr del que formaba parte August Krogh, quien posteriormente recibiría el premio Nobel de Fisiología por otros hallazgos muy relevantes en fisiología respiratoria.

Hoy sabemos que el CO2 ejerce un efecto doble sobre la afinidad del pigmento. Hay por un lado un efecto directo, ya que se puede combinar con el pigmento y funcionar como modulador alostérico. Y por otro lado, al disolverse en el plasma sanguíneo una parte del CO2 reacciona con el agua para dar iones bicarbonato, iones carbonato y protones. Y esos protones, al combinarse con el pigmento, actúan también como moduladores alostéricos. En ambos casos aumenta la dificultad para que el pigmento y el O2 se unan, o lo que es lo mismo, se reduce su afinidad. Por otra parte, la concentración de protones en la sangre se puede elevar no sólo al aumentar la de CO2 sino también por otras causas. En los vertebrados, cuando la musculatura esquelética realiza un ejercicio físico intenso no es raro que se produzca lactato, que pasa a la sangre para ser reciclado posteriormente en el hígado; pues bien, ese ácido láctico es también una fuente de protones que puede, a su vez, reducir la afinidad de la hemoglobina.

El efecto Bohr amplía la descarga de oxígeno del pigmento y se cree que esa es la razón por la que se ha seleccionado en ciertas especies. Para entender de dónde viene la ventaja que reporta hay que pensar que la sangre, al salir del órgano respiratorio, va cargada de oxígeno, contiene muy poco CO2 y su pH es relativamente alto. Al llegar a los tejidos el oxígeno pasa de los capilares a las células y, a la vez, el CO2 sale de estas y pasa a la sangre. CO2 y protones se combinan con la hemoglobina y la afinidad de esta por el O2 disminuye. Como consecuencia, se facilita la liberación de más oxígeno, por lo que su transferencia a las células resulta favorecida.

En una ballena jorobada (“Megaptera novaeangliae”), uno de los animales más grandes del planeta, el efecto Bohr tiene una magnitud similar a la que tiene en el conejillo de indias.

El efecto Bohr no se produce en todos los pigmentos y su magnitud es muy variable, seguramente porque las circunstancias de cada especie son también distintas. En mamíferos, el tamaño del animal, por ejemplo, influye: cuanto más pequeño es el animal y, por lo tanto, mayor es su tasa metabólica, el efecto es de mayor intensidad. Tortugas, lagartos y serpientes experimentan un efecto Bohr de menor magnitud que los mamíferos, pero en los cocodrilos es muy intenso. Se cree que ese intenso efecto ayuda a los cocodrilos a ahogar a sus presas bajo el agua: al atraparlas y sumergirlas ha de dejar de respirar, por lo que su única fuente de O2 es la sangre; y su liberación hacia las células se ve favorecida por tal efecto.

El efecto Root

Algunas especies de peces, teleósteos principalmente, tienen más de un tipo de hemoglobina en su sangre; se denominan isoformas. Unas son muy sensibles a la concentración de CO2 y a la de protones, y las otras no. La peculiaridad de las sensibles consiste en que experimentan una pérdida de su capacidad para combinarse con el O2 no solo porque disminuya su afinidad, sino porque se reduce de forma importante su capacidad de oxígeno o capacidad de carga. A ese fenómeno se le denomina efecto Root, por el nombre de su descubridor1.

Gracias al efecto Root las especies que lo experimentan elevan la tensión parcial de oxígeno en el entorno de dos órganos, la vejiga natatoria y los ojos. La acidificación de la sangre en esos entornos provoca que una parte importante del oxígeno pase a estar en forma disuelta. Aumenta así la tO2 en ese entorno y, como consecuencia de ello, el O2 disuelto pasa al interior de la vejiga o de los globos oculares. De ese modo pueden aumentar el contenido gaseoso de la vejiga natatoria y actuar sobre la flotabilidad. Y en lo relativo a los globos oculares, la retina de algunos peces necesita altas tensiones parciales de oxígeno para funcionar correctamente.

Las isoformas insensibles, por su parte, son una especie de seguro anti-asfixia: sin ellas podría ocurrir que un exceso de CO2 y H+ en sangre por efecto de una actividad física muy intensa provocase una pérdida de la capacidad del pigmento para captar O2 del exterior tal que llegase incluso a asfixiarse.

Moduladores orgánicos

La afinidad de la hemoglobina de muchos vertebrados varía en función de la concentración de ciertas sustancias orgánicas fosfatadas. En mamíferos (seres humanos, caballos, perros, o ratas) se trata del 2,3-bifosfoglicerato (2,3-DPG), en aves es el inositol pentafosfato (IIP) y en peces es el adenosina trifosfato (ATP) (predominante en salmónidos, tiburones y rayas) y el guanosina trifosfato (GTP) (predominante en anguilas, carpas y carpas doradas). Esas sustancias se encuentran en el interior de los eritrocitos, puesto que son productos de su metabolismo, y se combinan de forma reversible con el pigmento reduciendo su afinidad. La reducción de la afinidad no se limita, como ocurría con la provocada por la acidificación y el CO2 propios del efecto Bohr, a la sangre que se encuentra en los tejidos, sino que es un efecto permanente, ya que se encuentran en el interior de los glóbulos rojos en todo momento.

Al parecer, la concentración de los moduladores orgánicos citados aumenta en el interior de los eritrocitos en respuesta a condiciones de hipoxia (ya sea de origen ambiental o por razones patológicas), lo que facilita la descarga de O2 a los tejidos; sin embargo, también dificulta su captación desde el órgano respiratorio, aunque el balance neto de estos efectos favorece el suministro de oxígeno a los tejidos en esas condiciones.

Temperatura

La elevación de la temperatura provoca un desplazamiento de la curva de disociación del pigmento hacia la derecha y, por lo tanto, un descenso de su afinidad por el O2. Quiere esto decir que a igualdad de tO2, el pigmento contiene menos oxígeno a altas que a bajas temperaturas. Por lo tanto, un aumento de temperatura facilita la descarga de O2 del pigmento. Las consecuencias prácticas de este efecto térmico son evidentes; los aumentos de temperatura -incluso los que ocurren localmente en tejidos especialmente activos de animales homeotermos- están asociados a una mayor actividad metabólica, de manera que al facilitarse la descarga por efecto térmico, se favorece el suministro de oxígeno a las células que más lo necesitan o cuando lo necesitan en mayor medida.

Fuentes:

Richard W. Hill, Gordon A. Wyse & Margaret Anderson (2004): Animal Physiology. Sinauer Associates, Sunderland

Knut Schmidt-Nielsen (1997): Animal Physiology. Adaptation and Environment. Cambridge University Press; Cambridge

Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.

Nota:

1 Según algunos autores el efecto Root no es sino un fuerte efecto Bohr.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sistemas respiratorios: moduladores de la afinidad de los pigmentos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas respiratorios: pigmentos de alta afinidad
  2. Sistemas respiratorios: pigmentos de baja afinidad
  3. Sistemas respiratorios: los pigmentos respiratorios
Catégories: Zientzia

La relatividad de la masa

mar, 2018/01/30 - 11:59

No existe tecnología que pueda conseguir que un motor genere la fuerza suficiente como para llevar a una nave a velocidades cercanas a la velocidad de la luz, mucho menos igualarla.

La segunda ley de Newton establece que la aceleración de un objeto es inversamente proporcional a la masa del objeto. Cuanto mayor sea la masa de un objeto, menor será su aceleración si se le aplica una fuerza neta dada. A veces se llama masa inercial, para enfatizar que mide la inercia, esto es, la resistencia a alterar el estado de movimiento o reposo del objeto. En otras palabras, la masa es una propiedad de los objetos que se opone a la aceleración cuando se aplica una fuerza. Todo esto se reúne en una expresión tan simple como F = m·a., donde F es la fuerza neta que actúa sobre el objeto, m es la masa (inercial) y a la aceleración resultante.

A partir de la segunda ley de Newton podemos afirmar que una fuerza constante producirá una aceleración constante. Por tanto, si una vez que un objeto se está moviendo, se le continúa empujando con la misma fuerza, seguirá acelerándose, yendo más y más rápido. Y, según la fórmula de Newton, no existe límite a la velocidad que puede alcanzar.

Pero esto es inconsistente con la teoría de la relatividad, que impone un límite de velocidad para objetos en el espacio de c = 299.792.458 m/s, la velocidad de la luz en el vacío. Hay que alterar pues la expresión de la segunda ley de Newton para que tenga en cuenta este hecho.

Einstein lo hizo afirmando que m, la masa inercial, no permanece constante sino que aumenta a medida que aumenta la velocidad, un hecho que se observa experimentalmente, por ejemplo, en partículas elementales a alta velocidad.

Si la masa inercial aumenta con la velocidad eso quiere decir que se requiere cada vez más fuerza para conseguir la misma aceleración, y finalmente haría falta una fuerza infinita para intentar alcanzar la velocidad de la luz. Einstein dedujo de los dos postulados de la teoría de la invariancia que la inercia de un objeto en movimiento aumenta con la velocidad, y lo hace de forma completamente análoga a la que empleó para la dilatación del tiempo. Como cabía esperar, llega a una expresión equivalente a la que encontró para el tiempo: mm = me/√(1-v2/c2), donde mm es la masa del objeto en movimiento relativo, y me es la masa del mismo objeto antes de que empiece a moverse, estático. Muy a menudo a me se la llama masa en reposo.

De forma similar a nuestro análisis de la expresión para los intervalos de tiempo, encontramos que, a medida que aumenta la velocidad de un objeto, la masa observada a partir de un marco de referencia estacionario también aumenta. Alcanzará una masa infinita (o indefinida) si alcanza la velocidad de la luz. Esta es otra razón por la cual no puede hacerse que algo que posea masa alcance la velocidad de la luz; requeriría, como decíamos antes, aplicar una fuerza infinita para acelerarla a esa velocidad.

Por el mismo argumento, los objetos que sí se mueven a la velocidad de la luz, como la luz misma, deben tener masa en reposo cero. Siguiendo el resultado de Einstein de que la masa de un objeto aumenta cuando está en movimiento en relación con un observador estacionario, la ecuación de Newton que relaciona la fuerza y la aceleración puede escribirse como una ley más general de la sigiente forma: F = me·a /√(1-v2/c2).

Démonos cuenta de que para velocidades muy pequeñas en comparación con la velocidad de la luz, como las de nuestro mundo ordinario, esta fórmula se convierte de forma continua en F = m·a. De nuevo vemos que la física de Einstein no es una ruptura con la de Newton, sino una continuación de la misma.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo La relatividad de la masa se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La relatividad del tiempo (y 3)
  2. El principio de relatividad (1): movimiento relativo
  3. El principio de relatividad (2): la versión de Galileo
Catégories: Zientzia

Es el fin del mundo tal y como lo conocemos

lun, 2018/01/29 - 11:59

Quedan dos minutos para medianoche en el Reloj del Apocalipsis (Foto: Bulletin of the Atomic Scientists)

“El fracaso de los líderes mundiales para hacer frente a las amenazas para el futuro de la humanidad es lamentable”. Así, sin delicadeza ni paños calientes, comenzaba el comunicado anual del Bulletin of the Atomic Scientists en el que nos avisa de cuánto tiempo falta en el Reloj del Apocalipsis para que llegue la medianoche que simboliza el fin del mundo. Dos minutos, aseguran, lo más cerca que hemos estado nunca de causar nuestra propia destrucción.

Este reloj del Apocalipsis nació en 1947, en plena Guerra Fría, como una metáfora visual de lo cerca que estaba el desastre de la Destrucción Mutua Asegurada. Los autores, miembros del Comité de Seguridad del Bulletin, situaron el minutero a 7 minutos de la medianoche.

Aunque la aguja ha avanzado y retrocedido desde entonces, solamente una vez habíamos estado tan cerca del final: fue en 1953, cuando Estados Unidos desarrolló la bomba de hidrógeno, un arma mucho más poderosa que cualquier otra bomba nuclear creada hasta el momento. En octubre de 1952, EEUU ponía a prueba su primer artefacto termonuclear, borrando completamente del mapa un islote del Pacífico en el proceso, y nueve meses después los soviéticos hacían lo mismo con su propia bomba H. “Las manecillas del reloj del Final se han movido de nuevo. Unas oscilaciones más del péndulo y de Chicago a Moscú, las explosiones nucleares traerán la medianoche a Occidente”.

Han pasado 65 años y volvemos a estar a esas pocas oscilaciones de cargárnoslo todo. Sin la tensión de la Guerra Fría y de sus superpotencias apuntándose directa y mutuamente a la cabeza con misiles nucleares, ¿cómo hemos llegado hasta aquí? La respuesta es compleja, y igual que lo es el mundo en comparación con cómo era hace unas cuantas décadas.

La guerra nuclear está a un error de distancia

Por un lado, sigue existiendo una amenaza nuclear latente en la que ya no hay solamente dos jugadores involucrados. Los autores del reloj señalan el progreso nuclear de Corea del Norte en 2017 como un aumento del riesgo para la propia Corea, los países de la región y Estados Unidos.

Por otro, existe un riesgo nuevo añadido: que las armas nucleares terminen utilizándose por accidente o por un fallo de cálculo. La retórica matona, ostentosa y provocadora de ambos bandos hace temer que un mal movimiento termine desencadenando un ataque no planeado por puro accidente.

Claro que no es solo Corea la que nos pone nuclearmente nerviosos: Estados Unidos y Rusia continúan enfrentados, haciendo ejercicios militares en las fronteras de la OTAN, ignorando los tratados nucleares, aumentando sus arsenales y evitando las negociaciones para el control de armas. Por primera vez en muchos años, no hay actualmente en marcha negociaciones para el control de armas nucleares entre Rusia y Estados Unidos.

Las tensiones en el Mar de China entre China y Estados Unidos han aumentado, las relaciones diplomáticas entre ambos países han demostrado ser insuficientes para restablecer una situación segura; Pakistán e India siguen aumentando el tamaño de sus arsenales nucleares, que ahora son más grandes que nunca, y en Oriente Medio, la incertidumbre sobre el avance nuclear de Irán solo suman más oscuridad a un panorama que pinta negro.

Tan negro que cuando la Campaña Internacional para la Abolición de las Armas Nucleares obtuvo el Nobel de la Paz 2017, para muchos fue interpretado como un gesto de apoyo y también de frustración por los escasos y lentos progresos realizados hasta ahora por tantos países.

Trump desanda lo andado contra el cambio climático

El segundo argumento de los científicos nucleares para declarar inminente el fin del mundo es un guantazo a mano abierta a la administración de Donald Trump: el cambio climático y una respuesta insuficiente. Esta amenaza global avanza imparable y no parecemos saber o querer hacer algo para detenerla.

“El año pasado, el gobierno de EEUU llevó a cabo políticas poco inteligentes e ineficaces en materia del cambio climático, cumpliendo la promesa de descarrilar las políticas climáticas previas. La administración Trump, que incluye negacionistas climáticos declarados en posiciones de mando, ha anunciado su intención de retirarse del Acuerdo de París. En su prisa por desmantelar políticas energéticas y climáticas racionales, el gobierno ha ignorado análisis económicos bien fundamentados en datos científicos”, denuncian los científicos.

Desconfianza en la información, el conocimiento y los datos

El desprecio de la administración Trump por los datos y las evidencias, sumado un clima general de incertidumbre tecnológica, forman el tercer punto del informe, quizá el más importante porque apela al efecto directo sobre todos nosotros del entorno de información/desinformación en el que estamos envueltos: “El Comité de Ciencia y Seguridad está profundamente preocupado por la pérdida de confianza en las instituciones políticas, los medios, la ciencia y los propios datos, una pérdida que la propia tecnología de la información ha alentado”.

La democracia, siguen los autores, depende en definitiva de que un electorado bien informado tome decisiones racionales sobre políticas públicas, incluidas aquellas que afectan al armamento y desarme nuclear, el cambio climático y otras amenazas globales.

Cómo detectar si una noticia es falsa. (Fuente: International Federation of Library Associations and Institutions)

Pero eso está en peligro, amenazado por intentos de interferir en procesos electorales a través de sofisticadas operaciones de hackeo, dispersión de desinformación a través de las redes, descrédito del conocimiento y los datos empíricos… “Mientras, los líderes de las corporaciones que dominan la información, incluidos los medios de comunicación pero también compañías como Facebook o Google, están siendo demasiado lentos en la adopción de protocolos que prevengan el mal uso de sus servicios y así proteger a los ciudadanos de la desinformación”.

“Hacer un mundo más sano, y más cuerdo”

Por todas estas razones, el reloj ha avanzado 30 segundos y si en año 2017 nos encontrábamos a 2 minutos y medio del desastre, ahora son solo 2 minutos. Sin embargo, hay una nota de esperanza en todo esto: ya estuvimos aquí una vez y conseguimos volver atrás.

La humanidad creó los caminos hacia el apocalipsis, así que también puede eliminarlos, nos animan los científicos, que además de leerle la cartilla a los políticos, apelan a nuestra responsabilidad y poder ciudadano para forzar un cambio que ya es urgente.

“El mundo ha visto la amenaza que supone el mal uso de la tecnología de información, y ha sido testigo de lo vulnerable que es la democracia ante la desinformación. Pero hay un lado positivo en el abuso de las redes sociales: los líderes reaccionan cuando los ciudadanos insisten en que lo hagan, así que lo ciudadanos pueden usar ese poder que les da internet para mejorar las perspectivas a largo plazo para sus hijos y nietos. Pueden insistir en los datos y descartar los disparates. Pueden exigir medidas que reduzcan las amenazas para la existencia que son la guerra nuclear y el cambio climático descontrolado. Pueden utilizar esta oportunidad para hacer un mundo más sano, y más cuerdo”.

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Es el fin del mundo tal y como lo conocemos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La fusión nuclear como fuente de neutrones eficiente
  2. Sopcawind: cómo optimizar parques eólicos
  3. Cómo detectar un defecto en el ADN viendo cómo se retuerce
Catégories: Zientzia

Detectores de mentiras de ayer, hoy y mañana

dim, 2018/01/28 - 11:59

En 1921 John Augustus Larson, estudiante de medicina y miembro del Departamento de Policía de Berkeley (California, EEUU), inventó el polígrafo, también conocido como detector de mentiras. Se trata de un instrumento que registra variables fisiológicas tales como presión arterial, frecuencia cardiaca, frecuencia respiratoria y conductancia de la piel (relacionada esta última con la sudoración) mientras una persona se encuentra respondiendo a las preguntas que se le hacen para poner a prueba su sinceridad. El recurso a este instrumento se basa en el supuesto de que al mentir, el registro combinado de las variables citadas ofrece un perfil característico, y ello permitiría detectar las mentiras dichas por la persona investigada. En la actualidad los polígrafos son utilizados en más de noventa países por diferentes entidades y con distintos propósitos: servicios de inteligencia y seguridad en investigaciones, tribunales de justicia para obtener pruebas, y empresas para contratar empleados.

Sin embargo, su eficacia no cuenta con pruebas consistentes que respalden su uso. Varios de los supuestos teóricos en que se basa no han podido verificarse experimentalmente o han sido, incluso, refutados. No se ha encontrado ningún patrón común en las respuestas fisiológicas de las personas cuando se inclinan por una u otra opción, mentir o decir la verdad; y ni siquiera se ha podido comprobar que todas las personas respondan de forma diferenciada en uno y otro caso. Por todo ello, el uso del polígrafo ha concitado el rechazo de buena parte de la comunidad científica.

Dada la gran oposición que provoca su uso y la utilidad que podría tener el disponer de una tecnología realmente válida para detectar mentiras, no es extraño que se estén barajando alternativas. Es el caso de la Truthful Brain Corporation, una empresa que se ha propuesto conseguir que el sistema judicial norteamericano incorpore la utilización de imágenes obtenidas por resonancia magnética funcional (IRMf) como técnica para la detección de mentiras en los juicios.

La IRMf se utiliza para obtener imágenes que muestran la actividad de diferentes regiones encefálicas cuando la persona examinada se encuentra realizando una tarea, que puede ser manual o intelectual. Se basa en que la hemoglobina oxigenada y la desoxigenada tienen diferentes características magnéticas (la desoxigenada se comporta como un microimán) y que al activarse una región encefálica se producen cambios en la proporción de las dos formas de hemoglobina como consecuencia de la mayor afluencia de sangre y consumo de oxígeno por las regiones más activas. La técnica permite localizar las zonas que reciben un mayor flujo sanguíneo.

Truthfull Brain Corporation esgrime a favor de sus pretensiones las investigaciones científicas que avalan la hipótesis de que la IRMf sirve para detectar mentiras. El problema es que esas investigaciones se han hecho en un único laboratorio y haría falta que, para tener mayor credibilidad, sus conclusiones fuesen corroboradas por otros equipos de investigación. Y por otro lado, ni siquiera ese requisito sería quizás suficiente. Porque una cosa es mentir en condiciones experimentales acerca de cuestiones relativamente triviales, y otra muy diferente es hacerlo cuando se encuentra uno sometido a juicio acusado de haber cometido un delito grave.

Es demasiado pronto para saber si las imágenes obtenidas mediante resonancia magnética funcional se harán un hueco en los sistemas judiciales. No es descartable que eso llegue a ocurrir, pero si así fuera, seguramente no se tratará de la prueba que determine el resultado de un proceso, sino que servirá para, junto con otros elementos de juicio, llegar a un veredicto mejor fundamentado. No necesitaría demasiados méritos para superar a los “detectores de mentiras” que se usan hoy.

El artículo Detectores de mentiras de ayer, hoy y mañana se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las mentiras allanan su propio camino
  2. Voy a comprar mentiras
  3. La entropía de Shannon y las lubinas como detectores de contaminación
Catégories: Zientzia

Naukas Bilbao 2017 – María José Calderón y Belén Valenzuela: Esta física es la leche

sam, 2018/01/27 - 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

Hay muchas ramas de la ciencia que son interesantísimas, pero pocas pueden aspirar al título de ser la leche como la física de la materia condensada. Calderón y Valenzuela, investigadoras del Instituto de Ciencias de Materiales de Madrid-CSIC, lo explican.

María José Calderón y Belén Valenzuela: Esta física es la leche

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – María José Calderón y Belén Valenzuela: Esta física es la leche se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – Francisco R. Villatoro: El espín para irreductibles
  2. Naukas Bilbao 2017 – Teresa Valdés-Solís: Limpia, fija y da esplendor
  3. Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma
Catégories: Zientzia

Física de partículas en un simulador cuántico

ven, 2018/01/26 - 17:00

En 2012 el Grupo QUTIS de la UPV/EHU publicó en Physical Review Letters una novedosa propuesta teórica para reproducir colisiones de partículas como las de los grandes aceleradores sin necesidad de utilizar esas impresionantes infraestructuras. Ahora, con la colaboración del laboratorio de del profesor Kihwan Kim de la Universidad de Tsinghua, en Pekín (China), han confirmado la validez de la propuesta en un simulador cuántico de iones atrapados.

En los grandes laboratorios de física de partículas del mundo disponen de imponentes aceleradores de hasta, como es el caso del CERN, 27 kilómetros de circunferencia. En esos aceleradores se llevan a cabo costosísimos experimentos para estudiar la creación y aniquilación de la materia. ¿Sería posible simular esas colisiones en pequeños experimentos encima de la mesa? El Grupo QUTIS que dirige en la UPV/EHU el profesor Ikerbasque Enrique Solano planteó en 2011 una propuesta teórica que siete años después han podido verificar en el laboratorio de iones atrapados del profesor Kihwan Kim, de la Universidad de Tsinghua.

“Pusimos en marcha un teatro cuántico, en el que las partículas se comportan como actores en un simulador cuántico, es decir, unas imitan a otras para diversos fines”, explica el profesor Enrique Solano. Tuvo un aspecto lúdico, pero también muy práctico, ya que estos experimentos conllevarían en un futuro un ahorro de dinero y serían, además, pruebas controladas imposibles de calcular en los ordenadores convencionales. “Hemos conseguido imitar cómo la materia (representada por fermiones, uno de los dos tipos de partículas elementales que existen en la naturaleza) y la antimateria (antifermiones) se crea y se destruye, usando láseres, átomos cargados (iones) y trampas atómicas. Es decir, hemos simulado una física muy similar a la de los grandes aceleradores en un simulador cuántico de iones atrapados”, añade el director del grupo QUTIS.

Referencias:

Casanova, J., Mezzacapo, A., Lamata, L. & Solano, E. Quantum simulation of interacting Fermion lattice models in trapped ions. Phys. Rev. Lett. 108, 190502 (2012)

Xiang Zhang, Kuan Zhang, Yangchao Shen, Shuaining Zhang, Jing-Ning Zhang, Man-Hong Yung, Jorge Casanova, Julen S. Pedernales, Lucas Lamata, Enrique Solano & Kihwan Kim (2018) Experimental quantum simulation of fermion-antifermion scattering via boson exchange in a trapped ion. Nature Communications 9, 195 DOI: 10.1038/s41467-017-02507-y

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Física de partículas en un simulador cuántico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un simulador cuántico de fenómenos imposibles
  2. Un observador cuántico de lo más útil
  3. De los secretos del Universo a la vida cotidiana: aceleradores de partículas.
Catégories: Zientzia

La nueva forma de enfriar que lo cambiará todo

ven, 2018/01/26 - 12:00

Los sistemas de refrigeración no solo sirven para tomar las bebidas bien frescas, sino que nos permiten conservar alimentos, transportar medicamentos y vacunas, y vivir cómodamente en ambientes cálidos gracias al aire acondicionado. La refrigeración es fundamental para nuestra salud y bienestar. A lo largo de la historia hemos utilizado diferentes sustancias y métodos para tal fin. Desde el agua, el amoníaco, el dióxido de carbono, los CFCs (clorofluorocarbonados) hasta los modernos HFCs (hidrogenofluorocarbonados). Todos ellos, en mayor o menor medida, producen diferentes efectos negativos en el medioambiente. El principal problema es que los refrigerantes son fluidos (gases o líquidos) que se fugan a la atmósfera, contribuyendo al calentamiento global y a la destrucción de la capa de ozono. Por ello la mayoría se han prohibido y los más modernos ya tienen fecha de caducidad. Ha llegado la hora de implicarse a fondo y apostar por alternativas ecológicas. En la Universidad de A Coruña han encontrado un material revolucionario que lo cambiará todo. Lo han llamado perovskiña.

  • Por qué usamos fluidos para refrigerar

Los fluidos resultan interesantes para refrigerar por la sencilla razón de que los podemos comprimir con facilidad. Su funcionamiento es bastante intuitivo. Cuando comprimimos un fluido (le aplicamos presión) éste se calienta. Cuando lo expandimos se enfría (o absorbe calor, que viene a ser lo mismo). Así es cómo funciona el sistema de refrigeración de nuestra nevera, por expansión y compresión de un fluido.

  • Cómo afectan al medioambiente los fluidos refrigerantes

En los años 80 descubrimos que los CFCs (también denominados freones) estaban destruyendo la capa de ozono. El mecanismo a través del cual atacan la capa de ozono es una reacción fotoquímica: al incidir la luz sobre la molécula de CFC, se libera un radical de cloro, muy reactivo y con gran afinidad por el ozono, hasta tal punto que rompe la molécula de ozono e inicia una reacción en cadena altamente destructiva.

El ozono es fundamental para la supervivencia. Protege la vida en el planeta mediante la absorción de la radiación ultravioleta, potencialmente cancerígena, que afecta a nuestro sistema inmunológico y daña la vida de las plantas.

Después de varios años de negociaciones, se llevó a cabo un acuerdo internacional en 1987 en la ciudad de Montreal, Canadá, que se conoce como el Protocolo de Montreal. Este protocolo es un esfuerzo unido de gobiernos, científicos, industrias y grupos ecologistas coordinados por la UNEP (Programa Ambiental de las Naciones Unidas). Este acuerdo consistió en regular la producción y uso de los CFCs hasta su desaparición gradual. En la Unión Europea se prohibieron totalmente en 1996.

La aplicación del Protocolo de Montreal ya ha dado sus frutos. Investigadores de la NASA demostraron a principios de 2018 que la disminución de CFCs ha provocado la reducción en un 20% del agujero de la capa de ozono.

El impacto medioambiental de los fluidos refrigerantes también se mide a partir de su potencial de calentamiento global, es decir, cuánto calor pueden atrapar en comparación con un compuesto de referencia y cómo esto afecta al calentamiento global. El dióxido de carbono es el gas de referencia, al que se le asigna un potencial de calentamiento global de 1.

Los CFCs y HFCs tienen un potencial de calentamiento global entre 1.000 y 15.000 veces mayor que el del CO2. Una vez prohibidos los CFCs, su sustituto inmediato fueron los HFCs, compuestos análogos que carecen de cloro y, por tanto, sin capacidad de destruir la capa de ozono. Sin embargo, el HFC que más se utiliza en la actualidad tiene un potencial de calentamiento global de unos 1.400, que sigue siendo muy elevado.

El conocimiento de los potenciales de calentamiento global nos llevó en 2014 a aprobar una normativa europea a partir de la cual el uso de los HFCs también se tendrá que minimizar. Antes del 2020, todos aquellos fluidos con un potencial mayor de 2.500, estarán prohibidos. En 2022, estarán prohibidos los que tengan un potencial superior a 150.

Esta normativa ha puesto en jaque a la industria de la refrigeración. Algunos han previsto volver a usar refrigerantes anticuados, como el amoníaco, el isobutano, el propano, o el mismo CO2. La razón es que tienen potenciales de calentamiento global muy bajos. El problema de volver a ellos es el mismo que nos hizo decidir prescindir de ellos en su momento: son tóxicos y/o inflamables. Producen un menor impacto medioambiental, sin embargo comprometen la seguridad de nuestros hogares.

  • El problema de los fluidos refrigerantes es que son fluidos, ¿y si usamos sólidos?

Los problemas medioambientales y de seguridad de los refrigerantes que hemos utilizado hasta ahora radica en que son fluidos, es decir, se fugan. Por ese motivo desde hace poco tiempo hemos empezado a investigar la posibilidad de utilizar sólidos. Eso sí, han de ser sólidos que se puedan comprimir con facilidad, aplicando una presión baja. Las neveras actuales funcionan con presiones de hasta 50-70 bar, así que lo ideal sería usar refrigerantes sólidos eficientes en ese rango de presiones. El mecanismo por el que se enfrían y calientan los sólidos es el mismo por el que lo hacen los fluidos, por ciclos de compresión y expansión (procesos barocalóricos), o también por ciclos de tensión y relajación (procesos elastocalóricos).

Al deformar un sólido elastocalórico, por ejemplo estirándolo, sus componentes se alinean en la dirección de la fuerza aplicada, aumentando de esta manera el grado de ordenación interna (lo que conocemos como entropía), de forma que el sólido se calienta. Una vez que el sólido recupera su temperatura inicial, si dejamos de estirarlo, se enfriará notablemente. En ese momento podemos usarlo para enfriar otro objeto. Este fenómeno de calentamiento-enfriamiento de un sólido lo podemos observar con una goma elástica (ver vídeo). Cuando la estiramos, ésta se calienta. Lo podemos comprobar acercándola a los labios. Una vez recupere la temperatura ambiente, dejamos de estirar la goma. Cuando recupera su forma inicial, comprobaremos sobre nuestros labios que se enfría. Esto se ve claramente utilizando una cámara de infrarrojos.

Sólido elastocalórico cuando se calienta al estirarlo (izquierda), y cuando se enfría al eliminar esa fuerza de deformación (derecha).

En junio de 2017, un equipo de investigadores de la Universidad de A Coruña publicaba en Nature un gran hallazgo. Un nuevo material sólido respondía a la aplicación de bajas presiones enfriándose con facilidad. Con solo 70 bar, presión que pueden alcanzar las neveras actuales, muestra una capacidad de refrigeración sobresaliente.

Este hallazgo fue fruto de la tesis doctoral de Juan Manuel Bermúdez-García. El equipo multidisciplinar con el que trabaja, formado por María Antonia Señarís, Manuel Sánchez, Socorro Castro, Jorge José López y Ramón Pedro Artiaga, integra a químicos e ingenieros de la UDC procedentes del Centro de Investigaciones Científicas Avanzadas (CICA) y de los Departamentos de Química y de Ingeniería Naval e Industrial. El pasado 24 de enero de 2018 fueron galardonados con el Premio de Investigación Ernesto Viéitez, concedido por la Real Academia Galega de Ciencias.

Premios de la Real Academia Galega de Ciencias. 24 de enero de 2018, Santiago de Compostela.

Se trata de un sólido híbrido, con una parte inorgánica (metales como hierro, níquel o manganeso) y otra orgánica (basada en carbono, nitrógeno e hidrógeno), dispuestos en una estructura tridimensional denominada perovskita y a la que debe el nombre que han decidido ponerle: perovskiña, en honor a su origen galego.

La perovskiña es fácil de sintetizar, sus componentes son económicos, ninguno es tóxico, y además es ligero y compacto, lo que implica que podremos fabricar neveras que también sean ligeras. La parte orgánica del sólido es la que le confiere flexibilidad a la estructura y por tanto es la responsable que de que sea fácilmente comprimible.

La investigación en perovskitas iba dirigida a encontrar mejores materiales para celdas solares, capaces de transformar eficientemente la energía solar en energía eléctrica. Afortunadamente, algunas de estas perovskitas resultaron ser comprimibles y útiles para refrigerar (tienen propiedades barocalóricas). En vista de los magníficos resultados, a estos investigadores les han concedido un proyecto de investigación de cuatro años. En ese tiempo cuentan con optimizar las propiedades de la perovskiña, perfeccionar su síntesis y adaptarla a los sistemas de refrigeración actuales.

Hay que tener en cuenta que sólo quedan cuatro años para que los refrigerantes actuales se prohíban, y las subvenciones para que las industrias de la refrigeración se adapten a la normativa son escasas y tardías. El futuro próximo de la industria de la refrigeración sufrirá un cambio espectacular. Y ese cambio pasará por incluir refrigerantes sólidos. Con toda probabilidad, en cuatro años nuestras neveras contendrán perovskiña, el material híbrido que lo cambiará todo.

Este post ha sido realizado por Deborah García Bello (@Deborahciencia) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Nota de la autora: Agradezco a Juan Manuel Bermúdez-García y Socorro Castro de la Universidad de A Coruña la ayuda que me han brindado para escribir este artículo.

El artículo La nueva forma de enfriar que lo cambiará todo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Cambiará algún día la imagen del científico?
  2. La forma de las hojas
  3. Abonar el mar para enfriar el planeta
Catégories: Zientzia

La pubertad está comenzando antes para muchos niños; la educación sexual debería afrontar esta realidad

jeu, 2018/01/25 - 17:00

Celia Roberts


&nbsp

Noñas de tan solo seis o siete años comienzan a mostrar los primeros signos de la pubertad. Imagen: Shutterstock

El gobierno británico está haciendo una consulta sobre un nuevo plan de estudios para la educación sexual y en relaciones [1] en los colegios ingleses. Este cambio brinda una ocasión oportuna para actualizar cómo, cuándo y qué se enseña a los niños sobre la pubertad.

Sorprendentemente, las orientaciones del Departamento de Educación (DdE) [2] sobre la educación sexual no han cambiado en casi dos décadas. Pero tras la presión concertada, la investigación y las recomendaciones de múltiples comités de miembros del parlamento, en 2017, la Ley de niños y trabajo social finalmente reconoció la necesidad de proporcionar “educación sexual para el siglo XXI”.

Se publicarán nuevas directrices legales para los colegios tras la consulta pública, que se cierra a mediados de febrero. A partir de 2019, los colegios de secundaria estarán obligados a ofrecer educación sexual y en relaciones, y los de primaria ofrecerán educación en relaciones. Los padres mantendrán el derecho a decidir que sus hijos no reciban educación sexual, aparte de la que se trata en el plan de estudios de ciencias, pero no se les permitirá que decidan sobre la educación en relaciones.

Estos cambios se basan en la preocupación generalizada por los efectos negativos que las tecnologías digitales tienen en la vida sexual de los jóvenes, en particular el “sexting”[3], el abuso y la explotación sexual infantil y los “extraños en línea”. El nuevo plan de estudios, al parecer, enseñará a los niños y jóvenes cómo son las relaciones sanas en el tenso contexto de teléfonos inteligentes, porno online e Instagram.

La nueva pubertad

Pero el nuevo plan de estudios también debería tener en cuenta lo que está sucediendo en los cuerpos de los jóvenes en el siglo XXI. No solo los niños parecen crecer mucho más rápido hoy, muchos de ellos en realidad están comenzando a desarrollarse físicamente antes que nunca.

Según con muchos científicos y médicos, estamos viviendo en la era de la “nueva pubertad” en la que un número creciente de niñas comienza a desarrollarse sexualmente a la edad de siete u ocho años. En la década de los sesenta, solo el 1% de las chicas entraban en la pubertad antes de cumplir los nueve años. En la actualidad, hasta el 40% de algunas poblaciones tanto en países ricos y como pobres lo están haciendo.

El desarrollo sexual también se está ampliando en el tiempo, y a muchas niñas comienzan a crecerles los senos y el vello púbico dos o tres años antes de que tengan su primera mentruación. Si bien hay menos pruebas de que el desarrollo de los niños esté cambiando tan rápidamente, algunos estudios también indican que una entrada más temprana en las etapas iniciales de la pubertad se está haciendo cada vez más común.

Las causas de estos cambios siguen sin estar claras. Muchos científicos apuntan al aumento simultáneo de la obesidad infantil, mientras que otros estudian los efectos de los compuestos químicos ambientales, como el Bisfenol A o BPA (que se encuentra en algunos plásticos), en el cuerpo. Otra investigación ha explorado los efectos de los factores sociales, incluidas las estructuras familiares, las experiencias traumáticas en la primera infancia y las desventajas socioeconómicas. Esta variedad de explicaciones evidencia lo complejo que es el fenómeno de la pubertad.

La guía del DdE en vigor establece que:

Todos los niños, incluidos aquellos que se desarrollan antes que el promedio, necesitan saber sobre la pubertad antes de experimentar la aparición de cambios físicos.

Pero deja que los colegios decidan, en consulta con los padres, “la edad apropiada” para hablar a los niños sobre la pubertad. En 2017, la Asociación de Educación Personal, Social y de la Salud [4] argumentó que esto debería ocurrir cuando tengan siete años. Pero hablar con niños de siete años sobre los senos, el vello púbico, el olor corporal y los cambios genitales puede no ser fácil para muchos maestros o para muchos padres. Tener siete años se supone que es una época de libertad, juego e inocencia.

Preparándose para la pubertad. Imagen: Shutterstock

Actualización de la educación sexual

Los niños que se desarrollan pronto presentan un desafío tanto para el pensamiento cultural sobre el sexo como para la política de educación sexual. Si bien muchos padres y jóvenes desean una educación sexual actualizada, esto generalmente viene con la condición de que dicha educación sea “apropiada para su edad”. Aunque es muy importante, esta frase es dolorosamente vaga, y no está claro si se refiere a la edad cronológica, la edad emocional o la etapa de desarrollo físico.

Hoy en día, algunas niñas de siete años pueden ser emocionalmente jóvenes, pero también les comienzan a crecer los senos y el vello púbico. Otros que se han desarrollado pronto porque han experimentado estrés en la primera etapa de la vida, por abandono o abuso, pueden sentirse más maduros que sus iguales y estar listos antes para aprender sobre la pubertad y la sexualidad. La creciente brecha en el momento del desarrollo sexual de niños y niñas también plantea un desafío. Enseñar a las niñas por separado o antes que a los niños, la estrategia en la escuela primaria de mi propio hijo, corre el riesgo de reforzar nocivas normas de género yfomentar el secretismo en torno a cuestiones como la menstruación.

En cambio, tal vez podríamos tratar de desenredar la pubertad de la sexualidad adolescente y desarrollar relatos de la pubertad que no la enmarquen como el comienzo de la adolescencia. Una niña de siete años con senos no se está “convirtiendo en mujer”, y una niña de nueve años que está menstruando probablemente no va a querer tener relaciones sexuales pronto.

En última instancia, esto significa ir más allá de las representaciones tradicionales de los cuerpos femeninos que se centran en la capacidad reproductiva con la idea de explorar significados y experiencias más amplias de lo que es ser una chica. Crecer también se trata de nuevos horizontes, como la fuerza, la salud e incluso el placer. La educación sexual y en relaciones incluso podría incluir la pubertad como algo que debe esperarse, notarse e incluso celebrarse, y no como un riesgo más.

Notas del traductor:

[1] Clases que el currículo británico hace obligatorias desde el 2000 bajo la denominación PSHE education y que incluye temas de salud y bienestar (higiene personal, alcohol y drogas, sexo), relaciones (entre iguales, con los adultos, con la familia) y vivir en el mundo (economía personal, mundo del trabajo).

[2] El Deparment of Education es el equivalente al Ministerio de Educación español.

[3] “Sexting” es un anglicismo para referirise al envío de contenidos eróticos o pornográficos por medio de teléfonos móviles u otros dispositivos conectados a Internet.

[4] Esta asociación agrupa a profesores y profesionales que imparten las clases de PSHE education (véase nota [1])

Sobre la autora:

Celia Roberts es catedrática de estudios de ciencia y género y codirectora del departamento de sociología de la Universidad de Lancaster (Reino Unido)

Texto traducido y adaptado por César Tomé López a partir del original publicado por The Conversation el 18 de enero de 2018 bajo una licencia Creative Commons (CC BY-ND 4.0)
The Conversation

El artículo La pubertad está comenzando antes para muchos niños; la educación sexual debería afrontar esta realidad se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Realidad conexa, porque todo está conectado.
  2. Por qué la filosofía es tan importante para la educación científica
  3. De cómo la ludificación del aula prepara a los niños para vivir en un estado policial
Catégories: Zientzia

En The Big Bang Theory no hay químicos, sin embargo…

jeu, 2018/01/25 - 11:59

En la serie The Big Bang Theory hay físicos, biólogos, ingenieros… pero no hay ningún personaje protagonista que sea químico. Sheldon Cooper es físico teórico, Leonard Hofstadter es físico experimental, Raj Ramayan Koothrappali es astrofísico, Howard Wolowitz es ingeniero mecánico, Bernardette Rostenkowski es microbióloga, Amy Farrah Fowler es neurobióloga y Penny es una aspirante a actriz que, siendo la única protagonista sin formación científica, acaba trabajando como visitadora médica.

En el último capítulo emitido, el episodio 13 de la temporada 11, Leonard y Amy juegan en casa a reproducir algunos de los experimentos que hicieron en sus años de colegio. El primero de ellos es un experimento de química. Ninguno de los dos es químico, sin embargo, deciden hacer un experimento de química para obtener «hielo caliente».

-We’re making «hot ice».

-It’s very cool!

El «hielo caliente»no es realmente hielo, es decir, no se trata de agua sólida a una temperatura diferente a los cero grados Celsius, sino que se trata de otro sólido que, a simple vista, se parece mucho al hielo.

Lo sorprendente de este experimento es que, al introducir la mano u otro objeto en un vaso que parece contener agua, éste se recubre instantáneamente con algo similar a cristales hielo. Es muy bonito y aparente, por eso es un experimento al que se recurre con frecuencia en las clases de química del instituto.

No son cristales de hielo, sino que son cristales de acetato de sodio. Podemos comprar el acetato de sodio, en cambio, también podemos sintetizarlo en casa con dos sustancias que habitualmente todos tenemos en nuestra cocina: vinagre blanco, el mismo que usamos para las ensaladas, y bicarbonato, lo que utilizamos para que los bizcochos luzcan esponjosos —y para un montón de cosas más—.

El vinagre es una disolución de ácido acético en agua. El bicarbonato es una sal, el hidrogenocarbonato de sodio. Si echamos un par de cucharadas de bicarbonato sobre medio litro de vinagre estaremos dando el primer paso para producir acetato de sodio. Lo que observaremos es una reacción química muy efervescente. Se forman cientos de pequeñísimas burbujas, como cuando agitamos enérgicamente una bebida gaseosa. Lo que está ocurriendo es que los átomos de ambos compuestos se reordenan para dar lugar a nuevos compuestos más estables. Esta es la definición de reacción química. En este caso forman acetato de sodio, agua y dióxido de carbono. El dióxido de carbono es el gas que observamos como burbujas.

Lo que nos interesa para hacer «hielo caliente» es el acetato de sodio. Tenemos que reducir la cantidad de agua y de dióxido de carbono producidos y forzar a que todo el ácido acético reaccione efectivamente con el bicarbonato. El dióxido de carbono es el menor de nuestros problemas, ya que el ser un gas, se escapa por sí solo. Para el resto, lo más efectivo es calentar la mezcla hasta que hierva. Al hervirla estamos evaporando gran parte del agua que se produjo, de modo que, por un lado, forzamos a que todo reaccione y, por otro lado, cuanta menos agua más saturada estará la disolución de acetato resultante.

Si lo dejamos hervir el tiempo suficiente, veremos cómo se empieza a formar una película superficial. Esto nos indica que la disolución está suficientemente concentrada (estará sobresaturada), así que la apartamos del fuego y la dejamos enfriar. Una vez fría, la dejamos refrigerar media hora en la nevera.

Si a continuación introducimos cualquier objeto o nuestra mano en esa disolución, ¡sorpresa!, empezarán a crecer cristales a su alrededor inmediatamente. Esto es lo que hacen Leonard y Amy, introducir una varilla metálica en la disolución. Ésta se empieza a cubrir de cristales. En la serie hacen un primer plano del suceso, así que en este capítulo se observa muy bien la cristalización.

Lo que está ocurriendo es que el acetato de sodio está sobreenfriado. Se mantiene en estado líquido aunque esté por debajo de su temperatura de fusión (54oC). Este estado es inestable, por lo que cualquier perturbación —como introducir un objeto— desencadena que las moléculas de acetato comiencen a organizarse formando cristales, que es su estado estable a temperatura ambiente. Al ser un proceso tan favorable, sucede desprendiendo calor. A esto se le denomina proceso exotérmico. Es decir, la disolución se calienta a medida que se produce la cristalización. Por eso al meter la mano no solo sentimos cómo se forman cristales, sino que también sentiremos cómo estos se calientan, de ahí el nombre de «hielo caliente».

Por el momento no hay químicos en la serie The Big Bang Theory, como tampoco están representados científicos de otras muchas áreas de la ciencia. Sin embargo, han sido el físico experimental y la neurobióloga los que se han puesto a jugar a las cocinitas y a darle un poco a esa maravillosa ciencia llamada química.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo En The Big Bang Theory no hay químicos, sin embargo… se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. De los compuestos químicos
  2. Químicos neandertales
  3. El Rubius hace un vídeo de química y la lía parda
Catégories: Zientzia

La atmósfera de CoRoT-2b lleva la contraria

mer, 2018/01/24 - 17:00

Concepción artística del gigante gaseoso CoRoT-2b, con un punto caliente hacia el oeste, orbitando su estrella. Fuente: NASA/JPL-Caltech/T. Pyle (IPAC)

Los escritores de ciencia ficción y algunos científicos especulan con cómo podían ser algunas cosas en el universo a partir de una muestra muy limitada de objetos conocidos de nuestro entorno. Un ejemplo típico de esas cosas es la vida extraterrestre, en la que unos hacen hincapié más en sistemas sociales asumiendo que en lo básico serán iguales (como en el caso de Star Wars o Star Trek), o en una combinación de características de especies animales o vegetales terrestres. Otro son los posibles planetas en otros sistemas solares, sospechosamente parecidos a la Tierra o Marte. Sin embargo, el hecho cierto es que conforme avanza la exploración, aún muy limitada, de los planetas extrasolares nos encontramos con tantas sorpresas que cualquier parecido con la realidad de lo que imaginamos será pura coincidencia.

Si nos planteamos una pregunta aparentemente muy simple como “¿cuál es el punto más caliente de un planeta gaseoso cercano a una estrella?” nos parece que los físicos y planetólogos no deberían tener demasiada dificultad en responderla correctamente desde un punto de vista teórico. Y, sin embargo, el escritor de ciencia ficción dura o el científico que asuma que la respuesta teórica es la correcta se puede llevar una sorpresa mayúscula. El punto más caliente en al menos un planeta gaseoso real cerca de una estrella distante real no está donde los físicos esperaban que estuviese, un descubrimiento que desafía la comprensión de los científicos de los muchos planetas de este tipo que se encuentran en sistemas solares fuera del nuestro.

A diferencia de nuestro conocido planeta Júpiter, los llamados Júpiter calientes orbitan asombrosamente cerca de su estrella anfitriona, tan cerca que normalmente necesitan menos de tres días para completar una órbita. Además un hemisferio de estos planetas siempre se enfrenta a su estrella anfitriona, mientras que el otro está en la oscuridad permanentemente.

Como era de esperar, el lado “día” de los planetas se calienta mucho más que el lado nocturno, y el punto más caliente de todos tiende a ser el punto más cercano a la estrella. Los astrofísicos elaboran modelos que predicen que estos planetas también experimentan fuertes vientos que soplan hacia el este cerca de sus ecuadores, lo que a veces pueden desplazar el punto caliente hacia el este, algo que también ha sido observado. Sin embargo, en el misterioso caso del exoplaneta CoRoT-2b, el punto caliente se encuentra en la dirección opuesta: al oeste del centro. Un descubrimiento realizado por Lisa Dang, de la Universidad McGill (Canadá), y sus colegas usando el Telescopio Espacial Spitzer de la NASA.

CoRoT-2b, descubierto hace una década, está a 930 años luz de la Tierra. Si bien se han detectado muchos otros Júpiter calientes en los últimos años, CoRoT-2b ha seguido intrigando a los astrónomos debido a dos factores: su enorme tamaño y el desconcertante espectro de las emisiones luminosas de su superficie. Ambos factores combinados sugieren que algo raro sucede en la atmósfera de este Júpiter caliente.

Los investigadores ofrecen tres posibles explicaciones para este descubrimiento inesperado, cada una de las cuales plantea nuevos interrogantes. La primera es que el planeta podría estar girando tan lentamente que una rotación lleva más tiempo que una órbita completa a su estrella; esto podría crear vientos que soplan hacia el oeste en lugar de hacia el este, pero también supondría un problema para las teorías sobre la interacción gravitacional planeta-estrella en órbitas tan próximas.

Otra posibilidad es que la atmósfera del planeta podría interactuar con el campo magnético del propio planeta para modificar su patrón de vientos; si esto fuera así podríamos estar ante una oportunidad única de estudiar el campo magnético de un exoplaneta.

Finalmente, una tercera sería que grandes nubes estuviesen cubriendo el lado oriental del planeta, lo que podría hacer que parezca más oscuro de lo que sería realmente; pero esto socavaría los modelos actuales de circulación atmosférica en tales planetas.

Serán necesarios muchos más y mejores datos para ver si alguna de estas hipótesis es correcta o es necesario recurrir a otra. El telescipio espacial James Webb, que se supone será lanzado al espacio el próximo año y que tiene 100 veces la potencia del Spitzer, podrá proporcionarlos. En cualquier caso, preparémonos para ser sorprendidos con lo que hay ahí fuera.

Referencia:

Lisa Dang et al (2018) Detection of a westward hotspot offset in the atmosphere of hot gas giant CoRoT-2b Nature Astronomy doi: 10.1038/s41550-017-0351-6

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo La atmósfera de CoRoT-2b lleva la contraria se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Algo raro pasa alrededor de Gliese 436
  2. De guijarro a asteroide en una trampa de polvo
  3. La presencia de sales podría hacer que exista una tectónica de placas en Europa
Catégories: Zientzia

Variaciones artísticas del teorema de Napoleón

mer, 2018/01/24 - 11:59

Si hace unas semanas iniciaba mi entrada en el Cuaderno de Cultura Científica con la magnífica exposición Anni Albers: tocar la vista (Museo Guggenheim, Bilbao) de la artista alemana Anni Albers (1899-1994), hoy lo voy a hacer con otras dos excelentes exposiciones, en esta ocasión de la artista donostiarra Esther Ferrer, una que está teniendo lugar en estos momentos en el Palacio Velázquez de Madrid, organizada por el Museo Nacional Centro de Arte Reina Sofía, con el título Esther Ferrer. Todas las variaciones son válidas, incluida esta (26 de octubre de 2017 – 25 de febrero de 2018) y la otra la que se celebrará en el Museo Guggenheim de Bilbao, con el título Esther Ferrer. Espacios entrelazados (16 de marzo – 10 de junio, 2018).

Esther Ferrer durante la performance “Performance Art: Theory and Practice”, en 2012, en Ljubljana (Eslovenia). Foto de Dalila Ingold

Esther Ferrer (Donostia/San Sebastián, 1937) es una pionera del arte de la performance y una de sus máximas representantes en España. En 1963 crea en Donostia el Taller de libre expresión, junto con el artista donostiarra José Antonio Sistiaga y una Escuela experimental en Elorrio (Bizkaia). En el año 1967 se incorpora al grupo musical vanguardista ZAJ, fundado por los compositores Walter Marchetti, Ramón Barce y Juan Hidalgo, que tenían como referencia al compositor norteamericano y teórico de la música John Cage (1912-1992) y al movimiento artístico Fluxus. Fueron famosos sus performances conceptuales y radicales. En la década de 1970, Esther Ferrer retoma su actividad plástica con fotografías trabajadas, instalaciones, objetos, videos y cuadros. Su obra se suele relacionar con la corriente minimalista y conceptual, iniciada en la década de los sesenta del siglo XX, que tiene al poeta francés Stéphane Mallarmé (1842-1898), el escritor francés Georges Perec (1936-1982), al compositor John Cage o al movimiento Fluxus, como referentes, así como en los feminismos de aquel momento.

“Permutaciones. En el marco del arte matemático” (década años 1980), de Esther Ferrer

Esther Ferrer ha recibido muchos premios, entre ellos, el Premio Nacional de Artes Plásticas, en 2008, el Premio Gure Artea, en 2012, o los siguientes premios en 2014, Premio MAV (Mujeres en las Artes Visuales), Premio Marie Claire de l’Art Contemporain y Premio Velázquez de las Artes Plásticas. Y ha expuesto y realizado performances a lo largo de todo el mundo. En sus obras podemos encontrar muchos elementos relacionados con las matemáticas, desde los números primos con los que trabaja desde la década de los años 1970, hasta el infinito en el número pi, pasando por la combinatoria, el azar, la medición, las ilusiones ópticas o la geometría.

En esta entrada me gustaría traer su serie de obras titulada Triángulo de Napoleón, realizadas por Esther en la década de 1980, como las dos siguientes.

Serie “Triángulo de Napoleón” (1987), de Esther Ferrer. Técnica mixta en papel. Galería Àngels Barcelona

Serie “Triángulo de Napoleón” (1988), de Esther Ferrer. Técnica mixta en papel. Galería Àngels Barcelona

Esta serie de obras de la artista Esther Ferrer titulada Triángulo de Napoleón, está relacionada con el conocido teorema de Napoleón, un resultado clásico de la geometría.

Este resultado clásico sobre la geometría del triángulo dice lo siguiente.

Teorema de Napoleón: Si sobre los tres lados de un triángulo cualquiera ABC se construyen tres triángulos equiláteros exteriores (respectivamente, interiores), los centros de estos tres triángulos equiláteros forman un nuevo triángulo XYZ, que es equilátero, al que se denomina triángulo exterior (respectivamente, interior) de Napoleón.

En esta imagen se ve la construcción del triángulo exterior de Napoleón (en azul en la imagen) del triángulo ABC (en negro). El punto X es el centro del triángulo equilátero apoyado en el lado BC, el punto Y el centro del triángulo equilátero apoyado en el lado AC y Z lo es del triángulo apoyado en AB. El teorema de Napoleón nos dice que el triángulo XYZ, construido de esta forma, es equilátero, tiene todos sus lados iguales. La anterior obra de Esther Ferrer de la serie Triángulo de Napoleón, de 1987, es un ejemplo de triángulo exterior de Napoleón.

Antes de continuar, una pequeña aclaración sobre el punto que es el centro de un triángulo equilátero. Dado un triángulo cualquiera se pueden definir varios puntos que son de alguna forma el centro del triángulo, a saber, el baricentro (el punto de intersección de las tres medianas del triángulo, siendo una mediana la recta que pasa por un vértice del triángulo y el punto medio del lado opuesto; también se llama centroide o centro de masas), el incentro (el punto de intersección de las tres bisectrices, rectas que dividen a un ángulo en dos partes iguales, de un triángulo, y que es el centro de la circunferencia inscrita en el triángulo), el circuncentro (el punto de intersección de las tres mediatrices –recta perpendicular a un segmento que pasa por el medio del mismo- de los lados del triángulo, y que es el centro de la circunferencia circunscrita al triángulo) y el ortocentro (el punto de intersección de las tres alturas del triángulo, donde recordemos que una altura pasa por un vértice y es perpendicular al lado opuesto del mismo).

Baricentro, o centroide, de un triángulo, realizado con GeoGebra

Incentro de un triángulo, realizado con GeoGebra

Circuncentro de un triángulo, realizado con GeoGebra

Ortocentro de un triángulo, realizado con GeoGebra

Aunque en el caso de un triángulo equilátero esos cuatro puntos son el mismo, por eso en el teorema de Napoleón hablamos simplemente del centro de un triángulo equilátero, sin especificar cuál de ellos es, puesto los cuatro son el mismo.

Continuemos con el teorema de Napoleón. A continuación, se muestra un ejemplo de construcción de un triángulo interior de Napoleón (en azul en la imagen) del triángulo ABC (en negro).

Precisamente, la obra de 1988 de la serie Triángulo de Napoleón, de Esther Ferrer, que hemos mostrado más arriba, es un ejemplo de triángulo interior de Napoleón.

Pero el resultado geométrico sobre los triángulos de Napoleón, exterior e interior, de un triángulo dado va más allá aún. También se cumplen las siguientes propiedades.

Propiedad 1: El centro del triángulo exterior (respectivamente, interior) de Napoleón y el baricentro, o centroide, del triángulo original coinciden.

Propiedad 2: La diferencia entre las áreas de los triángulos exterior e interior de Napoleón es igual al área del triángulo original.

El área del triángulo azul, que es el triángulo exterior de Napoleón, menos el área del triángulo verde, triángulo interior de Napoleón, es igual al área del triángulo gris, el triángulo original ABC

Existen varias demostraciones distintas del teorema de Napoleón que utilizan diferentes herramientas de las matemáticas, desde la geometría analítica a los números complejos, pasando por la trigonometría o la simetría, que se pueden encontrar en la literatura matemática. Para quien esté interesado, varias de estas demostraciones se pueden encontrar en la página cut-the-knot de Alexander Bogomolny.

El nombre de este interesante teorema geométrico, teorema de Napoleón, tiene un gran atractivo, puesto que lleva el nombre del general y emperador francés Napoleón Bonaparte (1769-1821). Pero, una cuestión interesante es si este resultado es realmente de Napoleón.

La verdad es que Napoleón Bonaparte siempre estuvo interesado en la ciencia, y muy especialmente en las matemáticas. Era un matemático aficionado, al que apasionaba la geometría. Hacer ejercicios matemáticos solía relajarle y causarle gran placer. Su biógrafo J. S. C. Abbott escribió “Cuando tenía un momento para la diversión, no era infrecuente que lo utilizara en un libro de logaritmos, en el cual siempre encontraba entretenimiento”.

Se sentía orgulloso de ser miembro del Instituto de Francia. Entre sus amistades se contaban muchos científicos y matemáticos, entre los que estaban los matemáticos Jean-Baptiste Joseph Fourier (1768-1830), Gaspard Monge (1746-1818), Joseph-Louis Lagrange (1736-1813), Pierre-Simon Laplace (1749-1827), o los químicos Jean-Antoine Chaptal (1756-1832) y Claude Louis Berthollet (1748-1822). Monge y Fourier, con quienes Napoleón acabaría teniendo una fuerte amistad, le acompañaron en su campaña en Egipto. Se cuenta que por las noches solían resolver problemas juntos en su tienda de campaña.

Grabado “El general Bonaparte a borde del buque L’Orient discute con los científicos de la expedición a Egipto”, en el que podemos ver a Gaspard Monge en el centro de la imagen

Napoleón Bonaparte era consciente de la importancia de la educación, por eso fundó las dos grandes instituciones educativas de Francia, la Escuela Normal Superior y la Escuela Politécnica. La siguiente cita nos da una idea de la importancia que Napoleón le daba a las matemáticas: “El avance y perfección de las matemáticas está íntimamente ligado a la prosperidad del Estado”.

Por otra parte, Napoleón era muy amigo del poeta y matemático italiano Lorenzo Mascheroni (1750-1800). Este le dedicó su libro Geometria del Compasso (1797) a Napoleón. Incluso existe un problema que recibe el nombre de Problema de Napoleón, por haber sido propuesto por el general, y que resolvió Mascheroni. Es el problema de dividir la circunferencia en cuatro partes iguales utilizando únicamente el compás. Se dice que en cierta ocasión estaba Napoleón explicando este resultado de geometría a Lagrange y Laplace, y este último le contestó “Lo último que esperábamos de usted General, era una lección de geometría”.

“Napoleón en Fontainebleau”, 31 de Marzo de 1814, por Paul Hippolyte Delaroche (1797-1856)

Sin embargo, no hay ninguna constancia de que el teorema de Napoleón fuera realmente de Napoleón Bonaparte. Coxeter y Greitzer en su libro Geometry revisited, afirman que “la posibilidad de que [Napoleón] supiese suficiente geometría para realizar este logro es tan cuestionable como que supiese suficiente inglés como para componer el famoso palíndromo ABLE WAS I ERE I SAW ELBA (Hábil fui antes de ver Elba)”.

La primera vez que se publica algo relacionado con el teorema de Napoleón, fue en forma de problema en la revista The Ladies’ Diary, en 1825, propuesto por el matemático inglés William Rutherford (1798–1871):

Trácense triángulos equiláteros (los vértices apuntando todos hacia fuera o todos hacia dentro) sobre los tres lados de un triángulo ABC: entonces las líneas que unen los centros de gravedad de estos tres triángulos rectángulos forman un triángulo equilátero. Se requiere demostración.

Al año siguiente se publicaron en The Ladies’ Diary dos demostraciones del problema de los triángulos, una geométrica y otra analítica, aunque la revista recibió muchas más.

Extracto de la revista The Ladies’ Diary, de 1826, que contiene las dos soluciones, geométrica y analítica, del problema planteado por W. Rutherford

Aunque el teorema de Napoleón ya había apareció, con anterioridad, en forma de tres ejercicios de un examen para obtener la Medalla de Oro de la Universidad de Dublín, en 1820.

Muchos estudiosos son de la opinión de que este resultado ya era conocido con anterioridad, pero no se ha conservado ninguna publicación del mismo. Hay quienes citan a los matemáticos italianos Evangelista Torricelli (1608-1647), Bonaventura Cavalieri (1598-1647) o Vincenzo Viviani (1622-1703), puesto que habían estudiado figuras en las que se disponían triángulos equiláteros en los lados de un triángulo y podrían haber obtenido el resultado, o hay quien cita también al francés Pierre de Fermat (1601-1665), aunque no hay ninguna prueba documental de ello.

Por otra parte, después de ser publicado en The Ladies’ Diary este resultado ha sido redescubierto independientemente por muchas personas, lo cual nos da una pista de que quizás ya había sido enunciado y demostrado con anterioridad.

Según Branko Grünbaum, en su artículo Is Napoleon’s Theorem Really Napoleon’s Theorem?, la primera publicación conocida en la que se menciona a Napoleón en relación a este resultado es de 1911, en la edición decimoséptima del libro Elementi di Geometria, del matemático italiano Aureliano Faifofer (1843-1909). Faifofer menciona que es un “teorema propuesto para la demostración por Napoleón a Lagrange”.

Sin embargo, en el artículo de la wikipedia sobre el teorema de Napoleón se menciona que en la Enciclopedia Chambers, en el volumen IX, de 1867, ya se citaba a Napoleón en relación a esta cuestión.

Lo cierto es que no se sabe quién descubrió originalmente este teorema de triángulos, ni si realmente Napoleón se lo propuso a Lagrange para su demostración y este fue el motivo de que lleve su nombre. Lo único que sí es cierto es que este resultado se conoce hoy en día con este nombre, el teorema de Napoleón. Seguramente, será un ejemplo más de la ley de la eponimia de Stigler (por cierto, que el propio Stephen Stigler mencionó que esta ley ya había sido formulada por Robert K. Merton con anterioridad, cumpliéndose de nuevo la propia ley), que dice que “ningún descubrimiento científico recibe el nombre de quien lo descubrió en primer lugar”, como la regla de L´Hôpital, que realmente es de Johann Bernoulli, la ley de Benford, que la descubrió el astrónomo Simon Newcomb o los sistemas triples de Steiner, que estudió primero el matemático Thomas P. Kirkman.

Pero terminemos con algunas otras obras de la serie Triángulo de Napoleón de la artista donostiarra Esther Ferrer.

Obra de la serie “Triángulo de Napoleón” (finales años 1980), collage, de Esther Ferrer

“Triángulo interno de Napoleón”, Esther Ferrer, presentada en ARCO 2013

Maqueta de Esther Ferrer para la instalación “Triángulo interno de Napoleón” (finales años 1980), es la proyección del triángulo interno de Napoleón mediante hilo o cable

Dibujo para la instalación “Triángulo interior de Napoleón” (finales años 1980), de Esther Ferrer)

Bibliografía

1.- Esther Ferrer. Todas las variaciones son válidas, incluida esta (Palacio Velázquez, 26 de octubre de 2017 – 25 de febrero de 2018), Museo Reina Sofia

2.- Página web de Esther Ferrer

3.- Galería Àngels Barcelona, Esther Ferrer

4.- H. S. M. Coxeter and S. L. Greitzer, Geometry Revisited, Mathematical Association of America, 1967.

5.- GeoGebra

6.- Howard W. Eves, Mathematical Circles (volume I), MAA, 2003.

7.- Branko Grünbaum, Is Napoleon’s Theorem Really Napoleon’s Theorem?, The American Mathematical Monthly, vol. 119, n. 6, p. 495 – 501, 2012.

8.- Wikipedia: Napoleon’s theorem

9.- M. R. F. Smyth, MacCool’s Proof of Napoleon’s Theorem, Irish Math. Soc. Bulletin 59, p. 71 – 77, 2007.

10.- Alexander Bogomolny, Cut-the-knot, Napoleon’s Theorem

11.- Esther Ferrer, Maquetas y dibujos de instalaciones 1970/2011, EXIT, 2011.

12.- Esther Ferrer, Entre líneas y cosas, CEART, 2016.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Variaciones artísticas del teorema de Napoleón se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El teorema de Marion (Walter)
  2. El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba
  3. El teorema de los cuatro colores (1): una historia que comienza en 1852
Catégories: Zientzia

Pages