Cuántica y relatividad por todas partes
Aunque la cuántica trata de la “física de lo muy pequeño” y la relatividad “de lo muy rápido” no es cierto que sus efectos sólo se perciban en el mundo microscópico o a velocidades próximas a la de la luz, respectivamente.
Quizá el problema sea percibir esas situaciones como poco cotidianas o los efectos macroscópicos perceptibles como situaciones excepcionales.
Antes de la teoría cuántica había un “problemita” que preocupaba a los científicos: “Si una carga en movimiento radia energía y, por lo tanto, la va perdiendo, ¿cómo se mantiene el electrón girando en el átomo de hidrógeno sin ir cayendo poco a poco al núcleo?” . Una tontería… la estabilidad de la materia.
Tuvimos que aceptar el concepto de “órbita mínima de la que no se puede caer”. Más adelante el de “niveles discretos” para comprender los espectros atómicos… pero tuvimos que llegar al concepto de fermión para entender que no se apelotonen todos los electrones en el nivel de menor energía.
De esta forma, la estabilidad del átomo, la existencia de atómos diferentes y la estructura de capas que dará lugar a toda la química son una expresión más que visible y cotidiana de la cuántica.
Respecto a la relatividad hay que recordar que antes del trabajo de Einstein ya se habían formulado las transformaciones de Lorentz. Me explicaré.
Ya se conocían las ecuaciones de Maxwell, que explican el electromagnetismo; una de las cosas que más nos gustan a los físicos por su potencia, su sencillez, su elegancia, por “unificar” la electricidad y el magnetismo, por predecir las ondas electromagnéticas… en fin, por tantas cosas. Como iba diciendo, ya se conocían estas ecuaciones, pero tenían un pequeño problema… no eran compatibles con la relatividad de Galileo, con algo tan de “sentido común” como que si dos observadores se mueven a velocidad constante uno respecto del otro (sistemas inerciales), su tiempo discurra igual y obtengamos las velocidades aparentes en cada sistema compensando (sumando o restando) con la velocidad entre ellos. Un problemita de nada… porque no ser compatible significa que los fenómenos electromagnéticos no serían iguales para dos observadores en esos sistemas… y no sólo deben serlo, sino que podemos medir que lo son.
Con todo el dolor, nos vimos obligados a dejar algo tan querido como las transformaciones de Galileo por las de Lorentz. Más tarde se vio cómo eran deducibles en el contexto de la relatividad especial asumiendo simplemente que la velocidad de la luz fuera constante e independiente del observador y que el espacio fuera homogéneo e isótropo.
Así que, nada menos que la consistencia de que todos los fenómenos electromagnéticos sean iguales para dos observadores inerciales necesita de la relatividad especial.
Con estos ejemplos no es difícil ver que la cuántica y la relatividad son imprescindibles para la explicaciones de lo más sencillo y cotidiano, pero fíjate además en estos dos aspectos:
- Fue así como históricamente llamaron nuestra atención, mostrándose en el mundo macroscópico y perceptible por nuestros sentidos.
- Necesitamos de los efectos perceptibles para poder tomar medidas en esos mundos de otra manera inaccesibles.
Quizá la forma más sencilla de entenderlo es que nosotros y nuestro mundo está compuesto por cosas muy pequeñas que se mueven muy rápido… y se nota.
NOTA 1: Los electrones, como otros fermiones, no pueden ocupar el mismo estado cuántico. Así que si vamos añadiendo electrones a un sistema estos tienen que ir ocupando los estados libres, aunque tengan mayor energía. En el caso del átomo los distintos orbitales en los sucesivos niveles de energía.
NOTA 2: Las transformaciones de Lorentz permiten cambiar entre sistema de referencia inerciales sin que los fenómenos electromagnéticos se distorsionen y se reducen a las de Galileo si la velocidad es mucho menor que la de la luz.
Este post ha sido realizado por Javier Fernández Panadero (@Javierfpanadero) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Cuántica y relatividad por todas partes se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Descartes se equivocó: “una persona es una persona a través de otras personas”
Abeba Birhane
Según la filosofía ubuntu, que tiene su origen en la antigua África, un bebé recién nacido no es una persona. La gente nace sin “ena”, o individualidad, y en vez de eso debe adquirirla a lo largo del tiempo a través de interacciones y experiencia. Por tanto la distinción “yo/otro” que es axiomática en la filosofía occidental es mucho más borrosa en el pensamiento ubuntu. Tal y como lo expresó el filósofo nacido en Kenia John Mbiti en African Religions and Philosophy (1975): “Yo soy porque nosotros somos, y como nosotros somos, por tanto yo soy”.
Sabemos por la experiencia diaria que una persona se forja parcialmente en el crisol de la comunidad. Las relaciones influyen en nuestra autocomprensión. Quien soy yo depende de muchos “otros”: mi familia, mi cultura, mis compañeros de trabajo. El yo que llevo a comprar comida, por ejemplo, es diferente en sus acciones y comportamientos del yo que habla con mi director de tesis. Incluso mis reflexiones más personales y privadas están entrelazadas con las perspectivas y voces de diferentes personas, sean las que están de acuerdo conmigo, las críticas, o las que me elogian.
Con todo las idea de un yo ambiguo y fluctuante puede ser desconcertante. Podemos anotar esta incomodidad, en buena medida, en la cuenta de René Descartes. El filósofo francés del siglo XVII creía que un ser humano estaba esencialmente autocontenido y era autosuficiente; un sujeto confinado a la mente, inherentemente racional, que debería afrontar el mundo fuera de su cabeza con escepticismo. Si bien Descartes no creo la mente moderna él solo, él tuvo mucho que ver a la hora de definir sus contornos.
Descartes se había propuesto resolver un rompecabezas muy concreto. Quería encontrar un punto de vista estable desde el que mirar el mundo sin depender de sabidurías por decreto divino; un lugar desde el que podría discernir las estructuras permanentes bajo los cambiantes fenómenos de la naturaleza. Pero Descartes creía que había una compensación entre la certidumbre y una especie de riqueza social y mundana. Lo único de lo que puedes estar seguro es de su propio cogito – el hecho de que estás pensando. Las otras personas y cosas son intrínsecamente volubles y erráticas. Así que no deben tener nada que ver con la constitución básica del yo consciente, que es un todo necesariamente separado, coherente y contemplativo.
Pocos filósofos y psicólogos de prestigio se identificarían como dualistas cartesianos estrictos, en el sentido de creer que la mente y la materia están completamente separadas. Pero el cogito cartesiano está todavía por todas partes. El diseño experimental de las pruebas de memoria, por ejemplo, tiende a partir de la suposición de que es posible hacer una distinción nítida entre el yo y el mundo. Si la memoria simplemente vive en el interior del cráneo, entonces es perfectamente aceptable aislar a una persona de su entorno y relaciones cotidianas y comprobar sus recuerdos usando tarjetas o pantallas en los límites artificiales de un laboratorio. Una persona se considera una entidad autocontenida, independiente de su entorno, grabada en el encéfalo como una serie de procesos cognitivos. La memoria debe ser simplemente algo que tú tienes, no algo que haces dentro de un contexto determinado.
La psicología social pretende examinar la relación entre la cognición y la sociedad. Pero incluso entonces, la investigación supone a menudo que un colectivo de sujetos cartesianos son el foco real de la investigación, no yoes que co-evolucionan con otros a lo largo del tiempo. En la década de los sesenta, los psicólogos estadounidenses John Darley y Bibb Latané se interesaron en el asesinato de Kitty Genovese, una joven blanca que había sido apuñalada y agredida en su camino a casa una noche en Nueva York. Muchas personas habían presenciado el crimen, pero ninguna intervino para evitarlo. Darley y Latané diseñaron una serie de experimentos en los que simularon una crisis, como un ataque de epilepsia, o humo que entra desde la habitación de al lado, para observar lo que la gente hacía. Fueron los primeros en identificar el llamado “efecto espectador”, en el que las personas parecen responder más lentamente ante alguien en peligro si hay otras alrededor.
Darley y Latané sugirieron que esto podría provenir de una “difusión de responsabilidad”, en la que la obligación de reaccionar se diluye en un grupo más grande de personas. Pero como argumentó la psicóloga estadounidense Frances Cherry en The Stubborn Particulars of Social Psychology: Essays on the Research Process (1995), este enfoque numérico borra la información contextual vital que podría ayudar a entender los motivos reales de la gente. El asesinato de Genovese tenía que ser visto con un telón de fondo en el que la violencia contra las mujeres no se tomaba en serio, apuntaba Cherry, y en el que la gente era reacia a entrar en lo que podría haber sido una disputa doméstica. Por otra parte, el asesinato de una mujer negra pobre habría atraído mucho menos interés mediático. Pero el enfoque de Darley y Latané hace que los factores estructurales sean mucho más difíciles de ver.
¿Hay alguna manera de reconciliar estos dos relatos del yo: la versión relacional, que se integra en el mundo, y la autónoma e interna? El filósofo ruso Mikhail Bakhtin del siglo XX creía que la respuesta estaba en el diálogo. Necesitamos a otros para evaluar nuestra propia existencia y construir una auto-imagen coherente. Piensa en ese momento luminoso cuando un poeta captura algo que has sentido pero que nunca habías expresado; o cuando tuviste dificultades para concretar tus pensamientos, pero se cristalizaron en la conversación con un amigo. Bakhtin creía que sólo mediante un encuentro con otra persona podrías llegar a apreciar tu propia perspectiva única y verte a ti mismo como una entidad completa. “Mirando a través de la pantalla del alma del otro”, escribió, “vivifico mi exterior.” La personalidad y el conocimiento son evolutivos y dinámicos; el yo nunca está terminado – es un libro abierto.
Así que la realidad no está simplemente ahí fuera, esperando a ser descubierta. “La verdad no nace ni se va a encontrar dentro de la cabeza de una persona individual, nace entre las personas que buscan colectivamente la verdad, en el proceso de su interacción dialógica”, escribió Bakhtin en Problems of Dostoevsky’s Poetics (1929). Nada es simplemente ello mismo, fuera de la matriz de relaciones en la que aparece. En cambio, ser es un acto o evento que debe suceder en el espacio entre el yo y el mundo.
Aceptar que otros son vitales para nuestra autopercepción es un correctivo a las limitaciones de la visión cartesiana. Consideremos dos modelos diferentes de psicología infantil. La teoría del desarrollo cognitivo de Jean Piaget concibe el crecimiento individual en una forma cartesiana, como la reorganización de los procesos mentales. El niño en desarrollo es representado como un aprendiz solitario – un científico ingenioso, luchando de forma independiente para dar sentido al mundo. Por el contrario, las teorías “dialógicas”, llevadas a la vida en experimentos como el “estudio de casa de muñecas” de Lisa Freund de 1990, enfatizan las interacciones entre el niño y el adulto quien puede proporcionar “andamios” con los que entender el mundo.
Un ejemplo más duro podría ser el confinamiento solitario en las cárceles. El castigo fue originalmente diseñado para fomentar la introspección: tornar los pensamientos del preso hacia el interior, para motivarlo a reflexionar sobre sus crímenes, y en último término ayudarlo a regresar a la sociedad como ciudadano purificado moralmente. Una política perfecta para la reforma de individuos cartesianos. Pero, de hecho, los estudios de estos presos sugieren que su sentido del yo se disuelve si son castigados de esta manera durante el tiempo suficiente. Los presos tienden a sufrir profundas dificultades físicas y psicológicas, tales como confusión, ansiedad, insomnio, sentimientos de inadecuación y un sentido del tiempo distorsionado. Privada de contacto e interacción – la perspectiva externa necesaria para consumar y sostener una auto-imagen coherente – una persona corre el riesgo de desaparecer en la inexistencia.
Los campos emergentes de la cognición corpórea y enactiva han comenzado a tomar más en serio los modelos dialógicos del yo. Pero en su mayor parte, la psicología científica sólo está dispuesta a adoptar posturas cartésicas individualistas que cortan las redes que unen al yo con los demás. Hay una frase zulú, ‘Umuntu ngumuntu ngabantu‘, que significa ‘Una persona es una persona a través de otras personas.’ Esta es una explicación más rica y mejor, creo, que ‘pienso, por lo tanto soy.’
Sobre la autora: Abeba Birhane está realizando su tesis doctoral en neurociencia cognitiva en el University College Dublin.
Texto traducido y adaptado por César Tomé López a partir del original publicado por Aeon el 7 de abril de 2017 bajo una licencia Creative Commons (CC BY-ND 4.0)
El artículo Descartes se equivocó: “una persona es una persona a través de otras personas” se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Si te preocupa el aceite de palma, que sea por las razones adecuadas
Últimamente el aceite de palma ocupa un gran número de titulares en los medios de comunicación. Diferentes fabricantes y distribuidores de la industria de la alimentación han optado por eliminarlo de sus productos, generalmente alegando motivos de salud.
El aceite de palma está presente en multitud de alimentos, incluso lo encontramos en las leches infantiles. ¿Es tan preocupante como parece?
El aceite de palma se extrae del fruto de la especie Elaeis guineensis, conocida como palma africana o aceitera que, con origen en el continente africano se introdujo de forma masiva en el suroeste asiático a principios del siglo XX. Es un aceite vegetal, como también lo son el aceite de girasol, de oliva o de soja.
La diferente calidad nutricional entre unos aceites y otros estriba en su perfil lipídico, es decir, en los ácidos grasos que los componen. Generalmente se hace la distinción en función de su contenido en ácidos grasos saturados e insaturados.
Aceite de palma y salud
Consideramos saludables a los ácidos grasos insaturados, mientras que la mayoría de ácidos grasos saturados están relacionados con ciertas enfermedades metabólicas. Los principales organismos oficiales en temas de salud, como la Autoridad Europea de Seguridad Alimentaria (EFSA) y la Organización Mundial de la Salud (OMS), recomiendan reducir al mínimo la ingesta de ácidos grasos saturados por su implicación en el aumento del colesterol LDL (el malo) y en el aumento del riesgo de padecer cardiopatías.
Los ácidos grasos saturados más comunes en alimentación son el ácido palmítico, el mirístico, el láurico y el esteárico. Todos tienen diferentes propiedades y características con efectos distintos sobre la salud. Por ejemplo, el ácido esteárico tiene un efecto menor sobre los lípidos y las lipoproteínas plasmáticas (molécula de proteína unida con un lípido cuya función es el transporte de lípidos a los tejidos del organismo), sobre todo en contraste con el resto de grasas saturadas. Esto explica que el consumo de chocolates con alto contenido en manteca de cacao, rica en este ácido, no influya tanto en el colesterol plasmático. En cambio, el ácido palmítico sí incrementa los niveles de colesterol total y de LDL.
Encontramos ácido palmítico en diferentes aceites vegetales y grasas animales. Está presente en el aceite de oliva (14%), en el aceite de soja (10%) y obviamente en el aceite de palma (50%).
Aceite de palma en los alimentos
Hay dos motivos principales por los que se utiliza aceite de palma en alimentación:
1. Motivos tecnológicos: resulta interesante su textura, su fácil conservación y su punto de fusión. Es una grasa que se puede mantener sólida a temperatura ambiente, resulta untuosa y se derrite en la boca. También se emplea como estabilizante. Se utiliza en panes de molde, galletas o bollería industrial porque mantiene el producto fresco durante más tiempo.
2. Motivos económicos: el aceite de palma es una grasa barata.
Aunque el aceite de palma forma parte de la lista de ingredientes de multitud de alimentos, lo encontramos mayoritariamente en los alimentos ultraprocesados. Un alimento ultraprocesado es, según la clasificación NOVA que categoriza a los alimentos en función del procesamiento que han recibido, aquel que se elabora a partir de ingredientes procesados y no contiene ingredientes frescos o que puedan identificarse en su presentación final. Son ultraprocesados la mayoría de las galletas y la bollería, de los cereales de desayuno, de los snaks dulces y salados, de los embutidos como las salchichas o la mortadela, de los nuggets de pollo, pescado o similares y de muchos precocinados. Hay que tener en cuenta que no todos los alimentos procesados son nocivos, sino que en algunos casos son una buena alternativa a tener en cuenta: verduras congeladas, ensaladas de bolsa, legumbres procesadas y derivados lácteos como los yogures.
Los alimentos ultraprocesados los encontramos en la cima de la pirámide nutricional. Esto quiere decir que no son beneficiosos para la salud y que, por tanto, su consumo ha de ser ocasional, por placer, nunca por un criterio de salud.
Es un error creer que eliminado el ácido palmítico de un alimento ultraprocesado, éste va a convertirse en un alimento saludable. Los alimentos ultraprocesados suelen incluir altas dosis de azúcares, de harinas refinadas, de sal y de grasas de mala calidad, por lo que siempre van a ser una pésima elección. Cambiar el ácido palmítico por otro ácido graso de propiedades tecnológicas similares, como bien puede ser el ácido esteárico, no es una medida que apele a la salud nutricional del producto, sino a un populista lavado de imagen apoyado por toda esta vorágine mediática.
Aceite de palma en leches infantiles
El aceite de palma lo encontramos mayoritariamente en alimentos de consumo ocasional como los ultraprocesados. Entonces, ¿por qué lo lleva la leche infantil?
La razón es sencilla: las leches infantiles de fórmula han de parecerse lo máximo posible a la leche materna y la leche materna ya contiene, de serie, ácido palmítico.
La grasa constituye la mitad del contenido energético de la leche materna y de las fórmulas infantiles. Esta grasa está en forma de triglicéridos de los que forman parte tanto ácidos grasos saturados como insaturados.
El ácido palmítico es el ácido graso más abundante en el organismo y tiene distintas funciones además de la producción de energía, entre otras la capacidad de unirse a determinadas proteínas necesarias para algunas funciones del sistema nervioso y respiratorio.
La leche materna es el alimento ideal en el lactante y el modelo sobre el que se desarrollan sus sustitutos. De todos los ácidos grasos saturados de la leche materna, el ácido palmítico es el mayoritario.
Existen dos formas del ácido palmítico, la alfa y la beta, llamadas alfa-palmitato y beta-palmitato respectivamente. La leche materna contiene ambas formas, siendo la beta la mayoritaria. Estas dos formas se comportan de forma ligeramente diferente en el organismo.
El ácido palmítico que se extrae del aceite de palma tiene la forma alfa, y esa forma alfa impide que se absorban correctamente algunos nutrientes como grasas y calcio. Por este motivo las heces de los bebes que se alimentan con leche de fórmula son habitualmente más duras que las de los bebés que se alimentan con leche materna.
Actualmente ya existen fórmulas infantiles que contienen la forma beta del ácido palmítico, en una proporción análoga a la leche materna. Por esta razón la presencia de aceite de palma en las leches infantiles no ha de ser un motivo de preocupación.
La polémica sobre el aceite de palma no es nada nuevo
En diciembre de 2011 se publicó el Reglamento Europeo 1169/2011 Sobre la información alimentaria facilitada al consumidor, en el que se especifica que Los aceites refinados de origen vegetal [si bien] podrán agruparse en la lista de ingredientes con la designación “aceites vegetales”, [deberán ir] seguida inmediatamente de una lista de indicaciones del origen específico vegetal.
Este reglamento se hizo efectivo en la práctica en 2014, con lo que todos los alimentos que incluyan aceite vegetal entre sus ingredientes, deben especificar cuál de estos aceites vegetales utilizan, si es aceite de oliva, de girasol, de palma, etc. Con anterioridad, la denominación aceite vegetal servía para enmascarar los aceites empleados, normalmente cuando estos desdeñan la calidad del producto, como ocurre con el aceite de palma.
Algunos fabricantes se empeñan en disfrazar el aceite de palma entre sus ingredientes a través de otras denominaciones permitidas para la misma sustancia: aceite de palmiste, grasa vegetal fraccionada e hidrogenada de palmiste, estearina de palma, palmoleina u oleina de palma, manteca de palma o haciendo uso del nombre científico de la especie (Elaeis guineensis).
Pero, las primeras noticias que hicieron que el aceite de palma ocupase las portadas de los medios de comunicación, ya había empezado en los años 90. El motivo, por aquel entonces, no era sanitario, sino medioambiental. Los principales países productores de aceite de palma destinaron una parte importante de sus terrenos a plantaciones intensivas de palma, lo que produjo un grave impacto medioambiental, afectando a la biodiversidad y a la huella de carbono.
Impacto medioambiental del aceite de palma
Los principales productores mundiales de aceite de palma son Indonesia y Malasia. Curiosamente, la palma es una especie foránea que proviene de África occidental, así que para su plantación se requiere la previa deforestación de los terrenos y la introducción de esta nueva especie. Como cabe esperar, este tipo de prácticas afectan gravemente a la supervivencia de los ecosistemas autóctonos.
El caso más clamoroso de deforestación e impacto medioambiental ha sucedido en la isla de Borneo. Se calcula que en 2022 se habrá destruido el 98% de sus bosques, principalmente debido a la tala ilegal y los incendios forestales provocados con el fin de continuar y ampliar las plantaciones de palma. Esta deforestación indiscriminada ha afectado a la biodiversidad: los orangutanes nativos de esta isla, cuya población se ha reducido en un 91 por cierto desde 1900, desaparecerán en un par de décadas. También afecta a las tribus indígenas, ya que la calidad del agua que consumen depende de la calidad de sus bosques.
Este método de producción masivo también afecta brutalmente a la huella de carbono desde tres frentes: deforestación, transporte de los subproductos de la palma y uso final que, sorpresa, no es tanto como ingrediente alimentario, sino como combustible.
El aceite de palma se usa mayoritariamente para producir combustibles
A causa del bombardeo informativo sobre el aceite de palma y su uso en alimentación, podemos olvidarnos de su uso mayoritario: la producción de biocombustibles como el famoso biodiesel. Si el aceite de palma sólo se utilizase como un ingrediente más de los alimentos ultraprocesados, el problema medioambiental sería secundario, cuando realmente es el problema fundamental del uso de este aceite.
Si a la cifra del biodiésel se suma la de electricidad y calor producidos con aceite de palma, la bioenergía copa los usos con el 61%, seguido de la alimentación, con el 34%. El restante 5% se lo reparten otros usos industriales y piensos para la alimentación de animales.
El biodiésel de aceite de palma, es continuamente cuestionado, entre otros, por informes presentados por la Comisión Europea, como el basado en el Global Biosphere Management Model (Globiom), en el que expone que una vez aplicado el cambio indirecto del uso de tierras (ILUC, en inglés) emite mucho más CO2 que el diésel fósil.
El prefijo bio que comúnmente relacionamos con los productos medioambientalmente amigables, en este caso sólo sirve para disfrazar de sostenible algo que no lo es en absoluto.
¿Por qué ha surgido de nuevo la polémica?
La Autoridad Europea de Seguridad Alimentaria (EFSA) publicó recientemente una alerta relacionada con el aceite de palma. No fue con referencia a las características nutricionales del aceite de palma, sino a los contaminantes generados en el proceso de refinamiento (3-MPD, glicidol y sus ésteres) en la que se revisaron los límites máximos permitidos de estos compuestos.
Valiéndose de esta nueva información, varios medios de comunicación aprovecharon para divulgar las implicaciones sanitarias del consumo del aceite de palma y su presencia en, sobre todo, alimentos ultraprocesados. La atención quedó, por tanto, desviada hacia un nuevo enemigo oculto en alimentación, desbancando al enemigo más mediático de las últimas fechas: el azúcar.
Esta nueva polémica sobre el aceite de palma es una farsa
La mayor parte de las plantaciones de palma se utilizan para producir biocombustible, con la terrible repercusión que ello causa en el medioambiente. Cualquier información diferente a esta, es una forma de desviar la atención de lo importante a lo anecdótico. Porque la presencia de aceite de palma de los alimentos y sus implicaciones en la salud son anecdóticas. El aceite de palma está, sobre todo, en alimentos ultraprocesados que, lleven o no aceite de palma, van a ser alimentos poco saludables.
Toda esta polémica ha desvirtuado la verdadera preocupación que subyace del uso del aceite de palma, que es exclusivamente medioambiental. Se ha servido de la efectiva y efectista táctica de inventarse un enemigo en casa. Es la farsa de moda.
Tenemos una historia con todos los ingredientes que garantizan que funcione, que se vuelva viral y que además nos haga partícipes de su lucha. Por un lado tenemos al Mal, un enemigo grande, poderoso, corporativo, a toda una industria, en este caso a la industria alimentaria. Por otro lado tenemos al Bien. Los buenos son los informantes, bienhechores indefensos ante el gigante industrial, forrados de datos y haciendo un humilde alarde de gallardía.
Los ciudadanos van con los buenos. Se implican en esta lucha casera y rudimentaria, la elevan a categoría ideológica, de carácter social, revolucionaria, que les define como ciudadanos comprometidos e informados, ciudadanos a los que ningún ente difuso y malicioso debería engañar. Ciudadanos del retuit, de la firma en change, armados con los altavoces sociales de la moralidad. Ciudadanos de obscena valentía. Aunque las razones sean impostadas, protestan llevando sus emociones como bandera. Las redes sociales funcionan así, creando islas ideológicas donde los usuarios tienden a recibir solamente los argumentos afines, las noticias reales o falsas que corroboran sus prejuicios.La posverdad es esto.
Si vamos a implicarnos y a preocuparnos por algo, que sea por las razones adecuadas.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Si te preocupa el aceite de palma, que sea por las razones adecuadas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La fusión nuclear como fuente de neutrones eficiente
Las fuentes de neutrones tienen muchas aplicaciones: desde estudiar la estructura de un nuevo material a la localización de menas minerales subterráneas. El problema está en su tamaño, demasiado grande para algunas de esas aplicaciones. Un nuevo trabajo de investigación encabezado por G. Ren, del Instituto de Física Aplicada y matemática Computacional (China) podría ser una solución a ese problema.
Ren y sus colegas han desarrollado un nuevo diseño robusto que emplea láseres para inducir la fusión nuclear en una cápsula que contiene hidrógeno pesado (un protón y un neutrón en el núcleo). En las pruebas preliminares este método ha producido del orden de mil millones de neutrones por pulso láser, lo que es 100 veces más que otros métodos similares
Las fuentes habituales de neutrones que suministran haces de alta intensidad para los estudios de materiales son aceleradores de alta energía o reactores de fisión, algo que dista mucho de ser flexible. Sin embargo, el deseo de disponer de fuentes de menor tamaño ha llevado a centrar la atención en las técnicas basadas en láseres. Un diseño típico implica iluminar con un pulso láser agrupaciones de isótopos de hidrógeno. Como resultado los átomos se ionizan y colisionan, produciendo reacciones de fusión que emiten neutrones; eso sí, no son reacciones automantenidas (como en una bomba de hidrógeno o en un reactor de fusión nuclear), sino que duran tanto tiempo como dura la iluminación. El problema es que en los diseños típicos el rendimiento es insuficiente para muchas aplicaciones.
El nuevo método de Ren et al. es una variación de la fusión por confinamiento inercial (FCI), cuyo objetivo es conseguir reacciones de fusión automantenidas mediante el bombardeo con láseres de pélets de hidrógeno. La FCI puede producir neutrones con rendimientos enormes, pero está sujeta también a grandes inestabilidades. El grupo chino las resuelve empleando una geometría del blanco diferente. En vez de pélets usan una cápsula esférica cuya superficie interior está recubierta por una capa de hidrógeno. La luz del láser calienta el hidrógeno, haciendo que implosiones y se fusiones en el centro de la cápsula.
Los experimentos con pulsos láser de 6,3 kilojulios produjeron unos pocos miles de millones de neutrones. Láseres más potentes y un combustible más rico en neutrones podría aumentar el rendimiento más de 1000 veces.
Referencia:
G Ren et al (2017) Neutron Generation by Laser-Driven Spherically Convergent Plasma Fusion Physical Review Letters doi: 10.1103/PhysRevLett.118.165001
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La fusión nuclear como fuente de neutrones eficiente se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Artistas que miran a las matemáticas
No es la primera vez que desde esta ventana matemática del Cuaderno de Cultura Científica miramos hacia el arte que se ha inspirado en las matemáticas. Obras de arte relacionadas con el teorema de Pitágoras (en la entrada Cultura pitagórica: arte), el infinito (en A infinito), la sucesión de Fibonacci (Póngame media docena de fibonaccis), los cuadrados latinos (Cuadrados latinos, matemáticas y arte abstracto), los mapas (Arte cartográfico, arte con mapas), el hipercubo y la cuarta dimensión (Hipercubo, visualizando la cuarta dimensión, parte 1 y parte 2), los números (Matemática pop o Vi el número cinco en oro), las fórmulas y expresiones matemáticas (Bernat Venet, la estética de las matemáticas) o la catenaria (Catenarias en las artes plásticas), aunque esto es solo una pequeña muestra del arte que toma la Ciencia de Pitágoras como inspiración.
En la entrada de hoy queremos centrar nuestra atención, una vez más, en aristas que se han acercado a las matemáticas, han reflexionado sobre ellas y las han incorporado a sus creaciones.
Nuestra primera artista, con una obra muy geométrica, es la italiana Luisa Sartori, que vive en Nueva York desde los años 1980. Las primeras obras que vamos a mostrar pertenecen a la exposición “Circles, triangles, and then…” (que podemos traducir como, “círculos, triángulos, y entonces…”), que tuvo lugar en la Galería A.I.R. (Artists in Residence = Artistas en residencia) de Brooklyn, Nueva York, en 2010.
En esta serie de obras Luisa Sartori investiga sobre el proceso creativo de los diseños geométricos, tan frecuentes en el arte, el diseño y la arquitectura, como son, por ejemplo, los mosaicos geométricos de la Alhambra de Granada. Trabajando con figuras geométricas básicas, círculos, triángulos o cuadrados, se construyen complejos diseños y formas geométricas.
En estas pinturas el proceso de creación del diseño geométrico es parte importante de la propia obra, por lo que no se muestra el mosaico terminado y perfecto, sino que se pueden apreciar, en lápiz, las líneas de las figuras geométricas que han participado en el proceso, como si fuese una obra que aún está sin terminar.
Más aún, algunas de las obras de la exposición, como las dos siguientes, son simplemente los procesos creativos de diseños geométricos.
En algunas de las obras, como las dos siguientes, los diseños que aparecen son embaldosados uniformes.
Los embaldosados son cubrimientos de una superficie plana mediante baldosas de unas determinadas formas. Cuando las baldosas son todas iguales y con forma de polígono regular, hablamos de embaldosados regulares. Se puede probar fácilmente (véase la explicación en la entrada Diseños geométricos de chocolate) que solamente existen 3 embaldosados regulares, los clásicos cuyas baldosas son triángulos equiláteros, cuadrados y hexágonos reglares.
Utilizando un razonamiento similar se puede demostrar que existen 21 embaldosados uniformes diferentes, que son aquellos embaldosados en los que se puede utilizar baldosas con diferentes formas de polígonos regulares, pero con la condición de que alrededor de cada vértice del embaldosado se tiene la misma configuración de polígonos regulares. Por ejemplo, en las dos pinturas siguientes los embaldosados uniformes que aparecen son el embaldosado 4.8.8, ya que alrededor de cada vértice hay un cuadrado, un octógono y otro octógono, y el embaldosado 3.4.6.4, con un triángulo equilátero, un cuadrado, un hexágono regular y otro cuadrado, alrededor de cada vértice.
Una explicación un poco más extensa sobre los embaldosados uniformes la podéis encontrar en la guía didáctica de la exposición Imaginary, creada por el Instituto Oberwolfach (Alemania) y que ha estado en diferentes ciudades españolas de la mano de la Real Sociedad Matemática Española.
Más aún, utilizando las mismas técnicas que empleaba el artista M. C. Escher, se pueden construir nuevos embaldosados, con baldosas no regulares, pero con formas más o menos sugerentes, construidas a partir de embaldosados regulares. Esta es la técnica empleada en la obra Dhiban (2010).
Se parte de un embaldosado cuadrado, es decir, la baldosa es cuadrada, y se transforma de la siguiente forma. Lo que quitamos de un lado del cuadrado se lo añadimos en el lado contiguo, al realizar un giro de 90º, como se muestra en la siguiente imagen. Mediante reglas similares se pueden construir embaldosados muy hermosos, como los que realizaba Escher. Véase de nuevo la guía didáctica de la exposición Imaginary para conocer más sobre esta técnica.
La propia Luisa Sartori realiza una obra basada únicamente en la construcción de este embaldosado.
En muchas de sus obras, pertenecientes al conjunto de su producción artística, incluye diferentes elementos geométricos, aunque hoy aquí mostraremos solamente un par de ejemplos más. La primera obra, perteneciente a la serie “Here-There /High-Low” (Aquí-Allí / Alto-Bajo), incluye la conocida como espiral áurea, o de Durero, que se construye formando trozos de circunferencia a partir de una sucesión de rectángulos áureos (como se mostró en la entrada Visitad los museos, también en clave matemática).
O en la siguiente obra que encontramos uno de los poliedros de da Vinci (la esfera de 72 caras), el cubo de Metatron (formado por círculos, uno central, rodeado de otros seis, creando una estructura hexagonal, y luego otros círculos alrededor) y la imagen plana de la curva loxodrómica o de rumbo constante.
Otra exposición muy interesante, desde la perspectiva de la geometría, de Luisa Sartori es su exposición de 2005, Around the center –alrededor del centro-, en la cual el círculo es un elemento principal.
Nuestra siguiente artista es la estadounidense Laura Battle. Entre sus complejas obras geométricas destacan una serie de obras que recuerdan a los hiloramas, es decir, a los diseños artísticos realizados con una serie de hilos de colores que van uniendo diferentes clavos distribuidos formando geométricas. Esta solía ser una actividad plástica muy frecuente en la educación.
A continuación, observamos una de las obras de Laura Battle que nos recuerda a un complejo hilorama.
Otra obra con diseños geométricos al estilo de los hiloramas y que además contiene una serie de curvas que nos recuerdan a las curvas trigonométricas es la obra “Color Drawing” (cuadro de color).
A lo largo de la historia del arte se pueden encontrar muchos diseños geométricos realizados mediante la intersección de circunferencias, desde la sencilla “vesica piscis” formada por la intersección de dos circunferencias y que está muy presente en el arte religioso, hasta el diseño llamado en la actualidad “flor de la vida”.
El diseño llamado “flor de la vida” está formado por una serie de circunferencias, en concreto 19 circunferencias, que se intersecan formando una estructura hexagonal. Este nombre es moderno y está relacionado con creencias místicas modernas, con lo que se ha dado en llamar la Geometría Sagrada y con el movimiento New Age, sin embargo, diseños similares a este ya a aparecen en el arte desde hace siglos.
Por ejemplo, nos lo encontramos en un mosaico en Éfeso, una localidad del siglo IX a.c. en la actual Turquía.
O diseños similares, como el que aparece en el Codex Atlanticus de Leonardo da Vinci.
En las obras de Laura Battle también nos encontramos estudios de intersección de circunferencias, del estilo de la “flor de la vida”, como en su obra Bloom #2, realizada a lápiz.
Sin embargo, son varias las obras de Laura Battle en las que la artista ha creado diseños geométricos mediante la intersección de circunferencias. Por ejemplo, en su obra Sin título (2006), en la que entre las formas que nos encontramos está la vésica piscis o en sus obras Roma (2004) e Incantation –Hechizo– (2010).
Mucho se podría decir de las obras de Laura Battle y su contenido, pero vamos a terminar con una obra más, de título Year of the cicada –el año de la cigarra– (2013), en la que encontramos elipses e intersección de las mismas, una espiral, el número primo 17, los números impares, diseños geométricos de colores o diseños de tipo fractal.
Y para terminar la entrada de hoy en la sección Matemoción del Cuaderno de Cultura Científica, una tercera artista, Cinthia Fisher, que se inspira en la ciencia, y en las matemáticas, para crear parte de sus mosaicos abstractos.
En su obra Arrangement in Black, White and Gray –Disposición en negro, blanco y gris– (2010) utiliza espirales como elemento central de su mosaico.
Se inspira en los fractales para su obra Pavement fractals -fractales de pavimiento- (2009).
Y para terminar una obra que se inspira en el clásico problema de la cuadratura del círculo. Este es un problema clásico de la matemática griega, obtener un cuadrado con la misma superficie que un círculo dado utilizando solamente la regla y el compás. En el siglo XIX se demostró que era imposible cuadrar un círculo, con únicamente la regla y el compás. Sin embargo, sí se puede cuadrar un círculo haciendo uso de la espiral de Arquímedes, que es el diseño que utiliza la artista en su obra Squaring the circle –cuadradando el círculo-.
Bibliografía
1.- Página web de Luisa Sartori
2.- Página web de Laura Battle
3.- Página web de Cinthia Fisher, Big Bang Mosaics
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Artistas que miran a las matemáticas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Efectores osmóticos
Muchos animales tienen la capacidad de mantener constante la concentración osmótica de su medio interno. Es una de las modalidades en que se manifiesta un fenómeno más general denominado homeostasia. Los vertebrados tenemos esa capacidad, por ejemplo. Actuando sobre los elementos de ganancia y pérdida de agua, y también sobre los flujos de sales, podemos mantener relativamente constante la concentración osmótica del medio interno y la de cada una de las sales principales. La constancia absoluta no es posible, claro.
Pero hay muchos animales que carecen de esa capacidad. La composición de sus líquidos extracelulares no está regulada en absoluto o, si se ejerce algún control, la regulación resultante es sólo parcial. A los animales que regulan la concentración osmótica del medio interno los llamamos osmorreguladores. A los que no lo hacen, osmoconformadores. Y de los que lo hacen de forma parcial o imperfecta, los denominamos osmorreguladores parciales.
Como vimos en Animalia hace unas semanas, podemos clasificar a los animales en tres grandes grupos en lo relativo a las características de sus medios internos e intracelulares. Por un lado están los invertebrados marinos que no regulan la concentración osmótica de su medio interno. Los de los otros dos grupos regulan la concentración osmótica de su medio interno, y aunque los de uno y otro grupo presentan particularidades de interés, no nos ocuparemos aquí de ellos.
En esta ocasión nos interesan los del primer grupo. Aunque les hemos atribuido la condición de animales marinos, lo cierto es que buen número de ellos han de hacer frente a cambios en la salinidad del medio externo. Nos referimos a animales de aguas salobres o de estuario, animales que viven bajo condiciones de cierta variabilidad osmótica, normalmente por efecto de los movimientos de marea. La subida de la marea suele conllevar aumentos de la salinidad, y lo contrario ocurre con la bajada. Como es lógico, dado que son animales osmoconformadores, la concentración de su medio interno varía como lo hace el medio externo, razón por la cual sus células se encuentran también expuestas a esas variaciones; experimentan, por lo tanto, cambios en la concentración osmótica intracelular.
¿Resulta eso un problema? ¿Qué riesgos afronta un animal cuyas células experimentan cambios en su concentración osmótica? Si reparamos en el hecho de que las células animales pueden tener concentraciones osmóticas altas (como las de un calamar, por ejemplo) o bajas (como las de un mejillón cebra o las de una rana), enseguida nos daremos cuenta de que la vida animal es perfectamente posible de una y otra forma. Sin embargo, lo que puede no ser inocuo es la forma en que las células expuestas a un medio interno (extracelular) de diferente concentración osmótica se adaptan a la nueva situación.
De entrada, lo que le ocurre a una célula expuesta a un medio más concentrado es que tiende a perder agua. Como consecuencia, su volumen disminuye –se encoge-, aumenta la concentración de todos los solutos intracelulares, y la célula en su conjunto se deforma, especialmente la membrana celular. Todo eso es peligroso: la deformación pone en riesgo la viabilidad celular, especialmente porque los procesos que dependen de la membrana pueden verse alterados; y hay solutos cuya concentración ha de mantenerse en ciertos niveles, como ocurre muy especialmente con el K+, como vimos aquí.
Si la célula se expone a un medio más diluido tiende, como es lógico, a ganar agua. Como consecuencia, su volumen aumenta y la concentración interna de solutos disminuye. El aumento de volumen es peligroso porque puede provocar la rotura de la membrana, lo que supondría la desaparición de la célula como entidad funcional. Y en relación con la dilución interna, también esta puede resultar nociva por sus efectos sobre la concentración de ciertos solutos.
Por las razones dadas, no es conveniente que el equilibrio entre las concentraciones osmóticas interna y externa se alcance mediante flujos de agua en uno u otro sentido. La solución ha de consistir en un mecanismo diferente. Tampoco sería viable la opción de modificar la concentración intracelular del soluto intracelular inorgánico más importante –el potasio- por las razones ya apuntadas.
Pero en el interior de las células de los animales marinos que no regulan la concentración osmótica de su medio interno hay un tipo de solutos cuya concentración es relativamente alta: las sustancias orgánicas nitrogenadas, aminoácidos principalmente. Esos solutos son responsables de dos tercios de la concentración osmótica intracelular, y muchos de ellos no cumplen ninguna función específica en el metabolismo celular.
Son precisamente las sustancias nitrogenadas intracelulares las que experimentan cambios de cierta magnitud cuando las variaciones en la concentración del medio interno (extracelular) son susceptibles de provocar modificaciones en el volumen celular. Las llamamos efectores osmóticos por esa razón, porque cumplen la función de igualar o aproximar las concentraciones osmóticas intra y extracelular de manera que se eviten o minimicen los flujos de agua que pudieran provocar variaciones peligrosas en el volumen de las células.
No deja de resultar lógico que las mismas sustancias cuya concentración en el interior celular varía entre animales en función de cuál es la concentración osmótica de sus medios internos, sean las que permiten a aquellos que experimentan variaciones osmóticas a corto plazo mantener relativamente constante el volumen de sus células. En otras palabras, esos aminoácidos han cumplido en la evolución animal un papel equivalente al que desempeñan en los procesos de ajuste del volumen celular en respuesta a cambios ambientales de salinidad. En ambos casos han servido para igualar la concentración osmótica intracelular a la del medio interno (o extracelular).
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Efectores osmóticos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El calor no es un fluido
Un libro se desliza por la superficie de una mesa. Si la superficie es rugosa ejercerá una fuerza de fricción considerable sobre el libro que tendrá que vencer el impulso inicial si ha de moverse y que hará que termine parándose en cuanto la energía cinética (esa que tiene por el hecho de moverse) desaparezca. Como la superficie de la mesa es horizontal esa desaparición de energía cinética no se ha convertido en energía potencial (la que se tiene por la posición en un campo gravitatorio, por ejemplo), como hubiera ocurrido si hubiésemos lanzado el libro al aire en vertical. Entonces, ¿qué ocurre? ¿Que la energía en este caso no se conserva?
Un examen minucioso del libro y de la superficie de la mesa demostrarían que ambos han sufrido un ligerísimo incremento de temperatura. La desaparición de la energía cinética del libro se ha visto acompañada por la aparición de eso que llamamos calor.
Este experimento tan simple sugiere, pero en ningún caso prueba (correlación no implica causalidad), que la energía cinética se habría transformado en calor. Si esto es así, el calor debe ser una forma de energía.
Iniciamos así una exploración muy sencilla de los aspectos esenciales de la dinámica del calor o, en una palabra, de la termodinámica. En ella primaremos la comprensión de las ideas fundamentales frente al formalismo, por lo que, de aparecer, las fórmulas matemáticas serán extremadamente simples y completamente explicadas. La idea es ayudar a estudiantes de secundaria y primeros años de universidad a aprehender las ideas para no perderse en los cálculos; también proporcionar al lector interesado una introducción asequible a los conceptos fundamentales de la termodinámica y la teoría cinética sin necesidad más que de unas nociones intuitivas muy generales de física y poco más que las cuatro reglas aritméticas.
La equivalencia de calor y trabajo
Hasta mediados del siglo XIX se pensaba que el calor era una especie de fluido llamado fluido calórico. Cuando se mezclan cuerpos calientes y fríos, como agua a 90 ºC con agua a 4º C en iguales cantidades, no se pierde ni gana calor sino que se obtiene el doble de agua a unos 47 ºC. Uno podría concluir que el fluido calórico se conserva en un experimento de este tipo. Algunas sustancias, como la madera o el carbón vegetal, parecen almacenar el fluido calórico, que liberarían cuando arden. Este era el planteamiento entonces.
Si bien la ideas de que el contenido de calor de una sustancia se represente por una cantidad de un fluido que se conserva era aparentemente útil, la realidad es que es incapaz de explicar algunos fenómenos cotidianos. La fricción, con la que empezábamos, produce calor; si tienes frío en las manos tu reacción instintiva es frotarlas entre sí para conseguir que se calientes. ¿De dónde viene entonces el fluido calórico?
La creencia en la existencia del calórico se mantuvo en la primera mitad del XIX, por motivos filosóficos, por una parte y, por otra, porque aunque no explicaba fenómenos simples como el de la fricción sí permitía entender otros aparentemente más complejos, como las reacciones químicas. De hecho el calórico fue introducido por Lavoisier (uno de los padres de la química moderna) a finales del XVIII.
Justo en esa misma época, Benjamin Thomson fue creado en 1791 conde del Sacro Imperio Germánico pasando a la historia como Reichsgraf von Rumford por sus servicios al príncipe-elector de Baviera. Entre estos servicios estuvo la reorganización del ejército y, como parte de ellos, la supervisión de la construcción de nuevo armamento. Los cañones se fabricaban haciendo un agujero en una pieza de metal macizo y Rumford observó que se generaba una enorme cantidad de calor en el proceso. Algunas de las virutas que salían despedidas de la zona en la que el taladro estaba trabajando haciendo el alma (hueco) del cañón estabn tan calientes que estaban al rojo, esto es, emitían luz visible.
Rumford podía haber tomado nota y ya está pero, en vez de eso, hizo varias mediciones y experimentos meticulosos. Para ello sumergió en agua una masa metálica acoplada al taladro que perforaba el cañón y midió la velocidad a la que subía la temperatura del agua mientras el taladro trabajaba en la pieza. Sus resultados demostraban que si no se enfriaba activamente con agua el calor generado hubiese sido suficiente como para fundir toda la pieza.
Después de repetir el experimento en muchas ocasiones, Rumford llegó a la conclusión de que el calor no se conserva sino que se genera cuando se realiza trabajo. Debido a las limitaciones técnicas de su experimento su cálculo de la proporción de calor producido por unidad de trabajo realizado es del orden de 10 veces (un orden de magnitud o 101) del valor que se acepta hoy día.
Los experimentos de Rumford y trabajos similares de Humphry Davy en la Royal Institution de Londres no convencieron a muchos científicos de la época. La razón puede estar en que Rumford no aportó una idea de qué podía ser el calor, al menos no en unos términos que fuesen compatibles con los modelos aceptados en la época para la materia.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El calor no es un fluido se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Errar es humano
Cometemos errores continuamente. Quizás no nos gusta que nos lo digan o nos cueste reconocerlo, pero así es, nos equivocamos con frecuencia. En ocasiones, además, erramos en el juicio o apreciación de forma sistemática; me refiero a eso que se denomina sesgos cognitivos. Algunos sesgos de ese carácter bien conocidos están en la base de muchas creencias irracionales y, por ello, en varias modalidades de pensamiento mágico.
Por otro lado, en el mundo de la ciencia estamos familiarizados con la existencia de lo que llamamos errores de tipo I y errores de tipo II. Pero esta distinción no tiene por qué limitarse al mundo de la investigación científica. En la vida cotidiana cuando realizamos juicios bajo condiciones de incertidumbre, podemos cometer errores de esos dos tipos. Los de tipo I son los que llamamos también falsos positivos; cuando los cometemos creemos ver algo que no hay. Los de tipo II son falsos negativos; lo que ocurre en esos casos es que no detectamos algo que sí ocurre o que sí existe.
Aunque esa distinción pueda parecer anecdótica, la verdad es que puede tener consecuencias muy importantes. No es lo mismo cometer un error de un tipo o del otro. Si, pongamos por caso, vemos que se dirige hacia nosotros un animal con cuernos de cierto porte, lo más probable es que salgamos corriendo en la dirección contraria. No solo es lo más probable, también es lo más sensato. Si luego resulta que el astado en cuestión era un manso, nuestra deducción habría sido equivalente a un falso positivo. O sea, en ese caso habremos cometido un error de tipo I, pero no creo que eso nos importase demasiado, porque lo más normal es que las consecuencias del error habrían sido de orden menor o prácticamente irrelevantes. Si, en vez de salir corriendo pensando que se trataba de un toro bravo, nos quedamos sentados tranquilamente porque nos parecía que era un pacífico buey que, casualmente, caminaba hacia nosotros, podíamos haber cometido un error de fatales consecuencias. Porque podía haberse tratado de un toro bravo. En ese caso habríamos incurrido en un error de tipo II, un falso negativo. Creo que, llegados a este punto, está bastante claro por qué puede tener muy diferentes consecuencias cometer un error de un tipo o cometerlo del otro.
Los psicólogos piensan que la evolución nos ha equipado con un sistema cognitivo que tiende a seleccionar los errores menos costosos en aquellas disyuntivas en las que las consecuencias o costes de los errores de juicio son asimétricos. Algunas observaciones avalan esa idea.
Cuando estimamos distancias verticales, por ejemplo, tendemos a cometer un error muy util. Al asomarnos a un balcón o a una ventana y mirar hacia abajo, lo normal es que estimemos una distancia hasta el suelo bastante mayor de la que realmente hay. Además, el sesgo aumenta cuanto mayor es la altura desde la que miramos. Por ejemplo, una altura de 14 m nos puede parecer que es de 21 m. Ese sesgo nos protege porque al asomarnos a la ventana nos lo pensaremos dos veces antes de decidirnos a saltar al suelo o a la ventana de enfrente, si fuese esa la opción que valorábamos al mirar hacia abajo y hacer la estimación.
Otro ilustrativo ejemplo de uno de esos sesgos útiles es el de los niños que, al contemplar un animal inmóvil, piensan que está dormido en vez de pensar que está muerto. Los niños que, en el pasado de nuestro linaje, pensaron que un animal, por estar quieto, estaba muerto no dejaron descendencia, por lo que no transmitieron sus genes a las siguientes generaciones.
Errar es humano. Es más, en muchas ocasiones, además, la tendencia a errar de forma sistemática puede salvarnos la vida. Más que humano, pues, puede resultar providencial.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Errar es humano se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Cuando los bebés comienzan a combinar gesto y habla
Asier Romero Andonegi, Aintzane Etxebarria Lejarreta, Ainara Romero Andonegi e Irati de Pablo Delgado, profesores e investigadores de la Escuela Universitaria de Magisterio de Bilbao de la UPV/EHU, han estudiado cómo emprenden los bebes de entre 9 y 13 meses su tránsito desde el balbuceo inicial al uso de combinaciones de gesto y habla.
La ciencia muestra que el estudio del lenguaje y la comunicación humana no se pueden llevar a cabo solo con un análisis del habla. Entre los aportes que ha realizado este trabajo Asier Romero destaca que es el “primer estudio” en exponer con niños y niñas con lengua materna euskera “cómo y cuándo” los bebés desarrollan y utilizan “un patrón para coordinar el gesto con el habla”.
“Hemos descubierto que cuando el bebé abandona el balbuceo caracterizado por las vocalizaciones de cadenas de sílabas repetidas y largas a los 9 meses y empieza la etapa prelingüística más compleja en torno a los 11 meses, los gestos del bebe comienzan a ser producidos principalmente en combinación con la producción vocal, más que como un acto únicamente de gestos. Es decir, el sistema gestual y del habla ya están estrechamente relacionados”, explica Romero.
Así mismo, el investigador ha querido destacar que la tipología de los gestos en estas combinaciones de gesto y vocalización son “principalmente deícticos”, esto es, “gestos de ejecución, como apuntar, dar, mostrar, ofrecer y realizar peticiones para dirigir la atención del adulto hacia un objeto por el cual el bebé siente interés por obtenerlo con una intención declarativa, es decir, para informar al adulto de su interés por un objeto”.
Para Romero, este estudio muestra que el habla y la gestualidad son dos “elementos necesarios” para estudiar la comunicación humana, pues cada vez hay más pruebas de que ambas están estrechamente coordinadas, y “es quizá una condición fundamental para el desarrollo posterior del primer léxico ya en la etapa lingüística”.
De hecho, revela el investigador, “cada vez hay más evidencias científicas” que muestran que la combinación de balbuceo y gesto de los bebés “están relacionadas” con un desarrollo posterior del lenguaje, y por tanto, son un elemento predictivo. “Por ello investigaciones de este tipo podrían ayudar a predecir alteraciones lingüísticas en el trastorno específico del lenguaje”, avanza el investigador.
El objetivo de este trabajo fue investigar el proceso de adquisición y desarrollo del lenguaje en relación con la coordinación temporal de gestos y habla de niños. Para ello, los investigadores grabaron en vídeo a dos bebés nacidos en familias vascohablantes, desde que los niños tenían 9 meses hasta que cumplieron 13 meses.
“Las grabaciones se realizaron en sus domicilios junto con sus progenitores. En total, se obtuvieron más de 1.260 actos comunicativos producidos por los dos, a través de unas 6 horas de grabación, que fueron analizadas posteriormente mediante la aplicación del software específico ELAN, “esta herramienta permite realizar y procesar anotaciones en líneas digitales de información de forma conjunta para distintos tipos de archivos de audios y videos”, explica.
Esta investigación ha abierto nuevas líneas de trabajo, y por otra parte confirma lo ya señalado en diferentes investigaciones con bebés catalanes e ingleses.
Referencia bibliográfica
Romero Andonegi, A., Etxebarria Lejarreta, A., De Pablo Delgado, I. y Romero Andonegi, A.. ‘The interrelation of gestures and vocalization in early communication functions: Evidence from Basque language’. Signos. Estudios de Lingüística, 50(93), 96-123 (2017). DOI: 10.4067/S0718-09342017000100005.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Cuando los bebés comienzan a combinar gesto y habla se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Culturas del honor
En un estudio realizado hace dos décadas en los Estados Unidos, observaron que los jóvenes blancos procedentes del Sur tienden a responder a los insultos de forma más agresiva que los del Norte. Entre los negros no observaron diferencias. También encontraron que en unos y otros estados se cometía un número similar de asesinatos en coincidencia con la comisión de otros delitos, y sin embargo, en los del Sur eran más frecuentes los producidos como consecuencia de una discusión que acaba de la peor manera posible.
Esos comportamientos están asociados a algo que antropólogos culturales y otros científicos sociales denominan “culturas del honor”. En las culturas del honor hay una gran preocupación por la reputación y una propensión a responder de forma violenta a cualquier actitud que sea interpretada como menosprecio o falta de respeto. Buscan así defender su prestigio aunque para ello tengan que recurrir a la violencia. Pero hay más: quienes forman parte de esas culturas son muy reacios a aceptar que tienen problemas de salud mental, pues ello conllevaría reconocer una forma de debilidad y, por ende, de vulnerabilidad. No es sorprendente, por ello, que traten de evitar el uso de antidepresivos y que la incidencia de suicidios sea alta. Por contraste, las denominadas “culturas de la dignidad” se caracterizan por comportamientos muy diferentes. En éstas las personas son valoradas simplemente por el hecho de serlo, por su condición de seres humanos. En las culturas de la dignidad no es normal el recurso inmediato a comportamientos violentos como consecuencia de una ofensa o lo que pueda interpretarse como tal.
Al parecer, en las culturas del honor las personas valen lo que vale su reputación y esa es la razón por la que su defensa es tan importante. Hay numerosos precedentes en Occidente de fenómenos propios de esas culturas, como las justas medievales y otras modalidades de duelos que perduraron hasta hace poco más de un siglo. Y en la actualidad son muy comunes en las áreas ya citadas en los Estados Unidos y en otras como Paquistán, Afganistán o Somalia.
Uno de los investigadores que realizaron el estudio antes citado pensaba que la cultura del honor podría estar relacionada con el fervor religioso. Al fin y al cabo, tanto la población de los estados del Sur norteamericano como la de los países musulmanes citados se caracterizan por una fuerte religiosidad. Sin embargo, los datos no avalan la existencia de tal vínculo. Al parecer, las culturas del honor suelen desarrollarse en grupos humanos en los que reinan condiciones de gran inseguridad, tanto de naturaleza económica como la derivada de la ausencia de leyes o de su frecuente incumplimiento; bajo esas condiciones, la reputación puede ser una buena forma de defensa cuando no hay instituciones que puedan prestar socorro y protección en caso de necesidad o, de haberlas, cuando se prefiere no recurrir a ellas. Así se explica, por ejemplo, la importancia de la cultura del honor en grupos mafiosos y bandas de delincuentes.
Se trata de culturas muy persistentes. Su importancia entre los hombres blancos del Sur de los Estados Unidos se retrotrae a la llegada de ganaderos de origen escocés procedentes del Ulster en la primera mitad del siglo XVII, quienes hubieron de enfrentarse a todo tipo de amenazas y, muy especialmente, a la de los ladrones de ganado. El tiempo habría atenuado las manifestaciones más extremas de esa cultura, pero no las ha eliminado. No deberíamos, por tanto, descartar que ciertos comportamientos chulescos y respuestas airadas a bromas de escasa trascendencia que observamos en nuestro entorno, tengan su origen en una cultura del honor heredada.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 4 de diciembre de 2016.
El artículo Culturas del honor se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las máquinas moleculares que han ganado un Nobel
El Nobel de Química de 2016 premió la creación de las máquinas más pequeñas del mundo. El francés Jean-Pierre Sauvage, el británico Fraser Stoddart y el holandés Bernard Feringa recibieron el galardón por haber desarrollado moléculas con movimientos controlables, capaces de llevar a cabo tareas cuando se les proporciona energía. Según la Academia, este hallazgo puede conducir a una revolución tecnológica.
El catedrático de Química Física de la UPV/EHU Jesús Ugalde explicó la importancia de este descubrimiento en la conferencia titulada “Las máquinas moleculares que han ganado un Nobel”, que tuvo lugar el pasaso 16 de noviembre.
Las máquinas moleculares que han ganado un NobelLa Zientziateka es una iniciativa que organizan mensualmente la Cátedra de Cultura Científica de la UPV/EHU y Azkuna Zentroa para divulgar asuntos científicos de actualidad.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Las máquinas moleculares que han ganado un Nobel se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ciencia, Modernidad y Posmodernidad
En la historia hay edades que más o menos todos ubicamos bien. En lo que se refiere a Europa la Edad Antigua va desde las primeras civilizaciones hasta la caída del Imperio Romano de Occidente en el año 476; la Edad Media desde esta fecha al descubrimiento de América en 1492; la Edad Moderna desde este momento a la Revolución Francesa de 1789; y, desde entonces estaríamos en la Edad Contemporánea. Pero hay otra posibilidad de distinguir eras históricas que se basa en los conceptos de ciencia, tecnología y razón y sus papeles en el proceso histórico: Modernidad y Posmodernidad.
El término “moderno” aparece por primera vez en el siglo XVI como una forma de señalar la separación del presente con el pasado. Y aunque en el siglo XVII los filósofos naturales experimentales se distinguían a sí mismos de las prácticas del pasado en el debate entre “antiguos” y “modernos”, fue Georg Wilhelm Friedrich Hegel (1771-1831) quien dio la primera definición formal de modernidad como la persistente re-creación del yo y las condiciones de vida. Desde Hegel existe quien da en llamar Modernidad al período que va de la Revolución Francesa (1789) al final de la Segunda Guerra Mundial (1946). En 1947 los arquitectos comienzan a hablar de la existencia de un estilo “posmoderno” y conforme avanza la Guerra Fría los filósofos y sociólogos articulan el significado (o mejor, significados) de Posmodernidad. Modernos y posmodernos varios coinciden en que la Posmodernidad es la era en la que estamos desde los ochenta.
Tras Hegel la Modernidad se refiere a dos narrativas “maestras”, a saber, el desarrollo de la promesa de la Ilustración de la liberación a través de la razón, y la unificación de todas las ramas del conocimiento mediante la extensión de los métodos racionales de la ciencia y la tecnología. Jürgen Habermas (n. 1929) mantiene que ambas narrativas se han empleado para legitimar la ciencia y la tecnología en el ámbito social desde 1800. La ciencia, para los teóricos de lo moderno, es una práctica representativa, una reproducción de la naturaleza, cuyas características son el resultado del consenso racional entre los que la practican, quienes, a su vez, establecen verdades científicas independientes de los intereses sociales. Desde el momento en que el consenso implica la ausencia de conflicto, desde el punto de vista moderno la ciencia es un instrumento racional de paz.
Hay pensadores, como Habermas o Bruno Latour (n. 1947), que creen que la Modernidad es un proyecto inacabado que aún merece la pena proseguir con objeto de conseguir una sociedad libre de conflictos en la que la comunicación clara y racional es posible. Desde la perspectiva modernista la historia de la ciencia y la tecnología se encuadra claramente dentro de las narrativas teleológicas de progreso, racionalización, secularización, burocratización e, incluso, de estado-nación.
Los orígenes de la posmodernidad los podríamos trazar hasta la crítica de la razón de Friedrich Nietzsche (1844-1900) y otros a finales del XIX. Pero no será hasta después de las atrocidades del Tercer Reich que se empezó a dudar seriamente del proyecto moderno de liberación y unificación mediante la razón. La Posmodernidad no solo rechaza estas dos narrativas maestras de la Modernidad, sino también la idea de que la representación (tanto en las artes como en las ciencias) pueda ser un espejo preciso de la realidad objetiva.
Los posmodernos como Jean-François Lyotard (1924-1998) reconceptualizan las ciencias como actividades orientadas hacia la reproducción de las prácticas de investigación más que a la producción de resultados acerca del mundo. Lo que Lyotard llama “performatividad” en las ciencias puede apreciarse en la inclinación de las ciencias hacia la interdisciplinaridad y el trabajo en equipo. En la incesante búsqueda de “lo nuevo” (la invención de nuevos vocabularios, prácticas, reglas de investigación, consensos) la ciencia posmoderna es una forma de conocimiento que no reproduce lo conocido, sino que constantemente busca lo desconocido y lo indeterminado.
El carácter anti-representativo de la ciencia posmoderna significa que las imágenes (y las teorías) no representan la naturaleza, sino que son una proyección de los entornos políticos, sociales y económicos en los que se desarrolla la actividad científica. Dicho de otro modo, la naturaleza misma desaparece en un mundo creado de simulacros y simulaciones y la historia de las ciencias se convierte en la historia de las imágenes y de lo que se cree que se encuentra inmerso en ellas.
En la Posmodernidad las ciencias son una parte de la economía, pero en un papel muy diferente al que jugaban en la Modernidad. Ahora sus imágenes son sujetos de la ideología política y, por tanto, su verdad es relativa: frente a unos hechos, existen hechos alternativos. De aquí se sigue la “caridad epistemológica” hacia las creencias irracionales que se encuentra habitualmente entre los posmodernos.
Este post ha sido realizado por César Tomé López (@EDocet) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Ciencia, Modernidad y Posmodernidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Cuando los científicos marchan
El ejercicio de la ciencia es una metódica aproximación al uso más puro posible de la razón. En cada paso del método científico se intenta, con deliberación y cuidado, eliminar el más mínimo atisbo de emoción, de apego a las ideas propias, de rechazo de las ajenas basado en antipatías personales; se dan los pasos pertinentes para que sean los datos y no las emociones las que decidan. Y se fracasa, claro, porque los científicos son humanos; porque el cerebro humano en su propio modo de funcionamiento tiene la razón enredada con la emoción, los sentimientos creciendo como hiedras sobre los datos (o viceversa). En eso, ay, quienes se dedican a la ciencia no se diferencias del resto de sus compañeros de especie, y no pueden diferenciarse. Los científicos no son internamente ‘más racionales’ que los demás.
Pero lo intentan. Precisamente por eso existe el método científico: porque si quieres conocer la naturaleza con la mayor precisión posible es necesario filtrar, todo lo que se pueda, los factores emocionales. Para eso se hacen test de doble ciego, complejos diseños experimentales o enrevesados cálculos estadísticos. Por eso los artículos se codifican en un lenguaje artificial y preciso y se revisan por pares anónimos antes de salir publicados. Por eso los tribunales de tesis, y las solicitudes de proyectos con evaluadores externos. La diferencia entre los practicantes de ciencia y el resto de los mortales está en que los científicos son conscientes de las limitaciones de su propio conocimiento y luchan enconada y constantemente por eliminar las fuentes de conflicto entre emoción y razón. Es una lucha condenada a la derrota, porque ningún científico humano puede dejar de ser humano. Pero gracias a ella cada vez conocemos más hechos objetivos sobre el cosmos, lo cual es bello en sí mismo y además ha resultado ser enormemente útil a nuestra especie.
Por eso la ciencia es necesaria y automáticamente enemiga de cualquier doctrina religiosa o política que se base sobre todo en la emoción. Por la sencilla razón de que su método y objetivo final son incompatibles con las llamadas a guiarse por los sentimientos y abandonar la razón. Con independencia de las ideologías políticas o religiosas de cada cual la ciencia siempre se transforma en una muralla dirigida contra ciertas formas de religión o política: aquellas que prefieren fomentar sentimientos por encima de las realidades, las que agitan emociones sin tener en cuenta los datos. No porque la propia actividad científica tenga un sesgo político concreto, sino porque por definición la ciencia y quienes la practican están del lado de la razón y los hechos, y por tanto en contra de quienes se enfrentan al raciocinio o ignoran los datos para respaldar sus ideologías.
Éste es el verdadero trasfondo de las Marchas por la Ciencia del pasado 22 de abril de 2017, y la razón por la que se ha acusado a sus participantes de convertir a la ciencia en una pieza más del tablero político. Cosa que podrían haber hecho, legítimamente: determinadas opciones políticas han agredido a la actividad científica profesional a través de recortes de presupuestos, reducciones de plantillas, instituciones paralizadas y otras acciones que en general han resultado en menos sueldos, menos proyectos, mayores dificultades y menos futuro profesional. Los científicos, como los mineros, los médicos o los conductores de camión, tienen derecho a protestar cuando sus condiciones profesionales se deterioran como cualquier otro tipo de trabajador.
Aunque el impulso que ha sacado a los científicos a las calles de centenares de ciudades en todo el mundo va más allá; mucho más allá: se trata de una defensa del conocimiento y del raciocinio de la humanidad frente a fuerzas que pretenden llevarnos de vuelta a una concepción del cosmos en la que lo único que importa son las pasiones humanas y no la realidad. Se trata de defender la toma de decisiones que tiene en cuenta los datos; la existencia de una realidad empírica que no se puede obviar por mucho que se desee políticamente; el papel del conocimiento y la razón en los procesos que definen el futuro de las naciones. Quienes rechazan los datos y acusan de sesgada y comprometida a la ciencia pretenden que nadie oponga realidades a sus manipulaciones emocionales; que ni siquiera la realidad imponga límites a su voluntad, expresada en términos de pasión de las masas. Conocemos a dónde lleva este camino; ya lo hemos recorrido antes, siempre con terroríficos resultados.
La cultura gremial de quienes practican ciencia e incluso sus querencias personales no son las más dadas a la protesta pública que existen. De hecho por temperamento y por práctica diaria los científicos con meticulosos hasta la pedantería, extremadamente precisos en lenguaje y afirmaciones, críticos de cualquier detalle propio y ajeno, solitarios y poco dados a formar turbas. La comunidad científica tiene una cuota mayor de lo común de raros, obsesos, detallistas y tocanarices; los científicos muy raras veces están de acuerdo en algo, y de esas aún menos tanto como para salir a la calle en grandes prupos y exteriorizar su protesta. Esta vez ha sido así porque muchos de ellos sienten que la apuesta es mayor de lo normal; que el peligro va más allá de la financiación y los detalles de las becas o proyectos y afecta al futuro mismo de la sociedad. Una pancarta en una de las manifestaciones estadounidenses decía “So bad even the introverts are here’ (tan mal estamos que hasta los introvertidos estamos aquí). Porque cuando los científicos marchan es que el peligro es grande, y real.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo Cuando los científicos marchan se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Un algoritmo genético para buscar materiales 2D
Las posibilidades que da la computación para la ciencia, sobre todo los ordenadores potentes pero para nada extraordinarios, es que permiten hacer predicciones que hace solo unos años serían impensables ni siquiera planteárselas. Una reciente investigación en busca de nuevos materiales 2D de uso en nanoelectrónica de un equipo encabezado por Arunima Singh del Instituto Nacional de Estándares y Tecnología de los Estados Unidos es un ejemplo estupendo de este uso.
El grafeno es una forma de carbono muy conocida. Sabemos que es una monocapa plana de átomos de carbono con propiedades muy interesantes. Bien, una de las cosas que demuestra el grafeno es que un material por lo demás ordinario, recordemos que la mina de un lápiz está hecha de láminas de grafeno unas encima de otras formando lo que llamamos grafito, se vuelve extraordinario si lo pasamos de 3 dimensiones a 2 dimensiones.
Efectivamente, algunas propiedades como la magnetorresistencia o la piezoelectricidad solo aparecen en las versiones 2D de los materiales. Entonces, ¿por qué no realizar una búsqueda sistemática de compuestos 2D de los materiales que son del grupo del carbono en la tabla periódica? Recordemos que los elementos de un mismo grupo tienen un comportamiento químico similar porque su estructura electrónica más externa es idéntica.
Antiguamente habría que haber hecho miles de cálculos a mano para intentar averiguar con poca precisión que compuestos 2D serían factible y cuáles podría tener propiedades diferentes. Hoy, lo que estos investigadores han hecho es crear un algoritmo que funciona eliminando todas las variaciones que no sean óptimas dese el punto de vista de estabilidad en un análisis de todas las estructuras 2D hipotéticas de todos los óxidos de cuatro elementos del grupo del carbono: silicio (Si), germanio (Ge), estaño (Sn) y plomo (Pb). Una vez que las tienen calculan las características electrónicas.
Pero esto es aún más complicado de lo que parece. A diferencia del carbono, cuya estructura cristalina 2D (grafeno) es la misma que la 3D (grafito), lo normal es que las estructuras 2D sean diferentes a las 3D. Así, por ejemplo, el cuarzo alfa (estructura 3D del dióxido de silicio, SiO2) tiene una estructura trigonal, pero la 2D, sintetizada recientemente, se ha comprobado que es bitetraédrica.
El algoritmo desarrollado por los investigadores es de los llamados genéticos, una clasificación del campo de la inteligencia artificial que engloba a los inspirados en la evolución biológica y su base genético-molecular. Lo que hace es tomar la población inicial de todos los óxidos posibles y dejarla evolucionar hasta que se encuentran las estructuras de menor nivel de energía y, por tanto, más estables; de éstas solo algunas serán 2D.
Los resultados indican que la forma estable del dióxido de germanio GeO2 debería ser monoclínica, mientras que los dióxidos de estaño SnO2 y plomo PbO2 2D deberían ser 1T (triclínicos, 1 capa), a diferencia de sus versiones 3D que tienen una estructura común de rutilo.
Cálculos adicionales muestran que estas estructuras deberían de poder sintetizarse en el laboratorio, bien sobre sustratos o, como el grafeno, como capas independientes. Los óxidos de germanio y estaño 2D podrían tener aplicaciones interesantes como dieléctricos en transistores mientras que el de estaño podría servir de protección en dispositivos nanoelectrónicos. Ya solo queda sintetizarlos y comprobarlo.
Referencia:
Arunima Singh et al (2017) Genetic algorithm prediction of two-dimensional group-IV dioxides for dielectrics Physical Review B doi: 10.1103/PhysRevB.95.155426
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Un algoritmo genético para buscar materiales 2D se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El teorema de los cuatro colores (1): una historia que comienza en 1852
Wolfgang Haken
Smote the Kraken
One! Two! Three! Four!
Quoth he: “the monster is no more”.
(W.T. Tutte)
El teorema de los cuatro colores se enunció en forma de conjetura en 1852, pero tuvo que esperar hasta el año 1996 para ser admitido como válido por la práctica totalidad de la comunidad matemática.
El poema que abre este escrito es precisamente el que William Thomas Tutte dedicó a Wolfgang Haken –uno de los investigadores que dio una primera prueba del teorema en 1977, aunque tuvo que esperar hasta 1996 a ser ratificada por otros investigadores– tras más de cien años de fallidos intentos por probar su validez.
El teorema de los cuatro colores afirma que, para colorear un mapa geográfico plano sin que dos países colindantes tengan el mismo color, basta con cuatro tonos diferentes.
Se imponen las siguientes restricciones a los mapas aludidos en el teorema:
-
son siempre conexos –es decir, de una pieza– y cada una de sus regiones también es conexa;
-
dos territorios distintos de un mapa no pueden tocarse sólo en un punto, es decir, para ser colindantes deben compartir frontera en el sentido indicado en la figura 1.
Podría pensarse que un mapa con una gran cantidad regiones, poseyendo extrañas formas, y colindando de manera singular necesitaría mayor cantidad de colores que un mapa más sencillo. Pero, el teorema afirma que no es el caso.
Se trata de un problema topológico, ya que no es importante la forma de las regiones del mapa, sino la manera en la están colocadas las unas respecto a las otras.
¿Cómo empezó esta historia? El abogado y botánico Francis Guthrie observó que era capaz de colorear un mapa complicado de los cantones de Inglaterra con sólo cuatro colores, y conjeturó que debía suceder lo mismo con cualquier otro mapa geopolítico. En 1852, se lo comentó a su hermano Frederick y éste a su vez a Augustus de Morgan, su profesor.
Francis Guthrie observó, además, que tres colores no bastaban, mostrando lo que llamó el diagrama crítico (figura 2), que obviamente precisa de cuatro colores para no contradecir las condiciones de su conjetura –la parte blanca central es una región del mapa–.
Frederick Guthrie fue el primero en observar que el problema de los cuatro colores no se podía generalizar a dimensión 3: en efecto, según un ejemplo posterior de Heinrich Tietze, es posible construir un ejemplo de mapa tridimensional que precise tantos colores como se desee. Su propuesta consistía en tomar barras numeradas de 1 hasta n,ordenándolas como muestra la figura 3, y sobre ellas colocaba otras n barras numeradas de 1 hasta n, girándolas 45 grados. De este modo, Tietze conseguía un mapa tridimensional conn regiones (cada número correspondía a un ‘país’), que obviamente necesitaba exactamente n colores para no contradecir las reglas de la conjetura…
Augustus de Morgan se interesó por la conjetura de Guthrie y la difundió entre sus colegas. El 23 de octubre de 1852 escribió a William Rowan Hamilton: “A student of mine [se refiere a Frederick Guthrie] asked me today to give him a reason for a fact which I did not know was a fact – and do not yet. He says that if a figure be any how divided and the compartments differently coloured so that figures with any portion of common boundary line are differently coloured – four colours may be wanted, but not more – the following is the case in which four colours are wanted. Query cannot a necessity for five or more be invented […]”
En ese momento Hamilton estaba trabajando en teoría de cuaterniones, y respondió cuatro días después a De Morgan, con sarcasmo: “I am not going to attemt your quaternion of colour very soon”.
Decepcionado, De Morgan se puso en contacto con otros matemáticos. En 1853, escribió a William Whewell, describiendo la conjetura como un axioma matemático.
El problema de los cuatro colores cruzó el Atlántico: Charles Sanders Peirce dio un seminario sobre la demostración, aunque nunca la escribió.
Tras la muerte de De Morgan en 1871, el problema de los cuatro colores pareció olvidarse; aunque Peirce seguía buscando su demostración, ninguno de los amigos británicos de De Morgan lo mencionaban.
Años más tarde, en junio de 1878, Arthur Cayley hizo la siguiente pregunta en un encuentro de la London Mathematical Society: “Has a solution been given of the statement that in colouring a map of a country, divided into counties, only four colours are required, so that no two adjacent counties should be painted in the same colour”?.
Realmente interesado por el problema, en 1879 publicó una nota corta sobre el tema en los Proceedings of the Royal Geographical Society. Admitía la dificultad del tema: “I have not succeeded in obtaining a general proof: and it is worth while to explain wherein the difficulty consists”.
Entre otros, en esa nota observaba que, a la hora de probar el teorema, podían imponerse condiciones más restrictivas sobre los mapas a colorear, en particular, bastaba con limitarse a mapas cúbicos, es decir, aquellos en los que hay exactamente tres regiones en cada punto de encuentro. En efecto, si en un mapa hay más de tres regiones en alguno de los puntos de encuentro (ver figura 5); sobre este punto puede pegarse un pequeño parche que produce un mapa cúbico. Si se puede colorear este mapa con cuatro colores, también se puede obtener un 4-coloreado del mapa original: basta con colapsar el parche en un punto.
Continuará en… El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba.
Referencias:
Marta Macho Stadler, Mapas, colores y números, Descubrir las matemáticas hoy: Sociedad, Ciencia, Tecnología y Matemáticas 2006 (2008) 41-68
Robin Wilson, Four colors suffice: how the map problem was solved, Princeton University Press, 2002.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo El teorema de los cuatro colores (1): una historia que comienza en 1852 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El flujo sanguíneo se reorganiza en respuesta a las necesidades
Como vimos aquí, en reposo, el corazón humano bombea sangre a razón de 5 litros por minuto (l m-1). La sangre que sale por la aorta y se dirige a los tejidos procedente de los pulmones va cargada de O2. Veamos cómo se reparte ese flujo entre unos órganos y otros.
El sistema digestivo recibe 1,35 l min-1, un 27% del total. El tracto digestivo recibe 1 l min-1, y el resto 0,35 l min-1, aproximadamente, va directamente al hígado, aunque este órgano recibe, a través del sistema portal hepático, un flujo adicional procedente precisamente del intestino con sustancias recién absorbidas. Este flujo sanguíneo proporciona oxígeno a un tejido metabólicamente muy activo. Pero también está al servicio de la incorporación al organismo de los nutrientes digeridos y absorbidos, y su posterior remisión al hígado para su posible almacenamiento o transformación, y al resto de los tejidos para su uso; en este segundo caso, no obstante, la sangre ha de volver al corazón para su redistribución posterior.
El segundo destino que más sangre recibe en reposo son los riñones, a los que se dirige un 20% del total de sangre bombeada en un ciclo de contracción-relajación del ventrículo izquierdo del corazón. El flujo que reciben los riñones es de 1 l min-1. Aunque las células renales son muy activas metabólicamente por el trabajo de transporte iónico que efectúan, la principal razón de ese elevado flujo es la necesidad de filtrar la sangre en los glomérulos renales para limpiarla de las sustancias de deshecho (urea, principalmente) y para ajustar los elementos del balance de agua y sales, de manera que tal balance resulte equilibrado y pueda mantenerse la constancia en las propiedades osmóticas e iónicas del medio interno.
La muscultura esquelética recibe 750 ml min-1 (un 15%) del flujo sanguíneo. Puede parecer una cifra importante, pero no lo es en términos relativos, ya que la musculatura esquelética representa alrededor de la mitad de la masa corporal.
Por comparación, mayor importancia relativa tiene el flujo de sangre que riega el encéfalo: 650 ml min-1(13%). No debe sorprender ese valor, dado que el tejido encefálico es el de mayor actividad metabólica: algo más del 20% de la del conjunto del organismo en reposo. Ese elevado metabolismo es el que alimenta energéticamente el mantenimiento de los gradientes iónicos de los que depende la transmisión de los impulsos nerviosos, así como el conjunto de procesos implicados en las sinapsis químicas. Hay que tener en cuenta que la masa encefálica es de entre 1,3 y 1,5 kg. dependiendo de la talla del individuo, o sea, representa del orden del 2% de la masa corporal solamente.
La piel recibe 450 ml min-1 (un 9%), el corazón 150 ml min-1 (3%) y los huesos y resto de elementos corporales, 650 ml min-1 (13%).
Las cosas cambian de forma sustancial si el individuo debe hacer alguna actividad física. Para empezar, en condiciones de ejercicio moderado el gasto cardiaco se multiplica por 2,5: pasa a ser de 12,5 l min-1. Pero el cambio no consiste solo en un aumento del flujo sanguíneo total; también cambia, y mucho, el reparto de ese flujo entre los diferentes órganos.
El cambio más importante es el que registra el riego muscular. Se multiplica por más de diez y de los 750 ml min-1 en reposo pasa a 8 l min-1; o sea, casi dos terceras partes (64%) del flujo total se dirige a la musculatura esquelética bajo esas condiciones. La razón de ese aumento no requiere explicaciones adicionales. La piel y el corazón son los otros órganos cuya irrigación aumenta de forma importante. La piel pasa a recibir 1,7 l min-1 (el 13,6%); no hay que perder de vista que la piel es el principal enclave a través del cual disipamos energía en forma de calor hacia el exterior. Y el aumento de la irrigación cardiaca, que pasa a ser de 550 ml min-1 (4,4 %) obedece, precisamente, a la necesidad de aumentar el gasto cardiaco elevando la frecuencia de latido.
Nada sorprendentemente, el encéfalo recibe el mismo riego sanguíneo (650 ml min-1) que en reposo, lo que da idea de la importancia de mantener la actividad encefálica constante, incluso cuando otras requieren aportes adicionales de O2 y nutrientes.
Y luego están los órganos cuyo riego disminuye, tanto en términos absolutos como relativos, porque las funciones que desempeñan permiten una reducción a veces importante, ya que no es esencial que se mantengan a un nivel constante en todo momento. El tracto digestivo pasa a recibir 600 ml min-1 (4,8%), los riñones, 550 ml min-1 (4,4%) y huesos y demás elementos, 450 ml min-1 (3,6%).
Los ajustes necesarios para redirigir el flujo sanguíneo se producen en el sistema de arteriolas. Se trata del sistema que, en conjunto, más resistencia ofrece a la circulación de la sangre; por esa razón es en esa parte de la circulación general donde se produce la caída más grande de la presión sanguínea: su valor medio pasa de unos 90 mm Hg al salir de las grandes arterias, a los aproximadamente 40 mm Hg al llegar a los capilares. Pues bien, pequeñas modificaciones en el tono arteriolar, aumentando o disminuyendo el diámetro interno de los vasos de unas zonas o de otras, dan lugar a cambios muy grandes en el flujo de sangre a través de los diferentes tejidos. Y esos cambios responden a señales intrínsecas. Esto no implica que no haya control extrínseco del diámetro de las arteriolas. Lo hay y corre a cargo del sistema nervioso simpático, pero, al parecer, el objeto de tal control no es el de regular el flujo, sino controlar la presión arterial en su conjunto.
Las señales que generan los cambios locales de flujo son químicas y tienen que ver con la actividad metabólica de los tejidos afectados. Se trata, por ello, de un control local, intrínseco. La reducción de la concentración de O2 en la sangre produce vasodilatación arteriolar. Así, cuando el consumo de oxígeno es alto en los músculos esqueléticos, su concentración baja rápidamente y ese descenso provoca una mayor apertura de las arteriolas que riegan esos músculos. Además de la disminución de la concentración de O2, el aumento de la de CO2 –provocada por la misma causa- tiene el mismo efecto. La acidificación del entorno –por efecto de la combinación de CO2 con el agua y por el aumento en la concentración de lactato- da lugar también a un aumento en el diámetro de las arteriolas. Otro factor es la elevación del K+ extracelular; esa elevación se produce cuando las bombas Na+-K+ no son capaces de reintroducir en las células (neuronas encefálicas o células musculares) el K+ que sale al exterior como consecuencia de los frecuentes potenciales de acción que ocurren en zonas especialmente activas. Una concentración osmótica elevada tiene el mismo efecto; ocurre cuando el metabolismo celular es muy alto y da lugar a la producción excesiva de moléculas osmóticamente activas, algunas de las cuales abandonan las células hacia el líquido intersticial. Y en el músculo cardiaco especialmente, la liberación de adenosina que se produce en respuesta a una elevada actividad metabólica o falta de oxígeno, también provoca un aumento del diámetro arteriolar y, por lo tanto, del flujo sanguíneo hacia la zona afectada.
Cuando, por las razones que sea, eches a correr y experimentes un aumento del ritmo cardiaco y un mayor flujo de calor hacia la superficie de tu cuerpo, quizás recuerdes esto que has leído aquí.
El artículo El flujo sanguíneo se reorganiza en respuesta a las necesidades se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los cimientos de la química neumática al estilo van Helmont (y 3)
El principio de conservación de la materia es algo que está implícito en van Helmont ya que asume en sus experimentos que se conserva independientemente de los cambios que sufra. Extendió esta idea a los metales, algo que los alquimistas veían de forma completamente opuesta. Según van Helmont, cuando los metales se disolvían en los ácidos no se destruían sino que se podían recuperar gramo por gramo (cosa muy útil si te persiguen los nazis).
Estas ideas, sin embargo, no eran exclusivas de van Helmont. Por ejemplo, su contemporáneo Angelo Sala describe en Anatomia vitrioli (1617) como había disuelto una cierta cantidad de cobre en ácido sulfúrico, recuperado químicamente el cobre metálico y encontrado que pesaba exactamente lo mismo que el cobre con el que había comenzado el experimento.
No solo eso, Sala también demostró algo muy importante y que hoy se da (o debería darse) por sentado: pudo preparar en el laboratorio un sulfato de cobre hidratado que era exactamente igual al sulfato de cobre hidratado que se encuentra en la naturaleza, una idea revolucionaria para la época. Pero Sala no tenía la influencia y el prestigio de van Helmont, por lo que hoy no aparece en casi ningún libro de historia de la química, entre otras cosas, porque sus ideas más que notables, no tuvieron impacto.
Sin embargo, van Helmont tenía tanta influencia que incluso sus especulaciones más evidentemente arbitrarias tuvieron eco. Así, van Helmont postuló la existencia del alcahest, el disolvente universal, que tenía la propiedad de devolver las sustancias a sus estado primitivo, esto es, a agua, el componente básico de todo. Los químicos contemporáneos, que habían dejado de buscar la piedra filosofal, emplearon mucho tiempo y esfuerzo buscando el alcahest, incluido el famoso Robert Boyle.
La química moderna empezará realmente con la investigación de los gases por los llamados químicos neumáticos y será van Helmont el que establezca las bases de esta nueva área de investigación. Eso sí, con la esquizofrenia característica del siglo.
Para van Helmont como el aire no podía convertirse en agua, tenía que ser un elemento diferente. Sin embargo, existía una serie de sustancias “parecidas al aire” que aparecían frecuentemente en el transcurso de las reacciones químicas. Para referirse a ellas van Helmont empezó a utilizar el término gas, que en neerlandés suena muy parecido a caos, un término que Paracelso usó para referirse al aire en otro sentido.
Obviamente, para van Helmont los gases eran simplemente agua, no aire, ya que cualquier sustancia se convertía en gas e iba a la atmósfera por la muerte de sus “fermentos”. Un gas era caos porque no tenía forma. Un gas podía condensar en vapor (visible como distinto del aire) y caer en forma de lluvia (precipitar) por la influencia del blas, un término que la jerga química no terminó de aceptar y con el que van Helmont se refería a una especie de influencia o poder astral, “gravitacional”, que producía el cambio y el movimiento en el universo.
Como hemos visto, el siglo XVII produce grandes avances en la química pero también modelos teóricos arcaicos o arcaizantes. Serán ya otros nombres, todavía arrastrando algunas ideas alquímicas, los que comiencen este mismo siglo con la historia moderna de la química: Robert Boyle, Robert Hooke, John Mayow, John Joachim Becher, Georg Ernest Stahl o Stephen Hales ya no son alquimistas.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Los cimientos de la química neumática al estilo van Helmont (y 3) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Historias de la malaria: El parásito
Terciana: Calentura intermitente que repite cada tercer día.
Cuartana: Calentura, casi siempre de origen palúdico, que entra con frío, de cuatro en cuatro días.
(Diccionario de la Lengua Española).
Fue el médico militar francés Alphonse Laveran, del que hablaré en otro capítulo de esta serie, quien demostró en 1880, con la ayuda de un microscopio no muy potente, que el parásito que provoca la malaria tenía, según vio en preparaciones de sangre fresca de enfermos, un cuerpo globular ciliado que, años más tarde se asignó a un protozoo del género Plasmodium. Ahora nosotros vamos a conocer en detalle al protagonista principal de las historias de la malaria.
Son cuatro las especies de Plasmodium que causan la malaria en nuestra especie. El Plasmodium falciparum es la especie más letal, la más asociada a la mortalidad que provoca el parásito de la malaria. Menos letales son las otras tres especies implicadas: Plasmodium vivax, Plasmodium malariae y Plasmodium ovale.
El ciclo vital de los plasmodios tiene dos fases: una sexual en la hembra del mosquito transmisor, y otra asexual en el huésped vertebrado. Esta fase en el vertebrado tiene, a su vez, dos fases: la primera, una vez llega por la picadura del mosquito, en las células del hígado, y la segunda en los glóbulos rojos de la sangre. La descarga de los parásitos en gran cantidad desde los glóbulos rojos es la que provoca las fiebres típicas de la malaria.
Una vez que el insecto pica al vertebrado huésped, y se carga de células sexuales del parásito y, en el estómago del insecto, se unen, forman el zigoto o huevo fecundado que, a su vez, se rompe en abundantes células del protozoo llamadas esporocitos que llegan a las glándulas salivares del mosquito y, cuando éste pica, son descargados a la sangre del huésped vertebrado, y el ciclo comienza de nuevo.
Los esporocitos atraviesan la pared del digestivo del vertebrado y llegan al hígado, en una hora más o menos, y allí se multiplican formando los merozoitos que se descargan a la sangre e invaden los glóbulos rojos. Se vuelven a dividir hasta formar más merozoitos y, finalmente, las células sexuales que, cuando pica el mosquito, llegan a su estómago, y vuelve a comenzar el ciclo.
Complicado pero así consiguen tantos parásitos el éxito evolutivo que tienen.
La reproducción del Plasmodium en los glóbulos rojos tarda unas 48 horas en el falciparum, vivax y ovale, y 72 horas en malariae. El ciclo de 48 horas es el que provoca las fiebres que se llaman tercianas, con un acceso un día de cada dos. Si es con falciparum, es la terciana maligna; si es con ovale o vivax, es la fiebre terciana benigna. En malariae, con el ciclo de 72 horas, aparecen la fiebre que se denomina cuartana, con un día de cada tres.
El ciclo completo del desarrollo de los protozoos en la especie humana es de 9 a 15 días en falciparum, de 12 días en vivax y ovale, y de 20 días en malariae. Los parásitos no sobreviven en el huésped más de un año, para el falciparum, o de dos años, para el vivax y el ovale. El P. malariae plantea más problemas pues puede mantenerse hasta algunas decenas de años. En conclusión, si se controlan los insectos durante tres años en un determinado enclave con malaria, el parásito desaparece. Se hizo en la década de los sesenta en Estados Unidos, Puerto Rico y otros países y se erradicó la enfermedad.
La entrada de los protozoos en los glóbulos rojos se consigue por la unión del parásito a receptores de membrana de las células de la sangre. Si no hay unión, el plasmodio no puede entrar en el glóbulo rojo y completar su ciclo de crecimiento y, por tanto, no hay ataques de fiebre en el enfermo. Es lo que ocurre en África con el vivax que no consigue entrar en los glóbulos rojos. Es una especie que no aparece en muchas zonas de África, precisamente las mismas zonas en que gran parte de la población, entre el 90% y el 100%, tiene la mutación negativa del grupo sanguíneo Duffy. En esta mutación, el receptor de membrana, una proteína que caracteriza al grupo Duffy, no se sintetiza y, por tanto, no está en la membrana de los glóbulos rojos. Y el vivax, para entrar en la célula, se une precisamente a ese receptor Duffy. Y, por ello, al faltar el receptor no puede entrar en el glóbulo rojo. Se ha propuesto que por esta causa ha desaparecido de grandes zonas de África. Está en chimpancés y gorilas, pero no en la especie humana.
El ciclo vital del parásito en el mosquito necesita de una temperatura ambiente elevada. En el Plasmodium falciparum es de más de 26ºC, con una mínima para poder desarrollarse de 18ºC, y el ciclo dura diez días. En vivax es de 8-9 días, en ovale son 12-14 días, y en malariae es de 14-15 días. Estas especies están, por esa restricción de temperaturas, confinadas al trópico y, si aparecen en zonas más templadas, es porque el mosquito vive en interiores, climatizados por nuestra especie, con un microclima más estable y temperaturas no tan bajas como en el exterior.
Con estas limitaciones de temperatura, es indudable el impacto que puede tener el calentamiento global para un aumento del área de distribución del Plasmodium. Ya está ocurriendo en el sur y el este de África, y la epidemia de malaria en Madagascar a finales de los ochenta, a partir de 1987, en zonas de altitud y con clima más fresco que en la costa, donde la enfermedad, con pequeños focos, había desaparecido en 1960, es un buen ejemplo. En pocos años alcanzó los 25000 muertos.
El origen y la expansión del plasmodio es anterior a la especie humana. La propagación por todo el planeta tuvo, cuando ya parasitaba a nuestra especie, precisamente en la extraordinaria movilidad y adaptación a todos los entornos del Homo sapiens.
Su origen según algunos expertos, está en algún protozoo, parásito del intestino de vertebrados, que consiguió atravesar la pared del tubo digestivo y adaptarse a vivir en otros órganos y, muy importante, en la sangre del huésped. Después, en un segundo paso, encontró un huésped invertebrado en los mosquitos picadores y chupadores de sangre. Hay que recordar que mosquitos parecidos a los actuales ya existían hace unos 150 millones de años.
Las líneas más antiguas de plasmodios de la malaria están en reptiles y aves y, en una línea más reciente, aparece en mamíferos, incluyendo a primates y a nuestra especie. Algunos dicen que el paso de falciparum de aves, quizá domésticas, a Homo sapiens, es reciente, de hace entre 5000 y 10000 años. Otros autores proponen que el parásito de humanos viene del chimpancé y que el paso se puede fechar hace unos 8 millones de años, cuando aparecieron las especies que llevarían, por una parte, a los chimpancés actuales y, por otra, a la especie humana. Las pruebas directas más antiguas de la malaria en la especie humana, aún con descripciones médicas y literarias anteriores, están en las momias egipcias, desde hace unos 4000 años, y en los cadáveres de cementerios cercanos a Roma y fechados hace unos 2000 años, en la época imperial. El análisis de ADN y pruebas inmunológicas de esos cuerpos han demostrado la presencia de falciparum. Incluso la momia de Tutankamon y las de tres familiares suyos, enterrados hace unos 3500 años, dan positivo al análisis de ADN de falciparum.
Ahora empezamos a conocer el genoma de los plasmodios. Tienen 14 cromosomas. Y el estudio del ADN lleva a estudiar su evolución. Por ejemplo, algunos de los plasmodios de humanos, en los análisis genéticos, son muy parecidos a los que se encuentran en otros monos actuales y, por tanto, el paso de la malaria a humanos sería más reciente. Así, el protozoo más cercano al falciparum se encuentra en los gorilas, y el de vivax en gorilas y chimpancés.
Además, el análisis genético ha permitido detectar que hay infecciones mixtas, con más de una de las especies de plasmodios en las zonas donde se localiza más de una. Es interesante que las infecciones con vivax o con malariae reducen la gravedad de la infección con falciparum. Incluso se ha encontrado otro plasmodio, parásito del macaco, que, a veces, también parásita a la especie humana. Es el Plasmodium knowlesi.
En cuanto al origen geográfico de la malaria en nuestra especie parece que se localiza en el centro y el este de África, en la región de Etiopía. Desde allí, por el valle del Nilo, llegó al Mediterráneo y, después, hacia el oeste y el norte, a Europa, y hacia el este a Oriente Medio, la India y el sudeste de Asia.
Plasmodium vivax es la especie que tiene una distribución más amplia, en el trópico, subtrópico y zonas templadas. P. falciparum es la especie más común en el trópico y subtrópicos y, rara vez, en zonas templadas. P. malariae tiene igual distribución que falciparum pero es menos común. Y P. ovale se encuentra en el África tropical y, esporádicamente, en otras zonas del planeta.
Referencias:
Bianucci, R. et al. 2007. Immunological evidence of Plasmodium falciparum infectyion in an Egyptian child mummy from the Early Dynastic Period. Journal of Archaeological Science doi: 10.106/j.jas.2007.11.019
Bray, R.S. & P.C.C. Garnham. 1982. The life-cycle of primate malaria parasites. British Medical Bulletin 38: 117-122.
Brockington, F. 1964. La salud en el mundo. EUDEBA. Buenos Aires. 403 pp.
Bruce-Chwatt, L.J. 1965. Paleogénesis and paleo-epidemiology of primate malaria. Bulletin of the WHO 32: 363-387.
Coluzzi, M. 1994. Malaria and the Afrotropical ecosystems: Impact of man-made environmental changes. Parasitologia 36: 223-227.
Earle, D.P. 1979. A history of malaria and its ironies. Transactions of the American Clinical and Climatological Association 90: 1-26.
Gentilini, M. et al. 1977. Médecine Tropicale. Flammarion-Sciences. Paris. 561 pp.
Hawas, Z. et al. 2010. Ancestry and pathology in King Tutankhemum’s family. Journal of American Medical Association 303: 638-647.
Hommel, M. 2007. Morphologie, biologie et cycle des Plasmodium parasites de l’homme. Bulletin de l’Académie nationale de médecine 191: 1235-1246.
Howes, R.E. et al. 2011. The global distribution of the Duffy blood group. Nature Communications DOI: 10.1038/ncomms1265
Laremruata, A. et al. 2013. Molecular identification of falciparum malaria and human tuberculosis co-infections in mummies from the Fayum Depression (Lower Egypt). PLOS ONE 8: e60307
Lepers, J.P.et al. 1990. Newly transmitted Plasmodium falciparum malaria in the central highland plateaux of Madagascar: assessment of clinical impact in a rural community. Bulletin of the WHO 68: 217-222.
Lu, W. Et al. 2014. African origins of the malaria parasite Plasmodium vivax. Nature Communications DOI: 10.1038/ncomms4346
Marciniak, S. et al. 2016. Plasmodium falciparum malaria in 1st-2nd century CE southern Italy. Current Biology DOI: 10.1016/j.cub.2016.10.016
Meibalan, E. & M. Marti. 2017. Biology of malaria transmission. Cold Spring Harbor Perspectives in Medicine 7: a025452
Mercereau, O. & D. Ménard. 2010. Plasmodium vivax and the Duffy antigen: A paradigm revisited. Transfusion Clinique et Biologique doi: 10.1016/j-tracli.2010.06.005
Pagès, F. 1953. Le paludisme. PUF. Paris. 113 pp.
Schlagenhauf, P. 2004. Malaria: from prehistory to present. Infectious Disease Clinics of North America 18: 189-205.
Tan, S.Y. & A. Ahana. 2009. Charles Laveran (1845-1922): Nobel laureate pioneer of malaria. Singapore Medical Journal 50: 657-658.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Historias de la malaria: El parásito se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Migrantes nocturnos y radares meteorológicos
El primer estudio realizado en el Golfo de Bizkaia a gran escala sobre la migración nocturna de aves ha mostrado que la migración se realiza por el mar y tierra en primavera y por tierra en otoño, al contrario de lo que se creía. Para este trabajo, llevado a cabo entre la Sociedad de Ciencias Aranzadi y el Departamento de Matemáticas Aplicadas de la UPV/EHU, ha sido clave la utilización de radares meteorológicos como método de observación ornitológica.
La investigación realizada por Nadja Weisshaupt durante su tesis doctoral, pionera en el estudio de la migración nocturna en el Golfo de Bizkaia, rompe con varias creencias: “Se pensaba que la migración se realiza como un frente amplio en otoño, pero en mi estudio he visto que no es así”. Y es que, en cuanto a las épocas de migración, los resultados afirman que se registra una alta actividad nocturna en primavera y poca actividad en todo el otoño en Punta Galea. La migración otoñal se realiza más hacia los Pirineos, posiblemente evitando el cruce del mar. Por otro lado, las observaciones lunares han permitido establecer que las aves paseriformes (el grupo que abarca los pájaros cantores) predominan como migrantes nocturnos, aunque también se registra un pequeño porcentaje de aves acuáticas.
La migración de las aves incluye el desplazamiento de millones de individuos entre sus áreas de cría y los entornos a los que se desplazan para pasar el invierno. Durante sus migraciones, las aves recorren grandes distancias, para lo cual han de parar a menudo y reponer fuerzas para proseguir su viaje. Para poder alimentarse y descansar, necesitan ecosistemas adecuados en sus lugares de paso; la ausencia de entornos apropiados puede tener consecuencias tanto en la población como en la conservación de estas especies. En este escenario, el conocimiento de las estrategias migratorias es capital, tanto desde un punto de vista biológico y ecológico, como de la conservación. “Para proteger un espacio, es indispensable disponer de una base científica”, explica Nadja Weisshaupt, autora del estudio.
La migración de aves ha dado lugar a múltiples estudios científicos, en Euskadi sobre todo por anillamiento de aves capturadas, con el objeto de analizar los diversos factores que influyen en los patrones y dinámicas relacionados con la migración de las aves. “Sin embargo, hasta el momento se carecía de datos sobre la migración nocturna activa en el Golfo de Bizkaia”, añade. Con el objetivo de cubrir esta necesidad, partiendo de los conocimientos previos por anillamiento desde Aranzadi y la base de datos del radar de Punta Galea de Euskalmet, Weisshaupt ha abordado el estudio de la migración nocturna de aves en la costa del Golfo de Bizkaia.
Dadas las dificultades de visibilidad de noche y la necesidad de cubrir largas distancias, se recurrió a diversos métodos de observación: radares, cámara térmica y observaciones lunares.
Los radares meteorológicos constituyen la herramienta clave de este estudio. Se ha trabajado con dos tipos de radares. Uno de ellos es el perfilador de Euskalmet que se encuentra en Punta Galea. El perfilador realiza mediciones de viento, y en épocas de migración, registra señales que no corresponden a vientos, sino a las aves que pasan. Este hecho, que supone un gran problema para la calidad de los datos meteorológicos, resulta útil para el estudio de aves. “Es interesante, porque hemos tenido que luchar bastante para que la gente crea que es posible utilizar perfiladores para estudios ornitológicos”, señala Weisshaupt. El segundo tipo de radar mide la precipitación. El radar de Kapildui, por ejemplo, también de Euskalmet. La onda de este tipo de radar es más corta que la del perfilador, aunque también registra aves.
Pero no todos los radares son válidos; durante el estudio se ha constatado que los diferentes servicios meteorológicos se someten a diferentes niveles de procesamiento y filtrado de forma que los datos disponibles ya no contienen información biológica. Como consecuencia, se han descartado los radares de AEMET que hubiera cubierto la costa sur del golfo, pues solo los datos del radar de Kapildui de Euskalmet y de los radares franceses contienen información válida. Con estos cinco radares restantes se ha utilizado un algoritmo que permite automatizar la extracción de datos de aves de los radares meteorológicos, desarrollado por el doctor Adriaan Dokter de la Universidad de Ámsterdam, mediante una colaboración realizada dentro de la Acción COST ENRAM (European Network for the Radar Surveillance of Animal Movement) a nivel europeo.
El segundo tipo de herramienta, la cámara térmica, registra la radiación de infrarrojos que emiten varios objetos, por lo que detecta “la temperatura de un ave, 40-41 ºC, que contrasta claramente con la temperatura ambiente. La cámara permite especificar si las aves observadas son paseriformes, si van solas o en grupos. Además se obtiene la dirección y la intensidad de la migración del espacio de tiempo analizado”.
Finalmente, la observación lunar se realiza desde dos días antes hasta dos días después de la luna llena. “En este caso, se ha utilizado para complementar la información obtenida de los otros sistemas, a fin de especificar la composición de las aves migratorias”.
Referencia:
Nadja Weisshaupt, Mercedes Maruri, and Juan Arizaga (2014) Bird migration across the Bay of Biscay observed by meteorological radar [PDF] ERAD-14
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Migrantes nocturnos y radares meteorológicos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ensayo sobre el azul
Puedo escribir los versos más tristes esta noche.
Escribir, por ejemplo: “La noche está estrellada,
y tiritan, azules, los astros, a lo lejos”.
Pablo Neruda – Poema XX – Canta Chavela Vargas
El brillo de las estrellas, el reflejo de las olas, la inmensidad de la bóveda celeste, unas pupilas azules… El azul ha inspirado cientos de canciones y versos a lo largo de la historia y, como no podía ser de otro modo, también ha jugado un papel fundamental en la Historia del Arte. Desde que el ser humano intenta representar su entorno o sus sensaciones, los artistas se las han tenido que ingeniar para lograr pigmentos que reflejen este omnipresente color.
Pero… ¿Qué es el azul? Desde una perspectiva científica no es más que una región del espectro electromagnético que apenas abarca las longitudes de onda entre los 450 y los 495 nanómetros. Y, sin embargo, en esa ínfima franja podemos encontrar variedades sobre las que discutir hasta la saciedad: azul marino, celeste, turquesa, vaquero, etc. ¿Es, por lo tanto, correcto decir que se trata de un solo color? Por lo menos, no en Rusia. El ruso segmenta nuestro azul en dos colores diferenciados: el golubóy (equivalente al azul celeste) y el síniy (equivalente al azul marino). En el otro extremo está el vietnamita que emplea la misma palabra para el azul y el verde. Cosas del lenguaje.
Emaidazue freskura
ura eskutik eskura
izarren salda urdina edanda
bizi naiz gustora1.
Xabier Amuriza – Mendian gora haritza – Canta Imanol
No hay otro cielo como el que Giotto pintó en la Capilla Scrovegni. Y el gran responsable, además del propio maestro italiano, es el pigmento empleado: el azul ultramar. Ya lo dijo Cennino Cennini en el Capítulo LXII de El libro del arte: “El azul ultramar es un color noble, bello, más perfecto que ningún otro color, faltan palabras para describirlo”. Así que no seré yo quien ose intentarlo. En la Imagen 1 podéis ver la cúpula de esta capilla. Aunque ya sabéis que escasas son las fotos que hacen justicia a una obra de arte. Para disfrutarla de verdad y sufrir el síndrome de Stendhal no tenéis más remedio que visitar alguna vez Padova, en el Véneto italiano.
El azul ultramar llegaba a Italia en el ocaso del medievo por vía marítima (ultramarinus) y de ahí su nombre. Se obtenía principalmente de la minas del valle de Kokcha en Afganistán, donde abundaba el lapislázuli, una piedra semipreciosa con alto contenido en lazurita, el mineral al que le debe su preciado color el azul ultramar (Na8-10Al6Si6O24S2-4). Ya os podéis imaginar que tal y como estaban las carreteras en aquella época el valor del producto era exorbitado. De hecho, muy pocos se lo podían permitir y estaba reservado para unos usos muy concretos, mayormente para pintar la ropa de la Virgen que, como madre de Dios, se merecía el mejor de los azules.
Afortunadamente para los bolsillos menos pudientes existía en Europa una alternativa conocida como azul citramarino (en contraposición al anterior) o azurita. El que fuera el azul más popular en la época bajomedieval y en el Renacimiento se extraía de un carbonato básico de cobre (2·CuCO3·Cu(OH)2) abundante en las montañas germanas, por lo que también se conoce como azul de Alemania o azul de las montañas. Ahora bien, el uso de este pigmento acarreaba ciertos problemas. Por una parte, el color no es nada estable: bien puede adquirir tonos verduzcos si el mineral se transforma en malaquita (verde) o puede oscurecerse si el cobre se oxida (CuO) y forma tenorita (negra). De ahí que algunas pinturas que originalmente eran azules parezcan ahora verdes o negras. Por otra parte, que costase menos que el ultramarino no quiere decir que fuese barato. Ante esta situación, enseguida se disparó el interés por lograr pigmentos azules artificiales que reemplazasen a los obtenidos de forma natural.
Y, mira por donde, aunque consideremos a Europa el ombligo del mundo y centro de la cultura artística, lo cierto es que ese interés había surgido muchísimos siglos antes en Egipto. De hecho, fueron los egipcios quienes allá por el 2500 a.e.c. lograron el primer pigmento sintético de la historia: el azul egipcio, un silicato de cobre y calcio (CaCuSi4O10). Para ello se mezclaba a altas temperaturas (unos 800 ⁰C) arena (fuente del silicato), carbonato cálcico (fuente de calcio) y malaquita (fuente de cobre), añadiendo natrón (Na2CO3) como fundente, lo que ayudaba a rebajar la temperatura de fundido. Gracias a este proceso se lograba un color azul muy estable que ha llegado hasta nuestros días en perfecto estado en muchos casos. Y, en cambio, azules como los que empleó Rafael la friolera de 4000 años después han cambiado de color completamente. Egipto 1 – Europa 0.
Bleu, bleu, l’amour est bleu.
Berce mon cœur, mon cœur amoureux.
Bleu, bleu l’amour est bleu.
Bleu, comme le ciel qui joue dans tes yeux2.
André Popp y Pierre Cour – L’amour est bleu – Canta Vicky
A partir del s. XVIII, el país que más se esforzó por sintetizar el ansiado pigmento azul fue Francia (como buena madre de la química moderna). Desde la Edad Media se había adaptado para su uso en pintura el esmalte, un óxido de cobalto que se empleaba para elaborar cristal del color que protagoniza este artículo (para hacer justicia, diremos que también los egipcios fueron pioneros en el uso del cobalto, allá por el s. XXVII a.e.c). En cualquier caso, no fue hasta principios del s. XIX cuando se empezó a comercializar el conocido como azul cobalto cuya composición mejorada (CoO·Al2O3) es la lograda en 1807 por el químico Louis Jaques Thénard. Este pigmento, todavía en uso, tuvo una gran acogida y fue empleado por los pintores impresionistas varias décadas después de su descubrimiento. En la imagen 3 vemos un obra en la que Renoir lo empleó.
Esta obra resulta fascinante desde el punto de vista de la paleta pictórica, ya que el azul cobalto no es el único azul empleado. Entre 1880 y 1885 el pintor francés cambió su paleta considerablemente y dejó dicho pigmento de lado para emplear el ultramar. Justo en el periodo en el que realizó Los paraguas. Así, gracias a los estudios realizados en la National Gallery, sabemos que en este cuadro se mezclan ambos pigmentos, cubriendo en ciertos puntos el azul ultramar lo anteriormente pintado con el óxido de cobalto. Pero, recapitulemos un poco. ¿No habíamos dicho que el ultramarino era increíblemente costoso? ¿Acaso había descubierto Renoir una mina? ¿Tendría contactos en Afganistán? Lo cierto es que el azul empleado por Renoir ya no venía de Asia, sino de su propio país. Francia había conseguido sintetizar tan ansiado compuesto. Gracias al descubrimiento de su composición química y a un premio ofrecido por el Gobierno a quien lograse producir el pigmento (otorgado a Jean-Baptiste Guimet), en 1830 se empezó a sintetizar de forma industrial (de forma independiente los alemanes habían logrado el mismo hito).
Azul, líneas en el mar que profundo
y sin domar acaricia una verdad.
Antonio Vega – Se dejaba llevar por ti – Canta Antonio Vega
En los primeros años del s. XVIII, es decir, varias décadas antes de que el azul cobalto y el ultramarino sintético existiesen, un artesano apellidado Diesbach había descubierto un pigmento que se hizo tremendamente popular. Al parecer se trató de un curioso caso de serendipia. Diesbach estaba intentando lograr una laca de cochinilla de color rojo, pero en el proceso dio accidentalmente con un producto azul: había nacido el azul de Prusia. En 1724 se empezó a comercializar este compuesto, de una complejidad mayor de la que su breve fórmula química indica (Fe7(CN)18) ya que el hierro tiene diferentes estados de oxidación.
Numerosos artistas se echaron en los brazos del recién llegado. Un nuevo azul, mucho más intenso y que no era fugaz como el índigo u otros pigmentos naturales. Traspasó todas las fronteras y llegó incluso al país del Sol Naciente de la mano de los comerciantes holandeses. Allí, el gran Hokusai lo empleó para elaborar la más famosa pieza de ukiyo-e (estampas realizadas con grabados en madera): La gran ola de Kanagawa, cuya copia del museo Metropolitan de Nueva York podéis disfrutar en la imagen 4.
Tu pupila es azul, y cuando ríes,
su claridad suave me recuerda
el trémulo fulgor de la mañana,
que en el mar se refleja.
Gustavo Adolfo Becquer –Rima XIII– “Canta” Re-v accesibilidad (lengua de signos española)
Al pensar en arte y ojos, puede que os venga a la cabeza “Big Eyes”, aquella película protagonizada hace unos años por Amy Adams y basada en la vida de Margaret Keane. Las pinturas de esta artista se caracterizan por tener unos personajes con unos ojos superlativos (Imagen 5). Pero, en este caso, hay otros ojos que me interesan más y que son, cómo no, azules. Los que pintó Amadeo Modigliani inspirados por su gran musa, y también pintora, Jeanne Hébuterne. Musa, pintora y devota compañera hasta el sacrificio extremo, ya que a la muerte de su amante se quitó la vida, poniendo un trágico final a su historia de “amor”.
Y os quería hablar de Modigliani y otro pigmento azul: el cerúleo. Al igual que en algún caso anterior hay que destacar la presencia de cobalto en este compuesto, pero también la del estaño. Hablando con propiedad, es un estannato de cobalto (CoO · n SnO2). Pese a que se conoce desde 1821, solo se empleó de forma intensiva desde que George Rowney lo comenzase a comercializar en Inglaterra en 1860. El origen etimológico de este pigmento es la palabra latina caeruleus que, a su vez, deriva de caelum (cielo) y, no en vano, ha sido muy empleado desde que irrumpió en el mercado para pintar la bóveda celeste. Y, ¿dónde queda Modigliani en todo esto? Pues resulta que Modigliani no usaba este pigmento. Es decir, el pintor italiano no tenía este azul en su paleta (ya hemos visto que hay una multitud de opciones) y, gracias a ello, se pudo detectar una más que posible falsificación de una cuadro que se le atribuía. Hace ya unos años, dicho cuadro fue ofrecido para realizar una retrospectiva sobre su obra pero, al realizar los análisis químicos, ¡oh sorpresa!, encontraron azul cerúleo. La presencia de este pigmento y la ausencia de otros muy habituales en la paleta de Modigliani fueron motivo suficiente para que la pintura fuese rechazada por los organizadores de la exposición. Una vez más, los análisis químicos y un riguroso estudio del modo de trabajar del artista sirvieron para esclarecer la verdad.
She wore blue velvet
bluer than velvet was the night
softer than satin was the light
from the stars3
Bernie Wayne y Lee Morris –Blue velvet– Canta Isabella Rosellini
Kyle MacLachlan observa ensimismado a Isabella Rosellini mientras ésta canta Blue Velvet en la película homónima de David Lynch. Blue velvet, terciopelo azul. Y es que, más allá de las diferentes gamas y tonos del azul, los artistas también pueden jugar con las texturas. Y eso lo hizo a las mil maravillas Yves Klein cuando creó la pintura que lleva su nombre. En este caso el secreto hay que buscarlo más allá del pigmento (ultramar sintético), concretamente en el aglutinante. Los químicos de la farmacéutica Rhône Poulenc desarrollaron para él el Rhodopas M, un polímero vinílico que, junto con alcohol etílico y el ultramar, forman el International Klein Blue. Pero no me detendré a dar explicaciones sobre esto cuando tan bien explicado ha sido aquí (también lo tenéis en versión youtuber).
En definitiva, el azul es mucho más que un color (y más que dos). Es también un fascinante episodio de la Historia de Química. Es el cielo de Giotto, un estado de ánimo, la Venus de Klein, el manto de la Virgen, los ojos de Jeanne, unos versos sueltos, un periodo de Picasso, la ola de Hokusai y la excusa para un sinfín de acordes.
Traducciones de los versos:
1Dadme la frescura
el agua de mano en mano
bebiendo el caldo azul de las estrellas
vivo yo a gusto.
 
2Azul, azul, el amor es azul.
Arrullando mi corazón, enamorado.
Azul, azul, el amor es azul.
Azul como el cielo que juega en tus ojos.
 
3Ella vestía de terciopelo azul
más azul que el terciopelo era la noche
más suave que el satén era la luz
de las estrellas
 
Para saber más:
Cennino Cennini “El libro del arte” Ediciones Akal (1988).
Xavier Durán “El artista en el laboratorio” Universidad de Valencia (2008).
Deborah Garcia Bello (2013) “La química del azul de Klein”
M. Douma (2008). “Pigments through the Ages”
R. Klockenkämper et al. (2000) “Analysis of Pigments and Inks on Oil Paintings and Historical Manuscripts Using Total Reflection X-Ray Fluorescence Spectrometry” X-Ray Spectrom. 29, 119–129. DOI: 10.1002/(SICI)1097-4539(200001/02)29:13.0.CO;2-W
Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.
El artículo Ensayo sobre el azul se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: