S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 1 heure 57 min

La ciencia de Edgar Allan Poe

dim, 2017/05/07 - 11:59

A la Ciencia
¡Ciencia! ¡verdadera hija del tiempo tú eres!
que alteras todas las cosas con tus escrutadores ojos.
¿Por qué devoras así el corazón del poeta,
buitre, cuyas alas son obtusas realidades?
¿Cómo debería él amarte? O ¿cómo puede juzgarte sabia
aquel a quien no dejas en su vagar
buscar un tesoro en los enjoyados cielos,
aunque se elevara con intrépida ala?
¿No has arrebatado a Diana de su carro?
¿Ni expulsado a las Hamadríades del bosque
para buscar abrigo en alguna feliz estrella?
¿No has arrancado a las Náyades de la inundación,
al Elfo de la verde hierba, y a mí
del sueño de verano bajo el tamarindo?
Edgar Allan Poe, 1829.

En “La verdad sobre el caso Valdemar”, Poe nos ofrece una narración fría y minuciosa de un experimento de mesmerismo en que se hipnotiza a un enfermo terminal con tuberculosis y se detiene su muerte. La descripción de los pulmones del enfermo trata de demostrar los conocimientos de patología que Poe no tenía y que, seguramente, no le interesaban demasiado. El texto dice así, en traducción de Julio Cortázar:

desde hacía dieciocho meses, el pulmón izquierdo se hallaba en un estado semióseo o cartilaginoso, y, como es natural, no funcionaba en absoluto. En su porción superior el pulmón derecho aparecía parcialmente osificado, mientras la inferior era tan sólo una masa de tubérculos purulentos que se confundían unos con otros. Existían varias dilatadas perforaciones y en un punto se había producido una adherencia permanente a las costillas…”

Y sigue la descripción del señor Valdemar, amigo del protagonista que nos cuenta la historia y que pretende hipnotizarle. Reconoce que nunca lo ha hecho con alguien a punto de morir.

Poe consiguió que el relato fuera considerado como una crónica periodística y su reseña incluso apareció en algún medio que lo aceptó como verosímil. Quizá, como afirma Joan Ferrús, de la Universitat Autónoma de Barcelona, lo que pretende Poe, por lo menos en este relato, es evidente: exagerar la situación de forma que consigue desacreditar el frío discurso de la ciencia con una historia que la supera. Es más, la primera parte del relato es científica en forma y contenido, con una descripción del experimento y observaciones certeras y detalladas. Sustituye la magia, el misticismo o la religión, que autores anteriores utilizaban para dar verosimilitud a sus personajes y tramas, por la ciencia. Pero, en la segunda parte del relato, con Valdemar detenido entre la vida y la muerte, y el final, con la rápida putrefacción del enfermo, escapa a la ciencia y se acerca al terror que tanto gusta al autor. Es la angustia que crea Poe:

Perdí por completo la serenidad y, durante un momento, me quedé sin saber qué hacer. Por fin, intenté calmar otra vez al paciente, pero al fracasar, debido a la total suspensión de la voluntad, cambié el procedimiento y luché con todas mis fuerzas para despertarlo. Pronto me di cuenta de que lo lograría, o, por lo menos, así me lo imaginé; y estoy seguro de que todos los asistentes se hallaban preparados para ver despertar al paciente.

Pero lo que realmente ocurrió fue algo para lo cual ningún ser humano podía estar preparado.”

En otro relato, titulado Mellonta taula, claramente antecesor de muchos temas de la ciencia ficción del siglo XX, la trama está fechada en el año 2848, y la narradora protagonista se burla de la ciencia de Aristóteles, Euclides, Kant o Bacon, ataca el método científico y las técnicas de análisis por inducción y deducción. Dice, por ejemplo, que

en todas las edades, los mayores obstáculos al progreso en las artes han sido creados por los así llamados hombres de ciencia.”

Para Poe, el método científico es “una noción tan absurda debió retrasar el progreso de todo conocimiento verdadero, que avanza casi invariablemente por saltos intuitivos.” Algo muy parecido declara el famoso personaje de Poe, el chevalier C. Auguste Dupin, en “El misterio de Marie Rogêt”,

La historia del conocimiento humano ha mostrado ininterrumpidamente que la mayoría de los descubrimientos más valiosos los debemos a acaecimientos colaterales, incidentales o accidentales; se ha hecho necesario, pues, con vistas la progreso, conceder el más amplio espacio a aquellas invenciones que nacen por casualidad y completamente al margen de las esperanzas ordinarias. Ya no es filosófico fundarse en lo que ha sido para alcanzar una visión de lo que será. El accidente se admite como una porción de la subestructura. Hacemos de la posibilidad una cuestión de cálculo absoluto. Sometemos lo inesperado y lo inimaginado a las fórmulas matemáticas de las escuelas.”

Lo más importante, para el escritor, en la ciencia es la imaginación y, además, lo ideal es unir pensamiento e imaginación. Como ven, Poe fue un ilustre precursor del concepto de serendipia en la ciencia actual.

Edgar Allan Poe vivió en un siglo, el XIX, en el que todo progreso, bienestar y felicidad se basaba en la ciencia y en la tecnología. Solo hay que recordar a autores como Julio Verne y repasar alguna de sus obras, quizá “La isla misteriosa”, novela en que la sabiduría y los conocimientos del ingeniero Ciro Smith salvan a los náufragos y los aúpan a un progreso inconcebible.

Edgar “Sagan-Tyson” Poe

La sociedad del tiempo de Poe estaba ganada por una especie de fetichismo tecnológico (¿no les suena como algo muy de ahora?) y, en último término, científico. Y es curioso que el mismo Poe pensara, y quizá deseara, en algún momento de su vida de escritor que sería más recordado por sus ideas científicas, tal como aparecen en su extraordinario texto de astronomía titulado “Eureka”, que por sus relatos de ficción.

Pero, en muchos escritos de Poe la ciencia se utiliza para burlarse de la credulidad y fe de los lectores en ella o, también, para atacar el afán de explicar y justificar todo que caracteriza a muchos científicos, tal como ocurría en “La verdad sobre el caso Valdemar”.

En el relato titulado “El coloquio de Monos y Una”, Poe dedica un párrafo a los errores de la humanidad

Como el hombre no podía dejar de reconocer la majestad de la Naturaleza, incurría en pueriles entusiasmos por su creciente dominio sobre los elementos de aquella. Mientras se pavoneaba como un dios en su propia fantasía, lo dominaba una imbecilidad infantil.”

Esto es la ciencia para Poe, “una imbecilidad infantil”.

Como escribió un experto en la obra de Poe, “fue el más calculador de los autores por lo que nunca debería confundírsele con los narradores perturbados, e incluso psicóticos, de sus relatos”. Para ello utilizaba la ciencia como hace en la historia de Valdemar con el mesmerismo. También recurre a la frenología para certificar la autenticidad científica del carácter de sus personajes y para confirmar su creencia personal de que el alma y el cuerpo forman una unión indisoluble.

En la tesis doctoral de María Isabel Jiménez, de la Universidad de Castilla-La Mancha en Ciudad Real, en su índice aparecen como temas recurrentes de ciencia en los escritos de Edgar Allan Poe la frenología, el mesmerismo, los viajes, la transformación de la materia y el paso de lo corpóreo a lo espiritual, los autómatas y la destrucción del universo. En este texto me centraré en los temas más cercanos a mis intereses como son la frenología, el mesmerismo y, también, en su libro sobre moluscos. Una ordenación de temas similar aparece en otra tesis, la de Carroll Laverty, de la Universidad de Duke, defendida en 1951. Es evidente que los expertos en la ciencia de Poe detectan parecidos temas científicos en su obra.

Edgar Allan Poe en 1848

Edgar Allan Poe nació en Boston en 1809 y murió en Baltimore en 1849. Fue, como describe Wikipedia, escritor, poeta, crítico literario y periodista. Y murió joven, a los 40 años, y de causa sin determinar aunque hipótesis hay muchas: alcohol, congestión cerebral, cólera, drogas, fallo cardíaco, rabia, suicidio, tuberculosis y algunas más. Su muerte, como su vida, también fue agitada y confusa.

Escribió cuentos, una novela, y poemas, y le hicieron conocido e influyente para muchos escritores de su época y posteriores. Algunos de sus textos se pueden clasificar en el género que ahora llamamos ciencia ficción. Se basaban en avances de la ciencia de su tiempo aunque, como hemos visto de sus cuentos, no sentía el optimismo típico de su siglo. Como formación científica y técnica tuvo un año de estancia en la Universidad de Virginia y recibió cursis en la Academia Militar de West Point.

En la historia de Valdemar, Poe utiliza el mesmerismo. Era, en su momento, una teoría que afirmaba que los seres vivos poseían una fuerza magnética, algún tipo de éter, que se podía liberar con varias técnicas y, entre ellas, la más utilizada y conocida era la hipnosis. Una vez liberado el magnetismo, servía para curar enfermedades. Como escribe Poe en el relato “Revelación mesmérica” : “Aunque la teoría del mesmerismo esté aún envuelta en dudas, sus sobrecogedoras realidades son ya casi universalmente admitidas”. Hoy el mesmerismo es considerado una pseudociencia.

El mesmerismo lo promovió el médico alemán Franz Mesmer, en el siglo XVIII, primero en Viena y, después, en París donde fue muy popular y solicitado por los enfermos. Ya en ese mismo siglo, el XVIII, y, más tarde, en el XIX, varias comisiones de académicos determinaron que no existía el fluido magnético y que las curaciones, si se producían, era por sugestión, lo que hoy llamamos efecto placebo. A pesar de estas conclusiones de los expertos oficiales, el mesmerismo fue muy popular en la primera mitad del siglo XIX y, por tanto, interesó a Edgar Allan Poe.

Como escribe Erik Grayson, Poe ridiculizaba la frenología pero, también, creía en ella y, en algunos escritos, comenta sus lecturas frenológicas y menciona que su propia cabeza ha sido examinada por varios expertos frenólogos. Así se describe a sí mismo:

mi frente es extremadamente ancha, y se observan con prominencia los órganos del Idealismo, la Causalidad, la Forma, la Constructividad y la Comparación. Con órganos menores de la Eventualidad y la Individualidad.”

Fue una disciplina propuesta por el médico alemán Franz Joseph Gall a principios del siglo XIX. Hoy, como el mesmerismo, carece de toda validez y se clasifica como pseudociencia. Aquí debemos recordar a nuestro Sacamantecas, Juan Díaz de Garayo, y los frenólogos que estudiaron su cráneo ya en la segunda mitad del siglo XIX.

Su objetivo es la determinación del carácter según la forma del cráneo, la cabeza y el rostro. Cada cualidad de la persona se ubica en una zona concreta del cerebro y lo modifica, aumentando o disminuyendo su tamaño según la fuerza y uso de esa cualidad y, a su vez, los cambios de tamaño del cerebro provocan variaciones en el cráneo, con bultos y concavidades detectables al tacto. Palpando el cráneo se estudiaban sus formas y se podía determinar el carácter de la persona.

Sin embargo, los frenólogos nunca se pusieron de acuerdo ni pudieron demostrar qué zona del cerebro concreta albergaba y remodelaba el cráneo por cada cualidad del carácter. Cuando un frenólogo planteaba una hipótesis sobre estas localizaciones, no había otro que pudiera, o quizá quisiera, confirmarlo. Es en el relato “El demonio de la perversidad” donde Poe escribe lo que piensa de la frenología:

En la consideración de sus facultades e impulsos de los prima mobilia del alma humana los frenólogos han olvidado una tendencia que, aunque evidentemente existe como un sentimiento radical, primitivo, irreductible, los moralistas que los precedieron también habían posado por alto.”

Poe afirma que ese sentimiento olvidado es la perversidad, que tanto le gustaban como tema de sus relatos, y que los frenólogos no habían sabido localizar en el cráneo. Poe cree en la frenología pero, como para toda ciencia humana, siente que es demasiado optimista en sus conclusiones y, por tanto, la deja de lado. Pero, sobre todo, estos párrafos frenológicos ayudan a Poe a confirmar con la ciencia la maldad de su protagonista. Da por hecho que sus lectores conocen y aceptan a la frenología como ciencia y saben los conceptos en que se basa.

Casi su única relación con la biología (aparte de “El Cuervo”) fue la publicación del “The Conchologist’s First Book, or A System of Testaceous Malacology”, con la primera edición en 1839. Fue la única obra de Poe reeditada, en 1840 y en 1845, en vida del autor.

El libro está firmado por Poe aunque nunca declaró, excepto en el prólogo del libro, que fuera su autor. Se basaba en el “Manual of Conchology”, de Thomas Wyatt, un reputado experto en moluscos de la época. Poe, y seguramente Wyatt, buscaban conseguir una versión reducida y más barata que interesara a los alumnos y a los principiantes en el estudio de los moluscos.

Como destaca Stephen Jay Gould, la mayor aportación al estudio de los moluscos en este libro es la unión de la Conchología con la Malacología, incluso desde el propio título. Hasta entonces no era habitual en estas guías pasar más allá de la descripción de la concha, más fácil de recolectar, estudiar y conservar en las colecciones. Pero Poe, en el Prefacio, reivindica el interés por las partes blandas de los moluscos y las añade a la descripción de las conchas, que ha tomado del libro de Wyatt. Parece que fue el mismo Poe el que tradujo del francés los estudios de las partes blandas según los estudios de Cuvier. Escribe Poe que “las relaciones del animal y la concha, con su misma dependencia… es radicalmente importante considerar ambas”.

Esta es parte de la ciencia de Edgar Allan Poe que si, por una parte parece que la despreciaba y solo la utilizaba para dar verosimilitud a sus relatos, por otra desconcierta por sus conocimientos científicos y por su admiración de los logros de la ciencia. Y, además, no olviden repasar “Eureka” para comprender la Astronomía que amaba Poe.

Referencias:

Ballesteros Roselló, F.J. & E. Llacer Llorca. 2015. Poe: A scientist at heart. The history of science fiction. Métode Science Studies Journal 5: 97-101.

Bonet Salfont, J.M. 2016. Science in Verne and Poe. The Pym case. Métode Science Studies Journal 6: 6-12.

Ferrús Vicente, J. 2009. El discurso científico en la obra de Edgar Allan Poe. Revista electrónica de teoría de la literatura y literatura comparada 1: 28-41.

Gould, S.J. 1997. El mayor de los éxitos de Poe. En “Un dinosaurio en el pajar”, p. 185-198. Crítica. Barcelona.

Grayson, E.W. 2005. Weird science, weirder unity: phrenology and physiognomy in Edgar Allan Poe. Mode 1: 56-77.

Jiménez González, M:I. 2013. Fantasía y realidad en la literatura de ciencia ficción de Edgar Allan Poe. Tesis Doctoral. Universidad de Castilla-La Mancha. Ciudad Real. 475 pp.

Laverty, C. 1951. Science and pseudo-science in the writings of Edgar Allan Poe. Tesis Doctoral. Duke University. Durham, NC.

Pizarro Obaid, F. 2011. Transformaciones y nuevas figuras de lo nervioso en la construcción de los relatos de Edgar Allan Poe. Acta Literaria 43: 79-93.

Scholes, R. & E.S. Rabkin. 1982. La ciencia ficción. Historia, ciencia, perspectiva. Taurus Ed. Madrid. 283 pp.

Urdiales Shaw, M. 2015. Disturbed minds in the nineteenth century. The tales of Edgar Allan Poe and Guy de Maupassant. Métode Science Studies Journal 5: 124-129.

Wikipedia. 2016. Edgar Allan Poe. 11 diciembre.

Yanes, J. 2010. Edgar Allan Poe, periodista científico. publico.es. 12 diciembre.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo La ciencia de Edgar Allan Poe se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Moluscos en el Arte
  2. Una visión planetaria de la ciencia
  3. La ‘ciencia’ de la ufología
Catégories: Zientzia

¿Cómo sienten y piensan los bilingües?

sam, 2017/05/06 - 11:59

Las lenguas nativas se adquieren en contextos emocionalmente ricos (como la familia), mientras que las extranjeras se adquieren en entornos académicos emocionalmente neutros. Como consecuencia de esta diferencia se ha sugerido que nuestra reactividad emocional se reduce cuando hablamos en un idioma extranjero. Diversos estudios han mostrado lo mucho que puede alterar el sistema cognitivo el hecho de hablar en una lengua extranjera, que afecta a procesos críticos en la vida diaria como la percepción de uno mismo, la toma de decisiones y los procesos de negociación.

El investigador del Basque Center on Cognition, Brain and Language (BCBL) Jon Andoni Duñabeitia habló sobre estas investigaciones en una conferencia titulada “¿Cómo sienten y piensan los bilingües?”.

La charla tuvo lugar el pasado 25 de enero en Azkuna Zentroa (Bilbao). Forma parte del ciclo de conferencias Zientziateka, que organizan todos los meses la Cátedra de Cultura Científica de la UPV/EHU y Azkuna Zentroa para divulgar asuntos científicos de actualidad.

¿Cómo piensan y sienten los bilingües?

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo ¿Cómo sienten y piensan los bilingües? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Fórmulas matemáticas y números: cómo ayuda la economía al fútbol
  2. La batalla contra el cáncer: la importancia de la alimentación
  3. Investigación con medicamentos en seres humanos: del laboratorio a la farmacia
Catégories: Zientzia

Cuántica y relatividad por todas partes

ven, 2017/05/05 - 12:00

Aunque la cuántica trata de la “física de lo muy pequeño” y la relatividad “de lo muy rápido” no es cierto que sus efectos sólo se perciban en el mundo microscópico o a velocidades próximas a la de la luz, respectivamente.

Quizá el problema sea percibir esas situaciones como poco cotidianas o los efectos macroscópicos perceptibles como situaciones excepcionales.

Antes de la teoría cuántica había un “problemita” que preocupaba a los científicos: “Si una carga en movimiento radia energía y, por lo tanto, la va perdiendo, ¿cómo se mantiene el electrón girando en el átomo de hidrógeno sin ir cayendo poco a poco al núcleo?” . Una tontería… la estabilidad de la materia.

Tuvimos que aceptar el concepto de “órbita mínima de la que no se puede caer”. Más adelante el de “niveles discretos” para comprender los espectros atómicos… pero tuvimos que llegar al concepto de fermión para entender que no se apelotonen todos los electrones en el nivel de menor energía.

De esta forma, la estabilidad del átomo, la existencia de atómos diferentes y la estructura de capas que dará lugar a toda la química son una expresión más que visible y cotidiana de la cuántica.

Modelo de Bohr | Fuente wikicommons

Respecto a la relatividad hay que recordar que antes del trabajo de Einstein ya se habían formulado las transformaciones de Lorentz. Me explicaré.

Ya se conocían las ecuaciones de Maxwell, que explican el electromagnetismo; una de las cosas que más nos gustan a los físicos por su potencia, su sencillez, su elegancia, por “unificar” la electricidad y el magnetismo, por predecir las ondas electromagnéticas… en fin, por tantas cosas. Como iba diciendo, ya se conocían estas ecuaciones, pero tenían un pequeño problema… no eran compatibles con la relatividad de Galileo, con algo tan de “sentido común” como que si dos observadores se mueven a velocidad constante uno respecto del otro (sistemas inerciales), su tiempo discurra igual y obtengamos las velocidades aparentes en cada sistema compensando (sumando o restando) con la velocidad entre ellos. Un problemita de nada… porque no ser compatible significa que los fenómenos electromagnéticos no serían iguales para dos observadores en esos sistemas… y no sólo deben serlo, sino que podemos medir que lo son.

El experimento de Michelson-Morley demostró que la velocidad de la luz no variaba al moverse la Tierra | Fuente wikicommons

Con todo el dolor, nos vimos obligados a dejar algo tan querido como las transformaciones de Galileo por las de Lorentz. Más tarde se vio cómo eran deducibles en el contexto de la relatividad especial asumiendo simplemente que la velocidad de la luz fuera constante e independiente del observador y que el espacio fuera homogéneo e isótropo.

Así que, nada menos que la consistencia de que todos los fenómenos electromagnéticos sean iguales para dos observadores inerciales necesita de la relatividad especial.

Con estos ejemplos no es difícil ver que la cuántica y la relatividad son imprescindibles para la explicaciones de lo más sencillo y cotidiano, pero fíjate además en estos dos aspectos:

  • Fue así como históricamente llamaron nuestra atención, mostrándose en el mundo macroscópico y perceptible por nuestros sentidos.
  • Necesitamos de los efectos perceptibles para poder tomar medidas en esos mundos de otra manera inaccesibles.

Quizá la forma más sencilla de entenderlo es que nosotros y nuestro mundo está compuesto por cosas muy pequeñas que se mueven muy rápido… y se nota.

NOTA 1: Los electrones, como otros fermiones, no pueden ocupar el mismo estado cuántico. Así que si vamos añadiendo electrones a un sistema estos tienen que ir ocupando los estados libres, aunque tengan mayor energía. En el caso del átomo los distintos orbitales en los sucesivos niveles de energía.

NOTA 2: Las transformaciones de Lorentz permiten cambiar entre sistema de referencia inerciales sin que los fenómenos electromagnéticos se distorsionen y se reducen a las de Galileo si la velocidad es mucho menor que la de la luz.

Este post ha sido realizado por Javier Fernández Panadero (@Javierfpanadero) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Cuántica y relatividad por todas partes se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los vacíos cósmicos y la relatividad general
  2. La primera imagen de Sagitario A* podría ser la prueba “definitiva” de la relatividad general
  3. Una puerta cuántica robusta y ultrarrápida
Catégories: Zientzia

Descartes se equivocó: “una persona es una persona a través de otras personas”

jeu, 2017/05/04 - 17:00

Abeba Birhane

Detalle de “Young Moe” (1938) de Paul Klee. Cortesía de la Phillips collection/Wikipedia

Según la filosofía ubuntu, que tiene su origen en la antigua África, un bebé recién nacido no es una persona. La gente nace sin “ena”, o individualidad, y en vez de eso debe adquirirla a lo largo del tiempo a través de interacciones y experiencia. Por tanto la distinción “yo/otro” que es axiomática en la filosofía occidental es mucho más borrosa en el pensamiento ubuntu. Tal y como lo expresó el filósofo nacido en Kenia John Mbiti en African Religions and Philosophy (1975): “Yo soy porque nosotros somos, y como nosotros somos, por tanto yo soy”.

Sabemos por la experiencia diaria que una persona se forja parcialmente en el crisol de la comunidad. Las relaciones influyen en nuestra autocomprensión. Quien soy yo depende de muchos “otros”: mi familia, mi cultura, mis compañeros de trabajo. El yo que llevo a comprar comida, por ejemplo, es diferente en sus acciones y comportamientos del yo que habla con mi director de tesis. Incluso mis reflexiones más personales y privadas están entrelazadas con las perspectivas y voces de diferentes personas, sean las que están de acuerdo conmigo, las críticas, o las que me elogian.

Con todo las idea de un yo ambiguo y fluctuante puede ser desconcertante. Podemos anotar esta incomodidad, en buena medida, en la cuenta de René Descartes. El filósofo francés del siglo XVII creía que un ser humano estaba esencialmente autocontenido y era autosuficiente; un sujeto confinado a la mente, inherentemente racional, que debería afrontar el mundo fuera de su cabeza con escepticismo. Si bien Descartes no creo la mente moderna él solo, él tuvo mucho que ver a la hora de definir sus contornos.

Descartes se había propuesto resolver un rompecabezas muy concreto. Quería encontrar un punto de vista estable desde el que mirar el mundo sin depender de sabidurías por decreto divino; un lugar desde el que podría discernir las estructuras permanentes bajo los cambiantes fenómenos de la naturaleza. Pero Descartes creía que había una compensación entre la certidumbre y una especie de riqueza social y mundana. Lo único de lo que puedes estar seguro es de su propio cogito – el hecho de que estás pensando. Las otras personas y cosas son intrínsecamente volubles y erráticas. Así que no deben tener nada que ver con la constitución básica del yo consciente, que es un todo necesariamente separado, coherente y contemplativo.

Pocos filósofos y psicólogos de prestigio se identificarían como dualistas cartesianos estrictos, en el sentido de creer que la mente y la materia están completamente separadas. Pero el cogito cartesiano está todavía por todas partes. El diseño experimental de las pruebas de memoria, por ejemplo, tiende a partir de la suposición de que es posible hacer una distinción nítida entre el yo y el mundo. Si la memoria simplemente vive en el interior del cráneo, entonces es perfectamente aceptable aislar a una persona de su entorno y relaciones cotidianas y comprobar sus recuerdos usando tarjetas o pantallas en los límites artificiales de un laboratorio. Una persona se considera una entidad autocontenida, independiente de su entorno, grabada en el encéfalo como una serie de procesos cognitivos. La memoria debe ser simplemente algo que tú tienes, no algo que haces dentro de un contexto determinado.

La psicología social pretende examinar la relación entre la cognición y la sociedad. Pero incluso entonces, la investigación supone a menudo que un colectivo de sujetos cartesianos son el foco real de la investigación, no yoes que co-evolucionan con otros a lo largo del tiempo. En la década de los sesenta, los psicólogos estadounidenses John Darley y Bibb Latané se interesaron en el asesinato de Kitty Genovese, una joven blanca que había sido apuñalada y agredida en su camino a casa una noche en Nueva York. Muchas personas habían presenciado el crimen, pero ninguna intervino para evitarlo. Darley y Latané diseñaron una serie de experimentos en los que simularon una crisis, como un ataque de epilepsia, o humo que entra desde la habitación de al lado, para observar lo que la gente hacía. Fueron los primeros en identificar el llamado “efecto espectador”, en el que las personas parecen responder más lentamente ante alguien en peligro si hay otras alrededor.

Darley y Latané sugirieron que esto podría provenir de una “difusión de responsabilidad”, en la que la obligación de reaccionar se diluye en un grupo más grande de personas. Pero como argumentó la psicóloga estadounidense Frances Cherry en The Stubborn Particulars of Social Psychology: Essays on the Research Process (1995), este enfoque numérico borra la información contextual vital que podría ayudar a entender los motivos reales de la gente. El asesinato de Genovese tenía que ser visto con un telón de fondo en el que la violencia contra las mujeres no se tomaba en serio, apuntaba Cherry, y en el que la gente era reacia a entrar en lo que podría haber sido una disputa doméstica. Por otra parte, el asesinato de una mujer negra pobre habría atraído mucho menos interés mediático. Pero el enfoque de Darley y Latané hace que los factores estructurales sean mucho más difíciles de ver.

¿Hay alguna manera de reconciliar estos dos relatos del yo: la versión relacional, que se integra en el mundo, y la autónoma e interna? El filósofo ruso Mikhail Bakhtin del siglo XX creía que la respuesta estaba en el diálogo. Necesitamos a otros para evaluar nuestra propia existencia y construir una auto-imagen coherente. Piensa en ese momento luminoso cuando un poeta captura algo que has sentido pero que nunca habías expresado; o cuando tuviste dificultades para concretar tus pensamientos, pero se cristalizaron en la conversación con un amigo. Bakhtin creía que sólo mediante un encuentro con otra persona podrías llegar a apreciar tu propia perspectiva única y verte a ti mismo como una entidad completa. “Mirando a través de la pantalla del alma del otro”, escribió, “vivifico mi exterior.” La personalidad y el conocimiento son evolutivos y dinámicos; el yo nunca está terminado – es un libro abierto.

Así que la realidad no está simplemente ahí fuera, esperando a ser descubierta. “La verdad no nace ni se va a encontrar dentro de la cabeza de una persona individual, nace entre las personas que buscan colectivamente la verdad, en el proceso de su interacción dialógica”, escribió Bakhtin en Problems of Dostoevsky’s Poetics (1929). Nada es simplemente ello mismo, fuera de la matriz de relaciones en la que aparece. En cambio, ser es un acto o evento que debe suceder en el espacio entre el yo y el mundo.

Aceptar que otros son vitales para nuestra autopercepción es un correctivo a las limitaciones de la visión cartesiana. Consideremos dos modelos diferentes de psicología infantil. La teoría del desarrollo cognitivo de Jean Piaget concibe el crecimiento individual en una forma cartesiana, como la reorganización de los procesos mentales. El niño en desarrollo es representado como un aprendiz solitario – un científico ingenioso, luchando de forma independiente para dar sentido al mundo. Por el contrario, las teorías “dialógicas”, llevadas a la vida en experimentos como el “estudio de casa de muñecas” de Lisa Freund de 1990, enfatizan las interacciones entre el niño y el adulto quien puede proporcionar “andamios” con los que entender el mundo.

Un ejemplo más duro podría ser el confinamiento solitario en las cárceles. El castigo fue originalmente diseñado para fomentar la introspección: tornar los pensamientos del preso hacia el interior, para motivarlo a reflexionar sobre sus crímenes, y en último término ayudarlo a regresar a la sociedad como ciudadano purificado moralmente. Una política perfecta para la reforma de individuos cartesianos. Pero, de hecho, los estudios de estos presos sugieren que su sentido del yo se disuelve si son castigados de esta manera durante el tiempo suficiente. Los presos tienden a sufrir profundas dificultades físicas y psicológicas, tales como confusión, ansiedad, insomnio, sentimientos de inadecuación y un sentido del tiempo distorsionado. Privada de contacto e interacción – la perspectiva externa necesaria para consumar y sostener una auto-imagen coherente – una persona corre el riesgo de desaparecer en la inexistencia.

Los campos emergentes de la cognición corpórea y enactiva han comenzado a tomar más en serio los modelos dialógicos del yo. Pero en su mayor parte, la psicología científica sólo está dispuesta a adoptar posturas cartésicas individualistas que cortan las redes que unen al yo con los demás. Hay una frase zulú, ‘Umuntu ngumuntu ngabantu‘, que significa ‘Una persona es una persona a través de otras personas.’ Esta es una explicación más rica y mejor, creo, que ‘pienso, por lo tanto soy.’

Sobre la autora: Abeba Birhane está realizando su tesis doctoral en neurociencia cognitiva en el University College Dublin.

Texto traducido y adaptado por César Tomé López a partir del original publicado por Aeon el 7 de abril de 2017 bajo una licencia Creative Commons (CC BY-ND 4.0)

El artículo Descartes se equivocó: “una persona es una persona a través de otras personas” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia en primera persona: Agustín Sánchez-Lavega
  2. Ciencia en primera persona: Iker Badiola
  3. ¿Eso qué es? Y otras formas de ser curioso
Catégories: Zientzia

Si te preocupa el aceite de palma, que sea por las razones adecuadas

jeu, 2017/05/04 - 11:59

Últimamente el aceite de palma ocupa un gran número de titulares en los medios de comunicación. Diferentes fabricantes y distribuidores de la industria de la alimentación han optado por eliminarlo de sus productos, generalmente alegando motivos de salud.

El aceite de palma está presente en multitud de alimentos, incluso lo encontramos en las leches infantiles. ¿Es tan preocupante como parece?

El aceite de palma se extrae del fruto de la especie Elaeis guineensis, conocida como palma africana o aceitera que, con origen en el continente africano se introdujo de forma masiva en el suroeste asiático a principios del siglo XX. Es un aceite vegetal, como también lo son el aceite de girasol, de oliva o de soja.

La diferente calidad nutricional entre unos aceites y otros estriba en su perfil lipídico, es decir, en los ácidos grasos que los componen. Generalmente se hace la distinción en función de su contenido en ácidos grasos saturados e insaturados.

Aceite de palma y salud

Consideramos saludables a los ácidos grasos insaturados, mientras que la mayoría de ácidos grasos saturados están relacionados con ciertas enfermedades metabólicas. Los principales organismos oficiales en temas de salud, como la Autoridad Europea de Seguridad Alimentaria (EFSA) y la Organización Mundial de la Salud (OMS), recomiendan reducir al mínimo la ingesta de ácidos grasos saturados por su implicación en el aumento del colesterol LDL (el malo) y en el aumento del riesgo de padecer cardiopatías.

Los ácidos grasos saturados más comunes en alimentación son el ácido palmítico, el mirístico, el láurico y el esteárico. Todos tienen diferentes propiedades y características con efectos distintos sobre la salud. Por ejemplo, el ácido esteárico tiene un efecto menor sobre los lípidos y las lipoproteínas plasmáticas (molécula de proteína unida con un lípido cuya función es el transporte de lípidos a los tejidos del organismo), sobre todo en contraste con el resto de grasas saturadas. Esto explica que el consumo de chocolates con alto contenido en manteca de cacao, rica en este ácido, no influya tanto en el colesterol plasmático. En cambio, el ácido palmítico sí incrementa los niveles de colesterol total y de LDL.

Encontramos ácido palmítico en diferentes aceites vegetales y grasas animales. Está presente en el aceite de oliva (14%), en el aceite de soja (10%) y obviamente en el aceite de palma (50%).

Aceite de palma en los alimentos

Hay dos motivos principales por los que se utiliza aceite de palma en alimentación:

1. Motivos tecnológicos: resulta interesante su textura, su fácil conservación y su punto de fusión. Es una grasa que se puede mantener sólida a temperatura ambiente, resulta untuosa y se derrite en la boca. También se emplea como estabilizante. Se utiliza en panes de molde, galletas o bollería industrial porque mantiene el producto fresco durante más tiempo.

2. Motivos económicos: el aceite de palma es una grasa barata.

Aunque el aceite de palma forma parte de la lista de ingredientes de multitud de alimentos, lo encontramos mayoritariamente en los alimentos ultraprocesados. Un alimento ultraprocesado es, según la clasificación NOVA que categoriza a los alimentos en función del procesamiento que han recibido, aquel que se elabora a partir de ingredientes procesados y no contiene ingredientes frescos o que puedan identificarse en su presentación final. Son ultraprocesados la mayoría de las galletas y la bollería, de los cereales de desayuno, de los snaks dulces y salados, de los embutidos como las salchichas o la mortadela, de los nuggets de pollo, pescado o similares y de muchos precocinados. Hay que tener en cuenta que no todos los alimentos procesados son nocivos, sino que en algunos casos son una buena alternativa a tener en cuenta: verduras congeladas, ensaladas de bolsa, legumbres procesadas y derivados lácteos como los yogures.

Los alimentos ultraprocesados los encontramos en la cima de la pirámide nutricional. Esto quiere decir que no son beneficiosos para la salud y que, por tanto, su consumo ha de ser ocasional, por placer, nunca por un criterio de salud.

Es un error creer que eliminado el ácido palmítico de un alimento ultraprocesado, éste va a convertirse en un alimento saludable. Los alimentos ultraprocesados suelen incluir altas dosis de azúcares, de harinas refinadas, de sal y de grasas de mala calidad, por lo que siempre van a ser una pésima elección. Cambiar el ácido palmítico por otro ácido graso de propiedades tecnológicas similares, como bien puede ser el ácido esteárico, no es una medida que apele a la salud nutricional del producto, sino a un populista lavado de imagen apoyado por toda esta vorágine mediática.

Aceite de palma en leches infantiles

El aceite de palma lo encontramos mayoritariamente en alimentos de consumo ocasional como los ultraprocesados. Entonces, ¿por qué lo lleva la leche infantil?

La razón es sencilla: las leches infantiles de fórmula han de parecerse lo máximo posible a la leche materna y la leche materna ya contiene, de serie, ácido palmítico.

La grasa constituye la mitad del contenido energético de la leche materna y de las fórmulas infantiles. Esta grasa está en forma de triglicéridos de los que forman parte tanto ácidos grasos saturados como insaturados.

El ácido palmítico es el ácido graso más abundante en el organismo y tiene distintas funciones además de la producción de energía, entre otras la capacidad de unirse a determinadas proteínas necesarias para algunas funciones del sistema nervioso y respiratorio.

La leche materna es el alimento ideal en el lactante y el modelo sobre el que se desarrollan sus sustitutos. De todos los ácidos grasos saturados de la leche materna, el ácido palmítico es el mayoritario.

Existen dos formas del ácido palmítico, la alfa y la beta, llamadas alfa-palmitato y beta-palmitato respectivamente. La leche materna contiene ambas formas, siendo la beta la mayoritaria. Estas dos formas se comportan de forma ligeramente diferente en el organismo.

El ácido palmítico que se extrae del aceite de palma tiene la forma alfa, y esa forma alfa impide que se absorban correctamente algunos nutrientes como grasas y calcio. Por este motivo las heces de los bebes que se alimentan con leche de fórmula son habitualmente más duras que las de los bebés que se alimentan con leche materna.

Actualmente ya existen fórmulas infantiles que contienen la forma beta del ácido palmítico, en una proporción análoga a la leche materna. Por esta razón la presencia de aceite de palma en las leches infantiles no ha de ser un motivo de preocupación.

La polémica sobre el aceite de palma no es nada nuevo

En diciembre de 2011 se publicó el Reglamento Europeo 1169/2011 Sobre la información alimentaria facilitada al consumidor, en el que se especifica que Los aceites refinados de origen vegetal [si bien] podrán agruparse en la lista de ingredientes con la designación “aceites vegetales”, [deberán ir] seguida inmediatamente de una lista de indicaciones del origen específico vegetal.

Este reglamento se hizo efectivo en la práctica en 2014, con lo que todos los alimentos que incluyan aceite vegetal entre sus ingredientes, deben especificar cuál de estos aceites vegetales utilizan, si es aceite de oliva, de girasol, de palma, etc. Con anterioridad, la denominación aceite vegetal servía para enmascarar los aceites empleados, normalmente cuando estos desdeñan la calidad del producto, como ocurre con el aceite de palma.

Algunos fabricantes se empeñan en disfrazar el aceite de palma entre sus ingredientes a través de otras denominaciones permitidas para la misma sustancia: aceite de palmiste, grasa vegetal fraccionada e hidrogenada de palmiste, estearina de palma, palmoleina u oleina de palma, manteca de palma o haciendo uso del nombre científico de la especie (Elaeis guineensis).

Pero, las primeras noticias que hicieron que el aceite de palma ocupase las portadas de los medios de comunicación, ya había empezado en los años 90. El motivo, por aquel entonces, no era sanitario, sino medioambiental. Los principales países productores de aceite de palma destinaron una parte importante de sus terrenos a plantaciones intensivas de palma, lo que produjo un grave impacto medioambiental, afectando a la biodiversidad y a la huella de carbono.

Impacto medioambiental del aceite de palma

Los principales productores mundiales de aceite de palma son Indonesia y Malasia. Curiosamente, la palma es una especie foránea que proviene de África occidental, así que para su plantación se requiere la previa deforestación de los terrenos y la introducción de esta nueva especie. Como cabe esperar, este tipo de prácticas afectan gravemente a la supervivencia de los ecosistemas autóctonos.

El caso más clamoroso de deforestación e impacto medioambiental ha sucedido en la isla de Borneo. Se calcula que en 2022 se habrá destruido el 98% de sus bosques, principalmente debido a la tala ilegal y los incendios forestales provocados con el fin de continuar y ampliar las plantaciones de palma. Esta deforestación indiscriminada ha afectado a la biodiversidad: los orangutanes nativos de esta isla, cuya población se ha reducido en un 91 por cierto desde 1900, desaparecerán en un par de décadas. También afecta a las tribus indígenas, ya que la calidad del agua que consumen depende de la calidad de sus bosques.

Este método de producción masivo también afecta brutalmente a la huella de carbono desde tres frentes: deforestación, transporte de los subproductos de la palma y uso final que, sorpresa, no es tanto como ingrediente alimentario, sino como combustible.

El aceite de palma se usa mayoritariamente para producir combustibles

A causa del bombardeo informativo sobre el aceite de palma y su uso en alimentación, podemos olvidarnos de su uso mayoritario: la producción de biocombustibles como el famoso biodiesel. Si el aceite de palma sólo se utilizase como un ingrediente más de los alimentos ultraprocesados, el problema medioambiental sería secundario, cuando realmente es el problema fundamental del uso de este aceite.

Si a la cifra del biodiésel se suma la de electricidad y calor producidos con aceite de palma, la bioenergía copa los usos con el 61%, seguido de la alimentación, con el 34%. El restante 5% se lo reparten otros usos industriales y piensos para la alimentación de animales.

El biodiésel de aceite de palma, es continuamente cuestionado, entre otros, por informes presentados por la Comisión Europea, como el basado en el Global Biosphere Management Model (Globiom), en el que expone que una vez aplicado el cambio indirecto del uso de tierras (ILUC, en inglés) emite mucho más CO2 que el diésel fósil.

El prefijo bio que comúnmente relacionamos con los productos medioambientalmente amigables, en este caso sólo sirve para disfrazar de sostenible algo que no lo es en absoluto.

¿Por qué ha surgido de nuevo la polémica?

La Autoridad Europea de Seguridad Alimentaria (EFSA) publicó recientemente una alerta relacionada con el aceite de palma. No fue con referencia a las características nutricionales del aceite de palma, sino a los contaminantes generados en el proceso de refinamiento (3-MPD, glicidol y sus ésteres) en la que se revisaron los límites máximos permitidos de estos compuestos.

Valiéndose de esta nueva información, varios medios de comunicación aprovecharon para divulgar las implicaciones sanitarias del consumo del aceite de palma y su presencia en, sobre todo, alimentos ultraprocesados. La atención quedó, por tanto, desviada hacia un nuevo enemigo oculto en alimentación, desbancando al enemigo más mediático de las últimas fechas: el azúcar.

Esta nueva polémica sobre el aceite de palma es una farsa

La mayor parte de las plantaciones de palma se utilizan para producir biocombustible, con la terrible repercusión que ello causa en el medioambiente. Cualquier información diferente a esta, es una forma de desviar la atención de lo importante a lo anecdótico. Porque la presencia de aceite de palma de los alimentos y sus implicaciones en la salud son anecdóticas. El aceite de palma está, sobre todo, en alimentos ultraprocesados que, lleven o no aceite de palma, van a ser alimentos poco saludables.

Toda esta polémica ha desvirtuado la verdadera preocupación que subyace del uso del aceite de palma, que es exclusivamente medioambiental. Se ha servido de la efectiva y efectista táctica de inventarse un enemigo en casa. Es la farsa de moda.

Tenemos una historia con todos los ingredientes que garantizan que funcione, que se vuelva viral y que además nos haga partícipes de su lucha. Por un lado tenemos al Mal, un enemigo grande, poderoso, corporativo, a toda una industria, en este caso a la industria alimentaria. Por otro lado tenemos al Bien. Los buenos son los informantes, bienhechores indefensos ante el gigante industrial, forrados de datos y haciendo un humilde alarde de gallardía.

Los ciudadanos van con los buenos. Se implican en esta lucha casera y rudimentaria, la elevan a categoría ideológica, de carácter social, revolucionaria, que les define como ciudadanos comprometidos e informados, ciudadanos a los que ningún ente difuso y malicioso debería engañar. Ciudadanos del retuit, de la firma en change, armados con los altavoces sociales de la moralidad. Ciudadanos de obscena valentía. Aunque las razones sean impostadas, protestan llevando sus emociones como bandera. Las redes sociales funcionan así, creando islas ideológicas donde los usuarios tienden a recibir solamente los argumentos afines, las noticias reales o falsas que corroboran sus prejuicios.La posverdad es esto.

Si vamos a implicarnos y a preocuparnos por algo, que sea por las razones adecuadas.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Si te preocupa el aceite de palma, que sea por las razones adecuadas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Vas a freir pescado? Usa aceite de oliva virgen extra
  2. El calentamiento global y el aceite de oliva
  3. Lo dicen en la tele: un alimento natural no lleva aditivos
Catégories: Zientzia

La fusión nuclear como fuente de neutrones eficiente

mer, 2017/05/03 - 17:00

La nueva cápsula esférica desarrollada en este trabajo

Las fuentes de neutrones tienen muchas aplicaciones: desde estudiar la estructura de un nuevo material a la localización de menas minerales subterráneas. El problema está en su tamaño, demasiado grande para algunas de esas aplicaciones. Un nuevo trabajo de investigación encabezado por G. Ren, del Instituto de Física Aplicada y matemática Computacional (China) podría ser una solución a ese problema.

Ren y sus colegas han desarrollado un nuevo diseño robusto que emplea láseres para inducir la fusión nuclear en una cápsula que contiene hidrógeno pesado (un protón y un neutrón en el núcleo). En las pruebas preliminares este método ha producido del orden de mil millones de neutrones por pulso láser, lo que es 100 veces más que otros métodos similares

Las fuentes habituales de neutrones que suministran haces de alta intensidad para los estudios de materiales son aceleradores de alta energía o reactores de fisión, algo que dista mucho de ser flexible. Sin embargo, el deseo de disponer de fuentes de menor tamaño ha llevado a centrar la atención en las técnicas basadas en láseres. Un diseño típico implica iluminar con un pulso láser agrupaciones de isótopos de hidrógeno. Como resultado los átomos se ionizan y colisionan, produciendo reacciones de fusión que emiten neutrones; eso sí, no son reacciones automantenidas (como en una bomba de hidrógeno o en un reactor de fusión nuclear), sino que duran tanto tiempo como dura la iluminación. El problema es que en los diseños típicos el rendimiento es insuficiente para muchas aplicaciones.

El nuevo método de Ren et al. es una variación de la fusión por confinamiento inercial (FCI), cuyo objetivo es conseguir reacciones de fusión automantenidas mediante el bombardeo con láseres de pélets de hidrógeno. La FCI puede producir neutrones con rendimientos enormes, pero está sujeta también a grandes inestabilidades. El grupo chino las resuelve empleando una geometría del blanco diferente. En vez de pélets usan una cápsula esférica cuya superficie interior está recubierta por una capa de hidrógeno. La luz del láser calienta el hidrógeno, haciendo que implosiones y se fusiones en el centro de la cápsula.

Los experimentos con pulsos láser de 6,3 kilojulios produjeron unos pocos miles de millones de neutrones. Láseres más potentes y un combustible más rico en neutrones podría aumentar el rendimiento más de 1000 veces.

Referencia:

G Ren et al (2017) Neutron Generation by Laser-Driven Spherically Convergent Plasma Fusion Physical Review Letters doi: 10.1103/PhysRevLett.118.165001

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo La fusión nuclear como fuente de neutrones eficiente se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La fusión a un paso gracias al hidrógeno líquido
  2. Que 100 años no es nada… o por qué aún no tenemos una central nuclear de fusión
  3. La estructura en común de estrellas de neutrones y aparcamientos
Catégories: Zientzia

Artistas que miran a las matemáticas

mer, 2017/05/03 - 11:59

No es la primera vez que desde esta ventana matemática del Cuaderno de Cultura Científica miramos hacia el arte que se ha inspirado en las matemáticas. Obras de arte relacionadas con el teorema de Pitágoras (en la entrada Cultura pitagórica: arte), el infinito (en A infinito), la sucesión de Fibonacci (Póngame media docena de fibonaccis), los cuadrados latinos (Cuadrados latinos, matemáticas y arte abstracto), los mapas (Arte cartográfico, arte con mapas), el hipercubo y la cuarta dimensión (Hipercubo, visualizando la cuarta dimensión, parte 1 y parte 2), los números (Matemática pop o Vi el número cinco en oro), las fórmulas y expresiones matemáticas (Bernat Venet, la estética de las matemáticas) o la catenaria (Catenarias en las artes plásticas), aunque esto es solo una pequeña muestra del arte que toma la Ciencia de Pitágoras como inspiración.

Obra de la artista alemana Linda Ross, “Espirale II” (2011), que se inspira en la espiral áurea o de Durero

En la entrada de hoy queremos centrar nuestra atención, una vez más, en aristas que se han acercado a las matemáticas, han reflexionado sobre ellas y las han incorporado a sus creaciones.

Nuestra primera artista, con una obra muy geométrica, es la italiana Luisa Sartori, que vive en Nueva York desde los años 1980. Las primeras obras que vamos a mostrar pertenecen a la exposición “Circles, triangles, and then…” (que podemos traducir como, “círculos, triángulos, y entonces…”), que tuvo lugar en la Galería A.I.R. (Artists in Residence = Artistas en residencia) de Brooklyn, Nueva York, en 2010.

Obras de Luisa Sartori, “Celaya” y “Nohar” (2010), lápiz y óleo sobre papel preparado

En esta serie de obras Luisa Sartori investiga sobre el proceso creativo de los diseños geométricos, tan frecuentes en el arte, el diseño y la arquitectura, como son, por ejemplo, los mosaicos geométricos de la Alhambra de Granada. Trabajando con figuras geométricas básicas, círculos, triángulos o cuadrados, se construyen complejos diseños y formas geométricas.

En estas pinturas el proceso de creación del diseño geométrico es parte importante de la propia obra, por lo que no se muestra el mosaico terminado y perfecto, sino que se pueden apreciar, en lápiz, las líneas de las figuras geométricas que han participado en el proceso, como si fuese una obra que aún está sin terminar.

Más aún, algunas de las obras de la exposición, como las dos siguientes, son simplemente los procesos creativos de diseños geométricos.

Obras de Luisa Sartori, “Sin título #2” y “Sin título #5” (2010)

En algunas de las obras, como las dos siguientes, los diseños que aparecen son embaldosados uniformes.

Los embaldosados son cubrimientos de una superficie plana mediante baldosas de unas determinadas formas. Cuando las baldosas son todas iguales y con forma de polígono regular, hablamos de embaldosados regulares. Se puede probar fácilmente (véase la explicación en la entrada Diseños geométricos de chocolate) que solamente existen 3 embaldosados regulares, los clásicos cuyas baldosas son triángulos equiláteros, cuadrados y hexágonos reglares.

Los tres embaldosados regulares

Utilizando un razonamiento similar se puede demostrar que existen 21 embaldosados uniformes diferentes, que son aquellos embaldosados en los que se puede utilizar baldosas con diferentes formas de polígonos regulares, pero con la condición de que alrededor de cada vértice del embaldosado se tiene la misma configuración de polígonos regulares. Por ejemplo, en las dos pinturas siguientes los embaldosados uniformes que aparecen son el embaldosado 4.8.8, ya que alrededor de cada vértice hay un cuadrado, un octógono y otro octógono, y el embaldosado 3.4.6.4, con un triángulo equilátero, un cuadrado, un hexágono regular y otro cuadrado, alrededor de cada vértice.

Obras de Luisa Sartori, “Kendai” y “Thun” (2010), lápiz y óleo sobre papel preparado

Una explicación un poco más extensa sobre los embaldosados uniformes la podéis encontrar en la guía didáctica de la exposición Imaginary, creada por el Instituto Oberwolfach (Alemania) y que ha estado en diferentes ciudades españolas de la mano de la Real Sociedad Matemática Española.

Más aún, utilizando las mismas técnicas que empleaba el artista M. C. Escher, se pueden construir nuevos embaldosados, con baldosas no regulares, pero con formas más o menos sugerentes, construidas a partir de embaldosados regulares. Esta es la técnica empleada en la obra Dhiban (2010).

Obra de Luisa Sartori, “Dhiban” (2010), lápiz y óleo sobre papel preparado

Se parte de un embaldosado cuadrado, es decir, la baldosa es cuadrada, y se transforma de la siguiente forma. Lo que quitamos de un lado del cuadrado se lo añadimos en el lado contiguo, al realizar un giro de 90º, como se muestra en la siguiente imagen. Mediante reglas similares se pueden construir embaldosados muy hermosos, como los que realizaba Escher. Véase de nuevo la guía didáctica de la exposición Imaginary para conocer más sobre esta técnica.

Construcción de la baldosa de la obra “Dhiban” de Luisa Sartori

La propia Luisa Sartori realiza una obra basada únicamente en la construcción de este embaldosado.

Obra de Luisa Sartori, “Sin título #6” (2010)

En muchas de sus obras, pertenecientes al conjunto de su producción artística, incluye diferentes elementos geométricos, aunque hoy aquí mostraremos solamente un par de ejemplos más. La primera obra, perteneciente a la serie “Here-There /High-Low” (Aquí-Allí / Alto-Bajo), incluye la conocida como espiral áurea, o de Durero, que se construye formando trozos de circunferencia a partir de una sucesión de rectángulos áureos (como se mostró en la entrada Visitad los museos, también en clave matemática).

Espiral áurea o de Durero

Obra de Luisa Sartori “Tabla II” (2009), lápiz y óleo sobre papel preparado

O en la siguiente obra que encontramos uno de los poliedros de da Vinci (la esfera de 72 caras), el cubo de Metatron (formado por círculos, uno central, rodeado de otros seis, creando una estructura hexagonal, y luego otros círculos alrededor) y la imagen plana de la curva loxodrómica o de rumbo constante.

Obra de Luisa Sartori “Tabla I” (2009), lápiz y óleo sobre papel preparado

Otra exposición muy interesante, desde la perspectiva de la geometría, de Luisa Sartori es su exposición de 2005, Around the centeralrededor del centro-, en la cual el círculo es un elemento principal.

Nuestra siguiente artista es la estadounidense Laura Battle. Entre sus complejas obras geométricas destacan una serie de obras que recuerdan a los hiloramas, es decir, a los diseños artísticos realizados con una serie de hilos de colores que van uniendo diferentes clavos distribuidos formando geométricas. Esta solía ser una actividad plástica muy frecuente en la educación.

Hilorama geométrico relacionado con un grupo algebraico, en concreto, el grupo E8

A continuación, observamos una de las obras de Laura Battle que nos recuerda a un complejo hilorama.

Obra de Laura Battle, “Sin título” (2009)

Otra obra con diseños geométricos al estilo de los hiloramas y que además contiene una serie de curvas que nos recuerdan a las curvas trigonométricas es la obra “Color Drawing” (cuadro de color).

Obra de Laura Battle, “Color Drawing”

A lo largo de la historia del arte se pueden encontrar muchos diseños geométricos realizados mediante la intersección de circunferencias, desde la sencilla “vesica piscis” formada por la intersección de dos circunferencias y que está muy presente en el arte religioso, hasta el diseño llamado en la actualidad “flor de la vida”.

El diseño llamado “flor de la vida” está formado por una serie de circunferencias, en concreto 19 circunferencias, que se intersecan formando una estructura hexagonal. Este nombre es moderno y está relacionado con creencias místicas modernas, con lo que se ha dado en llamar la Geometría Sagrada y con el movimiento New Age, sin embargo, diseños similares a este ya a aparecen en el arte desde hace siglos.

Diseño geométrico “Flor de la vida” realizado con té y tinta por el artista inglés Carne Griffiths

Por ejemplo, nos lo encontramos en un mosaico en Éfeso, una localidad del siglo IX a.c. en la actual Turquía.

Diseño de 19 circunferencias en un mosaico de Éfeso, Turquía

O diseños similares, como el que aparece en el Codex Atlanticus de Leonardo da Vinci.

Estudio de Leonardo da Vinci sobre intersección de circunferencias en su “Códex Atlanticus”

En las obras de Laura Battle también nos encontramos estudios de intersección de circunferencias, del estilo de la “flor de la vida”, como en su obra Bloom #2, realizada a lápiz.

Obra de Laura Battle, “Bloom #2”, realizada a lápiz

Sin embargo, son varias las obras de Laura Battle en las que la artista ha creado diseños geométricos mediante la intersección de circunferencias. Por ejemplo, en su obra Sin título (2006), en la que entre las formas que nos encontramos está la vésica piscis o en sus obras Roma (2004) e IncantationHechizo– (2010).

Obra de Laura Battle, “Sin título (2006)”, realizada al óleo

Obra de Laura Battle, “Roma (2004)”, realizada con tinta

Obra de Laura Battle, “Incantation (2010)”, realizada al óleo

Mucho se podría decir de las obras de Laura Battle y su contenido, pero vamos a terminar con una obra más, de título Year of the cicadael año de la cigarra– (2013), en la que encontramos elipses e intersección de las mismas, una espiral, el número primo 17, los números impares, diseños geométricos de colores o diseños de tipo fractal.

Obra de Laura Battle, “Year of the cicada” (2013), realizada al óleo

Y para terminar la entrada de hoy en la sección Matemoción del Cuaderno de Cultura Científica, una tercera artista, Cinthia Fisher, que se inspira en la ciencia, y en las matemáticas, para crear parte de sus mosaicos abstractos.

En su obra Arrangement in Black, White and GrayDisposición en negro, blanco y gris– (2010) utiliza espirales como elemento central de su mosaico.

Obra de Cinthia Fisher, “Arrangement in Black, White and Gray -Disposición en negro, blanco y gris-” (2010)

Se inspira en los fractales para su obra Pavement fractals -fractales de pavimiento- (2009).

Obra de Cinthia Fisher, “Pavement fractals” (2009)

Y para terminar una obra que se inspira en el clásico problema de la cuadratura del círculo. Este es un problema clásico de la matemática griega, obtener un cuadrado con la misma superficie que un círculo dado utilizando solamente la regla y el compás. En el siglo XIX se demostró que era imposible cuadrar un círculo, con únicamente la regla y el compás. Sin embargo, sí se puede cuadrar un círculo haciendo uso de la espiral de Arquímedes, que es el diseño que utiliza la artista en su obra Squaring the circlecuadradando el círculo-.

Obra de Cinthia Fisher, “Squaring the circle”

Bibliografía

1.- Página web de Luisa Sartori

2.- Página web de Laura Battle

3.- Página web de Cinthia Fisher, Big Bang Mosaics

4.- Exposición Imaginary

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Artistas que miran a las matemáticas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Bernar Venet, la estética de las matemáticas
  2. Matemáticas en el juego de cartas SET (1)
  3. El cubo soma: diseño, arte y matemáticas
Catégories: Zientzia

Efectores osmóticos

mar, 2017/05/02 - 17:00

Efectores osmóticos

Muchos animales tienen la capacidad de mantener constante la concentración osmótica de su medio interno. Es una de las modalidades en que se manifiesta un fenómeno más general denominado homeostasia. Los vertebrados tenemos esa capacidad, por ejemplo. Actuando sobre los elementos de ganancia y pérdida de agua, y también sobre los flujos de sales, podemos mantener relativamente constante la concentración osmótica del medio interno y la de cada una de las sales principales. La constancia absoluta no es posible, claro.

Pero hay muchos animales que carecen de esa capacidad. La composición de sus líquidos extracelulares no está regulada en absoluto o, si se ejerce algún control, la regulación resultante es sólo parcial. A los animales que regulan la concentración osmótica del medio interno los llamamos osmorreguladores. A los que no lo hacen, osmoconformadores. Y de los que lo hacen de forma parcial o imperfecta, los denominamos osmorreguladores parciales.

Como vimos en Animalia hace unas semanas, podemos clasificar a los animales en tres grandes grupos en lo relativo a las características de sus medios internos e intracelulares. Por un lado están los invertebrados marinos que no regulan la concentración osmótica de su medio interno. Los de los otros dos grupos regulan la concentración osmótica de su medio interno, y aunque los de uno y otro grupo presentan particularidades de interés, no nos ocuparemos aquí de ellos.

En esta ocasión nos interesan los del primer grupo. Aunque les hemos atribuido la condición de animales marinos, lo cierto es que buen número de ellos han de hacer frente a cambios en la salinidad del medio externo. Nos referimos a animales de aguas salobres o de estuario, animales que viven bajo condiciones de cierta variabilidad osmótica, normalmente por efecto de los movimientos de marea. La subida de la marea suele conllevar aumentos de la salinidad, y lo contrario ocurre con la bajada. Como es lógico, dado que son animales osmoconformadores, la concentración de su medio interno varía como lo hace el medio externo, razón por la cual sus células se encuentran también expuestas a esas variaciones; experimentan, por lo tanto, cambios en la concentración osmótica intracelular.

¿Resulta eso un problema? ¿Qué riesgos afronta un animal cuyas células experimentan cambios en su concentración osmótica? Si reparamos en el hecho de que las células animales pueden tener concentraciones osmóticas altas (como las de un calamar, por ejemplo) o bajas (como las de un mejillón cebra o las de una rana), enseguida nos daremos cuenta de que la vida animal es perfectamente posible de una y otra forma. Sin embargo, lo que puede no ser inocuo es la forma en que las células expuestas a un medio interno (extracelular) de diferente concentración osmótica se adaptan a la nueva situación.

De entrada, lo que le ocurre a una célula expuesta a un medio más concentrado es que tiende a perder agua. Como consecuencia, su volumen disminuye –se encoge-, aumenta la concentración de todos los solutos intracelulares, y la célula en su conjunto se deforma, especialmente la membrana celular. Todo eso es peligroso: la deformación pone en riesgo la viabilidad celular, especialmente porque los procesos que dependen de la membrana pueden verse alterados; y hay solutos cuya concentración ha de mantenerse en ciertos niveles, como ocurre muy especialmente con el K+, como vimos aquí.

Si la célula se expone a un medio más diluido tiende, como es lógico, a ganar agua. Como consecuencia, su volumen aumenta y la concentración interna de solutos disminuye. El aumento de volumen es peligroso porque puede provocar la rotura de la membrana, lo que supondría la desaparición de la célula como entidad funcional. Y en relación con la dilución interna, también esta puede resultar nociva por sus efectos sobre la concentración de ciertos solutos.

Por las razones dadas, no es conveniente que el equilibrio entre las concentraciones osmóticas interna y externa se alcance mediante flujos de agua en uno u otro sentido. La solución ha de consistir en un mecanismo diferente. Tampoco sería viable la opción de modificar la concentración intracelular del soluto intracelular inorgánico más importante –el potasio- por las razones ya apuntadas.

Pero en el interior de las células de los animales marinos que no regulan la concentración osmótica de su medio interno hay un tipo de solutos cuya concentración es relativamente alta: las sustancias orgánicas nitrogenadas, aminoácidos principalmente. Esos solutos son responsables de dos tercios de la concentración osmótica intracelular, y muchos de ellos no cumplen ninguna función específica en el metabolismo celular.

Son precisamente las sustancias nitrogenadas intracelulares las que experimentan cambios de cierta magnitud cuando las variaciones en la concentración del medio interno (extracelular) son susceptibles de provocar modificaciones en el volumen celular. Las llamamos efectores osmóticos por esa razón, porque cumplen la función de igualar o aproximar las concentraciones osmóticas intra y extracelular de manera que se eviten o minimicen los flujos de agua que pudieran provocar variaciones peligrosas en el volumen de las células.

No deja de resultar lógico que las mismas sustancias cuya concentración en el interior celular varía entre animales en función de cuál es la concentración osmótica de sus medios internos, sean las que permiten a aquellos que experimentan variaciones osmóticas a corto plazo mantener relativamente constante el volumen de sus células. En otras palabras, esos aminoácidos han cumplido en la evolución animal un papel equivalente al que desempeñan en los procesos de ajuste del volumen celular en respuesta a cambios ambientales de salinidad. En ambos casos han servido para igualar la concentración osmótica intracelular a la del medio interno (o extracelular).

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Efectores osmóticos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La distribución del agua animal y el curioso caso del potasio
  2. El flujo sanguíneo se reorganiza en respuesta a las necesidades
  3. Historia mínima de la complejidad animal
Catégories: Zientzia

El calor no es un fluido

mar, 2017/05/02 - 11:59

Un libro se desliza por la superficie de una mesa. Si la superficie es rugosa ejercerá una fuerza de fricción considerable sobre el libro que tendrá que vencer el impulso inicial si ha de moverse y que hará que termine parándose en cuanto la energía cinética (esa que tiene por el hecho de moverse) desaparezca. Como la superficie de la mesa es horizontal esa desaparición de energía cinética no se ha convertido en energía potencial (la que se tiene por la posición en un campo gravitatorio, por ejemplo), como hubiera ocurrido si hubiésemos lanzado el libro al aire en vertical. Entonces, ¿qué ocurre? ¿Que la energía en este caso no se conserva?
Un examen minucioso del libro y de la superficie de la mesa demostrarían que ambos han sufrido un ligerísimo incremento de temperatura. La desaparición de la energía cinética del libro se ha visto acompañada por la aparición de eso que llamamos calor.

Este experimento tan simple sugiere, pero en ningún caso prueba (correlación no implica causalidad), que la energía cinética se habría transformado en calor. Si esto es así, el calor debe ser una forma de energía.
Iniciamos así una exploración muy sencilla de los aspectos esenciales de la dinámica del calor o, en una palabra, de la termodinámica. En ella primaremos la comprensión de las ideas fundamentales frente al formalismo, por lo que, de aparecer, las fórmulas matemáticas serán extremadamente simples y completamente explicadas. La idea es ayudar a estudiantes de secundaria y primeros años de universidad a aprehender las ideas para no perderse en los cálculos; también proporcionar al lector interesado una introducción asequible a los conceptos fundamentales de la termodinámica y la teoría cinética sin necesidad más que de unas nociones intuitivas muy generales de física y poco más que las cuatro reglas aritméticas.

La equivalencia de calor y trabajo

Hasta mediados del siglo XIX se pensaba que el calor era una especie de fluido llamado fluido calórico. Cuando se mezclan cuerpos calientes y fríos, como agua a 90 ºC con agua a 4º C en iguales cantidades, no se pierde ni gana calor sino que se obtiene el doble de agua a unos 47 ºC. Uno podría concluir que el fluido calórico se conserva en un experimento de este tipo. Algunas sustancias, como la madera o el carbón vegetal, parecen almacenar el fluido calórico, que liberarían cuando arden. Este era el planteamiento entonces.

Si bien la ideas de que el contenido de calor de una sustancia se represente por una cantidad de un fluido que se conserva era aparentemente útil, la realidad es que es incapaz de explicar algunos fenómenos cotidianos. La fricción, con la que empezábamos, produce calor; si tienes frío en las manos tu reacción instintiva es frotarlas entre sí para conseguir que se calientes. ¿De dónde viene entonces el fluido calórico?

La creencia en la existencia del calórico se mantuvo en la primera mitad del XIX, por motivos filosóficos, por una parte y, por otra, porque aunque no explicaba fenómenos simples como el de la fricción sí permitía entender otros aparentemente más complejos, como las reacciones químicas. De hecho el calórico fue introducido por Lavoisier (uno de los padres de la química moderna) a finales del XVIII.

Benjamin Thompson en 1783, un año antes de que Carlos III de Inglaterra lo hiciese Sir y dos años antes de mudarse a Baviera y llegar a ser conde von Rumford

Justo en esa misma época, Benjamin Thomson fue creado en 1791 conde del Sacro Imperio Germánico pasando a la historia como Reichsgraf von Rumford por sus servicios al príncipe-elector de Baviera. Entre estos servicios estuvo la reorganización del ejército y, como parte de ellos, la supervisión de la construcción de nuevo armamento. Los cañones se fabricaban haciendo un agujero en una pieza de metal macizo y Rumford observó que se generaba una enorme cantidad de calor en el proceso. Algunas de las virutas que salían despedidas de la zona en la que el taladro estaba trabajando haciendo el alma (hueco) del cañón estabn tan calientes que estaban al rojo, esto es, emitían luz visible.

Rumford podía haber tomado nota y ya está pero, en vez de eso, hizo varias mediciones y experimentos meticulosos. Para ello sumergió en agua una masa metálica acoplada al taladro que perforaba el cañón y midió la velocidad a la que subía la temperatura del agua mientras el taladro trabajaba en la pieza. Sus resultados demostraban que si no se enfriaba activamente con agua el calor generado hubiese sido suficiente como para fundir toda la pieza.

Después de repetir el experimento en muchas ocasiones, Rumford llegó a la conclusión de que el calor no se conserva sino que se genera cuando se realiza trabajo. Debido a las limitaciones técnicas de su experimento su cálculo de la proporción de calor producido por unidad de trabajo realizado es del orden de 10 veces (un orden de magnitud o 101) del valor que se acepta hoy día.

Los experimentos de Rumford y trabajos similares de Humphry Davy en la Royal Institution de Londres no convencieron a muchos científicos de la época. La razón puede estar en que Rumford no aportó una idea de qué podía ser el calor, al menos no en unos términos que fuesen compatibles con los modelos aceptados en la época para la materia.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El calor no es un fluido se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Fuego y calor, esas materias inexistentes
  2. De las leyes de conservación (II)
  3. El primer transistor activado por calor
Catégories: Zientzia

Errar es humano

lun, 2017/05/01 - 17:00

Mafalda por Quino

Cometemos errores continuamente. Quizás no nos gusta que nos lo digan o nos cueste reconocerlo, pero así es, nos equivocamos con frecuencia. En ocasiones, además, erramos en el juicio o apreciación de forma sistemática; me refiero a eso que se denomina sesgos cognitivos. Algunos sesgos de ese carácter bien conocidos están en la base de muchas creencias irracionales y, por ello, en varias modalidades de pensamiento mágico.

Por otro lado, en el mundo de la ciencia estamos familiarizados con la existencia de lo que llamamos errores de tipo I y errores de tipo II. Pero esta distinción no tiene por qué limitarse al mundo de la investigación científica. En la vida cotidiana cuando realizamos juicios bajo condiciones de incertidumbre, podemos cometer errores de esos dos tipos. Los de tipo I son los que llamamos también falsos positivos; cuando los cometemos creemos ver algo que no hay. Los de tipo II son falsos negativos; lo que ocurre en esos casos es que no detectamos algo que sí ocurre o que sí existe.

Aunque esa distinción pueda parecer anecdótica, la verdad es que puede tener consecuencias muy importantes. No es lo mismo cometer un error de un tipo o del otro. Si, pongamos por caso, vemos que se dirige hacia nosotros un animal con cuernos de cierto porte, lo más probable es que salgamos corriendo en la dirección contraria. No solo es lo más probable, también es lo más sensato. Si luego resulta que el astado en cuestión era un manso, nuestra deducción habría sido equivalente a un falso positivo. O sea, en ese caso habremos cometido un error de tipo I, pero no creo que eso nos importase demasiado, porque lo más normal es que las consecuencias del error habrían sido de orden menor o prácticamente irrelevantes. Si, en vez de salir corriendo pensando que se trataba de un toro bravo, nos quedamos sentados tranquilamente porque nos parecía que era un pacífico buey que, casualmente, caminaba hacia nosotros, podíamos haber cometido un error de fatales consecuencias. Porque podía haberse tratado de un toro bravo. En ese caso habríamos incurrido en un error de tipo II, un falso negativo. Creo que, llegados a este punto, está bastante claro por qué puede tener muy diferentes consecuencias cometer un error de un tipo o cometerlo del otro.

Los psicólogos piensan que la evolución nos ha equipado con un sistema cognitivo que tiende a seleccionar los errores menos costosos en aquellas disyuntivas en las que las consecuencias o costes de los errores de juicio son asimétricos. Algunas observaciones avalan esa idea.

Cuando estimamos distancias verticales, por ejemplo, tendemos a cometer un error muy util. Al asomarnos a un balcón o a una ventana y mirar hacia abajo, lo normal es que estimemos una distancia hasta el suelo bastante mayor de la que realmente hay. Además, el sesgo aumenta cuanto mayor es la altura desde la que miramos. Por ejemplo, una altura de 14 m nos puede parecer que es de 21 m. Ese sesgo nos protege porque al asomarnos a la ventana nos lo pensaremos dos veces antes de decidirnos a saltar al suelo o a la ventana de enfrente, si fuese esa la opción que valorábamos al mirar hacia abajo y hacer la estimación.

Otro ilustrativo ejemplo de uno de esos sesgos útiles es el de los niños que, al contemplar un animal inmóvil, piensan que está dormido en vez de pensar que está muerto. Los niños que, en el pasado de nuestro linaje, pensaron que un animal, por estar quieto, estaba muerto no dejaron descendencia, por lo que no transmitieron sus genes a las siguientes generaciones.

Errar es humano. Es más, en muchas ocasiones, además, la tendencia a errar de forma sistemática puede salvarnos la vida. Más que humano, pues, puede resultar providencial.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Errar es humano se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un viaje a través del sistema circulatorio humano
  2. Los fundamentos del altruismo humano
  3. 10.000 años de uso humano del abrigo de Atxoste
Catégories: Zientzia

Cuando los bebés comienzan a combinar gesto y habla

lun, 2017/05/01 - 11:59

Asier Romero Andonegi, Aintzane Etxebarria Lejarreta, Ainara Romero Andonegi e Irati de Pablo Delgado, profesores e investigadores de la Escuela Universitaria de Magisterio de Bilbao de la UPV/EHU, han estudiado cómo emprenden los bebes de entre 9 y 13 meses su tránsito desde el balbuceo inicial al uso de combinaciones de gesto y habla.

La ciencia muestra que el estudio del lenguaje y la comunicación humana no se pueden llevar a cabo solo con un análisis del habla. Entre los aportes que ha realizado este trabajo Asier Romero destaca que es el “primer estudio” en exponer con niños y niñas con lengua materna euskera “cómo y cuándo” los bebés desarrollan y utilizan “un patrón para coordinar el gesto con el habla”.

“Hemos descubierto que cuando el bebé abandona el balbuceo caracterizado por las vocalizaciones de cadenas de sílabas repetidas y largas a los 9 meses y empieza la etapa prelingüística más compleja en torno a los 11 meses, los gestos del bebe comienzan a ser producidos principalmente en combinación con la producción vocal, más que como un acto únicamente de gestos. Es decir, el sistema gestual y del habla ya están estrechamente relacionados”, explica Romero.

Así mismo, el investigador ha querido destacar que la tipología de los gestos en estas combinaciones de gesto y vocalización son “principalmente deícticos”, esto es, “gestos de ejecución, como apuntar, dar, mostrar, ofrecer y realizar peticiones para dirigir la atención del adulto hacia un objeto por el cual el bebé siente interés por obtenerlo con una intención declarativa, es decir, para informar al adulto de su interés por un objeto”.

Para Romero, este estudio muestra que el habla y la gestualidad son dos “elementos necesarios” para estudiar la comunicación humana, pues cada vez hay más pruebas de que ambas están estrechamente coordinadas, y “es quizá una condición fundamental para el desarrollo posterior del primer léxico ya en la etapa lingüística”.

De hecho, revela el investigador, “cada vez hay más evidencias científicas” que muestran que la combinación de balbuceo y gesto de los bebés “están relacionadas” con un desarrollo posterior del lenguaje, y por tanto, son un elemento predictivo. “Por ello investigaciones de este tipo podrían ayudar a predecir alteraciones lingüísticas en el trastorno específico del lenguaje”, avanza el investigador.

El objetivo de este trabajo fue investigar el proceso de adquisición y desarrollo del lenguaje en relación con la coordinación temporal de gestos y habla de niños. Para ello, los investigadores grabaron en vídeo a dos bebés nacidos en familias vascohablantes, desde que los niños tenían 9 meses hasta que cumplieron 13 meses.

“Las grabaciones se realizaron en sus domicilios junto con sus progenitores. En total, se obtuvieron más de 1.260 actos comunicativos producidos por los dos, a través de unas 6 horas de grabación, que fueron analizadas posteriormente mediante la aplicación del software específico ELAN, “esta herramienta permite realizar y procesar anotaciones en líneas digitales de información de forma conjunta para distintos tipos de archivos de audios y videos”, explica.

Esta investigación ha abierto nuevas líneas de trabajo, y por otra parte confirma lo ya señalado en diferentes investigaciones con bebés catalanes e ingleses.

Referencia bibliográfica

Romero Andonegi, A., Etxebarria Lejarreta, A., De Pablo Delgado, I. y Romero Andonegi, A.. ‘The interrelation of gestures and vocalization in early communication functions: Evidence from Basque language’. Signos. Estudios de Lingüística, 50(93), 96-123 (2017). DOI: 10.4067/S0718-09342017000100005.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Cuando los bebés comienzan a combinar gesto y habla se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cuando las proteínas son robots
  2. Daño cerebral por ictus o cuando un neurotransmisor se convierte en neurotoxina
  3. Cuando sí es lupus
Catégories: Zientzia

Culturas del honor

dim, 2017/04/30 - 11:59

En un estudio realizado hace dos décadas en los Estados Unidos, observaron que los jóvenes blancos procedentes del Sur tienden a responder a los insultos de forma más agresiva que los del Norte. Entre los negros no observaron diferencias. También encontraron que en unos y otros estados se cometía un número similar de asesinatos en coincidencia con la comisión de otros delitos, y sin embargo, en los del Sur eran más frecuentes los producidos como consecuencia de una discusión que acaba de la peor manera posible.

Esos comportamientos están asociados a algo que antropólogos culturales y otros científicos sociales denominan “culturas del honor”. En las culturas del honor hay una gran preocupación por la reputación y una propensión a responder de forma violenta a cualquier actitud que sea interpretada como menosprecio o falta de respeto. Buscan así defender su prestigio aunque para ello tengan que recurrir a la violencia. Pero hay más: quienes forman parte de esas culturas son muy reacios a aceptar que tienen problemas de salud mental, pues ello conllevaría reconocer una forma de debilidad y, por ende, de vulnerabilidad. No es sorprendente, por ello, que traten de evitar el uso de antidepresivos y que la incidencia de suicidios sea alta. Por contraste, las denominadas “culturas de la dignidad” se caracterizan por comportamientos muy diferentes. En éstas las personas son valoradas simplemente por el hecho de serlo, por su condición de seres humanos. En las culturas de la dignidad no es normal el recurso inmediato a comportamientos violentos como consecuencia de una ofensa o lo que pueda interpretarse como tal.

Al parecer, en las culturas del honor las personas valen lo que vale su reputación y esa es la razón por la que su defensa es tan importante. Hay numerosos precedentes en Occidente de fenómenos propios de esas culturas, como las justas medievales y otras modalidades de duelos que perduraron hasta hace poco más de un siglo. Y en la actualidad son muy comunes en las áreas ya citadas en los Estados Unidos y en otras como Paquistán, Afganistán o Somalia.

Uno de los investigadores que realizaron el estudio antes citado pensaba que la cultura del honor podría estar relacionada con el fervor religioso. Al fin y al cabo, tanto la población de los estados del Sur norteamericano como la de los países musulmanes citados se caracterizan por una fuerte religiosidad. Sin embargo, los datos no avalan la existencia de tal vínculo. Al parecer, las culturas del honor suelen desarrollarse en grupos humanos en los que reinan condiciones de gran inseguridad, tanto de naturaleza económica como la derivada de la ausencia de leyes o de su frecuente incumplimiento; bajo esas condiciones, la reputación puede ser una buena forma de defensa cuando no hay instituciones que puedan prestar socorro y protección en caso de necesidad o, de haberlas, cuando se prefiere no recurrir a ellas. Así se explica, por ejemplo, la importancia de la cultura del honor en grupos mafiosos y bandas de delincuentes.

Se trata de culturas muy persistentes. Su importancia entre los hombres blancos del Sur de los Estados Unidos se retrotrae a la llegada de ganaderos de origen escocés procedentes del Ulster en la primera mitad del siglo XVII, quienes hubieron de enfrentarse a todo tipo de amenazas y, muy especialmente, a la de los ladrones de ganado. El tiempo habría atenuado las manifestaciones más extremas de esa cultura, pero no las ha eliminado. No deberíamos, por tanto, descartar que ciertos comportamientos chulescos y respuestas airadas a bromas de escasa trascendencia que observamos en nuestro entorno, tengan su origen en una cultura del honor heredada.

—————————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

Una versión anterior de este artículo fue publicada en el diario Deia el 4 de diciembre de 2016.

El artículo Culturas del honor se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La élite de las dos culturas
  2. Las dos culturas y más allá: Ciencia, Sociedad y Desarrollo (curso de verano)
  3. Las dos culturas: ciencia ficción en la universidad
Catégories: Zientzia

Las máquinas moleculares que han ganado un Nobel

sam, 2017/04/29 - 11:59

El Nobel de Química de 2016 premió la creación de las máquinas más pequeñas del mundo. El francés Jean-Pierre Sauvage, el británico Fraser Stoddart y el holandés Bernard Feringa recibieron el galardón por haber desarrollado moléculas con movimientos controlables, capaces de llevar a cabo tareas cuando se les proporciona energía. Según la Academia, este hallazgo puede conducir a una revolución tecnológica.

El catedrático de Química Física de la UPV/EHU Jesús Ugalde explicó la importancia de este descubrimiento en la conferencia titulada “Las máquinas moleculares que han ganado un Nobel”, que tuvo lugar el pasaso 16 de noviembre.

Las máquinas moleculares que han ganado un Nobel

La Zientziateka es una iniciativa que organizan mensualmente la Cátedra de Cultura Científica de la UPV/EHU y Azkuna Zentroa para divulgar asuntos científicos de actualidad.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Las máquinas moleculares que han ganado un Nobel se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El Nobel de Química 2013: Bailando con proteínas
  2. #Naukas14: Todos los matemáticos odiamos a Alfredo
  3. De la materia a la vida: ¿Química? ¡Química!, por Jean-Marie Lehn
Catégories: Zientzia

Ciencia, Modernidad y Posmodernidad

ven, 2017/04/28 - 11:59

En la historia hay edades que más o menos todos ubicamos bien. En lo que se refiere a Europa la Edad Antigua va desde las primeras civilizaciones hasta la caída del Imperio Romano de Occidente en el año 476; la Edad Media desde esta fecha al descubrimiento de América en 1492; la Edad Moderna desde este momento a la Revolución Francesa de 1789; y, desde entonces estaríamos en la Edad Contemporánea. Pero hay otra posibilidad de distinguir eras históricas que se basa en los conceptos de ciencia, tecnología y razón y sus papeles en el proceso histórico: Modernidad y Posmodernidad.

Hegel

El término “moderno” aparece por primera vez en el siglo XVI como una forma de señalar la separación del presente con el pasado. Y aunque en el siglo XVII los filósofos naturales experimentales se distinguían a sí mismos de las prácticas del pasado en el debate entre “antiguos” y “modernos”, fue Georg Wilhelm Friedrich Hegel (1771-1831) quien dio la primera definición formal de modernidad como la persistente re-creación del yo y las condiciones de vida. Desde Hegel existe quien da en llamar Modernidad al período que va de la Revolución Francesa (1789) al final de la Segunda Guerra Mundial (1946). En 1947 los arquitectos comienzan a hablar de la existencia de un estilo “posmoderno” y conforme avanza la Guerra Fría los filósofos y sociólogos articulan el significado (o mejor, significados) de Posmodernidad. Modernos y posmodernos varios coinciden en que la Posmodernidad es la era en la que estamos desde los ochenta.

Tras Hegel la Modernidad se refiere a dos narrativas “maestras”, a saber, el desarrollo de la promesa de la Ilustración de la liberación a través de la razón, y la unificación de todas las ramas del conocimiento mediante la extensión de los métodos racionales de la ciencia y la tecnología. Jürgen Habermas (n. 1929) mantiene que ambas narrativas se han empleado para legitimar la ciencia y la tecnología en el ámbito social desde 1800. La ciencia, para los teóricos de lo moderno, es una práctica representativa, una reproducción de la naturaleza, cuyas características son el resultado del consenso racional entre los que la practican, quienes, a su vez, establecen verdades científicas independientes de los intereses sociales. Desde el momento en que el consenso implica la ausencia de conflicto, desde el punto de vista moderno la ciencia es un instrumento racional de paz.

Hay pensadores, como Habermas o Bruno Latour (n. 1947), que creen que la Modernidad es un proyecto inacabado que aún merece la pena proseguir con objeto de conseguir una sociedad libre de conflictos en la que la comunicación clara y racional es posible. Desde la perspectiva modernista la historia de la ciencia y la tecnología se encuadra claramente dentro de las narrativas teleológicas de progreso, racionalización, secularización, burocratización e, incluso, de estado-nación.

Nietzsche

Los orígenes de la posmodernidad los podríamos trazar hasta la crítica de la razón de Friedrich Nietzsche (1844-1900) y otros a finales del XIX. Pero no será hasta después de las atrocidades del Tercer Reich que se empezó a dudar seriamente del proyecto moderno de liberación y unificación mediante la razón. La Posmodernidad no solo rechaza estas dos narrativas maestras de la Modernidad, sino también la idea de que la representación (tanto en las artes como en las ciencias) pueda ser un espejo preciso de la realidad objetiva.

Los posmodernos como Jean-François Lyotard (1924-1998) reconceptualizan las ciencias como actividades orientadas hacia la reproducción de las prácticas de investigación más que a la producción de resultados acerca del mundo. Lo que Lyotard llama “performatividad” en las ciencias puede apreciarse en la inclinación de las ciencias hacia la interdisciplinaridad y el trabajo en equipo. En la incesante búsqueda de “lo nuevo” (la invención de nuevos vocabularios, prácticas, reglas de investigación, consensos) la ciencia posmoderna es una forma de conocimiento que no reproduce lo conocido, sino que constantemente busca lo desconocido y lo indeterminado.

El carácter anti-representativo de la ciencia posmoderna significa que las imágenes (y las teorías) no representan la naturaleza, sino que son una proyección de los entornos políticos, sociales y económicos en los que se desarrolla la actividad científica. Dicho de otro modo, la naturaleza misma desaparece en un mundo creado de simulacros y simulaciones y la historia de las ciencias se convierte en la historia de las imágenes y de lo que se cree que se encuentra inmerso en ellas.

En la Posmodernidad las ciencias son una parte de la economía, pero en un papel muy diferente al que jugaban en la Modernidad. Ahora sus imágenes son sujetos de la ideología política y, por tanto, su verdad es relativa: frente a unos hechos, existen hechos alternativos. De aquí se sigue la “caridad epistemológica” hacia las creencias irracionales que se encuentra habitualmente entre los posmodernos.

Este post ha sido realizado por César Tomé López (@EDocet) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Ciencia, Modernidad y Posmodernidad se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia, arte, religión
  2. La retórica de la ciencia
  3. La ciencia y la duda
Catégories: Zientzia

Cuando los científicos marchan

jeu, 2017/04/27 - 11:59

El ejercicio de la ciencia es una metódica aproximación al uso más puro posible de la razón. En cada paso del método científico se intenta, con deliberación y cuidado, eliminar el más mínimo atisbo de emoción, de apego a las ideas propias, de rechazo de las ajenas basado en antipatías personales; se dan los pasos pertinentes para que sean los datos y no las emociones las que decidan. Y se fracasa, claro, porque los científicos son humanos; porque el cerebro humano en su propio modo de funcionamiento tiene la razón enredada con la emoción, los sentimientos creciendo como hiedras sobre los datos (o viceversa). En eso, ay, quienes se dedican a la ciencia no se diferencias del resto de sus compañeros de especie, y no pueden diferenciarse. Los científicos no son internamente ‘más racionales’ que los demás.

Pero lo intentan. Precisamente por eso existe el método científico: porque si quieres conocer la naturaleza con la mayor precisión posible es necesario filtrar, todo lo que se pueda, los factores emocionales. Para eso se hacen test de doble ciego, complejos diseños experimentales o enrevesados cálculos estadísticos. Por eso los artículos se codifican en un lenguaje artificial y preciso y se revisan por pares anónimos antes de salir publicados. Por eso los tribunales de tesis, y las solicitudes de proyectos con evaluadores externos. La diferencia entre los practicantes de ciencia y el resto de los mortales está en que los científicos son conscientes de las limitaciones de su propio conocimiento y luchan enconada y constantemente por eliminar las fuentes de conflicto entre emoción y razón. Es una lucha condenada a la derrota, porque ningún científico humano puede dejar de ser humano. Pero gracias a ella cada vez conocemos más hechos objetivos sobre el cosmos, lo cual es bello en sí mismo y además ha resultado ser enormemente útil a nuestra especie.

Por eso la ciencia es necesaria y automáticamente enemiga de cualquier doctrina religiosa o política que se base sobre todo en la emoción. Por la sencilla razón de que su método y objetivo final son incompatibles con las llamadas a guiarse por los sentimientos y abandonar la razón. Con independencia de las ideologías políticas o religiosas de cada cual la ciencia siempre se transforma en una muralla dirigida contra ciertas formas de religión o política: aquellas que prefieren fomentar sentimientos por encima de las realidades, las que agitan emociones sin tener en cuenta los datos. No porque la propia actividad científica tenga un sesgo político concreto, sino porque por definición la ciencia y quienes la practican están del lado de la razón y los hechos, y por tanto en contra de quienes se enfrentan al raciocinio o ignoran los datos para respaldar sus ideologías.

Éste es el verdadero trasfondo de las Marchas por la Ciencia del pasado 22 de abril de 2017, y la razón por la que se ha acusado a sus participantes de convertir a la ciencia en una pieza más del tablero político. Cosa que podrían haber hecho, legítimamente: determinadas opciones políticas han agredido a la actividad científica profesional a través de recortes de presupuestos, reducciones de plantillas, instituciones paralizadas y otras acciones que en general han resultado en menos sueldos, menos proyectos, mayores dificultades y menos futuro profesional. Los científicos, como los mineros, los médicos o los conductores de camión, tienen derecho a protestar cuando sus condiciones profesionales se deterioran como cualquier otro tipo de trabajador.

Aunque el impulso que ha sacado a los científicos a las calles de centenares de ciudades en todo el mundo va más allá; mucho más allá: se trata de una defensa del conocimiento y del raciocinio de la humanidad frente a fuerzas que pretenden llevarnos de vuelta a una concepción del cosmos en la que lo único que importa son las pasiones humanas y no la realidad. Se trata de defender la toma de decisiones que tiene en cuenta los datos; la existencia de una realidad empírica que no se puede obviar por mucho que se desee políticamente; el papel del conocimiento y la razón en los procesos que definen el futuro de las naciones. Quienes rechazan los datos y acusan de sesgada y comprometida a la ciencia pretenden que nadie oponga realidades a sus manipulaciones emocionales; que ni siquiera la realidad imponga límites a su voluntad, expresada en términos de pasión de las masas. Conocemos a dónde lleva este camino; ya lo hemos recorrido antes, siempre con terroríficos resultados.

La cultura gremial de quienes practican ciencia e incluso sus querencias personales no son las más dadas a la protesta pública que existen. De hecho por temperamento y por práctica diaria los científicos con meticulosos hasta la pedantería, extremadamente precisos en lenguaje y afirmaciones, críticos de cualquier detalle propio y ajeno, solitarios y poco dados a formar turbas. La comunidad científica tiene una cuota mayor de lo común de raros, obsesos, detallistas y tocanarices; los científicos muy raras veces están de acuerdo en algo, y de esas aún menos tanto como para salir a la calle en grandes prupos y exteriorizar su protesta. Esta vez ha sido así porque muchos de ellos sienten que la apuesta es mayor de lo normal; que el peligro va más allá de la financiación y los detalles de las becas o proyectos y afecta al futuro mismo de la sociedad. Una pancarta en una de las manifestaciones estadounidenses decía “So bad even the introverts are here’ (tan mal estamos que hasta los introvertidos estamos aquí). Porque cuando los científicos marchan es que el peligro es grande, y real.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo Cuando los científicos marchan se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. NASA, ¿cuándo vas a llevarnos a Venus en un barco (o en lo que sea)?
  2. ¿Son arrogantes los científicos?
  3. Artistas científicos
Catégories: Zientzia

Un algoritmo genético para buscar materiales 2D

mer, 2017/04/26 - 17:00

Las posibilidades que da la computación para la ciencia, sobre todo los ordenadores potentes pero para nada extraordinarios, es que permiten hacer predicciones que hace solo unos años serían impensables ni siquiera planteárselas. Una reciente investigación en busca de nuevos materiales 2D de uso en nanoelectrónica de un equipo encabezado por Arunima Singh del Instituto Nacional de Estándares y Tecnología de los Estados Unidos es un ejemplo estupendo de este uso.

El grafeno es una forma de carbono muy conocida. Sabemos que es una monocapa plana de átomos de carbono con propiedades muy interesantes. Bien, una de las cosas que demuestra el grafeno es que un material por lo demás ordinario, recordemos que la mina de un lápiz está hecha de láminas de grafeno unas encima de otras formando lo que llamamos grafito, se vuelve extraordinario si lo pasamos de 3 dimensiones a 2 dimensiones.

Efectivamente, algunas propiedades como la magnetorresistencia o la piezoelectricidad solo aparecen en las versiones 2D de los materiales. Entonces, ¿por qué no realizar una búsqueda sistemática de compuestos 2D de los materiales que son del grupo del carbono en la tabla periódica? Recordemos que los elementos de un mismo grupo tienen un comportamiento químico similar porque su estructura electrónica más externa es idéntica.

Antiguamente habría que haber hecho miles de cálculos a mano para intentar averiguar con poca precisión que compuestos 2D serían factible y cuáles podría tener propiedades diferentes. Hoy, lo que estos investigadores han hecho es crear un algoritmo que funciona eliminando todas las variaciones que no sean óptimas dese el punto de vista de estabilidad en un análisis de todas las estructuras 2D hipotéticas de todos los óxidos de cuatro elementos del grupo del carbono: silicio (Si), germanio (Ge), estaño (Sn) y plomo (Pb). Una vez que las tienen calculan las características electrónicas.

Pero esto es aún más complicado de lo que parece. A diferencia del carbono, cuya estructura cristalina 2D (grafeno) es la misma que la 3D (grafito), lo normal es que las estructuras 2D sean diferentes a las 3D. Así, por ejemplo, el cuarzo alfa (estructura 3D del dióxido de silicio, SiO2) tiene una estructura trigonal, pero la 2D, sintetizada recientemente, se ha comprobado que es bitetraédrica.

El algoritmo desarrollado por los investigadores es de los llamados genéticos, una clasificación del campo de la inteligencia artificial que engloba a los inspirados en la evolución biológica y su base genético-molecular. Lo que hace es tomar la población inicial de todos los óxidos posibles y dejarla evolucionar hasta que se encuentran las estructuras de menor nivel de energía y, por tanto, más estables; de éstas solo algunas serán 2D.

Los resultados indican que la forma estable del dióxido de germanio GeO2 debería ser monoclínica, mientras que los dióxidos de estaño SnO2 y plomo PbO2 2D deberían ser 1T (triclínicos, 1 capa), a diferencia de sus versiones 3D que tienen una estructura común de rutilo.

Cálculos adicionales muestran que estas estructuras deberían de poder sintetizarse en el laboratorio, bien sobre sustratos o, como el grafeno, como capas independientes. Los óxidos de germanio y estaño 2D podrían tener aplicaciones interesantes como dieléctricos en transistores mientras que el de estaño podría servir de protección en dispositivos nanoelectrónicos. Ya solo queda sintetizarlos y comprobarlo.

Referencia:

Arunima Singh et al (2017) Genetic algorithm prediction of two-dimensional group-IV dioxides for dielectrics Physical Review B doi: 10.1103/PhysRevB.95.155426

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Un algoritmo genético para buscar materiales 2D se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Siligrafeno, ¿el material para la revolución optoelectrónica?
  2. Usando ADN para sintetizar nanoestructuras de oro
  3. Un algoritmo para una resucitación eficiente
Catégories: Zientzia

El teorema de los cuatro colores (1): una historia que comienza en 1852

mer, 2017/04/26 - 11:59

Wolfgang Haken

Smote the Kraken

One! Two! Three! Four!

Quoth he: “the monster is no more”.

(W.T. Tutte)

El teorema de los cuatro colores se enunció en forma de conjetura en 1852, pero tuvo que esperar hasta el año 1996 para ser admitido como válido por la práctica totalidad de la comunidad matemática.

El poema que abre este escrito es precisamente el que William Thomas Tutte dedicó a Wolfgang Haken –uno de los investigadores que dio una primera prueba del teorema en 1977, aunque tuvo que esperar hasta 1996 a ser ratificada por otros investigadores– tras más de cien años de fallidos intentos por probar su validez.

El teorema de los cuatro colores afirma que, para colorear un mapa geográfico plano sin que dos países colindantes tengan el mismo color, basta con cuatro tonos diferentes.

Se imponen las siguientes restricciones a los mapas aludidos en el teorema:

  1. son siempre conexos –es decir, de una pieza– y cada una de sus regiones también es conexa;

  2. dos territorios distintos de un mapa no pueden tocarse sólo en un punto, es decir, para ser colindantes deben compartir frontera en el sentido indicado en la figura 1.

Figura 1.

Podría pensarse que un mapa con una gran cantidad regiones, poseyendo extrañas formas, y colindando de manera singular necesitaría mayor cantidad de colores que un mapa más sencillo. Pero, el teorema afirma que no es el caso.

Se trata de un problema topológico, ya que no es importante la forma de las regiones del mapa, sino la manera en la están colocadas las unas respecto a las otras.

¿Cómo empezó esta historia? El abogado y botánico Francis Guthrie observó que era capaz de colorear un mapa complicado de los cantones de Inglaterra con sólo cuatro colores, y conjeturó que debía suceder lo mismo con cualquier otro mapa geopolítico. En 1852, se lo comentó a su hermano Frederick y éste a su vez a Augustus de Morgan, su profesor.

Francis Guthrie observó, además, que tres colores no bastaban, mostrando lo que llamó el diagrama crítico (figura 2), que obviamente precisa de cuatro colores para no contradecir las condiciones de su conjetura –la parte blanca central es una región del mapa–.

Figura 2: el diagrama crítico.

Frederick Guthrie fue el primero en observar que el problema de los cuatro colores no se podía generalizar a dimensión 3: en efecto, según un ejemplo posterior de Heinrich Tietze, es posible construir un ejemplo de mapa tridimensional que precise tantos colores como se desee. Su propuesta consistía en tomar barras numeradas de 1 hasta n,ordenándolas como muestra la figura 3, y sobre ellas colocaba otras n barras numeradas de 1 hasta n, girándolas 45 grados. De este modo, Tietze conseguía un mapa tridimensional conn regiones (cada número correspondía a un ‘país’), que obviamente necesitaba exactamente n colores para no contradecir las reglas de la conjetura…

Figura 3: el ejemplo de Tietze para n=5.

Augustus de Morgan se interesó por la conjetura de Guthrie y la difundió entre sus colegas. El 23 de octubre de 1852 escribió a William Rowan Hamilton: “A student of mine [se refiere a Frederick Guthrie] asked me today to give him a reason for a fact which I did not know was a fact – and do not yet. He says that if a figure be any how divided and the compartments differently coloured so that figures with any portion of common boundary line are differently coloured – four colours may be wanted, but not more – the following is the case in which four colours are wanted. Query cannot a necessity for five or more be invented […]

Figura 4: carta de De Morgan a Hamilton que incluye el diagrama crítico. Imagen Wikipedia.

En ese momento Hamilton estaba trabajando en teoría de cuaterniones, y respondió cuatro días después a De Morgan, con sarcasmo: “I am not going to attemt your quaternion of colour very soon”.

Decepcionado, De Morgan se puso en contacto con otros matemáticos. En 1853, escribió a William Whewell, describiendo la conjetura como un axioma matemático.

El problema de los cuatro colores cruzó el Atlántico: Charles Sanders Peirce dio un seminario sobre la demostración, aunque nunca la escribió.

Tras la muerte de De Morgan en 1871, el problema de los cuatro colores pareció olvidarse; aunque Peirce seguía buscando su demostración, ninguno de los amigos británicos de De Morgan lo mencionaban.

Años más tarde, en junio de 1878, Arthur Cayley hizo la siguiente pregunta en un encuentro de la London Mathematical Society: “Has a solution been given of the statement that in colouring a map of a country, divided into counties, only four colours are required, so that no two adjacent counties should be painted in the same colour”?.

Realmente interesado por el problema, en 1879 publicó una nota corta sobre el tema en los Proceedings of the Royal Geographical Society. Admitía la dificultad del tema: “I have not succeeded in obtaining a general proof: and it is worth while to explain wherein the difficulty consists”.

Entre otros, en esa nota observaba que, a la hora de probar el teorema, podían imponerse condiciones más restrictivas sobre los mapas a colorear, en particular, bastaba con limitarse a mapas cúbicos, es decir, aquellos en los que hay exactamente tres regiones en cada punto de encuentro. En efecto, si en un mapa hay más de tres regiones en alguno de los puntos de encuentro (ver figura 5); sobre este punto puede pegarse un pequeño parche que produce un mapa cúbico. Si se puede colorear este mapa con cuatro colores, también se puede obtener un 4-coloreado del mapa original: basta con colapsar el parche en un punto.

Figura 5 Basta con considerar mapas cúbicos.

Continuará en… El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba.

Referencias:

Marta Macho Stadler, Mapas, colores y números, Descubrir las matemáticas hoy: Sociedad, Ciencia, Tecnología y Matemáticas 2006 (2008) 41-68

Robin Wilson, Four colors suffice: how the map problem was solved, Princeton University Press, 2002.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo El teorema de los cuatro colores (1): una historia que comienza en 1852 se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El teorema de la ikurriña
  2. El teorema de la pizza
  3. Teorema de la galería de arte
Catégories: Zientzia

El flujo sanguíneo se reorganiza en respuesta a las necesidades

mar, 2017/04/25 - 17:00

Como vimos aquí, en reposo, el corazón humano bombea sangre a razón de 5 litros por minuto (l m-1). La sangre que sale por la aorta y se dirige a los tejidos procedente de los pulmones va cargada de O2. Veamos cómo se reparte ese flujo entre unos órganos y otros.

El sistema digestivo recibe 1,35 l min-1, un 27% del total. El tracto digestivo recibe 1 l min-1, y el resto 0,35 l min-1, aproximadamente, va directamente al hígado, aunque este órgano recibe, a través del sistema portal hepático, un flujo adicional procedente precisamente del intestino con sustancias recién absorbidas. Este flujo sanguíneo proporciona oxígeno a un tejido metabólicamente muy activo. Pero también está al servicio de la incorporación al organismo de los nutrientes digeridos y absorbidos, y su posterior remisión al hígado para su posible almacenamiento o transformación, y al resto de los tejidos para su uso; en este segundo caso, no obstante, la sangre ha de volver al corazón para su redistribución posterior.

El segundo destino que más sangre recibe en reposo son los riñones, a los que se dirige un 20% del total de sangre bombeada en un ciclo de contracción-relajación del ventrículo izquierdo del corazón. El flujo que reciben los riñones es de 1 l min-1. Aunque las células renales son muy activas metabólicamente por el trabajo de transporte iónico que efectúan, la principal razón de ese elevado flujo es la necesidad de filtrar la sangre en los glomérulos renales para limpiarla de las sustancias de deshecho (urea, principalmente) y para ajustar los elementos del balance de agua y sales, de manera que tal balance resulte equilibrado y pueda mantenerse la constancia en las propiedades osmóticas e iónicas del medio interno.

La muscultura esquelética recibe 750 ml min-1 (un 15%) del flujo sanguíneo. Puede parecer una cifra importante, pero no lo es en términos relativos, ya que la musculatura esquelética representa alrededor de la mitad de la masa corporal.

Por comparación, mayor importancia relativa tiene el flujo de sangre que riega el encéfalo: 650 ml min-1(13%). No debe sorprender ese valor, dado que el tejido encefálico es el de mayor actividad metabólica: algo más del 20% de la del conjunto del organismo en reposo. Ese elevado metabolismo es el que alimenta energéticamente el mantenimiento de los gradientes iónicos de los que depende la transmisión de los impulsos nerviosos, así como el conjunto de procesos implicados en las sinapsis químicas. Hay que tener en cuenta que la masa encefálica es de entre 1,3 y 1,5 kg. dependiendo de la talla del individuo, o sea, representa del orden del 2% de la masa corporal solamente.

La piel recibe 450 ml min-1 (un 9%), el corazón 150 ml min-1 (3%) y los huesos y resto de elementos corporales, 650 ml min-1 (13%).

Las cosas cambian de forma sustancial si el individuo debe hacer alguna actividad física. Para empezar, en condiciones de ejercicio moderado el gasto cardiaco se multiplica por 2,5: pasa a ser de 12,5 l min-1. Pero el cambio no consiste solo en un aumento del flujo sanguíneo total; también cambia, y mucho, el reparto de ese flujo entre los diferentes órganos.

El cambio más importante es el que registra el riego muscular. Se multiplica por más de diez y de los 750 ml min-1 en reposo pasa a 8 l min-1; o sea, casi dos terceras partes (64%) del flujo total se dirige a la musculatura esquelética bajo esas condiciones. La razón de ese aumento no requiere explicaciones adicionales. La piel y el corazón son los otros órganos cuya irrigación aumenta de forma importante. La piel pasa a recibir 1,7 l min-1 (el 13,6%); no hay que perder de vista que la piel es el principal enclave a través del cual disipamos energía en forma de calor hacia el exterior. Y el aumento de la irrigación cardiaca, que pasa a ser de 550 ml min-1 (4,4 %) obedece, precisamente, a la necesidad de aumentar el gasto cardiaco elevando la frecuencia de latido.

Nada sorprendentemente, el encéfalo recibe el mismo riego sanguíneo (650 ml min-1) que en reposo, lo que da idea de la importancia de mantener la actividad encefálica constante, incluso cuando otras requieren aportes adicionales de O2 y nutrientes.

Y luego están los órganos cuyo riego disminuye, tanto en términos absolutos como relativos, porque las funciones que desempeñan permiten una reducción a veces importante, ya que no es esencial que se mantengan a un nivel constante en todo momento. El tracto digestivo pasa a recibir 600 ml min-1 (4,8%), los riñones, 550 ml min-1 (4,4%) y huesos y demás elementos, 450 ml min-1 (3,6%).

Los ajustes necesarios para redirigir el flujo sanguíneo se producen en el sistema de arteriolas. Se trata del sistema que, en conjunto, más resistencia ofrece a la circulación de la sangre; por esa razón es en esa parte de la circulación general donde se produce la caída más grande de la presión sanguínea: su valor medio pasa de unos 90 mm Hg al salir de las grandes arterias, a los aproximadamente 40 mm Hg al llegar a los capilares. Pues bien, pequeñas modificaciones en el tono arteriolar, aumentando o disminuyendo el diámetro interno de los vasos de unas zonas o de otras, dan lugar a cambios muy grandes en el flujo de sangre a través de los diferentes tejidos. Y esos cambios responden a señales intrínsecas. Esto no implica que no haya control extrínseco del diámetro de las arteriolas. Lo hay y corre a cargo del sistema nervioso simpático, pero, al parecer, el objeto de tal control no es el de regular el flujo, sino controlar la presión arterial en su conjunto.

Las señales que generan los cambios locales de flujo son químicas y tienen que ver con la actividad metabólica de los tejidos afectados. Se trata, por ello, de un control local, intrínseco. La reducción de la concentración de O2 en la sangre produce vasodilatación arteriolar. Así, cuando el consumo de oxígeno es alto en los músculos esqueléticos, su concentración baja rápidamente y ese descenso provoca una mayor apertura de las arteriolas que riegan esos músculos. Además de la disminución de la concentración de O2, el aumento de la de CO2 –provocada por la misma causa- tiene el mismo efecto. La acidificación del entorno –por efecto de la combinación de CO2 con el agua y por el aumento en la concentración de lactato- da lugar también a un aumento en el diámetro de las arteriolas. Otro factor es la elevación del K+ extracelular; esa elevación se produce cuando las bombas Na+-K+ no son capaces de reintroducir en las células (neuronas encefálicas o células musculares) el K+ que sale al exterior como consecuencia de los frecuentes potenciales de acción que ocurren en zonas especialmente activas. Una concentración osmótica elevada tiene el mismo efecto; ocurre cuando el metabolismo celular es muy alto y da lugar a la producción excesiva de moléculas osmóticamente activas, algunas de las cuales abandonan las células hacia el líquido intersticial. Y en el músculo cardiaco especialmente, la liberación de adenosina que se produce en respuesta a una elevada actividad metabólica o falta de oxígeno, también provoca un aumento del diámetro arteriolar y, por lo tanto, del flujo sanguíneo hacia la zona afectada.

Cuando, por las razones que sea, eches a correr y experimentes un aumento del ritmo cardiaco y un mayor flujo de calor hacia la superficie de tu cuerpo, quizás recuerdes esto que has leído aquí.

El artículo El flujo sanguíneo se reorganiza en respuesta a las necesidades se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un viaje a través del sistema circulatorio humano
  2. Corazones
  3. A mayor tamaño, mayor complejidad
Catégories: Zientzia

Los cimientos de la química neumática al estilo van Helmont (y 3)

mar, 2017/04/25 - 11:59

El principio de conservación de la materia es algo que está implícito en van Helmont ya que asume en sus experimentos que se conserva independientemente de los cambios que sufra. Extendió esta idea a los metales, algo que los alquimistas veían de forma completamente opuesta. Según van Helmont, cuando los metales se disolvían en los ácidos no se destruían sino que se podían recuperar gramo por gramo (cosa muy útil si te persiguen los nazis).

Angelo Sala. Imagen: Wellcome Library, London. Wellcome Images

Estas ideas, sin embargo, no eran exclusivas de van Helmont. Por ejemplo, su contemporáneo Angelo Sala describe en Anatomia vitrioli (1617) como había disuelto una cierta cantidad de cobre en ácido sulfúrico, recuperado químicamente el cobre metálico y encontrado que pesaba exactamente lo mismo que el cobre con el que había comenzado el experimento.

No solo eso, Sala también demostró algo muy importante y que hoy se da (o debería darse) por sentado: pudo preparar en el laboratorio un sulfato de cobre hidratado que era exactamente igual al sulfato de cobre hidratado que se encuentra en la naturaleza, una idea revolucionaria para la época. Pero Sala no tenía la influencia y el prestigio de van Helmont, por lo que hoy no aparece en casi ningún libro de historia de la química, entre otras cosas, porque sus ideas más que notables, no tuvieron impacto.

Sin embargo, van Helmont tenía tanta influencia que incluso sus especulaciones más evidentemente arbitrarias tuvieron eco. Así, van Helmont postuló la existencia del alcahest, el disolvente universal, que tenía la propiedad de devolver las sustancias a sus estado primitivo, esto es, a agua, el componente básico de todo. Los químicos contemporáneos, que habían dejado de buscar la piedra filosofal, emplearon mucho tiempo y esfuerzo buscando el alcahest, incluido el famoso Robert Boyle.

La química moderna empezará realmente con la investigación de los gases por los llamados químicos neumáticos y será van Helmont el que establezca las bases de esta nueva área de investigación. Eso sí, con la esquizofrenia característica del siglo.

Para van Helmont como el aire no podía convertirse en agua, tenía que ser un elemento diferente. Sin embargo, existía una serie de sustancias “parecidas al aire” que aparecían frecuentemente en el transcurso de las reacciones químicas. Para referirse a ellas van Helmont empezó a utilizar el término gas, que en neerlandés suena muy parecido a caos, un término que Paracelso usó para referirse al aire en otro sentido.

Obviamente, para van Helmont los gases eran simplemente agua, no aire, ya que cualquier sustancia se convertía en gas e iba a la atmósfera por la muerte de sus “fermentos”. Un gas era caos porque no tenía forma. Un gas podía condensar en vapor (visible como distinto del aire) y caer en forma de lluvia (precipitar) por la influencia del blas, un término que la jerga química no terminó de aceptar y con el que van Helmont se refería a una especie de influencia o poder astral, “gravitacional”, que producía el cambio y el movimiento en el universo.

Como hemos visto, el siglo XVII produce grandes avances en la química pero también modelos teóricos arcaicos o arcaizantes. Serán ya otros nombres, todavía arrastrando algunas ideas alquímicas, los que comiencen este mismo siglo con la historia moderna de la química: Robert Boyle, Robert Hooke, John Mayow, John Joachim Becher, Georg Ernest Stahl o Stephen Hales ya no son alquimistas.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los cimientos de la química neumática al estilo van Helmont (y 3) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las transmutaciones de van Helmont (2)
  2. Jan van Helmont, filósofo por el fuego (1)
  3. El siglo de la esquizofrenia química
Catégories: Zientzia

Historias de la malaria: El parásito

lun, 2017/04/24 - 17:00

Terciana: Calentura intermitente que repite cada tercer día.
Cuartana: Calentura, casi siempre de origen palúdico, que entra con frío, de cuatro en cuatro días.
(Diccionario de la Lengua Española).

Fue el médico militar francés Alphonse Laveran, del que hablaré en otro capítulo de esta serie, quien demostró en 1880, con la ayuda de un microscopio no muy potente, que el parásito que provoca la malaria tenía, según vio en preparaciones de sangre fresca de enfermos, un cuerpo globular ciliado que, años más tarde se asignó a un protozoo del género Plasmodium. Ahora nosotros vamos a conocer en detalle al protagonista principal de las historias de la malaria.

Plasmodium falciparum

Son cuatro las especies de Plasmodium que causan la malaria en nuestra especie. El Plasmodium falciparum es la especie más letal, la más asociada a la mortalidad que provoca el parásito de la malaria. Menos letales son las otras tres especies implicadas: Plasmodium vivax, Plasmodium malariae y Plasmodium ovale.

El ciclo vital de los plasmodios tiene dos fases: una sexual en la hembra del mosquito transmisor, y otra asexual en el huésped vertebrado. Esta fase en el vertebrado tiene, a su vez, dos fases: la primera, una vez llega por la picadura del mosquito, en las células del hígado, y la segunda en los glóbulos rojos de la sangre. La descarga de los parásitos en gran cantidad desde los glóbulos rojos es la que provoca las fiebres típicas de la malaria.

Una vez que el insecto pica al vertebrado huésped, y se carga de células sexuales del parásito y, en el estómago del insecto, se unen, forman el zigoto o huevo fecundado que, a su vez, se rompe en abundantes células del protozoo llamadas esporocitos que llegan a las glándulas salivares del mosquito y, cuando éste pica, son descargados a la sangre del huésped vertebrado, y el ciclo comienza de nuevo.

Los esporocitos atraviesan la pared del digestivo del vertebrado y llegan al hígado, en una hora más o menos, y allí se multiplican formando los merozoitos que se descargan a la sangre e invaden los glóbulos rojos. Se vuelven a dividir hasta formar más merozoitos y, finalmente, las células sexuales que, cuando pica el mosquito, llegan a su estómago, y vuelve a comenzar el ciclo.

Complicado pero así consiguen tantos parásitos el éxito evolutivo que tienen.

La reproducción del Plasmodium en los glóbulos rojos tarda unas 48 horas en el falciparum, vivax y ovale, y 72 horas en malariae. El ciclo de 48 horas es el que provoca las fiebres que se llaman tercianas, con un acceso un día de cada dos. Si es con falciparum, es la terciana maligna; si es con ovale o vivax, es la fiebre terciana benigna. En malariae, con el ciclo de 72 horas, aparecen la fiebre que se denomina cuartana, con un día de cada tres.

El ciclo completo del desarrollo de los protozoos en la especie humana es de 9 a 15 días en falciparum, de 12 días en vivax y ovale, y de 20 días en malariae. Los parásitos no sobreviven en el huésped más de un año, para el falciparum, o de dos años, para el vivax y el ovale. El P. malariae plantea más problemas pues puede mantenerse hasta algunas decenas de años. En conclusión, si se controlan los insectos durante tres años en un determinado enclave con malaria, el parásito desaparece. Se hizo en la década de los sesenta en Estados Unidos, Puerto Rico y otros países y se erradicó la enfermedad.

La entrada de los protozoos en los glóbulos rojos se consigue por la unión del parásito a receptores de membrana de las células de la sangre. Si no hay unión, el plasmodio no puede entrar en el glóbulo rojo y completar su ciclo de crecimiento y, por tanto, no hay ataques de fiebre en el enfermo. Es lo que ocurre en África con el vivax que no consigue entrar en los glóbulos rojos. Es una especie que no aparece en muchas zonas de África, precisamente las mismas zonas en que gran parte de la población, entre el 90% y el 100%, tiene la mutación negativa del grupo sanguíneo Duffy. En esta mutación, el receptor de membrana, una proteína que caracteriza al grupo Duffy, no se sintetiza y, por tanto, no está en la membrana de los glóbulos rojos. Y el vivax, para entrar en la célula, se une precisamente a ese receptor Duffy. Y, por ello, al faltar el receptor no puede entrar en el glóbulo rojo. Se ha propuesto que por esta causa ha desaparecido de grandes zonas de África. Está en chimpancés y gorilas, pero no en la especie humana.

El ciclo vital del parásito en el mosquito necesita de una temperatura ambiente elevada. En el Plasmodium falciparum es de más de 26ºC, con una mínima para poder desarrollarse de 18ºC, y el ciclo dura diez días. En vivax es de 8-9 días, en ovale son 12-14 días, y en malariae es de 14-15 días. Estas especies están, por esa restricción de temperaturas, confinadas al trópico y, si aparecen en zonas más templadas, es porque el mosquito vive en interiores, climatizados por nuestra especie, con un microclima más estable y temperaturas no tan bajas como en el exterior.

Con estas limitaciones de temperatura, es indudable el impacto que puede tener el calentamiento global para un aumento del área de distribución del Plasmodium. Ya está ocurriendo en el sur y el este de África, y la epidemia de malaria en Madagascar a finales de los ochenta, a partir de 1987, en zonas de altitud y con clima más fresco que en la costa, donde la enfermedad, con pequeños focos, había desaparecido en 1960, es un buen ejemplo. En pocos años alcanzó los 25000 muertos.

El origen y la expansión del plasmodio es anterior a la especie humana. La propagación por todo el planeta tuvo, cuando ya parasitaba a nuestra especie, precisamente en la extraordinaria movilidad y adaptación a todos los entornos del Homo sapiens.

Su origen según algunos expertos, está en algún protozoo, parásito del intestino de vertebrados, que consiguió atravesar la pared del tubo digestivo y adaptarse a vivir en otros órganos y, muy importante, en la sangre del huésped. Después, en un segundo paso, encontró un huésped invertebrado en los mosquitos picadores y chupadores de sangre. Hay que recordar que mosquitos parecidos a los actuales ya existían hace unos 150 millones de años.

Las líneas más antiguas de plasmodios de la malaria están en reptiles y aves y, en una línea más reciente, aparece en mamíferos, incluyendo a primates y a nuestra especie. Algunos dicen que el paso de falciparum de aves, quizá domésticas, a Homo sapiens, es reciente, de hace entre 5000 y 10000 años. Otros autores proponen que el parásito de humanos viene del chimpancé y que el paso se puede fechar hace unos 8 millones de años, cuando aparecieron las especies que llevarían, por una parte, a los chimpancés actuales y, por otra, a la especie humana. Las pruebas directas más antiguas de la malaria en la especie humana, aún con descripciones médicas y literarias anteriores, están en las momias egipcias, desde hace unos 4000 años, y en los cadáveres de cementerios cercanos a Roma y fechados hace unos 2000 años, en la época imperial. El análisis de ADN y pruebas inmunológicas de esos cuerpos han demostrado la presencia de falciparum. Incluso la momia de Tutankamon y las de tres familiares suyos, enterrados hace unos 3500 años, dan positivo al análisis de ADN de falciparum.

Ahora empezamos a conocer el genoma de los plasmodios. Tienen 14 cromosomas. Y el estudio del ADN lleva a estudiar su evolución. Por ejemplo, algunos de los plasmodios de humanos, en los análisis genéticos, son muy parecidos a los que se encuentran en otros monos actuales y, por tanto, el paso de la malaria a humanos sería más reciente. Así, el protozoo más cercano al falciparum se encuentra en los gorilas, y el de vivax en gorilas y chimpancés.

Además, el análisis genético ha permitido detectar que hay infecciones mixtas, con más de una de las especies de plasmodios en las zonas donde se localiza más de una. Es interesante que las infecciones con vivax o con malariae reducen la gravedad de la infección con falciparum. Incluso se ha encontrado otro plasmodio, parásito del macaco, que, a veces, también parásita a la especie humana. Es el Plasmodium knowlesi.

En cuanto al origen geográfico de la malaria en nuestra especie parece que se localiza en el centro y el este de África, en la región de Etiopía. Desde allí, por el valle del Nilo, llegó al Mediterráneo y, después, hacia el oeste y el norte, a Europa, y hacia el este a Oriente Medio, la India y el sudeste de Asia.

Plasmodium vivax es la especie que tiene una distribución más amplia, en el trópico, subtrópico y zonas templadas. P. falciparum es la especie más común en el trópico y subtrópicos y, rara vez, en zonas templadas. P. malariae tiene igual distribución que falciparum pero es menos común. Y P. ovale se encuentra en el África tropical y, esporádicamente, en otras zonas del planeta.

Referencias:

Bianucci, R. et al. 2007. Immunological evidence of Plasmodium falciparum infectyion in an Egyptian child mummy from the Early Dynastic Period. Journal of Archaeological Science doi: 10.106/j.jas.2007.11.019

Bray, R.S. & P.C.C. Garnham. 1982. The life-cycle of primate malaria parasites. British Medical Bulletin 38: 117-122.

Brockington, F. 1964. La salud en el mundo. EUDEBA. Buenos Aires. 403 pp.

Bruce-Chwatt, L.J. 1965. Paleogénesis and paleo-epidemiology of primate malaria. Bulletin of the WHO 32: 363-387.

Coluzzi, M. 1994. Malaria and the Afrotropical ecosystems: Impact of man-made environmental changes. Parasitologia 36: 223-227.

Earle, D.P. 1979. A history of malaria and its ironies. Transactions of the American Clinical and Climatological Association 90: 1-26.

Gentilini, M. et al. 1977. Médecine Tropicale. Flammarion-Sciences. Paris. 561 pp.

Hawas, Z. et al. 2010. Ancestry and pathology in King Tutankhemum’s family. Journal of American Medical Association 303: 638-647.

Hommel, M. 2007. Morphologie, biologie et cycle des Plasmodium parasites de l’homme. Bulletin de l’Académie nationale de médecine 191: 1235-1246.

Howes, R.E. et al. 2011. The global distribution of the Duffy blood group. Nature Communications DOI: 10.1038/ncomms1265

Laremruata, A. et al. 2013. Molecular identification of falciparum malaria and human tuberculosis co-infections in mummies from the Fayum Depression (Lower Egypt). PLOS ONE 8: e60307

Lepers, J.P.et al. 1990. Newly transmitted Plasmodium falciparum malaria in the central highland plateaux of Madagascar: assessment of clinical impact in a rural community. Bulletin of the WHO 68: 217-222.

Lu, W. Et al. 2014. African origins of the malaria parasite Plasmodium vivax. Nature Communications DOI: 10.1038/ncomms4346

Marciniak, S. et al. 2016. Plasmodium falciparum malaria in 1st-2nd century CE southern Italy. Current Biology DOI: 10.1016/j.cub.2016.10.016

Meibalan, E. & M. Marti. 2017. Biology of malaria transmission. Cold Spring Harbor Perspectives in Medicine 7: a025452

Mercereau, O. & D. Ménard. 2010. Plasmodium vivax and the Duffy antigen: A paradigm revisited. Transfusion Clinique et Biologique doi: 10.1016/j-tracli.2010.06.005

Pagès, F. 1953. Le paludisme. PUF. Paris. 113 pp.

Schlagenhauf, P. 2004. Malaria: from prehistory to present. Infectious Disease Clinics of North America 18: 189-205.

Tan, S.Y. & A. Ahana. 2009. Charles Laveran (1845-1922): Nobel laureate pioneer of malaria. Singapore Medical Journal 50: 657-658.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Historias de la malaria: El parásito se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Historias de la malaria: El charlatán y caballero Sir Robert Talbor
  2. Historias de la malaria: El árbol de la quina
  3. Una buena colección de historias maravillosas
Catégories: Zientzia

Pages