S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 55 min 23 sec

La invención matemática

mer, 2018/03/14 - 11:59

Acaba de publicarse en KRK Ediciones el magnífico texto La invención matemática. Cómo se inventa: el trabajo del inconscientede Henri Poincaré, traducido y prologado por Francisco González Fernández.

L’invention mathématique es el título de una conferencia impartida por Henri Poincaré en el Institut général psychologique de París el 23 de mayo de 1908 y publicada ese mismo año (entre otras, en la revista L’Enseignement Mathématique 10, 357-371). El científico francés publicó Comment on invente. Le travail de l’Inconscienten el periódico Le Matin a finales del año 1908.

En esta edición en castellano publicada en febrero de 2018, Francisco González Fernández, enamorado y estudioso de la obra de Poincaré, traduce los textos originales y los analiza en una magnífica introducción, que en nada desmejora el discurso posterior del científico.

En la contraportada, la editorial presenta esta singular publicación del siguiente modo:

¿Cómo surgen las ideas? ¿Qué caminos conducen a la resolución de un problema? ¿Cuáles son los procesos mentales que intervienen en un acto creativo? En 1908, a petición de la Sociedad Psicológica de París, el gran matemático francés Henri Poincaré (1854-1912) impartió una conferencia en la que quiso responder a estas preguntas contando y elucidando cómo se le había ocurrido una de sus teorías primordiales. Al dar carta de naturaleza a la intuición, a la belleza y al inconsciente en el acto creativo, La invención matemática se convirtió en un modelo explicativo ineludible, no sólo en el ámbito matemático, vigente aún hoy en su esencia y que ha sido refrendado por los datos de la psicología moderna.

«Henri Poincaré se contó entre los primeros en proponer aquello que todavía se considera como los pasos básicos del proceso creativo de solución de problemas».

Daniel Goleman, El espíritu creativo

«Todos los libros sobre creatividad cuentan la manera como Poincaré descubrió las funciones fuchsianas».

José Antonio Marina, Teoría de la inteligencia creadora

«La invención matemática es «una de las más famosas exposiciones nunca escritas por un científico acerca de su propio trabajo creativo».

Peter Galison, Relojes de Einstein, mapas de Poincaré

En su introducción, Francisco González Fernández comienza tendiendo puentes entre el arte y la ciencia a través de la invención, y cita para ello testimonios sobre los procesos creativos del compositor Wolfgang Amadeus Mozart, del poeta Samuel Taylor Coleridge o del químico August Kekulé.

En el caso del matemático Henri Poincaré (1854-1912), la conferencia impartida en 1908 se centraba en la teoría de funciones fuchsianas y en la manera en la que la había “inventado”. Esta teoría forma parte de sus primeras creaciones matemáticas, realizada en los años 1880, poco después de defender su tesis doctoral.

Como comenta en la introducción González Fernández: “Para el matemático francés no se trata de referir el momento en el que se enciende la luz del genio, sino de comprender la naturaleza de esa súbita inspiración”; recordemos que su conferencia estaba dirigida a especialistas en psicología, no a personas entendidas en matemáticas.

Francisco González Fernández compara en su prólogo la creatividad de Edgar Allan Poe al escribir El cuervo –“Poe relataba la elaboración de su poema como si fuera un problema de álgebra”– y la de Poincaré en sus matemáticas –“A la inversa, Poincaré mostraría que la invención matemática no surgía del puro raciocinio, sino merced ante todo a la intuición”–. El álgebra necesaria para encadenar versos y la creatividad al servicio del análisis matemático son dos buenos ejemplos de la naturaleza híbrida de muchos procesos de invención.

Poincaré distingue en su texto entre la invención y el descubrimiento, critica la excesiva axiomatización de las matemáticas, y cita el papel fundamental del inconsciente en su proceso creativo, entre otros. Por cierto, su discurso ha sido avalado posteriormente por numerosos neurocientíficos.

Termino con una cita del discurso del científico francés, que invita a la lectura de la disertación completa de Poincaré… ¡y del magnífico prólogo de González Fernández!

Los hechos matemáticos dignos de ser estudiados son aquellos que, por su analogía con otros hechos, son susceptibles de conducirnos al conocimiento de una ley matemática, al igual que los hechos experimentales nos conducen al conocimiento de una ley física. Son aquellos que nos revelan parentescos insospechados entre distintos hechos, conocidos hace mucho, pero que se creía erróneamente que no tenían nada que ver entre sí.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo La invención matemática se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Lógica vs. intuición en la creación matemática
  2. Matemática discreta y trasplantes cruzados de riñones
  3. Los institutos Isaac Newton y Oberwolfach, dos curiosas instituciones de investigación matemática
Catégories: Zientzia

“Filosofía, Ciencia y Valores”, el máster

mar, 2018/03/13 - 21:00

Si las sociedades contemporáneas necesitan más cultura científica, el sistema educativo necesita responder a esa demanda formando a personas que sean capaces de crearla y transmitirla lo mejor posible. En esa tarea se afana la Cátedra de Cultura Científica, pero no lo hace sola. Como ya anunciamos el año pasado, en esta aventura colabora con el Máster en Filosofía, Ciencia y Valores, que se imparte en el campus de Gipuzkoa de la Universidad del País Vasco desde hace ya varios años.

Quienes cursan un máster prolongan su periodo de formación, o bien retornan a las aulas universitarias como estudiantes para adquirir conocimientos especializados en las materias que le son propias. En el caso que nos ocupa, esas materias incluyen temas de filosofía e historia de la ciencia (o de las ciencias, como prefieren algunos). Pero también filosofía de la biología, de la física y la matemática, filosofía del lenguaje y de la lógica, éticas aplicadas y bioética, filosofía política y de la cultura, estudios de ciencia y tecnología, etc. Como puede comprobarse hay diversidad disciplinar, pero es una diversidad articulada en torno a un cuerpo común de conocimientos, un cuerpo en el que las ciencias, el conocimiento, son el objeto de estudio, reflexión e investigación, y la filosofía, en varias de sus especialidades (epistemología, lógica, ética, política), constituye la aproximación o, si se quiere, la mirada con la que las ciencias son analizadas.

Quienes cursan este máster adquieren una formación especializada, como se ha dicho, y como ocurre con otros másteres, también pueden, si así lo desean, iniciar una carrera investigadora. Tras completar el Máster en Filosofía, Ciencia y Valores, el o la estudiante tiene garantizado, si así lo desea, el acceso a un doctorado, pero eso no es lo más importante. Lo que al final cuenta es haber adquirido herramientas de trabajo para profundizar e intervenir en algunos de los problemas más acuciantes de nuestro tiempo.

Como señalábamos al principio, la Cátedra de Cultura Científica se ha embarcado en una aventura en relación con este máster. En concreto, colaboramos en actividades de difusión social de la ciencia en internet. Y estamos diseñando nuevas iniciativas de manera conjunta que daremos a conocer próximamente.

El Máster en Filosofía, Ciencia y Valores está organizado por la UPV/EHU en colaboración con la Universidad Nacional Autónoma de México. El alumnado es interdisciplinar: además de Filosofía, se puede acceder desde grados de Humanidades, Ciencias Sociales, Ingeniería, Ciencias Experimentales, Bellas Artes y Ciencias de la Salud. El profesorado es internacional e incluye investigadores e investigadoras de prestigio (Ikerbasque, UNAM, UPV/EHU). Las personas interesadas en el máster pueden acudir a las sesiones informativas que se organizan en los campus. En Donostia será el viernes 16 de marzo a las 17:30 en el Centro Barriola, y en Bilbao el sábado 17 a las 10:30 en Bizkaia Aretoa.

Más información.

El artículo “Filosofía, Ciencia y Valores”, el máster se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La Cátedra se va de máster
  2. Ciencia y valores en la sociedad del riesgo
  3. Por qué la filosofía es tan importante para la educación científica
Catégories: Zientzia

Regulación de la circulación (2): control de la microcirculación

mar, 2018/03/13 - 17:00

Arteriolas y capilares sanguíneos.

La circulación está sometida a un estricto control al objeto de garantizar, en primer lugar, un suministro de sangre suficiente al encéfalo y al corazón, un suministro suficiente al resto de órganos y tejidos corporales a continuación y, por último, una cierta constancia en el volumen de los tejidos y la composición del fluido intersticial. El flujo sanguíneo a través de los capilares se ajusta en función de las necesidades de irrigación de los tejidos, y ese ajuste se puede producir tanto por la acción del sistema nervioso, como mediante control local. Ya vimos aquí las particularidades del sistema de control nervioso de la circulación. En esta anotación pasaremos a describir el control de la microcirculación en los tejidos y, para ello, conviene no perder de vista los elementos que configuran el sistema circulatorio.

La mayoría de las arteriolas están inervadas por fibras simpáticas que liberan el neurotransmisor noradrenalina. En las arteriolas hay dos tipos de receptores adrenérgicos, α y β. Cuando se une una molécula de noradrenalina a los α-adrenorreceptores de la musculatura lisa de las arteriolas, estas reducen su diámetro (vasoconstricción), por lo que aumenta la resistencia al flujo y sube la presión arterial. Los β-adrenorreceptores, sin embargo, se encuentran en posiciones distantes de las terminaciones nerviosas simpáticas, por lo que lo normal es que se combinen con catecolaminas (adrenalina y noradrenalina) que han sido liberadas por neuronas adrenérgicas del sistema nervioso autónomo (noradrenalina, principalmente) y, sobre todo, por las células del tejido cromafín de la médula adrenal (adrenalina). En otras palabras, se trataría más bien de receptores hormonales. Paradójicamente, su efecto es vasodilatador, por lo que se opone al de la noradrenalina que se une a los -adrenorreceptores.

Las catecolaminas ejercen efectos variados y, como hemos visto, incluso pueden ser contrapuestos. Esos efectos dependen del tipo de receptor con el que se unen pero, además, también varían dependiendo de su concentración sanguínea, debido a la diferente sensibilidad de los receptores a una catecolamina y a la otra. Y para complicar aún más el panorama, otros factores, como el tono del músculo liso o el efecto modulador de sustancias como el neuropéptido Y o el ATP, también inciden en la forma en que las catecolaminas ejercen sus efectos.

Las arteriolas que irrigan el encéfalo y los pulmones son inervadas por fibras parasimpáticas que liberan acetilcolina (fibras colinérgicas). En mamíferos la estimulación de estas fibras provoca vasodilatación.

Sean cuales fueren los mecanismos implicados en la regulación del flujo a través de arteriolas y capilares, el sistema funciona de manera que lo que se tiende a garantizar es la irrigación adecuada del encéfalo y el corazón. Por ello, si se produce una caída en la presión arterial, la respuesta del sistema consiste en limitar al máximo el flujo sanguíneo hacia el resto de órganos y dirigirlo preferentemente hacia los dos prioritarios.

Capilar sanguíneo.

Además del control nervioso, diferentes mecanismos operan a nivel local para regular la circulación en órganos y tejidos. Así, el músculo liso de los vasos se contrae en respuesta a la dilatación provocada por un aumento del flujo a su través. Se opone al aumento del diámetro y contribuye de esa forma a mantener dentro de unos límites relativamente estrechos el flujo a través del sistema capilar. Por otro lado, el calor provoca vasodilatación, y el frío tiene el efecto contrario.

La elevación del metabolismo de un tejido también suele venir acompañada por una disminución de la concentración de O2, y un aumento de la de CO2 y pH. Por ello, no es sorprendente que esas señales provoquen la dilatación de los vasos, permitiendo de ese modo una más rápida renovación de la sangre en esos tejidos y un mayor suministro de O2 y sustratos.

El endotelio vascular y otras células asociadas con la circulación liberan sustancias con actividad sobre los vasos. El endotelio produce y libera óxido nítrico (NO) de forma permanente. Regula el flujo sanguíneo y la presión en mamíferos y otros vertebrados provocando una relajación de la musculatura lisa. Al parecer, el estiramiento del endotelio, debido a un aumento del flujo, podría servir de señal para la síntesis de NO, gracias a la entrada de calcio en sus células y al papel de este en la activación de las enzimas responsables de su síntesis. Por otro lado, la hipoxia y la reducción del pH provocan la liberación de NO, de manera que bajo esas condiciones, su acción conduce a un aumento del diámetro de los vasos y, por lo tanto, del flujo.

Además de NO, el endotelio vascular también libera endotelinas (proteínas vasoconstrictoras) en respuesta al estiramiento (dilatación de la pared endotelial) y prostaciclina, que causa vasodilatación e inhibe la coagulación sanguínea.

En el corazón y los riñones, principalmente, se produce adenosina en respuesta a condiciones de anoxia o hipoxia. Cuando se reduce el suministro de oxígeno la adenosina coordina el suministro y el gasto energético provocando una reducción de la frecuencia de latido del corazón, de manera que disminuye el trabajo que realiza y, simultáneamente, causa vasodilatación coronaria, lo que eleva el suministro de oxígeno y nutrientes al corazón.

En los tejidos hipóxicos se eleva la actividad del denominado HIF-I (factor inducible por hipoxia 1), que reduce la transcripción génica con carácter general, a la vez que estimula la específica de genes asociados con la producción de eritropoietina, factores de crecimiento endotelial vascular, endotelina 1, sintetasa de NO y enzimas glucolítica

En definitiva, además del control que el sistema nervioso ejerce sobre la circulación general (que vimos aquí), también la circulación a través de arteriolas y capilares está sometida a control. En este segundo caso también interviene el sistema nervioso, pero además, hay mecanismos que actúan localmente. El conjunto de controles y mecanismos compensatorios consigue efectuar una regulación muy precisa, tanto del gasto cardiaco total (Q), a través de ajustes de la frecuencia de latido y la fuerza de impulsión, como del volumen preciso que se dirige a cada destino orgánico en función de las necesidades. Salvo condiciones patológicas, todo ello se consigue manteniendo la presión arterial dentro de los límites de referencia.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Regulación de la circulación (2): control de la microcirculación se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Regulación de la circulación (1): control del sistema cardiovascular
  2. El flujo sanguíneo se reorganiza en respuesta a las necesidades
  3. Un viaje a través del sistema circulatorio humano
Catégories: Zientzia

Espaciotiempo

mar, 2018/03/13 - 11:59

Ya hemos dicho que la teoría de la relatividad especial de Einstein no representó una ruptura traumática con la física clásica, pero que sí acabó con la visión mecánica del mundo introduciendo los campos como entes necesarios. Otra ruptura con la visión mecanicista tiene que ver con los conceptos de espacio y tiempo. La concepción newtoniana del universo considera que el espacio y el tiempo son absolutos, lo que significa que son los mismos para todos los observadores independientemente de su movimiento relativo. Einstein demostró que las mediciones de espacio y tiempo en relatividad especial dependen del movimiento relativo de los observadores. Además, resultó que el espacio y el tiempo están, de hecho, entrelazados.

Una aproximación intuitiva a esta realidad la vimos cuando consideramos el experimento mental en el que hacíamos mediciones de longitud de una plataforma móvil. Los mediciones del metro se deben realizar en los extremos de la plataforma en el mismo instante de tiempo. Debido al postulado de la constancia de la velocidad de la luz, una persona en reposo en la plataforma y una persona que ve la plataforma en movimiento no se pondrán de acuerdo sobre cuándo las mediciones serán simultáneas.

Los sucesos ocurren no solo en el espacio, también en el tiempo. En 1908, el matemático alemán Hermann Minkowski sugirió que en la teoría de la relatividad, el tiempo y el espacio se pueden ver como unificados para formar las cuatro dimensiones de un mundo cuatridimensional llamado espaciotiempo. El espaciotiempo cuatridimensional es universal porque un “intervalo” medido en este mundo resultaría ser el mismo para todos los observadores, independientemente de su movimiento relativo a una velocidad uniforme.

El intervalo de espaciotiempo es una especie de “distancia” entre sucesos. Pero no la distancia que separa a los sucesos en el espacio, ni la distancia que los separa en el tiempo, sino la distancia que los separa usando una medida que incluye tanto al espacio como al tiempo.

Algo más formalmente, en general, el intervalo de espaciotiempo entre dos sucesos en sistemas de coordenadas que están en movimiento relativo uniforme será el mismo. Por lo tanto el intervalo de espacio y el intervalo de tiempo variarán en los distintos sistemas de corrdenadas, pero no así el intervalo de espaiotiempo. Esto no es otra cosa que afirmar que en la teoría de la invariancia el intervalo de espaciotiempo es una propiedad invariante.

En resumen, mientras que para Newton tanto la longitud como el tiempo y la simultaneidad eran invariantes, no lo son para la teoría de la invariancia. En ésta, sin embargo, estas propiedades invariantes se convierten en relativas y lo que era relativo para Newton, la velocidad de la luz (en el vacío), se convierte en una invariante (una constante) y se introduce una nueva propiedad el intervalo de espaciotiempo que también lo es.

La aproximación de Minkowski es una aproximación “geométrica” a la relatividad: se parte de la existencia de un espaciotiempo de cuatro dimensiones y, por lo tanto, de sistemas de coordenadas de cuatro dimensiones también que están en movimiento relativo uniforme, y en el que se pueden emplear las expresiones que hemos visto para la relatividad del tiempo y la longitud, que se conocen habitualmente como transformaciones de Lorentz, para pasar las coordenadas en un sistema a otro.

Esta aproximación geométrica es muy común cuando se estudia la relatividad y se hace la principal cuando se generaliza a sistemas de coordenadas que están en movimiento relativo de cualquier clase, es decir, cuando también existen aceleraciones. Es lo que exploraremos a continuación: las bases de la llamada teoría general de la relatividad.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Espaciotiempo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El principio de relatividad (y 4): la versión de Einstein
  2. La relatividad de la masa
  3. La relatividad del tiempo (2)
Catégories: Zientzia

Tojisha-Kenkyu, la técnica japonesa con la que los pacientes se estudian a sí mismos

lun, 2018/03/12 - 11:59

Alrededor de los años 70 ocurrió algo en Japón que puso en marcha una cadena de acontecimientos que, a modo de efecto mariposa, está influyendo en cómo hoy se analizan algunas enfermedades discapacitantes, como el autismo. Se trata de una idea llamada Tojisha-Kenkyu, un tipo de autoanálisis en el que son los propios pacientes los que estudian sus síndromes o discapacidades con la colaboración de sus iguales.

Lo que ocurrió, en realidad fue una tragedia. Una madre asesinó a su hija de dos años afectada de parálisis cerebral. Fue condenada por ese asesinato y la noticia fue muy comentada en los medios. El público simpatizaba con la madre, defendiendo que el crimen fue cometido bajo el peso de una responsabilidad que cargaba sola y sin ayudas institucionales de ningún tipo. Se inició un movimiento que pedía una reducción de su condena.

Esto inició a su vez otro movimiento, el de las asociaciones de personas con discapacidad, que protestaban contra la idea de que fuese comprensible que, en determinadas circunstancias, una persona con discapacidad fuese asesinada.

También en 1970 otro acontecimiento vino a sumarse al caldo de cultivo. En 1968 el gobierno municipal de Tokio había puesto en marcha el centro Fuchu, un lugar de internamiento para personas con discapacidades físicas y mentales graves con 400 plazas. El internamiento de estas personas se consideraba algo urgente, una necesidad apremiante. En 1970 muchos internos comenzaron a protestar, denunciando malos tratos y un ambiente opresivo por parte de los responsables del centro público.

Entre ambas cosas, en los años 70 y 80 se formó en Japón un movimiento de personas con discapacidad, muy activa en las protestas de aquellos asuntos que les afectaban directamente, liderado por los afectados por parálisis cerebral. Fueron entre otras cosas muy activos en la protesta contra una enmienda a la Ley de Protección Eugenética que permitiría el aborto intencionado del feto si este presentaba malformaciones o enfermedades discapacitantes de cualquier tipo.

“Sí, me gustaría estudiar”

Aceleramos el paso del tiempo y llegamos a 2001. En la ciudad de Urakawa se encuentra la Casa Bethel, un centro local de actividades para personas con pacientes y expacientes psiquiátricos. Algunos de estos expacientes se reúnen allí para apoyarse mutuamente e incluso se mudan a vivir a la antigua iglesia cercana al centro. Las actividades de la Casa Bethel no se parecen a las de la mayoría de las instituciones mentales japonesas: la estructura es horizontal, con los pacientes y sus cuidadores apoyándose entre sí, algo más parecido a un grupo de autoayuda que a una terapia dirigida por una figura de autoridad.

Entre los pacientes de este centro se encontraba Hiroshi Kawasaki, un paciente que un día perdió los nervios cuando sus padres se negaron a pedir sushi y videojuegos para él. Estaba tan alterado que rompió el teléfono del centro. Su médico, Ikuyoshi Mukaiyachi, sin saber cómo tranquilizarle, le propuso dedicar su tiempo a estudiar. Cuenta Mukaiyachi que la palabra “estudiar” hizo reaccionar la paciente. “Sí, me gustaría estudiar”.

La técnica de estudiarse a uno mismo

Así surgió la idea de Tojisha-Kenkyu, originalmente llamada jiko kenkyu (auto-estudio): los pacientes de Casa Bethel analizaban sus síntomas y sus problemas. Se extendió más allá de sus paredes a otros afectados por enfermedades psiquiátricas, y después también a muchos más con un rango mayor de afecciones mentales: parálisis mental, adicciones, trastornos del desarrollo…

El profesor Kumagaya aplica la técnica Tojisha-Kenkyu al estudio de su discapacidad (Fuente: Centro de Investigación de Tecnología y Ciencia Avanzadas, Universidad de Tokyo).

“En la literatura existen muchos trabajos a través de los cuales uno se pone frente a frente consigo mismo. Las autobiografías o las novelas semiautobiográficas tienen un largo recorrido en la historia. Pero, ¿qué hay de la ciencia? ¿Hay alguna disciplina científica en la que uno pueda concentrarse en sí mismo?”, se pregunta Shin-ichiro Kumagaya, profesor asociado de la Universidad de Tokio, afectado él mismo por una discapacidad física que le impide caminar.

Eso pretende ser esta técnica que mezcla ciencia y autoayuda. “Tojisha-Kenkyu está basado en el hecho de aceptar que no sabemos mucho sobre nosotros mismos. Aquellos que padecen dificultades similares se observan entre sí con cuidado y compasión mientras trabajan para formular hipótesis sobre sí mismos, y luego las ponen a prueba experimentalmente en su día a día”, continúa Kumagaya.

Gracias a este proceso, desarrollan palabras con las que nombrar sus dificultades y necesidades, lógicas que expresen y predigan la regularidad de estos obstáculos, y medidas para compensarlos. “Al trabajar para resolver sus propios desafíos, en vez de confiar ciegamente en un especialista para que lo haga, asumen un papel activo como investigadores y no solo como pacientes, lo que puede ayudar a estos individuos a conseguir una mayor calidad de vida”.

Pero no se trata de que los pacientes se conviertan en investigadores y queden ya limitados a sus propios recursos. En realidad la técnica es una forma de reenfocar la relación entre el tojisha (la persona estudiada) y el especialista, es decir, entre el conocimiento de la experiencia y el conocimiento de la especialización. La idea es que los conceptos y teorías generados mediante Tojisha-Kenkyu se acepten como nuevas hipótesis dentro del conocimiento especializado, y luego sean puestas a prueba siguiendo todos los protocolos científicos experimentales. Mientras, el tojisha aprende del especialista, ya que todo ese conocimiento es una herramienta muy útil para tener en cuenta todos los factores de su afección, especialmente aquellos difíciles de ver a simple vista.

“El respeto mutuo entre el tojisha y el especialista por sus respectivos conocimientos, junto con los esfuerzos colaborativos de ambos lados, ayudará sin duda a restaurar la confianza en el conocimiento académico. Desde mi punto de vista, como paciente receptor de tratamiento médico de niño que luego se convirtió en un investigador médico, Tojisha-Kenkyu tiene un enorme potencial para conectar ambos mundos”, asegura Kumagaya.

El autismo estudiado por una paciente con autismo

Avanzamos de nuevo y llegamos a mayo de 2018. Satsuki Ayaya tiene 43 años y está haciendo un doctorado en historia y filosofía de la ciencia en la Universidad de Kyoto. Uno de los materiales con los que trabaja son sus propios diarios, decenas de cuadernos que llenó de joven cuando, desesperada por entenderse a sí misma durante la adolescencia, comenzó a escribir todo lo que pensaba. “¿Qué me pasa? ¿Quién soy? ¿Qué hay de malo en mí?”. Ayaya, cuenta en este reportaje, siempre había notado que le costaba jugar con otros niños, como si una pantalla invisible la separase de ellos.

Al principio de la treintena, Ayaya fue diagnosticada de autismo y esa sensación de desconexión cobró sentido. Sus cuadernos se convirtieron en una forma de estudiar la enfermedad, que para ella se manifiesta por ejemplo en la desconexión de sus percepciones: siente con infinitos detalles el abanico de sensaciones que llamamos hambre, pero le cuesta un mundo conectarlas: “Me cuesta mucho darme cuenta de que tengo hambre. Me siento irritada, triste, noto que algo va mal… pero todo me llega por separado, no tiene sentido entre sí”, cuenta. Tarda tanto en darse cuenta de que tiene hambre que a menudo llega a sentirse débil y solo come algo después de que otra persona se lo haya sugerido.

También ha podido asociar el origen de algunas de sus dificultades para hablar con normalidad con la diferencia entre cómo escucha su propia voz, y cómo espera escucharla. Es como si justo después de decir algo su voz volviese a ella y pudiese notar la diferencia, como si escuchase un incómodo eco en una conversación telefónica.

¿Cómo decide nuestro cerebro a qué prestar atención?

En un claro ejemplo de Tojisha-Kenkyu, el registro detallado que Ayaya ha hecho durante años de sus experiencias ha servido para proponer una nueva idea sobre el autismo que está relacionada con uno de los mayores desafíos de nuestra forma de percibir las cosas: ¿cómo decide nuestro cerebro a qué debería prestar atención?

En principio, la novedad atrae nuestra atención, pero para decidir qué es una novedad el cerebro necesita tener una expectativa previa que sea alterada de alguna forma. También es necesario alcanzar cierto nivel de confianza en esa expectativa, es decir, tener al menos una seguridad determinada de que eso iba a ser de determinada forma y que luego no lo sea.

De momento, la sugerencia más sólida sobre cómo ocurre esto es que el cerebro sigue un proceso de metaaprendizaje: aprender qué debe aprender y qué no, y según esta teoría, un sesgo en este proceso de metaaprendizaje explicaría lo que consideramos el núcleo del autismo. Es decir, que de acuerdo con esta idea, el autismo es una afección básicamente perceptual y no tanto social: se trataría principalmente de un inusual apego por la rutina como resultado de diferencias en el modo en que el cerebro procesa los estímulos sensoriales.

La sorpresa por encima de los patrones predecibles

Para entenderlo un poco mejor, piensa en lo que ocurre cuando te enfrentas a una situación por primera vez: cada detalle parece significativo, pero a medida que ganas en experiencia, aprendes a distinguir la norma de la excepción, los detalles dejan de llamar tanto la atención y el cerebro pasa a concentrarse en la situación al completo, y así es como logra dominar algo nuevo y pasa a lo siguiente, evitando el aburrimiento y la frustración.

Pues en este panorama, el autismo sería una curva de aprendizaje diferente, una que favorece siempre los detalles (y con ello, la sorpresa) sacrificando para ello el aprendizaje de los patrones generales. En el caso de Ayaya, sus propias sensaciones la sorprenden impidiéndole aprender lo que significan (que tiene hambre), igual que le pilla por sorpresa la diferencia entre las expectativas sobre su voz y su voz en sí misma, dificultándole avanzar en el desarrollo de relaciones sociales normales.

Por ahora se trata de una teoría que resulta demasiado vaga en algunos detalles cruciales, y de hecho hay dudas sobre si un solo modelo puede servir para explicar un trastorno tan heterogéneo como el autismo, pero es precisamente esa diversidad lo que impulsa la búsqueda de un mecanismo básico: si realmente las habilidades de predicción están en la baso de las dificultades que sufren las personas con autismo, una terapia o tratamiento que influya en ese aspecto tendría un gran impacto sobre otras habilidades diferentes.

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Tojisha-Kenkyu, la técnica japonesa con la que los pacientes se estudian a sí mismos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Programar no es “divertido”, es técnica y éticamente complejo
  2. Optogenética, la fascinante técnica que apasiona a los neurocientíficos
  3. #Naukas15 Ficha técnica
Catégories: Zientzia

¿Cada cuánto tiempo se renuevan las células de nuestro cuerpo?

dim, 2018/03/11 - 11:59

¿Cuántos años tiene usted? Sea cual sea su edad, no lo es de la mayor parte de las estructuras que conforman su cuerpo. Algunas ni siquiera tienen horas de existencia y solo unas pocas le acompañan desde que nació. Sus tejidos u órganos, así como las células que los forman tienen edades muy diferentes unas de otras. En su gran mayoría las células se van renovando y así lo hacen también los tejidos de los que son sillares.

Las células más efímeras son las que recubren el interior del intestino delgado. El epitelio intestinal es un tejido muy activo, que se ocupa de absorber y digerir infinidad de pequeñas moléculas. Sus células se renuevan entre cada dos y cuatro días. En el aparato digestivo hay otras de vida muy breve: las de las criptas del colon se renuevan cada tres o cuatro días, las del estómago entre cada dos y nueve, y las células de Paneth del intestino delgado –entre cuyas funciones se encuentra la defensa frente a patógenos intestinales- cada veinte.

Perduran mucho más los hepatocitos (células del hígado): entre seis meses y un año. Si bien es parte del aparato digestivo, el hígado es de hecho un órgano diferente y aunque los hepatocitos son las células que producen la bilis (esencial en la digestión intestinal de las grasas), sus principales funciones son metabólicas: tienen su sede en ellas innumerables procesos metabólicos cuyo ámbito de influencia es el conjunto del organismo.

Las células de la sangre tienen tasas de renovación muy diferentes. Las de vida más corta son las del sistema inmunitario: los neutrófilos, que son los leucocitos más abundantes, se renuevan entre cada uno y cinco días, y otros leucocitos, los eosinófilos, entre cada dos y cinco. Las plaquetas, cuya función es facilitar la cicatrización de las heridas, viven unos diez días. Y mucho más longevos son los glóbulos rojos, que se renuevan cada cuatro meses. Las células madre hematopoyéticas, de las que provienen las anteriores, permanecen bajo esa condición durante dos meses antes de convertirse en leucocitos, plaquetas y glóbulos rojos.

Otras células de vida relativamente breve son las del cuello uterino, que duran seis días; de los alveolos pulmonares, ocho días; de la epidermis de la piel, entre diez y treinta días. Más prolongada es la existencia de los osteoclastos, las células que remodelan el hueso: se renuevan cada dos semanas; y más aún la de los osteoblastos, las que lo producen: se recambian cada tres meses. La actividad de esas células da lugar a que un 10% del tejido óseo se renueve cada año. Las células de la tráquea lo hacen cada uno o dos meses. Y los espermatozoides cada dos meses, aunque, por contraste, las mujeres nacen con todos sus óvulos.

Las que menos se renuevan son los adipocitos -células que almacenan reservas de grasa- que lo hacen cada ocho años; las musculares, cada quince; y los cardiomiocitos (células musculares del corazón) experimentan una renovación de entre un 0,5% y un 10% al año. Las neuronas del sistema nervioso central apenas se renuevan; la excepción es el recambio diario de unas setecientas células de un área muy concreta denominada “hipocampo”, lo que implica que esa zona repone un 0,6% de sus neuronas al año. En promedio, el cuerpo se renueva entero cada 15 años.

Si lo pensamos un poco, vivimos en un cierto frenesí de reposición permanente de algunas -casi todas, en realidad- de nuestras estructuras coporales. Podría decirse, incluso, que ya no somos el mismo organismo que éramos hace un par de meses.

—————————————————————–

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

Una versión anterior de este artículo fue publicada en el diario Deia el 3 de diciembre de 2017.

El artículo ¿Cada cuánto tiempo se renuevan las células de nuestro cuerpo? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Cuántas células hay en el cuerpo humano?
  2. ¡Sincronicemos relojes! Dentro y fuera de nuestro cuerpo
  3. Cómo ver todas las células en tejido cerebral vivo
Catégories: Zientzia

Naukas Bilbao 2017 – Joaquín Sevilla: Los instrumentos del capitán Fitzroy

sam, 2018/03/10 - 12:00

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

El capitán Fitzroy, famoso por ser el capitán del Beagle durante el viaje en el que Darwin fue el naturalista, era un usuario de instrumentos científicos de primer nivel. Con la predicción meteorológica, sin embargo, fue un paso más allá porque se involucró emocionalmente y cayó en la fascinación de las evoluciones caóticas. Joaquín Sevilla lo expone magistralmente.

Joaquín Sevilla: Los instrumentos del capitán FitzRoy

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – Joaquín Sevilla: Los instrumentos del capitán Fitzroy se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan
  2. Naukas Bilbao 2017 – Álex Méndez: Luz de luna
  3. Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma
Catégories: Zientzia

Cómo ver todas las células en tejido cerebral vivo

ven, 2018/03/09 - 17:00

Un grupo interdisciplinar de físicos y biólogos que trabajan en la investigación de las células cerebrales ha concebido una nueva y revolucionaria técnica de microscopía que, por primera vez, permite obtener imágenes de todas las células dentro de un área determinada del tejido cerebral vivo. Permite obtener imágenes de todas las células vivas no etiquetadas en un área cerebral determinada, cosa que hasta ahora era imposible. Este avance científico es fruto de la colaboración entre grupos de investigación de la Universidad de Burdeos, la UPV/EHU y el Achucarro Basque Center for Neuroscience . Esta nueva técnica permitirá expandir el conocimiento de la biología del cerebro.

Imagen de la neurona etiquetada en amarillo, rodeada de neuronas no marcadas (aparecen en blanco), utilizando la técnica SUSHI. Sin esta técnica, las neuronas que aparecen en blanco no se verían. © Jan Tønnesen & Valentin Nägerl.

La microscopía es una herramienta básica en la investigación de la biología de cualquier organismo, dado que los elementos que se estudian, las células, tienen un tamaño microscópico y muchas veces, nanoscópico. Hasta el momento, los métodos de microscopía existentes para investigar el tejido cerebral vivo se limitaban a visualizar solo las células previamente marcadas. Sin embargo, por limitaciones técnicas, no todas las células en una región cerebral determinada podían etiquetarse simultáneamente, lo que ha restringido la visión, y por tanto, la comprensión que tenemos sobre cómo las células cerebrales, que están altamente interconectadas, se organizan e interactúan.

El Dr. Jan Tønnesen (Suecia, 1977), investigador del Programa Ramón y Cajal en el Departamento de Neurociencias de la UPV/EHU, y que trabaja en el Achucarro Basque Center for Neuroscience es uno de los autores de un trabajo que acaba de publicar Cell, y en el que describen una nueva técnica de microscopía, denominada “SUSHI”, para mejorar la visualización de las células en tejido cerebral vivo.

La nueva técnica SUSHI (acrónimo de su nombre en inglés “Super-resolution Shadow Imaging”) permite etiquetar de una pasada el minúsculo espacio, lleno de líquido, que rodea las células cerebrales, evitando tener que etiquetar individualmente todas las células que se quieren analizar.

Dado que además esta “etiqueta” permanece fuera de las células, produce una especie de imagen en negativo, que podemos asemejar a la película de las antiguas cámaras de fotos. Así, la imagen negativa contiene la misma información sobre las células cerebrales que la imagen positiva correspondiente, pero gracias a que el procedimiento de etiquetado es más simple, es mucho más fácil de obtener esta imagen y toda la información que contiene.

Según el Dr. Tønnesen “La técnica SUSHI es revolucionaria porque nos permite visualizar simultáneamente todas las células cerebrales en una región determinada del tejido cerebral vivo. Antes encontrábamos espacios en blanco en las imágenes de microscopía, ya que no podíamos etiquetar todas las células al mismo tiempo. Este hecho nos resultaba muy limitante. Desde ahora, con esta técnica podremos ver todas las células del área de estudio que situemos en la lente del microscopio, así como sus interacciones, de manera que podremos avanzar en nuestro conocimiento de las funciones el cerebrales, tanto en el órgano sano, como cuando enferma”.

Referencia:

Tønnesen J, Inavalli VVGK & Nägerl UV (2018) Super-resolution imaging of the extracellular space in living brain tissue Cell doi: 10.1016/j.cell.2018.02.007

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Cómo ver todas las células en tejido cerebral vivo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cómo criopreservar células madre
  2. El GPS cerebral: cómo nos orientamos en el espacio
  3. Cómo detectar un defecto en el ADN viendo cómo se retuerce
Catégories: Zientzia

¿Qué nos puede decir un elefante del cáncer en humanos?

ven, 2018/03/09 - 12:00

¿Qué nos puede decir un elefante del cáncer en humanos? | imagen Pixabay

A grandes rasgos llamamos cáncer a un amplio abanico de enfermedades provocadas por errores en los mecanismos de replicación celular y cuya característica común es un proceso descontrolado en la división de las células del cuerpo. Todos los seres vivos poseen este mecanismo y por tanto están expuestos al riesgo de padecer cáncer… sin embargo, no todos contraen la enfermedad en iguales proporciones.

Existen factores determinantes, como el tamaño (número de células) o la longevidad, que afectan a la probabilidad de contraer cáncer, sin embargo algo no cuadra en animales como los elefantes. Son grandes, muy grandes, de hecho pueden superar fácilmente los 6000 kilos siendo los mayores mamíferos terrestres del planeta. Son animales longevos, algunas especies como el elefante de selva africano (Loxodonta cyclotis) suelen alcanzar los 70 años, y aún así rara vez contraen cáncer: Solo un 5% de los elefantes fallecen por esta causa.

Para dar respuesta a algunas de estas incógnitas, investigadores de la Universidad de Utah han querido bucear en el genoma de los elefantes, prestando especial atención a esas regiones incomprendidas, que algunos llaman despectivamente “ADN basura” y que para otros, como el genetista Christopher Gregg, responsable del estudio, son más bien “una jungla desconocida que aún hay que explorar”.

P53, mólecula del año para la Revista Science

Pero primero viajemos al año 1979 para hablar un gen, conocido como P53, que tiene mucho que decir en este tema. En ese año, hasta cinco grupos diferentes de investigadores descubrieron simultáneamente esta proteína que cobró protagonismo por sus funciones supresoras de tumores. En 1993 la Revista Science eligió a P53 como “molécula del año” y en su último número ocupaba la portada y el editorial, reuniendo calificativos como “guardián del genoma” o “líder del ejército anti-tumoral”.

En el estudio, publicado hace unos días en Cell, confirman que el genoma del elefante posee hasta veinte copias de P53 que aumentan considerablemente sus defensas frente a procesos tumorales. A esta abundancia de copias de P53 hay que sumar la presencia de otros tres genes reparadores de ADN (llamados ANCL, VRK2 y BCL11A) que se han encontrado tras exponer a las células del elefante a radiación y examinar cómo el ADN respondía al daño.

Todos estos mecanismos de reparación de daño celular se han descubierto en regiones no codificantes del genoma que han tenido una evolución acelerada en elefantes, es decir, partes de su genoma que han evolucionado rápidamente y que les ha llevado a desarrollar rasgos distintos. Explicado metafóricamente, la evolución en el elefante le ha llevado a conseguir de manera natural una efectiva defensa contra los errores celulares que dan lugar al cáncer.

El estudio también estudia el genoma de otros animales como la orca o el murciélago | Gregg et al.

Pero no miren con envidia a los paquidermos, estos descubrimientos en su genoma son buenas noticias también para nosotros porque de hecho el artículo publicado en Cell se titula: “Evolucion acelerada en diferentes especies revela elementos candidatos para relevantes tratamientos clínicos, incluyendo mutación y resistencia al cáncer”. El trabajo ha analizado las mismas regiones del genoma en otros animales como la orca, el murciélago, el delfín, la ardilla y, cómo no, la rata topo) y ha encontrado una gran variedad de rasgos característicos.

Ya hemos visto que el genoma del elefante vinculado a la reparación del ADN podría ayudar en el estudio de la resistencia al cáncer, pero además, el estudio revela que:

  • El genoma del murciélago relacionado con el desarrollo del ala podría ayudar en el estudio de las anormalidades en manos y pies.
  • Los genomas de delfín y de la orca relacionados con el desarrollo del ojo y podrían ayudar en el estudio del desarrollo de la córnea. También se han detectado elementos relacionados con la adaptación a entornos de alta presión que podrían ayudar a comprender los trastornos de la coagulación sanguínea.
  • El genoma de la ardilla terrestre de trece líneas que está relacionado con la coloración y pigmentación podría ser muy útil en el estudio del albinismo y el síndrome de Leopard.
  • El genoma de la rata topo desnudo relacionado con el desarrollo del ojo que podría ayudar en el estudio del glaucoma.

Al igual que la ingeniería ha desarrollado trenes más rápidos observando la aerodinámica de pájaros como el martín pescador o mejores adhesivos inspirados en geckos, la medicina también avanza fijándose y aprendiendo de las ideas desarrolladas por la naturaleza. La evolución ha recorrido diferentes caminos en la inmensidad de organismos vivos que existen, es más que probable que otros animales ya hayan conseguido las soluciones a muchos de los problemas a los que nos enfrentamos, ahora solo faltaría descubrir cómo adaptarlas a nosotros.

Este post ha sido realizado por Javier Peláez (@irreductible) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Referencias científicas y más información:

Elliott Ferris, Lisa M. Abegglen, Joshua D. Schiffman, Christopher Gregg “Accelerated Evolution in Distinctive Species Reveals Candidate Elements for Clinically Relevant Traits, Including Mutation and Cancer Resistance” Cell Reports, DOI: 10.1016/j.celrep.2018.02.008

University of Utah “Mapping the genome jungle: Unique animal traits could offer insight into human disease” Phys.org

El artículo ¿Qué nos puede decir un elefante del cáncer en humanos? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Microbiota y cáncer
  2. Sobre la predisposición genética a padecer enfermedades
  3. Todo lo que se puede medir en un río
Catégories: Zientzia

Cómo destruir un buen sistema de educación. El ejemplo sueco

jeu, 2018/03/08 - 17:00

¿Cómo se tratan algunos de los trastornos cognitivos más frecuentes en las aulas? ¿Son efectivos los programas y herramientas del sistema educativo actual? ¿Carecen de eficacia algunas de las prácticas educativas más populares?

Estas son algunas de las cuestiones que se debatieron en la jornada “Las pruebas de la educación”, que se celebró el pasado 2 de febrero de 2018 en el Bizkaia Aretoa de Bilbao. El evento, en su segunda edición, estuvo organizado por la Cátedra de Cultura Científica de la UPV/EHU y el Consejo Escolar de Euskadi, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT).

Las ponencias de los expertos que expusieron múltiples cuestiones relacionadas con la educación, basándose siempre en las pruebas científicas existentes. Los especialistas hicieron especial hincapié en destacar cuál es la mejor evidencia disponible a día de hoy con el objetivo de abordar las diferentes realidades que coexisten en las aulas y en el sistema educativo en general.

“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde diversos ámbitos de la actividad científica. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.

Inger Enkvist, catedrática de Filología Española de la Universidad de Lund, Suecia, presenta los entresijos del sistema sueco de educación. Entre 1962 y 1985 el país nórdico adoptó una serie de leyes de educación que introdujeron lo que los británicos denominan “comprehensive school”, es decir, una única opción para todos los alumnos desde los 7 hasta los 16 años de edad. No creerás lo que ocurrió.

Cómo destruir un buen sistema de educación. El ejemplo sueco

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Cómo destruir un buen sistema de educación. El ejemplo sueco se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Autismo y educación: problemas y pautas en el aula
  2. Las ideas erróneas sobre educación entre el profesorado: prevalencia, causas y soluciones
  3. La evaluación y los deberes escolares
Catégories: Zientzia

Son mujeres, youtubers, hablan de ciencia y tienen éxito

jeu, 2018/03/08 - 11:59

Ilustración de Nuria Díaz

Llamarse a uno mismo youtuber es jugársela. Es común asociar esta plataforma a contenidos de bajo calado intelectual. Para muchos un youtuber es un bufón. Hay muchos estereotipos sobre los usuarios de esta plataforma. Es una de las redes sociales en las que uno está más expuesto. El formato habitual es el de alguien que habla a cámara. Los vídeos reciben comentarios, a veces anónimos, a veces firmados y con la misma falta de pudor que se estila en cualquier otra red social. Sin embargo, parece que hablar de ciencia mantiene al margen a un gran número de malhumorados agitadores. En cambio, si la youtuber es mujer, aunque hable de ciencia, la cosa cambia. Cuanto mayor es el impacto del canal, más tenemos que lidiar con comentarios machistas y de mal gusto. Esta opinión que puede sonar personalísima es compartida por otras youtubers de ciencia con las que tengo el gusto de relacionarme.

«Frecuentemente recibo mensajes diciendo que soy muy atractiva, les gusto, preguntan si tengo novio y cosas parecidas. Alguien al leer esto dirá que esto es bueno, pero para mí no lo es, no hago contenido para esto» comenta Liliana E. Martínez, estudiante de Física y creadora del canal Conecta Ciencia.

En el Día internacional de la mujer y la niña en la ciencia, varias youtubers de ciencia hicieron un directo que puede verse en el canal de Star Tres, gestionado por Carolina Agurto, Karina Rojas y Javiera Rey, quienes están haciendo el doctorado en astronomía. «Nos llegaron comentarios criticando la causa del 11F, cosas como ‘Ojalá no sea basura feminista’ o ‘¿Brecha de género? No se pongan sexistas, si la mayoría de las mujeres no se quiere convertir en científica, respeten su opinión​’ o ‘¿Cuál es el aporte de las famosas leyes de paridad?​’».

Inés Laura Dawson es estudiante de doctorado en la Universidad de Oxford e investiga el vuelo de los insectos. Como divulgadora científica colabora con Naukas, entre otros medios, y gestiona los canales de YouTube Draw Curiosity e Inestable. Inés tiene muchos seguidores, los suficientes como para tener que batallar con un buen puñado de comentarios machistas y de explícito contenido sexual. «Hasta han llegado a crear un vídeo sobre mí con la intención de desacreditarme, en el cual se sugería que la única razón por la que he tenido una carrera científica en Oxford y por la que he sido galardonada con varios premios es por ser mujer».

Carolina Jiménez es artista de efectos visuales para cine. Gestiona el canal OK Infografía. Ella también recibe comentarios impertinentes en su canal. «Suelen ser del tipo ‘además de guapa lista’, ‘cásate conmigo’, ‘yo solo he visto tetas’… Los gestiono con paciencia. Procuro borrarlos si son muy evidentes, o ignorarlos».

«A veces recibo comentarios del tipo, ‘qué bien, una mujer guapa, inteligente y que le gusta la ciencia’» comenta Laura M. Parro. Laura es investigadora predoctoral en la Universidad Complutense de Madrid y en concreto investiga el estado térmico y la estructura de la litosfera de Marte, y más generalmente, la geología de los cuerpos rocosos del Sistema Solar. Tiene un blog de divulgación y el canal Viajando por Planetas. Lo que más le molesta a Laura son los comentarios machistas que se permiten en canales de hombres: «me molestan los canales de hombres en los que suelen comentar que no merece la pena colaborar o preocuparse por la ratio de mujeres si a ellas no les interesa la ciencia. Y esos gestores de los canales no les cortan de raíz o les explican cuál es la situación real, ¿para que esforzarse, verdad? Como digo, es una acción de todos que el tema mejore, y quien no vea la desigualdad de género es porque no quiere verla».

Carolina Jiménez opina que para avanzar en la igualdad hay que apostar por la «educación en igualdad tanto en niños como en niñas, eliminación de estereotipos, discriminación positiva, visibilización de referentes femeninos». En esto coincide con la bióloga Sofía M. Villalpando, gestora del canal The Biologist Apprentice, que opina que esto tenemos que resolverlo por medio de la educación. Además, cree que sobre todo los hombres deberían «cuidar los comentarios que hacen con respecto a sus compañeras youtubers, fomentar el respeto y hacer colaboración con más mujeres para que sus seguidoras se sientan representadas».

La mayoría parecen estar de acuerdo en este punto. Si hubiese una intención honesta de luchar contra la desigualdad, los hombres estarían apostando por colaborar con mujeres, por darles visibilidad, por conocer sus trabajos y no solo opinar un par de veces al año. La biotecnóloga biomédica Anna Quirant, gestora del canal Cienciacional, lo tiene muy claro: «Cuando organizan eventos podrían esforzarse en buscar y contactar con divulgadoras. Aunque piensen que no las hay, existen. Tirar de contactos, preguntar a otras mujeres si conocen a más. Que dejen de contar con los cuatro conocidos de siempre y que se quiten de la cabeza típicas frases como ‘No voy a incluir a una mujer por el simple hecho de ser mujer, si no lo hace bien o no conozco como trabaja’, ‘a mí me da igual qué sexo tenga, yo valoro quien lo hace bien’. Si nunca se incluyen mujeres, si no se dan a conocer, si no se les dan más oportunidades, ¿cómo van a contactar con ellas para que asistan a eventos o charlas? Es la pescadilla que se muerde la cola».

Laura M. Parro opina que «algunos hombres youtubers directamente no te dicen que no les gusta que haya mujeres, pero desde luego sí que les molesta. He visto reacciones de todo tipo con tal de no recomendar el contenido de una mujer o no colaborar con ciertas personas.El ‘estatus’ de hombre, divulgador y sabedor de la ciencia, aún está muy arraigado y creo que algunos ningunean a las mujeres y les da pereza colaborar con ellas. Muchos siguen prefiriendo colaborar entre hombres o recomendarse entre ellos, aunque haya mujeres con más formación y prestigio que ellos».

Esta es la tónica habitual. Aunque la edad media de los youtubers de ciencia sea baja, no podemos presuponer que las conductas se hayan adaptado a los tiempos. También hay honrosas excepciones, como el vídeo con el que Aldo Bartra celebró en su canal El robot de Platón el millón de suscriptores y en el que se dedicó a promocionar canales de menor envergadura que el suyo, incluyendo a un buen número de mujeres. Javier Santaolalla, creador de los canales Date un voltio y Date un vlog, apoyó desde el principio a Star Tres con una aparición en su canal y con apariciones de ellas en el suyo. Carolina Jiménez se suma a los agradecimientos a Javier, con quien está preparando alguna colaboración y añade que «la mayoría de los medios que me han entrevistado ha sido por mediación de hombres. Hasta he dado una charla en un colegio a petición del padre de dos niñas que comprendía la necesidad de referentes femeninos para sus hijas. Creo que es fundamental entender que esta lucha no es solo nuestra y que hay muchos hombres concienciados y que nos apoyan». Laura M. Parro añade que puede ser contraproducente centrarse en lo negativo, «sí hay hombres que colaboran con nosotras y que comparten nuestro contenido. En mi caso lo hacen mayoritariamente los latinoamericanos».

Todas estamos de acuerdo en que la tendencia de invisibilizar a las mujeres también existe en Youtube y que hay que seguir dando tirones de oreja cuando toca. Que no se malinterprete: esto no es una lucha contra los hombres, sino contra el machismo. Afortunadamente muchos hombres son nuestros aliados. Con frecuencia resulta fácil distinguir a quien se apunta a la causa por abrillantar su imagen y quien lo hace por convicción. Los que apoyan a las mujeres dan nombres, las mencionan en sus redes sociales, colaboran con ellas, las invitan a participar en proyectos divulgativos, las tratan como a iguales con sinceridad. Los hombres que están convencidos no temen que haya una mujer a su lado que pueda brillar tanto como ellos. Los que no, las tratan con condescendencia, como floreros que dan apariencia de paridad. Las necesitan para dar credibilidad a su farsa, y a la hora de la verdad solo se dedican a darse palmadas en la espalda por lo bien que han quedado el día de turno.

Hay otro fenómeno digno de ser analizado y es que a medida que aumentan los suscriptores de los canales de ciencia, disminuye el porcentaje de mujeres que lo siguen. Los primeros meses de vida de mi canal Deborahciencia me seguían tantas mujeres como hombres, con leves variaciones según la edad. Esto puede verse a través de la herramienta Analytics de Youtube. En la actualidad sólo el 30% de mis seguidores son mujeres. Laura M. Parro ha sufrido esta misma caída en su canal, que ahora ronda el 15% de suscriptoras. Inés Dawson oscila entre el 15 y el 25% de seguidoras, las mujeres de Star Tres tienen un 25%, Anna Quirant tiene un 10% y Carolina Jiménez tiene un 6%. Los canales de ciencia gestionados por hombres tienen unos porcentajes medios igual de bajos.

Inés Dawson tiene una teoría sobre este fenómeno que comparto, y es que el propio algoritmo que utiliza Youtube para recomendar vídeos utiliza el género del usuario para generar propuestas de visionado. Este algoritmo presupone que las mujeres no tienden a ver vídeos de ciencias, a no ser que activamente los hayan buscado antes. «Opino que el origen principal del desequilibrio de género en vídeos educativos procede del propio algoritmo de Youtube. La mayoría de usuarios de Youtube descubren canales y contenidos nuevos mediante las sugerencias de la página principal y en la barra de recomendaciones de Youtube. El objetivo del algoritmo es maximizar el tiempo que un usuario permanece en Youtube consumiendo vídeos. Esto lo consigue categorizando a los vídeos por tipo y distribuyéndolos a las demográficas que asocia como consumidores principales. Desgraciadamente, esto genera un feedback loop en el cual distintas categorías de contenido se viralizan siempre para las mismas demografías. En mi experiencia, la demográfica de los vídeos científicos que se vuelven virales se diferencia bastante de una audiencia orgánica. En mi caso, mi audiencia orgánica es un 15% mujeres, con una distribución normal de edades centrado en 25 años. Los vídeos científicos que se vuelven virales muestran una demográfica muy diferente. Uno de mis vídeos virales sobre pilas fue un vídeo sugerido casi exclusivamente a un público masculino (98%) y mayor de 25 años».

La desigualdad de género esta íntimamente intrincada en prácticamente todo. Hasta en algo en apariencia tan aséptico como el algoritmo de una red social. Si a esto le sumamos las conductas sociales machistas y la estrechez de miras, nos damos cuenta de que el problema que nos traemos entre manos está más enquistado de lo que pudiese parecer. Hace falta educación, por supuesto. Hace falta investigar los orígenes de todo esto para poder plantar cara al problema. Todas las formas de conocimiento pueden ayudar a entenderlo y, en consecuencia, ayudar a proponer soluciones. La sociología, la biología, la psicología, la filosofía, la antropología, la política… todos los saberes son útiles para tratar de desentrañar esta lacra.

En el ámbito profesional que va más allá de Youtube, el problema tiene matices distintos, pero el fondo sigue siendo el mismo. Liliana E. Martínez comenta que «además de mi trabajo en la universidad, cuando llego a casa tengo que cocinar, lavar la vajilla, la ropa y si llega a haber algún problema en casa soy yo quien tiene que quedarse por que los hombres ‘no pueden faltar al trabajo’». Carolina de Star Tres comenta que «como estudiante e investigadora creo que tenemos que empezar desde nuestros grupos de trabajo. Tener representantes de estudiantes es muy importante para hacer notar nuestros problemas y dificultades, así como también comités, donde seamos escuchadas. En Chile ahora se están implementando en las universidades los comités anti-acoso, que son importantísimos al momento de visibilizar y solucionar problemas recurrentes en las universidades que han sido ‘tapados’ durante años. Desde un punto de vista más general, creo que los movimientos de #MeToo y #TimesUp han sido fundamentales para darles a las mujeres esa confianza que se necesita para denunciar tantos casos de acoso». Sofía Villalpando ha sufrido acoso laboral y maltrato psicológico en el trabajo. No es un problema del pasado. Sigue siendo un problema ahora.

Todas las mujeres hemos sufrido algún tipo de abuso sexual a lo largo de nuestras vidas. Absolutamente todas. Algunas son más conscientes de las situaciones de discriminación. Unas han tenido la suerte de vivirlas desde la barrera, otras las han sufrido en sus carnes. Yo misma he sido discriminada en procesos de selección por ser mujer. A todas nos han ‘señoreado’ (también denominado con el anglicismo mansplaining). Carolina Jiménez explica que «en redes sociales compartiendo imágenes o vídeos de diferentes temáticas me han intentado explicar qué es real y qué es digital y por qué no debo creerme todo lo que publico». Recordemos que Carolina es artista de efectos visuales para cine.

Todas hemos tenido la sospecha alguna vez de haber sido invitadas a participar en proyectos divulgativos solo por cubrir un cupo de paridad. Aunque las motivaciones por cubrir un cupo sean buenas (no siempre se trata de una cuestión de imagen) como mujer es duro lidiar con ello cuando estás empezando en esto. Anna Quirant se pregunta a veces si «¿Les gusta lo que hago o estoy aquí para que ellos queden bien? Es muy frustrante tener que plantearte estas preguntas que a un hombre ni se le pasan por la cabeza, sabe que va porque es bueno, gusta y eso le hace tener confianza. Nosotras tenemos que hacer un esfuerzo extra por visibilizarnos, por promulgarnos, para asistir y representarnos como colectivo. ¿En qué momento deberemos dejar de esforzarnos para demostrar que las mujeres también podemos hacer divulgación científica? Creo que ya va siendo hora».

En ocasiones la pretensión de contar con mujeres responde a un deliberado lavado de imagen. Anna Quirant parafrasea los típicos correos que muchas recibimos para participar en proyectos divulgativos:«Llamamiento en especial a las mujeres. Supongo que entienden el motivo, pero espero que haya una buena representación. Es importante que tengan visibilidad. Así que redoblen los esfuerzos para estar». La responsabilidad y la ‘culpa’ de no figurar recae en las mujeres. Estos mensajes caen en la errónea convicción de que el problema es que no nos esforzamos lo suficiente.

Muchas de nosotras pararemos el 8 de marzo, el día de la mujer. Otras no pueden permitírselo y se dedicarán a hacer ruido allí por donde vayan. Anna Quirant explica así sus motivos: «Haré huelga el 8M para exigir que de una vez por todas se nos deje de tratar de forma diferente, de imponer límites, de debilitarnos, de adjudicar qué se nos da bien (cuidar, criar, cocinar) o qué no se nos da bien (el futbol, la política, las ingenierías), de decir que no tenemos humor porque nos molesten comentarios machistas, de creer que tienen el derecho de abusar de nosotras o de inducirnos miedo por volver de noche solas. Quiero demostrar que si nosotras paramos, el mundo se para».

Unas somos más optimistas que otras. Unas hemos tenido más suerte que otras al encontrarnos con personas que animan y apoyan. Otras hemos crecido en un entorno menos machista, en una sociedad más o menos concienciada con el problema. En mayor o menor medida hemos lidiado y seguiremos lidiando con la crudeza de los datos, con la brecha salarial, con la baja representación de mujeres en puestos de mando, con el ninguneo del día a día. Sin embargo, y quizá contra todo pronóstico, a la pregunta ¿Tienes éxito? todas nosotras hemos respondido que sí.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Son mujeres, youtubers, hablan de ciencia y tienen éxito se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Mujeres que hablan de Ciencia, mujeres que hablan de Arte
  2. Por qué los estudiantes de más éxito no tienen pasión por el colegio
  3. Sobre la ausencia de mujeres en la ciencia y la divulgación
Catégories: Zientzia

Vaterita, un nanotransportador de fármacos en las hojas de una planta alpina

mer, 2018/03/07 - 17:00

“Saxifraga sempervivum”. Foto: Paul Aston

El carbonato cálcico no parece tener nada de extraordinario. Estás presente abundantemente en la corteza terrestre, en foma de rocas calizas, es la sustancia que típicamente da dureza al agua y forma parte de la estructura de muchos seres vivos en forma de conchas, cáscaras de huevos o huesos. Sin embargo, el hallazgo de una forma de carbonato cálcico en una familia de plantas alpinas puede tener un gran impacto en la manera en la que se suministran los fármacos contra el cáncer.

Científicos la Universidad de Cambridge (Reino Unido) han descubierto que la vaterita, una forma de carbonato de calcio, es un componente dominante de la corteza protectora de color blanco plateado que se forma en las hojas de varias plantas alpinas del género Saxifraga.

No todo el carbonato cálcico tiene la misma estructura, por eso se dice que es polimorfo. En las condiciones normales de la corteza terrestre está como calcita y, en determinadas circunstancias, se puede encontrar en otras poliformas, como el aragonito o la vaterita. Estas poliformas son metaestables a temperaturas ordinarias, es decir, que si se encuentran en algún lugar, a poco que cambien las condiciones de temperatura o humedad, se convierten en calcita.

Por esta razón la vaterita de origen natural rara vez se encuentra en la Tierra. Se han encontrado pequeñas cantidades de cristales de vaterita en algunos crustáceos marinos y de agua dulce, en huevos de aves, en los oídos internos del salmón, en meteoritos y en algunas rocas. Esta es la primera vez que se ha encontrado un mineral tan raro e inestable en una cantidad tan grande y también es la primera vez que se encuentra asociado a plantas.

Aparte del interés puramente científico del hallazgo hay una componente utilitaria muy importante. La vaterita es muy atractiva desde el punto de vista farmacológico. De hecho, los químicos hace ya mucho tiempo que trabajan para intentar fabricar vaterita artificialmente con un método que sea económicamente viable.

Por una parte, la vaterita tiene unas propiedades características que la convierten en un nanotransportador de medicamentos casi ideal: la alta capacidad de carga, una alta absorción por parte de las células y su solubilidad le permiten ofrecer una liberación sostenida y específica de fármacos. Por ejemplo, las primeros estudios de nanopartículas de vaterita cargadas con fármacos anticancerosos indican que son capaces de descargar el fármaco lentamente solo en en la zona del cáncer, limitando, por tanto, los efectos secundarios negativos del fármaco. Por otra, la vaterita también parece mejorar los cementos que se emplean en cirugía ortopédica.

Los análisis con técnicas microscópicas pusieron de manifiesto que varias especies de Saxifraga exudan vaterita a través de los hidátodos (lo que en los animales vendrían a ser las glándulas del sudor) que se encuentran en los bordes de las hojas. Varias especies exudan una mezcla de vaterita y calcita; una en concreto, Saxifraga sempervivum, exuda vaterita pura. Es un misterio por qué ocurre esto; podría ser que fuese algo común en especies que han evolucionado en climas extremos, como las cumbres alpinas, y que, debido a la metaestabilidad de la vaterita, ésta se convierta rápidamente a calcita en otras especies.

Paradójicamente este descubrimiento llega cuando el cambio climático está amenazando muy seriamente la supervivencia de estas especies de plantas extremas.

Referencia:

Raymond Wightman, SimonWallis, Paul Aston (2018) Leaf margin organisation and the existence of vaterite-producing hydathodes in the alpine plant Saxifraga scardica Flora doi: 10.1016/j.flora.2018.02.006

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Vaterita, un nanotransportador de fármacos en las hojas de una planta alpina se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La forma de las hojas
  2. Otra pieza en el puzle de la fotosíntesis
  3. Un modelo teórico para acelerar el descubrimiento de nuevos fármacos
Catégories: Zientzia

¿Es normal el número pi?

mer, 2018/03/07 - 11:59

El número π es una de las constantes matemáticas más importantes que existen, pero además es un número fascinante que goza de una gran popularidad entre el público, matemático y no matemático. Por este motivo, el 14 de marzo, es decir, 3/14 en inglés (o también en euskera), se celebra el internacional Día de pi, debido a la sencilla aproximación a π que nos enseñaron en la escuela, 3,14.

El día de pi se celebra desde el año 1988 a partir de la idea propuesta por el físico Larry Shaw, y apoyado por el hecho de coincidir con la fecha del cumpleaños de Albert Einstein. También es el aniversario del nacimiento de un gran matemático, el polaco Wlaclaw Sierpinski (1882-1969), aunque prácticamente desconocido fuera de las matemáticas, salvo por los fractales que llevan su nombre.

Tetraedro de Sierpinski realizado con bolas de golf por el matemático Dale Seymour. MOMATH, National Museum of Mathematics

Este año la Cátedra de Cultura Científica, junto con BCAM (Basque Center for Applied Mathematics) y Naukas, se han querido sumar a la celebración internacional del Día de Pi, y hemos organizado la jornada BCAM-NAUKAS: Día de Pi. Toda la información sobre la misma la podéis encontrar aquí.

El número π, es decir, la relación entre la longitud de una circunferencia y su diámetro, tiene unos 4.000 años de edad. Desde la antigüedad se han intentado calcular aproximaciones suyas. En la Biblia se le daba el sencillo valor de 3 y en la actualidad, gracias a los ordenadores, se conocen más de 20 billones de sus infinitos decimales.

En uno de los más antiguos textos matemáticos, el Papiro de Rhind (1.700 años antes de nuestra era), el escriba Ahmés incluye la evaluación de un círculo inscrito en un cuadrado, que luego transforma en un octógono. A partir de ahí, el valor que propone para π, hecha la conversión, es (16/9)^2=3,16049…

En el 120 de nuestra era, el matemático chino Chang Hing llegará a la relación 142/45, es decir, 3,1555….

Arquímedes, en el siglo III a. C. se había acercado a la relación entre la circunferencia y el diámetro (π) no a través de una fracción sino como una sucesión de marcos (es decir, de diferentes pares de números cercanos, uno mayor y otro menor), que acotaban el valor de π. La idea era la siguiente… si se consideran las dimensiones de los cuadrados dibujados dentro y fuera del círculo y que tocan a su circunferencia, resulta obvio que πdebe ser mayor que 2 y menor que 4 (que es una aproximación muy burda)… a continuación podemos considerar hexágonos dibujados dentro y fuera del círculo y que tocan a su circunferencia, obteniendo así un nuevo marco para π …podemos seguir con octógonos…y Arquímedes llegó hasta utilizar polígonos de 96 lados, lo cual establecía que π está entre las cantidades 3+10/71 y 3+1/7. Ahora bien 3+1/7 es el famoso 22/7 (=3,1428…), fracción bien conocida en la escuela antes de las calculadoras.

En la India, el matemático Aryabhatta, hacia el 500, propuso 62.832/20.000, que es la aproximación cuyos cuatro primeros decimales son la aproximación más conocida, entre el público general, del número pi, 3,1416….

Como podemos observar todas estas aproximaciones que aparecieron en la historia se produjeron con números racionales, es decir, que son el cociente de dos números enteros, pero ¿es π un número racional?.

Recordemos brevemente el concepto de número racional. Como acabamos de decir, un número racional es aquel que puede expresarse como cociente de dos números enteros. Por ejemplo, 0,5 es un número racional ya que puede expresarse como el cociente 1/2; ó 0,333… es racional ya que puede expresarse como 1/3. Si consideramos la expresión decimal de los números (por ejemplo, 5,235), entonces un número es racional si podemos encontrar un “patrón entre sus decimales”, es decir, si los decimales del número son una cantidad finita (por ejemplo, 1/4=0,25) o si los decimales satisfacen que a partir de uno de los decimales se repite una pauta, un número finito de decimales que se repite de forma infinita, conocida como el período del número racional (por ejemplo, 1/3=0,333…, en el que se repite de forma infinita el 3; o 51/7=7,285714285714285714…, cuyo período es 285714). En la época de los pitagóricos se demostró, no sin cierta crisis existencial, que la raíz de 2 es un número no racional, que no puede expresarse como cociente de dos números enteros.

El número π tampoco es racional. No se puede expresar como cociente de dos números enteros, o lo que es equivalente, su expresión decimal es infinita y no hay un grupo de decimales que se repita de forma periódica generando todos los decimales. La primera demostración de que π es irracional se debe al matemático J. H. Lambert (1761).

De hecho, la búsqueda de los decimales del número π es una investigación activa hoy en día. Se trata de conocer todos los decimales posibles de π (recordemos que todos es imposible, son infinitos y no hay un patrón que se repita). El record de decimales en la actualidad es de … 22.459.157.718.361 dígitos … obtenido por Peter Trueb en 2016. Se tardaron 105 días en calcularlo y 28 horas en verificarlo.

Vista parcial de la instalación “El número pi” (2007), del artista chino-canadiense Ken Lum, en el metro de Viena

El símbolo π viene de la palabra griega “periferia” περιφέρεια y fue utilizado por primera vez por el matemático inglés William Oughtred en 1652.

3,14159265358979323846264338327950288419716939937510582097494459230781640

6286208998628034825342117067982148086513282306647093844609550582231725359

4081284811174502841027019385211055596446229489549303819644288109756659334

4612847564823378678316527120190914564856692346034861045432664821339360726

0249141273724587006606315588174881520920962829254091715364367892590360011

33053054882046652138414695…

Parte de la magia de este número es que aparece en los lugares más insospechados, y tiene infinidad de aplicaciones, aunque como muchas otras constantes matemáticas. En todas las ramas de las matemáticas, desde la geometría hasta la probabilidad, pasando por la teoría de números, en física (en el principio de incertidumbre de Heisenberg, la teoría de la relatividad o la ley de Coulomb de la electricidad), en geología (para estimar la longitud de los ríos, debido a que relaciona dicha longitud con la distancia directa del nacimiento del río a su desembocadura), en bioquímica (en el estudio de la estructura de una molécula de ADN), en astronomía (en la búsqueda de exo-planetas o el estudio de la forma del universo), y muchas aplicaciones más en navegación, análisis de señales, dinámica de poblaciones o ingeniería, incluso en deportes (para calcular las posiciones de salida en las pistas de una carrera de atletismo, como vimos en la entrada Pi atleta).

Debido a la fascinación que existe por el número pi nos lo encontramos ampliamente en la cultura, del cine a la literatura, de la música a las series de animación, de las artes plásticas al humor gráfico, incluso la revista Investigación y Ciencia lo utilizó, este pasado 2017, para una broma del día de los inocentes, Las leyes cuánticas cambian el valor de pi.

El poema Número pi de la Premio Nobel de literatura, la polaca Wislawa Szymborska (1923-2012), empieza así “El número Pi es digno de admiración//tres coma uno cuatro uno//todas sus cifras siguientes también son iniciales//cinco nueve dos, porque nunca se termina.//No permite abarcarlo con la mirada seis cinco tres cinco//con un cálculo ocho nueve//con la imaginación siete nueve//o en broma tres dos tres, es decir, por comparación//cuatro seis con cualquier otra cosa//dos seis cuatro tres en el mundo”.

La cantante inglesa Kate Bush, en su disco Aerial (2005), tiene una canción dedicada al número π. En la película La cortina rasgada de Alfred Hitchcock, el símbolo π era el nombre de una organización secreta de la resistencia en la República Democrática Alemana durante la Guerra Fría. El número πtiene un papel protagonista en la película de Darren Aronofski, Pi, fé en el caos (2000). En la novela, y también en la película, La vida de pi (2001), del escritor Yann Martel, el apodo del protagonista es “Pi” y tiene que ver con nuestro apasionante número.

Cartel de la película “Pi, fe en el caos” (1998), de Darren Aronofsky

En la famosa serie Los Simpson, cuyo contenido matemático en muy conocido (véase el libro Los Simpson y las matemáticas), también se menciona el número π en más de una ocasión. Por ejemplo, uno de los personajes secundarios de la serie, es el tendero hindú Apu, quien tiene una gran capacidad para el cálculo. En un capítulo en el que llevan a juicio a Marge, al olvidarse de pagar una botella en el supermercado, Apu es el principal testigo, y para demostrar su memoria dice que es capaz de recitar 40.000 decimales del número π. Y dice que “el último decimal es el 1”.

De hecho, el record en memorización de los decimales del número pi está en 100.000 decimales, conseguido por el japonés Akira Haraguchi, en 2006. Necesitó 16 horas y 30 minutos para recitar, de memoria, todos estos decimales. El método que utiliza para recordar los decimales es asociar cada cifra, de 0 a 9, con una sílaba. Por ejemplo, el cero se asocia con alguna de las siguientes, ra, ri, ru, re, ro, wo, on or oh, e igual con el resto. Aunque este record no ha sido reconocido oficialmente por el Libro Guinness de los Records. Por lo tanto, el record oficial está en la memorización de 70.000 decimales, conseguido por el indio Rajveer Meena en 2015.

Otra referencia graciosa a π en Los Simpson, es cuando Lisa le habla a su padre del número π y Homer se pone a babear ya que en inglés tarta (pie) y π se pronuncian igual, “pai”.

Imagen reproduciendo la escena de la serie “Los Simpson” con la confusión sobre el número π

En la serie hermana de la anterior, Futurama, también hay varias referencias al número π. Una lata de aceite lubricante -en-1(parodiando la frase 3-en-1), la -th Avenue después de la 3rd Avenue, la marca de muebles y complementos del hogar Kea, o el concurso televisivo “¿Cuál es el último dígito de ?“.

Hay muchísimas referencias a nuestro amado número, pero me gustaría dedicar lo que nos queda de esta entrada para hablar de una propiedad matemática de este número (aunque aún no se ha conseguido demostrar) y la expresión artística de esta propiedad que realiza la artista donostiarra Esther Ferrer.

Como hemos comentado más arriba, el número π no es racional, es decir, su expresión decimal contiene infinitos decimales, pero que no poseen un patrón que se repita (no es un decimal periódico). Aunque podríamos plantearnos cuales de las diez cifras básicas 0, 1, 2, …, 9 aparece con más frecuencia, y cuales, con menos, dentro de la expresión decimal del número π, o si por el contrario todas las cifras aparecen en la misma proporción.

Si miramos a los 100 primeros decimales del número π,

3,1415926535897932384626433832795028841971693993751058209749445923078164062862089986280348253421170679…

observaremos que las diez cifras básicas aparecen en la siguiente proporción:

Si las diez cifras básicas aparecieran en la misma proporción, tendrían que aparecer diez veces cada cifra básica en los 100 primeros números, aunque la verdad es que 100 decimales no son muchos, y necesitaríamos ver más decimales. ¿Qué ocurre para 1.000, 10.000, 100.000, o más, decimales?

Como podemos observar, según va aumentando el número de decimales, la proporción de cada una de las diez cifras básicas dentro de los decimales del número π se van acercando a 1/10, es decir, al 10% de los decimales.

En el artículo Digit Statistics of the First 22.4 Trillion Decimal Digits of Pi, su autor, Peter Trueb, nos confirma este hecho entre los 22.459.157.718.361 decimales que se han calculado del número π. Más aún, si se toman las 100 secuencias de dos dígitos formadas por las diez cifras básicas, del 00 al 99, cada una aparece en una proporción que se va acercando cada vez más a 1/100, es decir, un 1%. Y lo mismo ocurre para las 1.000 secuencias de tres dígitos, de 000 a 999, cada una de las cuales aparece en una proporción que se va aproximando a 1/1.000. Todas las secuencias posibles son igualmente probables.

Todo esto lo que nos está diciendo es que aparentemente el número π podría ser lo que se conoce como un número normal (para la base 10). El concepto de número normal fue introducido por el matemático francés Émile Borel (1871-1956) en 1909. La definición es la siguiente:

Un número real x es normal para la base b (por ejemplo, 2 para los números binarios o 10 para la representación decimal usual) si los infinitos dígitos de la representación del número x en la base b están distribuidos de una forma uniforme, es decir, las b cifras básicas (por ejemplo, 0 y 1 en la representación binaria, o 0, 1, 2, …, 9 en la representación decimal) tienen la misma “densidad natural”, es decir, según vamos aumentando el número de decimales su proporción, para todos la misma, se aproxima a 1/b, todos los posibles pares, b2, de dígitos formados por dos cifras básicas tienen la misma densidad natural 1/b2, todos los triples , b3, de dígitos formados por tres cifras básicas tienen la misma densidad natural 1/b3, etcétera.

Los números racionales (por ejemplo, el número 51/7 = 7,285714285714285714… cuyo período es 285714) son, en general, no normales para la base 10 (o cualquier base), puesto que sus decimales son finitos o una expresión finita que se repite de forma infinita (por ejemplo, las cifras básicas 0, 3, 6 y 9 no aparecen en el desarrollo infinito de 51/7, mientras que las cifras 1, 2, 4, 5, 7 y 8 aparecen con una densidad normal de 1/6). Y podemos generar números irracionales que sean no normales si, por ejemplo, los construimos de forma que en su expresión decimal no haya una cierta cifra básica, por ejemplo, el 3.

El conocido como número de Champernowne, es decir,

0,12345678910111213141516171819202122232425…

es, por construcción, normal en base 10, pero podría no serlo para otras bases. De hecho, un número x se dice que es normal (aunque algunas personas lo denominan absolutamente normal) si x es normal para cualquier base b.

Émile Borel demostró que casi todos (en un sentido matemático que no abordaremos aquí) los números son normales, aunque existen infinitos (no numerables) números no normales.

Pero volviendo a nuestro popular número π, aparentemente, o al menos, así lo da a entender el comportamiento de los 22.459.157.718.361 decimales que se han calculado del número π, este podría ser un número normal para la base 10. Sin embargo, a día de hoy aún no existe una demostración matemática de este hecho.

La artista donostiarra Esther Ferrer, de la que ya hablamos en la entrada Variaciones artísticas del teorema de Napoleón, ilustra esta propiedad en su obra Pi (2009-2010), que pudo verse en la exposición Esther Ferrer. En cuatro movimientos (Artium, 2011-2012).

Sala de Artium, durante la exposición “Esther Ferrer. En cuatro movimientos” (08/10/2011 – 08/01/2012), con los 21 lienzos del número Pi y la proyección de “Los decimales de Pi”

La obra Pi (2009-2010), de Esther Ferrer, consta de 21 lienzos, que podemos ver en la imagen de arriba. En la pared de la derecha hay un lienzo separado del resto, que sería como el lienzo inicial, y luego cada lienzo de la izquierda se corresponde con uno de la derecha, y con una cifra básica, que protagoniza esa pareja de lienzos.

En cada lienzo están representados los primeros decimales del número pi (junto al 3 entero inicial) hasta un cierto número. La artista realiza una cuadrícula muy grande, de 79 × 79 = 6.241 cuadraditos, en los cuales va a representar el número entero 3 inicial y los 6.240 primeros decimales de π. Cada cuadrado va a estar pintado de un color en función de la cifra básica que esté en dicho cuadrado, es decir, a lo largo de todo el lienzo cada cifra básica se corresponde con un color (0 amarillo, 1 azul claro, 2 morado, 3 rojo, 4 verde oscuro, 5 rosa, 6 verde claro, 7 naranja oscuro, 8 azul oscuro, 9 naranja claro). Además, los dígitos del número π se empiezan a pintar en el centro y recorriendo los cuadrados en espiral, 3,141592…

Como cada color está relacionado con una cifra básica, de 0 a 9, entonces la obra Pi (2009-2010) tiene como objetivo transmitir de un vistazo, a través de los colores, cual es la proporción y la distribución (en espiral) de las cifras básicas entre los primeros decimales de π.

Lienzo de la obra “Pi” (2009-2010), de la artista Esther Ferrer, en el cual están pintados todas las cifras salvo la cifra 1, cuyos cuadrados están en blanco

Con el objetivo de visualizar el comportamiento de cada una de las cifras en particular, cada uno de los diez lienzos que estaban en la pared de la izquierda, solamente incluían el color de una cifra básica. El primer lienzo solo los cuadraditos amarillos, en los que se encuentra la cifra 0, en el segundo lienzo solo los cuadraditos de color azul claro que se corresponden con el número 1, y así con el resto. Mientras que, en frente de cada uno de los lienzos, estaba el lienzo complementario, es decir, estaban pintados todos los cuadraditos con su color correspondiente, salvo el de la cifra que le tocaba, así en el primer lienzo todos los colores salvo el amarillo del 0, en el segundo lienzo todos menos el azul claro del 1, y así para el resto.

Lienzo de la obra “Pi” (2009-2010), de la artista Esther Ferrer, en el cual está pintada solamente la cifra 1, cuyos cuadrados están en azul

Precisamente, este lunes 12 de marzo, a las 19:00, en el Biblioteca de Bidebarrieta (Bilbao), tendremos la oportunidad de conversar sobre la utilización de las matemáticas en los procesos creativos de la artista Esther Ferrer y el compositor Tom Johnson, dentro del programa Diálogos en la frontera (de Bidebarrieta Científica).

Bibliografía

1.- Celebra el día de Pi con BCAM Naukas en Bilbao, Cuaderno de Cultura Científica, febrero 2018.

2.- Alfred S. Posamentier, Ingmar Lehmann, La proporción tracendental. La historia de π, el número más misterioso del mundo, Ariel, 2006.

3.- Simon Singh, Los Simpson y las matemáticas, Ariel, 2013.

4.- Peter Trueb, Digit Statistics of the First 22.4 Trillion Decimal Digits of Pi, 2016. Preprint Arxiv 1612.00489

5.- Esther Ferrer, Catálogo de la exposición Esther Ferrer. En cuatro movimientos, Artium. Centro Museo Vasco de Arte Contemporáneo, Acción Cultural Española (AC/E), 2011. Publicación on-line.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo ¿Es normal el número pi? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. 666, el número de la Bestia (1)
  2. 666, el número de la Bestia (y 2)
  3. El número de Erdős-Bacon-Sabbath
Catégories: Zientzia

Regulación de la circulación (1): control del sistema cardiovascular

mar, 2018/03/06 - 17:00

La circulación está sometida a un estricto control al objeto de cumplir tres tareas prioritarias y cumplirlas por este orden: (1) suministro de un volumen de sangre suficiente al encéfalo y al corazón, (2) suministro de suficiente sangre al resto de órganos y tejidos corporales, y (3) control de la presión hidrostática capilar, de manera que se mantenga dentro de un rango razonable de valores el volumen de los tejidos y la composición del fluido intersticial.

El sistema nervioso recibe señales de diferente naturaleza acerca del estado en que se encuentra el sistema circulatorio, por lo que hay diferentes tipos de receptores sensoriales implicados en esa tarea. Están por un lado los barorreceptores, que informan de la presión de la sangre en determinados enclaves. Otros son quimiorreceptores; codifican y envían información acerca de la concentración del CO2, el O2 y el pH sanguíneos. Las contracciones musculares, así como los cambios en la composición del fluido extracelular de los músculos también dan lugar a señales específicas. Por último, también es relevante la información recogida por varios termorreceptores.

En los mamíferos toda esta información es procesada por un conjunto de neuronas que forman lo que se denomina el centro cardiovascular medular, que se encuentra en la médula oblonga (bulbo raquídeo) y el puente de Varolio, y que también recibe inputs de otras regiones encefálicas, como el centro respiratorio (del que hablamos aquí), el hipotálamo, la amígdala (al que nos referimos aquí) y la corteza cerebral.

El centro cardiovascular medular, por su parte, elabora señales que se dirigen a través de motoneuronas pertenecientes a las divisiones simpática y parasimpática del sistema nervioso autónomo (parte del sistema periférico), que inervan el corazón y la musculatura lisa de arteriolas y venas. La estimulación de los nervios simpáticos provoca una elevación del ritmo cardiaco y de la fuerza de impulsión, y también causa vasoconstricción. En consecuencia, se eleva el gasto cardiaco (Q) y la presión sanguínea. La estimulación parasimpática produce los efectos opuestos: reduce el latido, el gasto cardiaco y la presión arterial.

El centro cardiovascular medular puede dividirse en dos áreas funcionales, cuyos efectos sobre la presión sanguínea son opuestos: los centros presor (o vasoconstrictor) y depresor (vasodilatador). El primero estimula el sistema simpático y provoca una elevación en la presión sanguínea y el segundo estimula el parasimpático y provoca una bajada en la presión.

Hay barorreceptores arteriales por todo el sistema arterial. Unos, desprovistos de vaina mielínica, se han encontrado en anfibios, reptiles y mamíferos, y responden a la subida de la presión arterial elevando la frecuencia a la que envían señales al centro cardiovascular medular. Protegen al organismo de los riesgos inherentes a la hipertensión arterial al desencadenar reflejos cuyas consecuencias consisten, precisamente, en una reducción de la tensión. Esa reducción se produce porque el centro cardiovascular medular reduce la actividad de las motoneuronas simpáticas, provocando un descenso en la frecuencia de latido, la fuerza de impulsión del corazón y la resistencia vascular periférica. Al reducirse la presión arterial, los barorreceptores reducen su actividad, lo que conduce a una corrección de las actuaciones anteriores. Además, cuando se reduce la tensión arterial, también aumenta la concentración circulante de la hormona antidiurética (o vasopresina), lo que ayuda a retener líquidos y llevar la presión a los valores de referencia. Otros barorreceptores (dotados de vaina de mielina), solo hallados en mamíferos, responden a la presión baja y provocan una respuesta contraria a la de los anteriores.

Como vimos aquí, los quimiorreceptores de los cuerpos aórticos y carótidos cumplen un importante papel en el control de la actividad respiratoria, pero también participan en la regulación de la función cardiaca. Cuando esos quimiorreceptores detectan un aumento de la concentración de CO2 o una reducción del pH o de la concentración de O2, responden elevando la frecuencia de emisión de potenciales de acción (señales nerviosas), lo que provoca vasoconstricción periférica y una reducción de la frecuencia cardiaca si el organismo ha dejado de respirar (en una inmersión, por ejemplo); de esa forma se limita la circulación por los tejidos periféricos (músculos, principalmente) y se dirige a los órganos internos y, sobre todo, al encéfalo.

Varias regiones cardiacas cuentan con mecanorreceptores y quimiorreceptores. La información acerca del estado del corazón que recogen estos receptores es enviada a través de la médula espinal al centro cardiaco medular y a otras regiones del encéfalo. Además, la estimulación de ciertos receptores cardiacos provoca la liberación de hormonas, tanto desde el propio corazón, como desde otros órganos endocrinos. La frecuencia cardiaca, el grado de llenado y volumen de las aurículas, y el volumen de sangre que llega desde el sistema venoso son monitorizados de manera permanente por esos mecanorreceptores. Los resultados de esa monitorización se traducen en variaciones en la frecuencia de latido y en la concentración de vasopresina en la sangre, por lo que no solo afecta a la actividad cardiaca, sino también a la renal, ayudando de esa forma a ajustar el volumen de sangre en el organismo en su conjunto.

La pared de la aurícula cuenta con células secretoras que son sensibles al estiramiento. Son células endocrinas que producen el péptido natriurético auricular, y que lo liberan cuando se encuentran estiradas. Su efecto consiste en estimular la excreción de sodio y la producción de orina, de manera que contribuye a reducir tanto el volumen de plasma sanguíneo como el de la presión arterial. Además, reduce la actividad del sistema renina-angiotensina-aldosterona, sistema endocrino que induce una mayor reabsorción renal de Na+ y menor filtración glomerular (menor producción de orina primaria). Inhibe también la liberación de hormona antidiurética.

Además de los receptores auriculares, el corazón también cuenta con receptores ventriculares con funciones mecanorreceptoras y quimiorreceptoras. Las primeras son estimuladas por la interrupción del flujo sanguíneo coronario. Las quimiorreceptoras son sensibles a sustancias químicas que median las respuestas inflamatorias.

Los músculos esqueléticos cuentan con numerosas fibras sensoriales, más incluso que motoras. Algunas registran la tensión muscular y modulan de forma refleja la contracción de los músculos; esas fibras no intervienen en la regulación del sistema cardiovascular. Otras, sin embargo sí lo hacen, y las hay quimiorreceptoras (registran cambios en la composición química del líquido extracelular) y mecanorreceptoras (registran estiramiento y contracción). La estimulación de estas fibras produce cambios en la frecuencia cardiaca y de la presión arterial, en un sentido que depende de las fibras concretas implicadas.

En resumen, la circulación se encuentra sometida a un complejo sistema de control. El centro cardiovascular medular recibe e integra información recogida por los mecanorreceptores, quimiorreceptores y termorreceptores distribuidos en diferentes puntos del sistema vascular, y elabora respuestas que tienden a garantizar el cumplimiento de las funciones del sistema y, ante todo, el suministro de sangre al encéfalo y el corazón.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Regulación de la circulación (1): control del sistema cardiovascular se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un viaje a través del sistema circulatorio humano
  2. Sistemas nerviosos: el sistema límbico
  3. La emergencia de un doble sistema circulatorio
Catégories: Zientzia

Más que materia en movimiento

mar, 2018/03/06 - 11:59

Aunque la teoría de la relatividad especial de Einstein no representó una ruptura traumática con la física clásica, sí acabó con la visión mecánica del mundo, esa que todo lo reduce a materia en movimiento. Nuestra comprensión de la naturaleza proporcionada por la relatividad especial, junto con la mecánica cuántica, la teoría de la relatividad general y otros hallazgos, modelarán lentamente una nueva comprensión del universo que todavía está inacabada. La teoría de la invariancia fue la primera grieta seria (la hipótesis cuántica daría frutos posteriormente) en la cosmovisión newtoniana.

Ahora que hemos visto las conclusiones principales de la teoría especial, vamos a detenernos un momento para considerar qué supuso esa rotura y en qué aspectos influyó principalmente. Eso nos preparará para introducir a continuación el concepto de intervalo de espaciotiempo y, a partir de él, explorar la relatividad general.

La relatividad especial elimina dos ideas importantes implícitas en la visión mecánica del mundo: las de reposo y movimiento absolutos. Hasta Einstein, la mayoría de los físicos definían el reposo absoluto y el movimiento en términos del llamado éter, la materia que llenaba todo el espacio y que permitía la transmisión de la luz y de las fuerzas eléctricas y magnéticas. Einstein simplemente ignora el éter como “superfluo”, ya que en su teoría solo se usaban los movimientos relativos.

Desde décadas antes del trabajo de Einstein, y posteriormente a este, se llevaron a cabo una gran cantidad de experimentos diferentes muy cuidadosos para detectar el éter; todos con resultado negativo. Uno de estos experimentos, sin duda el más famoso, fue una serie de ellos realizados en 1887 por Albert A. Michelson y Edward Morley basándose en un primer experimento de Michelson de 1881, repetidos en 1902 y 1905 y después otra vez en los años veinte por distintos investigadores, cada vez con mayores refinamientos. En este tipo de experimentos se pretende medir el “viento de éter” experimentado por la Tierra a medida que avanza a través del supuesto éter estacionario en su órbita alrededor del Sol.

Mesa óptica del experimento de Michelson-Morley. Fuente y más información: El viento del éter lumifero y el experimento de Michelson-Morley

Si existía el éter entonces debería causar un “viento de éter” sobre la superficie de la Tierra a lo largo de la dirección del movimiento. Como se creía que la luz era una onda que se movía a través del éter, algo así como las ondas de sonido a través del aire, debería verse afectada por este viento. En concreto, una onda luminosa que viajase contra el viento y vuelta debería emplear más tiempo para hacer un viaje de ida y vuelta que una onda que viajase exactamente la misma distancia en ángulo recto, es decir, atravesando el viento y vuelta. Comparando dos ondas en direcciones perpendiculares en un dispositivo muy ingenioso, Michelson y Morley no pudieron encontrar diferencias en los tiempos, dentro de los límites de precisión de su experimento; los experimentos posteriores se limitaron a reducir esos límites. A los pocos años de la teoría de Einstein, la mayoría de los físicos habían abandonado la noción de éter. Si no se puede detectar y no juega ningún papel en la teoría de Einstein, ¿para qué mantenerlo?

La pérdida del éter no solo descartó los conceptos de reposo y movimiento absolutos, sino que los científicos tuvieron que replantearse su comprensión de cómo funcionan las fuerzas, como la electricidad, el magnetismo y la gravedad. Se suponía que era el éter el que debía transmitir estas fuerzas. Pero Maxwell había desarrollado su teoría electromagnética matemáticamente, independientemente de cualquier modelo concreto de éter y, de repente no había éter al que recurrir. Entonces, ¿qué eran estos campos? Los científicos finalmente aceptaron la idea de que los campos electromagnético, gravitatorio o cualquier otro, son independientes de la materia.

Ahora en el universo había algo más que materia en movimiento. Ahora había materia, campos y movimiento, lo que significaba que no todo se puede reducir a las interacciones materiales y las leyes de Newton. Los campos no materiales también tenían que incluirse y ser capaces de transportar energía a través del espacio vacío en forma de rayos de luz. El universo de repente, en cuestión de muy pocos años, se había vuelto mucho más complejo que la materia y el movimiento de nuestro día a día.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Más que materia en movimiento se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El principio de relatividad (1): movimiento relativo
  2. Una cuestión de movimiento
  3. Otras predicciones del modelo cinético. Movimiento browniano
Catégories: Zientzia

Narrar historias promueve la cooperación

lun, 2018/03/05 - 11:59

A los seres humanos nos gusta que nos cuenten historias. Nos gustan las narraciones. Y a algunos también les gusta contarlas. No se trata solo de las que nos contamos unos a otros de manera oral. También las leemos. O, cada vez en mayor medida, las vemos u oímos en programas de televisión o de radio. Dedicamos muchísimo tiempo -y dinero- a oír, leer o ver historias. Es un rasgo cultural universal: a todos los seres humanos nos gustan las narraciones.

Hay quien se ha preguntado acerca de la razón de ser de este universal. Al fin y al cabo, si todos los seres humanos amamos las narraciones, es lógico pensar que alguna ventaja debe o ha debido de proporcionarnos esa actividad en términos evolutivos. Con esa idea general como punto de partida, un grupo de investigadores de diferentes procedencias geográficas y disciplinares, liderado por Andrea Bamberg Migliano, del University College de Londres, han sometido a contraste la hipótesis de que la narración de historias ha cumplido una función importante en la evolución de la cooperación humana mediante la transmisión de las normas sociales y cooperativas que permiten coordinar el comportamiento del grupo.

Según este equipo de antropólogos, para que un grupo humano coopere, no solamente hay que resolver el problema de cómo penalizar a los que no cooperan y se aprovechan de quienes sí lo hacen (lo que en inglés se denomina el problema del free-rider). También haría falta que los miembros del grupo compartan el conocimiento acerca del comportamiento de los demás; en otras palabras, no sería suficiente con saber cómo actuar en una situación dada, sino que los miembros del grupo necesitan saber que los demás también saben cómo actuar. Es lo que los autores del trabajo denominan metaconocimiento. En ese contexto, el lenguaje es esencial, por supuesto, como medio de comunicación, pero además del lenguaje es necesario que los miembros del grupo compartan normas y formas de actuación con los demás, y que lo sepan. Y para ello, -sostienen- las historias pueden ser instrumentos muy importantes.

Para contrastar la hipótesis de partida, los autores se propusieron estudiar pueblos de cazadores-recolectores ya que son grupos de esa condición los que mejor representan la situación en que se han desenvuelto los grupos humanos a lo largo de la mayor parte de su historia. El grupo escogido fue el de los agtas, cazadores-recolectores que viven en las Filipinas. Analizaron varias historias que se cuentan los adultos unos a otros y que los adultos cuentan a los niños. También recopilaron 89 historias contadas en varios grupos de cazadores-recolectores de diferentes procedencias y las clasificaron de acuerdo con su contenido y el tipo de normas o actitudes que transmiten. En otro orden de cosas, valoraron si la presencia de buenos narradores en el grupo tiene reflejo en el grado de cooperación en su seno, así como si los narradores se ven favorecidos de alguna forma, ya sea por las relaciones sociales que mantienen o por su éxito reproductor. Mediante estos dos últimos elementos pretendían averiguar si unas capacidades útiles para el grupo, como es la de narrar buenas historias, rinden además algún beneficio para quien las ejercita.

Y efectivamente, los agta se cuentan historias que transmiten mensajes que promueven la cooperación, la igualdad de sexos, y la igualdad social, rasgos que caracterizan a sus grupos. No solo las de los agta, las historias que cuentan en otros grupos humanos también parecen estar elaboradas para coordinar el comportamiento social y promover la cooperación. Los individuos pertenecientes a poblados en los que hay una mayor proporción de individuos dotados para narrar historias son más cooperativos. Los mejores narradores son preferidos como compañeros de cuadrilla o amigos y tienen también un mayor éxito reproductivo.

La conclusión que extraen los autores del trabajo es que la narración de historias es un rasgo cultural con valor adaptativo, ya que ayuda a articular eficaces sistemas de cooperación en las sociedades de cazadores-recolectores. Y resaltan además el hecho de que ciertos comportamientos o rasgos individuales, que son beneficiosos para el grupo, también pueden ser seleccionados de manera individual. No obstante, que las narraciones cumplan esas funciones no es óbice para que cumpla también otras o para que se deriven otros beneficios de la práctica de contar historias.

Somos contadores de historias; no solamente disfrutamos contando, escuchando, leyendo o viéndolas; hasta la manera en que pensamos está directamente relacionada con la estructura de la narración. Si no se tratase de un rasgo valioso, no nos gustaría tanto y no tendría tanta importancia en nuestras vidas. La idea de que las narraciones promueven la cooperación es sugerente, pero quizás haya más razones por las que disfrutamos tanto con ellas.

Referencia:

D Smith, P Schlaepfer, K Major, M Dyble, A E Page, J Thompson, N Chaudhary, G D Salali, r Mace, L Astete, M Ngales, L Vinicius & A B Migliano (2017): Cooperation and the evolution of hunter-gatherer storytelling. Nature Communications doi: 10.1038/s41467-017-02036-8

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Narrar historias promueve la cooperación se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La cooperación no favorece a los invasores rápidos
  2. Una buena colección de historias maravillosas
  3. Limpieza promueve limpieza
Catégories: Zientzia

El caso de los enfermos de Minamata

dim, 2018/03/04 - 11:59

La mano de Tomoko Uemura, enferma de Minamata. Foto: W. Eugene Smith (1971)

Era un día de la primavera de 1956. El 21 de abril, una niña de la ciudad, de 5 años de edad y llamada Tsukinoura, amaneció con convulsiones y dificultades para andar y hablar. Ingresó en el hospital de Minamata, el Hospital Chisso, de la empresa propietaria de la principal fábrica de la ciudad. Fue, esa niña, el primer caso bien documentado de la enfermedad de Minamata. Su aparición fue reconocida oficialmente el 1 de mayo, cuando había cuatro enfermos ingresados, entre ellos, la hermana de la primera enferma. El director del hospital notificó a los servicios de salud que cuatro enfermos mostraban síntomas cerebrales de origen desconocido.

Minamata, de la Prefectura de Kumamoto, era una pequeña ciudad del sur de la isla de Kyushu, en el Japón, en la desembocadura del río Minamata que se abre a la bahía del mismo nombre y al mar de Yatsushiro. En 1956, cuando comienza esta historia, tenía unos 50000 habitantes.

Con el tiempo y muchos estudios, se descubrió que la causa de la enfermedad de Minamata era el envenenamiento con metil mercurio asociado al consumo diario de grandes cantidades de pescado y marisco contaminado con mercurio.

Presenta síntomas muy variados según el grado de exposición al tóxico. Los casos más graves se caracterizan por problemas sensoriales, sobre todo en las extremidades, problemas de movimiento y equilibrio y reducción del campo visual. Hay otros signos de problemas neurológicos como la dificultad en el habla, pérdida de audición, movimiento difícil de los ojos, temblores,… Los casos más suaves incluyen sensación de pinchazos en las extremidades (parestesia), dolor en las articulaciones, problemas en el uso de los dedos, dolores de cabeza, fallos de la memoria, insomnio,…

Todo empezó unos 50 años antes, cuando se instaló en Minamata la empresa Chisso, entonces conocida como Nippon Nitrogen Fertilizer Corporation, que, a partir de la década de los 50, comenzó a producir acetaldehído, compuesto utilizado en la síntesis de plásticos y en otras aplicaciones. La ciudad creció a la vez que la fábrica, su industria más importante. Para la síntesis del acetaldehído era necesario el mercurio como catalizador, o acelerador de la reacción química. Después, el mercurio sobrante se vertía al mar donde, en parte, cambiaba a metil mercurio, mucho más tóxico y más fácilmente asimilable por los organismos vivos. En los peces, moluscos y crustáceos entraba por el sistema digestivo o por las branquias. Los bivalvos y los peces morían, las algas no crecían y, en tierra, los gatos y las aves agonizaban.

Las investigaciones identificaron el mercurio como la causa de la enfermedad de Minamata, pero las autoridades y la empresa Chisso no utilizaron este dato para contener la extensión de la enfermedad. En 1956 eran 54 casos reconocidos, con 17 fallecimientos. Y, por estadísticas epidemiológicas, se demostró que la enfermedad estaba asociada al consumo de pescado y marisco, y se sugirió que los síntomas se debían a una intoxicación con un metal pesado. A pesar de ello, las autoridades no prohibieron ni la pesca ni el consumo de pescado y, por supuesto, desconocían el origen del metal pesado. La fábrica Chisso era sospechosa de la contaminación pero, en aquellos años, no era fácil de probar.

Se diagnosticaron más casos en 1958 y, también aquel año, Chisso incrementó la producción de acetaldehído y, por si se demostraba que eran los causantes de la enfermedad con sus vertidos, diluyeron lo que expulsaban con agua de mar y cambiaron el punto de vertido. Pero, para el año siguiente, aparecieron nuevos enfermos en los alrededores del nuevo punto de descarga.

Los grupos de investigación detectaron, para julio de 1959, grandes concentraciones de mercurio en la bahía, con un máximo de 2 gramos por kilogramo de muestra en el punto de vertido de la empresa Chisso. La empresa rechazó estas cifras pero no mencionaba que el mercurio fuera parte de sus vertidos, sobre todo desde que inició la producción de acetaldehído a principios de los 50. Incluso, como veremos más adelante, no hizo público que en sus laboratorios había reproducido los síntomas de la enfermedad de Minamata en gatos alimentados con pescado y marisco de la bahía y, también, mezclando su alimento con lo que vertían al entorno como subproducto de la síntesis del acetaldehído.

Fueron los equipos de investigación de la Facultad de Medicina de la Universidad de Kumamoto los que trabajaron durante años para conocer mejor la enfermedad y su origen en el metil mercurio. El 22 de julio de 1959 publicaron un informe en el que escribían que

La enfermedad de Minamata es una enfermedad del sistema nervioso que es causada por la alimentación con pescado y marisco en el área local (Bahía de Minamata). El mercurio ha llamado nuestra atención como la causa posible de la contaminación del pescado y el marisco.”

Firmaban este informe los profesores Tadao Takeuchi y Haruhiko Tokuomi. El 5 de agosto la empresa Chisso respondía afirmando que

La teoría del mercurio orgánico de la Universidad de Kumamoto es una especulación sin ninguna prueba, y es irracional según el sentido común de la química.”

Sin embargo, el 6 de octubre de 1959, en un experimento en el Hospital Chisso de Minamata, el hospital de la empresa, los gatos alimentados con los vertidos sufrían síntomas de la enfermedad de Minamata. Chisso nunca publicó estos resultados.

La hipótesis de que el metil mercurio que vertía la empresa Chisso podía ser la causa de la enfermedad, convirtió el problema médico y ambiental en un problema social. Los pescadores exigían a Chisso una compensación por el daño causado, que cesaran los vertidos y que se depurara todo lo que salía de la fábrica hacia el mar. Hay manifestaciones, invasión de la fábrica, mandato del gobierno para que Chisso tratara sus vertidos y, también, comisiones de investigación en el Parlamento.

En diciembre de 1959, Chisso firmó un acuerdo con los pescadores y puso en marcha una depuradora que, aunque el presidente de la compañía bebió un vaso del agua depurada delante de pescadores y administración, no servía de mucho para retirar el mercurio. Separaba del vertido las sustancias que lo enturbiaban, con lo que el agua era transparente y parecía limpia, pero no actuaba sobre las sustancias disueltas y, entre ellas, estaba el mercurio.

Chisso compensó económicamente a los enfermos, 78 censados en aquel año, y a sus familias con un acuerdo que les prohibía cualquier otra reclamación en el futuro. La empresa añadía que su ayuda era por simpatía a los enfermos, no como compensación de cualquier daño del que sintieran responsables.

Con este acuerdo, pescadores y gobierno, y por supuesto la empresa, daban por finalizado el asunto, aunque los científicos seguían estudiando la intervención del metil mercurio en la enfermedad y su presencia en la bahía y en el sedimento y en el pescado y marisco de la dieta de los pescadores.

Entonces estalló la segunda fase de la enfermedad de Minamata. Desde mediados de los 50, en la ciudad habían aumentado los casos de parálisis cerebral, los abortos, los nacimientos prematuros y había cambiado el índice de sexos pues los afectados eran, sobre todo, los niños frente a las niñas. En 1961 y 1962, murieron dos mujeres jóvenes y, en la autopsia, ambas llevaban fetos muertos con la enfermedad de Minamata. Además, en 1962 se declararon 15 nuevos casos de parálisis cerebral.

En aquellos días, los empleados de Chisso seguían encontrando metil mercurio en los procesos de síntesis de acetaldehído, aunque la empresa no lo hizo público. Solo en 1967 los investigadores conseguieron demostrar la presencia de metil mercurio en el proceso de síntesis de acetaldehído. Y en 1968, el gobierno estableció que el metil mercurio vertido por Chisso era la causa de la enfermedad de Minamata. Habían pasado 12 años desde aquella primera niña enferma de 5 años detectada en 1956. Aquel mismo año, 1968, Chisso dejó de producir acetaldehído en su factoría de Minamata. Se calcula que en los años de contaminación, Chisso vertió a la bahía de 70 a 150 toneladas de mercurio, incluyendo de 0.6 a 6 toneladas de metil mercurio.

Hubo que esperar hasta 1971, 15 años después, para que la justicia sentenciara que Chisso era responsable de lo ocurrido. En 2005, habían recibido el certificado oficial de padecer la enfermedad de Minamata 1775 pacientes, y hay más de 3000 a la espera de que se resuelva su petición. Para 2007, Minamata, con la enfermedad y la crisis de la economía, había perdido casi la mitad de su población respecto a la década de los 50, cuando se declaró la enfermedad, y tenía unos 29000 habitantes.

Tomoko Uemura en su baño. Foto: W. Eugene Smith (1971)

No es fácil demostrar que una persona tiene la enfermedad de Minamata. En primer lugar, el metil mercurio se excreta en 70-90 días y, por tanto, años después es difícil que se detecte en el cuerpo del enfermo. Y, en segundo lugar, a menudo los síntomas que declara el paciente son subjetivos y difíciles de evaluar.

Durante años estuvo prohibida la pesca en la Bahía de Minamata e, incluso, había zonas cercadas con vallas metálicas para impedir la entrada por estar los sedimentos contaminados con mercurio. El 1997, los niveles del tóxico ya se encontraban por debajo de los límites que marcaban los reglamentos y la concentración en el pescado era, de media, cercana o inferior a 0.4 microgramos por gramo de pescado, por debajo del límite que marca la legislación japonesa. El 15 de octubre de 1997, la Bahía de Minamata se reabrió a la pesca.

En 2010, son 2771 personas las que tienen el certificado de padecer la enfermedad de Minamata pero hay más de 40000, con síntomas más leves, que también reciben tratamiento médico. En la bahía, la concentración media de mercurio es de 25 microgramos por gramo de sedimento en un área de unos 2 kilómetros cuadrados. No son raras las concentraciones por encima de 100 microgramos de mercurio por gramo de sedimento. En los materiales depositados en el fondo de la bahía, la contaminación con mercurio se detecta hasta los 4 metros de profundidad.

Quizá Minamata no ha terminado. Todavía no se conocen con exactitud los efectos a largo plazo de estos, y de muchos otros, contaminantes. Son concentraciones bajas pero absorbidas en pequeña cantidad durante muchos años y pueden provocar efectos que aún no detectamos. Además, Minamata abrió los estudios sobre daños producidos por metales pesados. Así conocimos el “Itai Itai”, el daño producido por el cadmio. También se descubrió en Japón con esta enfermedad provocada por la alimentación con arroz contaminado por cadmio procedente de los vertidos de una mina. Ocurrió en Toyama, pero es otra historia.

Ya conocemos lo que ocurrió en Minamata, Japón, y la tragedia que provocó la contaminación con mercurio, su acumulación en el pescado que consumía la población y las decenas, quizá miles, de enfermos que sufrieron, y sufren, el llamado síndrome de Minamata. Ahora, medio siglo después, en 2011, la Agencia Española de Seguridad Alimentaria y Nutrición emitió un comunicado en relación con la presencia de mercurio en pez espada (Xiphias gladius), tiburón Selachimorpha sp.), atún rojo (Thunnus thynnus) y lucio (Esox lucius). Según los informes de la Autoridad Europea de Seguridad Alimentaria y de la Dirección General de Sanidad y Consumo de la Unión Europea, la Agencia Española recomendaba que las embarazadas y los niños menores de 3 años debían evitar el consumo de estos pescados, y los niños entre 3 y 12 años limitar su consumo a 50 gramos por semana. El mercurio es un riesgo para el desarrollo del sistema nervioso central en embriones y niños y, en personas mayores de 50 años, se le relaciona con enfermedades cardiovasculares.

El mercurio llega al entorno por actividades como la quema de carbón en centrales eléctricas o calefacciones, procesos industriales, incineradoras de basura y minería. En el ambiente, el mercurio se combina con carbono e hidrógeno y se sintetizan compuestos orgánicos. El más abundante, como vimos en Minamata, es el metil-mercurio, sintetizado por microorganismos, y entra en las cadenas tróficas y termina acumulándose en los grandes depredadores y, entre ellos y en medio marino, en el atún, pez espada, tiburones y peces similares.

Atún rojo pescado en Cabo de Palos (Murcia) mediante jigging

El atún rojo es una de las especies de este grupo más controladas y el grupo de Agustín Pastor, de la Universidad de Valencia, analizó su contenido en mercurio. Compraron los ejemplares en comercios de Valencia y encontraron que, de media, tenían 0.55 miligramos de mercurio por kilogramo de peso. Esta concentración cumple los límites marcados por la Unión Europea. Cuando, según las estadísticas de la dieta de los consumidores, calcularon la ingesta de mercurio en el pescado encontraron que es, de media, de 44.6 microgramos de mercurio por persona y semana. Esta cantidad es el 43% de la dosis semanal tolerable.

En un estudio, parecido al de Valencia, con muestras de Galicia, el grupo de Sonia Lucía Blanco, del Centro Técnico Nacional de Conservación de Productos de la Pesca de Vigo, encuentra resultados similares pero con un 17% de los ejemplares de pez espada y un 31% de tiburón que superan los límites de la legislación europea.

Y un último ejemplo es el estudio de Giuseppe Di Bella y sus colegas, de la Universidad de Messina, en Italia, sobre la presencia de mercurio en 23 ejemplares de atún pescados en el Mediterráneo. Pesan de 130 a 290 kilogramos y se busca el metal en muestras de músculo. En ningún caso se sobrepasan los límites marcados por la Unión Europea ni el riesgo de la dosis semanal tolerable.

Hay que destacar que la presencia de mercurio en atún y pez espada se conoce, en nuestro entorno, desde hace medio siglo, desde los setenta del siglo pasado. Fueron los estudios de Rafael Establier, del Instituto de Investigaciones Pesqueras de Cádiz, un científico pionero en la detección de metales pesados en el pescado. En un trabajo publicado en 1972 encontraba mercurio en atún y pez espada, y en concentraciones superiores a las permitidas por la legislación de la época.

Banco de atunes en las aguas de Sicilia

En estos estudios de presencia del mercurio en peces, a menudo no se precisa la especie que se investiga y pueden ser especies diferentes en su biología y ecología, con diferentes tasas de acumulación del metal. Pueden ser especies que se comercializan con la misma denominación pero tienen diferentes distribución geográfica y comportamiento respecto a la contaminación. En el estudio de Gaetano Camilleri y su grupo, del Instituto Zooprofiláctico Experimental de Sicilia en Palermo, se miden concentraciones de mercurio en el atún rojo, con distribución en el Mediterráneo, y en el rabil o atún de aleta amarilla (Thunnus albacores), de los mares tropicales y subtropicales y que nos llega congelado o en conserva.

Los resultados muestran que la concentración de mercurio, de media, es cinco veces mayor, con 0.84 miligramos por kilogramo, en el atún rojo que en el rabil, con 0.16 miligramos por kilogramo. Además, entre las muestras del atún rojo hay 20 de músculo, la parte comestible, que superan los límites de la reglamentación de la Unión Europea.

El grupo de Yangyang Liu, de la Universidad de Illinois en Chicago, ha tomado datos de la Encuesta Nacional de Salud de Estados Unidos (NHANES) entre los años 2011 y 2014. Estiman el pescado consumido en 30 días y lo relacionan con la concentración de mercurio en sangre. Comparan poblaciones de origen asiático, con mayor consumo de pescado, y población no asiática.

La población asiática en edad reproductora y los mayores de 50 años tienen más mercurio en sangre que en la población no asiática. Además, los autores encuentran una relación, en la población asiática, entre la concentración de mercurio en sangre y la dieta de pescado, sobre todo en mujeres en edad reproductora. En su dieta son importantes la caballa y el atún.

En España y en una revisión publicada en 2013, la medida de la concentración de mercurio en sangre de 1800 recién nacidos indica que el 24% supera las recomendaciones de la OMS y el 64% supera las de la Agencia de Protección Ambiental de Estados Unidos. Sin embargo, esta revisión, liderada por Sabrina Llop, del Consejo Superior de Investigación en Salud Pública de Valencia, y que también firma Jesús Ibarlucea, del Instituto de Investigación BioDonostia, también encuentra que, dos años después, los niños no muestran signos de riesgo en su desarrollo cognitivo. Hay que recordar que la recomendación de no comer estos pescados con mercurio en niños de corta edad es porque se supone que el metal interfiere en el desarrollo del sistema nervioso central. Por si acaso, hay que tener en cuenta que en Francia, donde se ha estudiado, hay muy poco mercurio en la dieta de los niños hasta los 3 años. El estudio de Thiery Guérin y su grupo, de la Universidad de París-Este, encuentra que, de 291 muestras de alimentos analizadas, el 92.4% no tiene mercurio. Solo hay una cierta concentración en el pescado y siempre por debajo de lo que marca la legislación.

Cocer, asar o freír, en una palabra, cocinar disminuye la bioaccesibilidad del metil-mercurio entre el 30% y el 99% en varias especies de peces. En concreto, Ousséni Ouédrago y Marc Amyot, de la Universidad de Montreal, han estudiado el efecto de la cocina en caballa, atún y tiburón comprados en el mercado de la ciudad. Cocer y freír el pescado reduce la bioaccesibilidad entre un 40% y un 60%. Y, además, si se ingiere, a la vez, te o café, la bioaccesibilidad se reduce un 99%, según este estudio y otro del mismo grupo liderado por Catherine Girard.

Esta es la historia de la presencia de mercurio en el pescado del que nos alimentamos y de las precauciones que debemos tomar para evitar riesgos para la salud. Y tampoco debemos olvidar que estos depredadores del mar, situados en lo más alto de la cadena trófica, acumulan los contaminantes presentes en sus presas. Además, hay que investigar los efectos a largo plazo y con dosis bajas y durante mucho tiempo. El control de vertidos, como vimos en Minamata, es esencial para evitar los daños en la salud y en el ambiente.

Referencias:

Balogh, S.J. et al. 2015. Tracking the fate of mercury in the fish and bottom sediments of MinamataBay, Japan, using stable mercury isotopes. Environmental Science & Technology DOI: 10.1021/acs.est.5b00631

Blanco, S.L. et al. 2008. Mercury, cadmium and lead levels in samples of the maintraded fish and shellfish species in Galicia, Spain. Food Additives & Contaminants Part B 1: 15-21.

Camilleri, G. et al. 2017. Mercury in fish products what’s the best for the consumers between bluefin tuna and yellowfin tuna. Natural Products Research doi: 10.1080/1478419.2017.1309538

Di Bella, G.D. et al. 2015. Trace elements in Thunnus thynnus from Mediterranean Sea and benefit-risk assessment for consumers. Food Additives & Contaminants 8: 175-181.

Establier, R. 1972. Concentración de mercurio en los tejidos se algunos peces, moluscos y crustáceos del golfo de Cádiz y caladeros del noroeste africano. Investigación Pesquera 36: 355-364.

Girard, C. et al. 2018. Cooking and co-ingested polyphenols reduce in vitro methylmercury bioaccessibility from fish and may alter exposure in humans. Science of the Total Environment 616-617: 863-874.

Guérin, T. et al. 2018. Mercury in food from the first French total diet study on infants and toddlers. Food Chemistry 239: 920-925.

Hachiya, N. 2006. The history and present of Minamata disease – Entering the second half a century – . Japan Medical Association Journal 49: 112-118.

He, M. & W. Wang. 2011. Factors affecting the bioaccessibility of methylmercury in several marine fish species: Journal of Agricultural and Food Chemistry 8: 7155-7162.

Liu, Y. et al. 2018. Association of methylmercury intake from seafood consumption and blood mercury level among the Asian and Non-Asian populations in the United States. Environmental Research 160: 212-222.

Llop, S. et al. 2013. Estado actual sobre la exposición alimentaria al mercurio durante el embarazo y la infancia y recomendaciones en salud pública. Gaceta Sanitaria 27: 273-278.

Minamata Disease Municipal Museum. 2007. Minamata disease – Its history and lessons – 2007. Minamata City. Planning Division. Minamata. 58 pp.

Ouedrago, O. & M. Amyot. 2011. Effects of various cooking methods and food components on bioaccessibility of mercury from fish. Environmental Research 111: 1064-1069.

Tsuchuya, K. 1969. Causation of ouch-ouch disease (Itai-Itai Byo) –An introductory review- Part II. Epidemiology and evaluation. Keio Journal of Medicine 18: 195-211.

Yusá, Y. et al. 2008. Monitoring programme on cadmium, lead and mercury in fish and seafood from Valencia, Spain: levels and estimated weekly intake. Food Additives and Contaminants Part B 1: 22-31.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo El caso de los enfermos de Minamata se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El caso de Rin Tin Tin y sus amigos
  2. El caso de Julius Lederer (y del agua que bebemos)
  3. El consumo de alcohol para el corazón y las dificultades de divulgar ciencia
Catégories: Zientzia

Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan

sam, 2018/03/03 - 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

Lo de Juego de Tronos queda en un chiste si lo comparamos con la guerra entre bacterias y virus, que empezó allá en los inicios de la vida y que continúa hoy día. Nacho López-Goñi lo cuenta como nadie.

Ignacio López-Goñi: Las bacterias también se vacunan

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ignacio López-Goñi: “El sistema de defensa de las bacterias es el mejor editor de genomas que existe”
  2. Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma
  3. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
Catégories: Zientzia

100 años después el neandertal de La Ferrassie sigue dando información

ven, 2018/03/02 - 17:00

La Ferrasie en 2005. Wikimedia Commons

El abrigo rocoso de La Ferrassie está localizado en la base de una colina de caliza en Savignac de Miremont, a 5 km al norte de Le Bugue, en Dordoña (Francia). El 17 de septiembre de 1909, un esqueleto neandertal adulto masculino fue descubierto y nombrado como La Ferrassie 1 (LF1), en lo que el director de la excavación Denis Peyrony consideró una fosa funeraria en un nivel que ha sido datado entre 40 y 54 mil años. Este esqueleto es uno de los individuos neandertales más importantes, tanto por su excepcional estado de conservación como por el papel que ha jugado históricamente en la interpretación de la anatomía y comportamiento de los neandertales.

Foto del descubrimiento de La Ferrassie 1 en 1909. © Collections M.N.P. Les Eyzies

Más de 100 años después de su descubrimiento, este fósil continua ofreciéndonos nuevas perspectivas en el estudio de los neandertales. Un equipo internacional, con investigadores de la Universidad de Alcalá de Henares (Madrid), Musée de l’Homme (Paris), Liverpool John Moores University (Reino Unido), Centro Mixto UCM-ISCIII para el estudio de la Evolución y comportamiento humanos (Madrid), y Binghamton University (USA), liderado por el investigador Ikerbasque de la UPV/EHU Asier Gómez-Olivencia ha obtenido nueva información relevante.

La Ferrassie 1 era un neandertal masculino de más de 50 años de edad que sufrió varias lesiones a lo largo de su vida, probablemente en relación con su estilo de vida cazador-recolector. En el momento de su muerte sufría problemas relacionados con una enfermedad pulmonar. Poco después de su muerte fue enterrado por otros miembros de su grupo en lo que hoy conocemos como Abrigo Rocoso de La Ferrassie, un lugar que los neandertales usaron como campamento de manera reiterada durante miles de años.

En este estudio se han utilizado tomografías computerizadas y radigrafías de alta resolución para poder encontrar nuevos restos y poder caracterizar mejor las lesiones patológicas. Los resultados no podían ser más interesantes.

Se han identificado nuevos restos fósiles pertenecientes a este esqueleto, incluyendo los tres huesecillos del oído que se encontraban en el hueso temporal derecho, tres fragmentos de vértebra y dos fragmentos de costilla. Los huesecillos del oído están completos y nos ayudan a comprender mejor la variabilidad de los neandertales en esta región anatómica.

Se han identificado nuevas lesiones patológicas, incluyendo una fractura de la clavícula sin desplazamiento del hueso, mayor degeneración artrósica en la columna vertebral y una ligera escoliosis, y una variante congénita de la primera vértebra cervical que no tendría consecuencias clínicas. Estas anomalías se sumarían a otras anomalías descritas previamente como son una fractura del trocánter mayor del fémur derecho y la evidencia de una afección sistémica de origen pulmonar debida a una infección o un carcinoma, que pudo haber sido la causa de la muerte de este individuo.

Se ha confirmado que no hay alteraciones superficiales en los huesos del esqueleto de La Ferrrassie 1, y que la manera en que los huesos aparecen rotos es típico de huesos que han perdido el colágeno. El estudio tafonómico de este individuo es coherente con la hipótesis de que su cuerpo fue enterrado poco después de su muerte, por lo que ningún carnívoro atacó el cadáver. Durante la putrefacción, los huesos perdieron el colágeno y se rompieron in situ por el peso del sedimento. Estos datos son coherentes con la hipótesis de un enterramiento intencional de este esqueleto, tal y como se ha propuesto por estudios anteriores.

Más de 100 años después de su descubrimiento, el neandertal de La Ferrassie sigue proporcionando nueva información que nos ayuda a comprender la anatomía y comportamiento de los neandertales.

Referencia:

Asier Gómez-Olivencia et al (2018) La Ferrassie 1: New perspectives on a “classic” Neandertal Journal of Human Evolution doi: 10.1016/j.jhevol.2017.12.004

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo 100 años después el neandertal de La Ferrassie sigue dando información se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El estribo más completo del registro neandertal
  2. Gripe A, cuatro años después
  3. La complejidad de la mente neandertal
Catégories: Zientzia

Alzhéimer, ¿el fin de la expedición?

ven, 2018/03/02 - 12:00

Ha vuelto a ocurrir. Lo publicaba la farmacéutica con sede en Indianápolis en New England Journal of Medicine el pasado 24 de enero. El último de los grandes estudios Expedition, el tercero de la saga para ser exactos, ha fallado. Después de las noticias de hace un par de años, creo que todos nos lo temíamos. El solanezumab (acabado en “-mab” por lo de “monoclonal antibody”) no disminuye significativamente el deterioro cognitivo asociado a la enfermedad de Alzheimer. La ventaja competitiva inicial de este anticuerpo es que estaba dirigido contra el amiloide soluble monomérico, una estrategia que pretendía disminuir las especies de amiloide soluble en el cerebro y así evitar la formación de placas seniles.

Cerebro de enfermo de alzhéimer con placas amiloides marcadas con rojo congo (arriba a la izquierda) y marcas de amiloide envolviendo los vasos sanguíneos (abajo a la derecha)

Se trataba de un Fase III. Con más de 2.000 pacientes. El mayor estudio hecho hasta la fecha sobre la modulación del amiloide en la enfermedad de Alzheimer. Expedition 3 ha comparado 1.057 enfermos tratados con el anticuerpo contra 1.072 que han recibido placebo. El fármaco ha sido administrado intravenosamente a una dosis mensual de 400 mg durante 80 semanas. A las 28 semanas de tratamiento, y también en las semanas 52 y 64, los resultados parecían indicar un eventual efecto positivo que finalmente se he difuminado en los últimos puntos de la cinética de la enfermedad. Como siempre, parece que algo hace, pero cuando se estudia la significación estadística el beneficio se pierde como lágrimas en la lluvia.

Portada de Nature de septiembre de 2016 donde se ilustra una imagen de PET de un cerebro de un enfermo de alzhéimer (a la izquierda), y el cerebro de una persona sana (a la derecha).

Como decía Viktor Frankl en “El hombre en busca de sentido”, el que tiene un porqué siempre encuentra un cómo. Así que afirman los investigadores que tal vez el fármaco no falle, y que la ausencia de beneficio terapéutico sea consecuencia de que la cantidad utilizada de anticuerpo no haya sido lo suficientemente alta como para haber producido efectos claros. O que el tratamiento se empezó cuando la enfermedad estaba demasiado avanzada, aunque hay que recordar que entre los criterios de reclutamiento se especificaba que los enfermos de alzhéimer a utilizar en el estudio estarían en la fase leve de la enfermedad. De hecho, su investigador principal, Lawrence Honig, del Columbia University Medical Center en Nueva York, afirma que, a pesar de los resultados del Expedition 3, sigue siendo optimista con las terapias anti-amiloide.

Expedition 3 es el tercer gran estudio de la farmacéutica americana con este anticuerpo, tras los fracasos del Expedition original en 2012 y el Expedition 2 en 2016 (el Expedition EXT es una extensión de los pacientes de las dos primeras expediciones farmacológicas). Ambos sumaron más de dos mil pacientes, de los casi 7.500 que se han incluido en los estudios con este fármaco. En ninguno de ellos la mejoría de los pacientes fue lo suficientemente clara.

El comienzo tardío del tratamiento en relación al avance de la enfermedad es el argumento más utilizado en los últimos años para justificar la ausencia de efectos de los anticuerpos anti-amiloide. Se repite constantemente como un mantra en congresos especializados y en publicaciones científicas; nos hemos equivocado en cuándo iniciar el tratamiento. Pero una y otra vez siguen fallando los estudios clínicos que atacan a esta diana. Si esto es así, el momento idóneo sería tratar a los enfermos antes de que empiece el declive cognitivo, pero anticipar qué persona va a desarrollar la enfermedad es realmente complicado, y de hecho medio planeta está trabajando en ello. A no ser que utilicemos la variante familiar y hereditaria de la enfermedad, aunque hay que recordar que esta tipología del alzhéimer es realmente rara y no sabemos aún si se regirá por los mismos principios fisiopatológicos que la variante más abundante de la enfermedad, la llamada “esporádica” o “no familiar”.

Por esta razón se han diseñado y puesto en marcha los estudios A4 y DIAN. El A4 es el último intento de la compañía americana para ver el efecto del solanezumab. Se está probando en altas dosis en individuos mayores de 65 años con evidencia de amiloide en sus cerebros, pero que todavía estén cognitivamente sanos. Por su parte, DIAN es un acrónimo de Dominantly Inherited Alzheimer Network, y es una iniciativa donde se evaluarán hasta tres fármacos (dos de ellos anticuerpos contra el amiloide y el otro también relacionado con su producción) de tres compañías diferentes (Eli Lilly, Hoffmann-La Roche y Janssen) en pacientes con enfermedad hereditaria, y donde los enfermos todavía están en fase asintomática o muy leve de la enfermedad. Si ninguno de estos dos ensayos funciona deberemos ir resignándonos a aceptar que probablemente el amiloide no sea el fantasma que causa la enfermedad, y deberemos aceptar que el árbol nos ha tapado el bosque durante casi treinta años de investigación, aunque hayamos aprendido enormemente por el camino. Esto último no es un consuelo, es uno de los mecanismos intrínsecos al avance de la ciencia.

A día de hoy, y según datos de la Alzheimer’s Drug Discovery Association (ADDF), la mayoría de los 126 tratamientos en fases clínicas que se estaban probando en 2017 para la enfermedad de Alzheimer seguían estando dirigidos contra el péptido amiloide. Curiosamente, esta fundación americana no financia el desarrollo de fármacos contra esta diana, la más estudiada sin lugar a dudas en la investigación contra el alzhéimer, lo que cuanto menos resulta significativo.

Las últimas noticias del Expedition 3, y las del Expedition 2 hace un par de años, me han hecho recordar un viaje que hice hace cinco años a la conferencia anual del JP Morgan en San Francisco, un bizarro evento farmacéutico que puebla de ejecutivos todos y cada uno de los rincones de la ciudad de la bahía. Los puedes ver detrás de sus corbatas mostrándose unos a otros presentaciones en los sitios más peregrinos, desde los lugares más transitados a los más recónditos, desde los sillones de los ostentosos halls de hoteles caros a las habitaciones privadas surtidas con todo tipo de lujos a cientos de metros de altura, o desde restaurantes de moda hasta las más populares cafeterías franquicia. Allí tuve la oportunidad de charlar con uno de los asesores de Eli Lilly. Íbamos caminando por Union Square cuando me dijo bajito que el solanezumab no funcionaba, pero que no quedaba más remedio que seguir para adelante, ya que se había gastado demasiado dinero y se tenía que hacer el último intento.

Ya ven, parece que el negocio del alzhéimer sigue teniendo más ambición que memoria.

Este post ha sido realizado por Javier Burgos (@Javisburgos) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Referencias científicas y más información:

El artículo Alzhéimer, ¿el fin de la expedición? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El papel de la insulina en la enfermedad de Alzheimer
  2. Parkinsonia parkinsoni
  3. Háblame y te digo si tienes alzhéimer
Catégories: Zientzia

Pages