Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 6 min 32 sec ago

Cómo destruir un buen sistema de educación. El ejemplo sueco

Thu, 2018/03/08 - 17:00

¿Cómo se tratan algunos de los trastornos cognitivos más frecuentes en las aulas? ¿Son efectivos los programas y herramientas del sistema educativo actual? ¿Carecen de eficacia algunas de las prácticas educativas más populares?

Estas son algunas de las cuestiones que se debatieron en la jornada “Las pruebas de la educación”, que se celebró el pasado 2 de febrero de 2018 en el Bizkaia Aretoa de Bilbao. El evento, en su segunda edición, estuvo organizado por la Cátedra de Cultura Científica de la UPV/EHU y el Consejo Escolar de Euskadi, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT).

Las ponencias de los expertos que expusieron múltiples cuestiones relacionadas con la educación, basándose siempre en las pruebas científicas existentes. Los especialistas hicieron especial hincapié en destacar cuál es la mejor evidencia disponible a día de hoy con el objetivo de abordar las diferentes realidades que coexisten en las aulas y en el sistema educativo en general.

“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde diversos ámbitos de la actividad científica. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.

Inger Enkvist, catedrática de Filología Española de la Universidad de Lund, Suecia, presenta los entresijos del sistema sueco de educación. Entre 1962 y 1985 el país nórdico adoptó una serie de leyes de educación que introdujeron lo que los británicos denominan “comprehensive school”, es decir, una única opción para todos los alumnos desde los 7 hasta los 16 años de edad. No creerás lo que ocurrió.

Cómo destruir un buen sistema de educación. El ejemplo sueco

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Cómo destruir un buen sistema de educación. El ejemplo sueco se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Autismo y educación: problemas y pautas en el aula
  2. Las ideas erróneas sobre educación entre el profesorado: prevalencia, causas y soluciones
  3. La evaluación y los deberes escolares
Categories: Zientzia

Son mujeres, youtubers, hablan de ciencia y tienen éxito

Thu, 2018/03/08 - 11:59

Ilustración de Nuria Díaz

Llamarse a uno mismo youtuber es jugársela. Es común asociar esta plataforma a contenidos de bajo calado intelectual. Para muchos un youtuber es un bufón. Hay muchos estereotipos sobre los usuarios de esta plataforma. Es una de las redes sociales en las que uno está más expuesto. El formato habitual es el de alguien que habla a cámara. Los vídeos reciben comentarios, a veces anónimos, a veces firmados y con la misma falta de pudor que se estila en cualquier otra red social. Sin embargo, parece que hablar de ciencia mantiene al margen a un gran número de malhumorados agitadores. En cambio, si la youtuber es mujer, aunque hable de ciencia, la cosa cambia. Cuanto mayor es el impacto del canal, más tenemos que lidiar con comentarios machistas y de mal gusto. Esta opinión que puede sonar personalísima es compartida por otras youtubers de ciencia con las que tengo el gusto de relacionarme.

«Frecuentemente recibo mensajes diciendo que soy muy atractiva, les gusto, preguntan si tengo novio y cosas parecidas. Alguien al leer esto dirá que esto es bueno, pero para mí no lo es, no hago contenido para esto» comenta Liliana E. Martínez, estudiante de Física y creadora del canal Conecta Ciencia.

En el Día internacional de la mujer y la niña en la ciencia, varias youtubers de ciencia hicieron un directo que puede verse en el canal de Star Tres, gestionado por Carolina Agurto, Karina Rojas y Javiera Rey, quienes están haciendo el doctorado en astronomía. «Nos llegaron comentarios criticando la causa del 11F, cosas como ‘Ojalá no sea basura feminista’ o ‘¿Brecha de género? No se pongan sexistas, si la mayoría de las mujeres no se quiere convertir en científica, respeten su opinión​’ o ‘¿Cuál es el aporte de las famosas leyes de paridad?​’».

Inés Laura Dawson es estudiante de doctorado en la Universidad de Oxford e investiga el vuelo de los insectos. Como divulgadora científica colabora con Naukas, entre otros medios, y gestiona los canales de YouTube Draw Curiosity e Inestable. Inés tiene muchos seguidores, los suficientes como para tener que batallar con un buen puñado de comentarios machistas y de explícito contenido sexual. «Hasta han llegado a crear un vídeo sobre mí con la intención de desacreditarme, en el cual se sugería que la única razón por la que he tenido una carrera científica en Oxford y por la que he sido galardonada con varios premios es por ser mujer».

Carolina Jiménez es artista de efectos visuales para cine. Gestiona el canal OK Infografía. Ella también recibe comentarios impertinentes en su canal. «Suelen ser del tipo ‘además de guapa lista’, ‘cásate conmigo’, ‘yo solo he visto tetas’… Los gestiono con paciencia. Procuro borrarlos si son muy evidentes, o ignorarlos».

«A veces recibo comentarios del tipo, ‘qué bien, una mujer guapa, inteligente y que le gusta la ciencia’» comenta Laura M. Parro. Laura es investigadora predoctoral en la Universidad Complutense de Madrid y en concreto investiga el estado térmico y la estructura de la litosfera de Marte, y más generalmente, la geología de los cuerpos rocosos del Sistema Solar. Tiene un blog de divulgación y el canal Viajando por Planetas. Lo que más le molesta a Laura son los comentarios machistas que se permiten en canales de hombres: «me molestan los canales de hombres en los que suelen comentar que no merece la pena colaborar o preocuparse por la ratio de mujeres si a ellas no les interesa la ciencia. Y esos gestores de los canales no les cortan de raíz o les explican cuál es la situación real, ¿para que esforzarse, verdad? Como digo, es una acción de todos que el tema mejore, y quien no vea la desigualdad de género es porque no quiere verla».

Carolina Jiménez opina que para avanzar en la igualdad hay que apostar por la «educación en igualdad tanto en niños como en niñas, eliminación de estereotipos, discriminación positiva, visibilización de referentes femeninos». En esto coincide con la bióloga Sofía M. Villalpando, gestora del canal The Biologist Apprentice, que opina que esto tenemos que resolverlo por medio de la educación. Además, cree que sobre todo los hombres deberían «cuidar los comentarios que hacen con respecto a sus compañeras youtubers, fomentar el respeto y hacer colaboración con más mujeres para que sus seguidoras se sientan representadas».

La mayoría parecen estar de acuerdo en este punto. Si hubiese una intención honesta de luchar contra la desigualdad, los hombres estarían apostando por colaborar con mujeres, por darles visibilidad, por conocer sus trabajos y no solo opinar un par de veces al año. La biotecnóloga biomédica Anna Quirant, gestora del canal Cienciacional, lo tiene muy claro: «Cuando organizan eventos podrían esforzarse en buscar y contactar con divulgadoras. Aunque piensen que no las hay, existen. Tirar de contactos, preguntar a otras mujeres si conocen a más. Que dejen de contar con los cuatro conocidos de siempre y que se quiten de la cabeza típicas frases como ‘No voy a incluir a una mujer por el simple hecho de ser mujer, si no lo hace bien o no conozco como trabaja’, ‘a mí me da igual qué sexo tenga, yo valoro quien lo hace bien’. Si nunca se incluyen mujeres, si no se dan a conocer, si no se les dan más oportunidades, ¿cómo van a contactar con ellas para que asistan a eventos o charlas? Es la pescadilla que se muerde la cola».

Laura M. Parro opina que «algunos hombres youtubers directamente no te dicen que no les gusta que haya mujeres, pero desde luego sí que les molesta. He visto reacciones de todo tipo con tal de no recomendar el contenido de una mujer o no colaborar con ciertas personas.El ‘estatus’ de hombre, divulgador y sabedor de la ciencia, aún está muy arraigado y creo que algunos ningunean a las mujeres y les da pereza colaborar con ellas. Muchos siguen prefiriendo colaborar entre hombres o recomendarse entre ellos, aunque haya mujeres con más formación y prestigio que ellos».

Esta es la tónica habitual. Aunque la edad media de los youtubers de ciencia sea baja, no podemos presuponer que las conductas se hayan adaptado a los tiempos. También hay honrosas excepciones, como el vídeo con el que Aldo Bartra celebró en su canal El robot de Platón el millón de suscriptores y en el que se dedicó a promocionar canales de menor envergadura que el suyo, incluyendo a un buen número de mujeres. Javier Santaolalla, creador de los canales Date un voltio y Date un vlog, apoyó desde el principio a Star Tres con una aparición en su canal y con apariciones de ellas en el suyo. Carolina Jiménez se suma a los agradecimientos a Javier, con quien está preparando alguna colaboración y añade que «la mayoría de los medios que me han entrevistado ha sido por mediación de hombres. Hasta he dado una charla en un colegio a petición del padre de dos niñas que comprendía la necesidad de referentes femeninos para sus hijas. Creo que es fundamental entender que esta lucha no es solo nuestra y que hay muchos hombres concienciados y que nos apoyan». Laura M. Parro añade que puede ser contraproducente centrarse en lo negativo, «sí hay hombres que colaboran con nosotras y que comparten nuestro contenido. En mi caso lo hacen mayoritariamente los latinoamericanos».

Todas estamos de acuerdo en que la tendencia de invisibilizar a las mujeres también existe en Youtube y que hay que seguir dando tirones de oreja cuando toca. Que no se malinterprete: esto no es una lucha contra los hombres, sino contra el machismo. Afortunadamente muchos hombres son nuestros aliados. Con frecuencia resulta fácil distinguir a quien se apunta a la causa por abrillantar su imagen y quien lo hace por convicción. Los que apoyan a las mujeres dan nombres, las mencionan en sus redes sociales, colaboran con ellas, las invitan a participar en proyectos divulgativos, las tratan como a iguales con sinceridad. Los hombres que están convencidos no temen que haya una mujer a su lado que pueda brillar tanto como ellos. Los que no, las tratan con condescendencia, como floreros que dan apariencia de paridad. Las necesitan para dar credibilidad a su farsa, y a la hora de la verdad solo se dedican a darse palmadas en la espalda por lo bien que han quedado el día de turno.

Hay otro fenómeno digno de ser analizado y es que a medida que aumentan los suscriptores de los canales de ciencia, disminuye el porcentaje de mujeres que lo siguen. Los primeros meses de vida de mi canal Deborahciencia me seguían tantas mujeres como hombres, con leves variaciones según la edad. Esto puede verse a través de la herramienta Analytics de Youtube. En la actualidad sólo el 30% de mis seguidores son mujeres. Laura M. Parro ha sufrido esta misma caída en su canal, que ahora ronda el 15% de suscriptoras. Inés Dawson oscila entre el 15 y el 25% de seguidoras, las mujeres de Star Tres tienen un 25%, Anna Quirant tiene un 10% y Carolina Jiménez tiene un 6%. Los canales de ciencia gestionados por hombres tienen unos porcentajes medios igual de bajos.

Inés Dawson tiene una teoría sobre este fenómeno que comparto, y es que el propio algoritmo que utiliza Youtube para recomendar vídeos utiliza el género del usuario para generar propuestas de visionado. Este algoritmo presupone que las mujeres no tienden a ver vídeos de ciencias, a no ser que activamente los hayan buscado antes. «Opino que el origen principal del desequilibrio de género en vídeos educativos procede del propio algoritmo de Youtube. La mayoría de usuarios de Youtube descubren canales y contenidos nuevos mediante las sugerencias de la página principal y en la barra de recomendaciones de Youtube. El objetivo del algoritmo es maximizar el tiempo que un usuario permanece en Youtube consumiendo vídeos. Esto lo consigue categorizando a los vídeos por tipo y distribuyéndolos a las demográficas que asocia como consumidores principales. Desgraciadamente, esto genera un feedback loop en el cual distintas categorías de contenido se viralizan siempre para las mismas demografías. En mi experiencia, la demográfica de los vídeos científicos que se vuelven virales se diferencia bastante de una audiencia orgánica. En mi caso, mi audiencia orgánica es un 15% mujeres, con una distribución normal de edades centrado en 25 años. Los vídeos científicos que se vuelven virales muestran una demográfica muy diferente. Uno de mis vídeos virales sobre pilas fue un vídeo sugerido casi exclusivamente a un público masculino (98%) y mayor de 25 años».

La desigualdad de género esta íntimamente intrincada en prácticamente todo. Hasta en algo en apariencia tan aséptico como el algoritmo de una red social. Si a esto le sumamos las conductas sociales machistas y la estrechez de miras, nos damos cuenta de que el problema que nos traemos entre manos está más enquistado de lo que pudiese parecer. Hace falta educación, por supuesto. Hace falta investigar los orígenes de todo esto para poder plantar cara al problema. Todas las formas de conocimiento pueden ayudar a entenderlo y, en consecuencia, ayudar a proponer soluciones. La sociología, la biología, la psicología, la filosofía, la antropología, la política… todos los saberes son útiles para tratar de desentrañar esta lacra.

En el ámbito profesional que va más allá de Youtube, el problema tiene matices distintos, pero el fondo sigue siendo el mismo. Liliana E. Martínez comenta que «además de mi trabajo en la universidad, cuando llego a casa tengo que cocinar, lavar la vajilla, la ropa y si llega a haber algún problema en casa soy yo quien tiene que quedarse por que los hombres ‘no pueden faltar al trabajo’». Carolina de Star Tres comenta que «como estudiante e investigadora creo que tenemos que empezar desde nuestros grupos de trabajo. Tener representantes de estudiantes es muy importante para hacer notar nuestros problemas y dificultades, así como también comités, donde seamos escuchadas. En Chile ahora se están implementando en las universidades los comités anti-acoso, que son importantísimos al momento de visibilizar y solucionar problemas recurrentes en las universidades que han sido ‘tapados’ durante años. Desde un punto de vista más general, creo que los movimientos de #MeToo y #TimesUp han sido fundamentales para darles a las mujeres esa confianza que se necesita para denunciar tantos casos de acoso». Sofía Villalpando ha sufrido acoso laboral y maltrato psicológico en el trabajo. No es un problema del pasado. Sigue siendo un problema ahora.

Todas las mujeres hemos sufrido algún tipo de abuso sexual a lo largo de nuestras vidas. Absolutamente todas. Algunas son más conscientes de las situaciones de discriminación. Unas han tenido la suerte de vivirlas desde la barrera, otras las han sufrido en sus carnes. Yo misma he sido discriminada en procesos de selección por ser mujer. A todas nos han ‘señoreado’ (también denominado con el anglicismo mansplaining). Carolina Jiménez explica que «en redes sociales compartiendo imágenes o vídeos de diferentes temáticas me han intentado explicar qué es real y qué es digital y por qué no debo creerme todo lo que publico». Recordemos que Carolina es artista de efectos visuales para cine.

Todas hemos tenido la sospecha alguna vez de haber sido invitadas a participar en proyectos divulgativos solo por cubrir un cupo de paridad. Aunque las motivaciones por cubrir un cupo sean buenas (no siempre se trata de una cuestión de imagen) como mujer es duro lidiar con ello cuando estás empezando en esto. Anna Quirant se pregunta a veces si «¿Les gusta lo que hago o estoy aquí para que ellos queden bien? Es muy frustrante tener que plantearte estas preguntas que a un hombre ni se le pasan por la cabeza, sabe que va porque es bueno, gusta y eso le hace tener confianza. Nosotras tenemos que hacer un esfuerzo extra por visibilizarnos, por promulgarnos, para asistir y representarnos como colectivo. ¿En qué momento deberemos dejar de esforzarnos para demostrar que las mujeres también podemos hacer divulgación científica? Creo que ya va siendo hora».

En ocasiones la pretensión de contar con mujeres responde a un deliberado lavado de imagen. Anna Quirant parafrasea los típicos correos que muchas recibimos para participar en proyectos divulgativos:«Llamamiento en especial a las mujeres. Supongo que entienden el motivo, pero espero que haya una buena representación. Es importante que tengan visibilidad. Así que redoblen los esfuerzos para estar». La responsabilidad y la ‘culpa’ de no figurar recae en las mujeres. Estos mensajes caen en la errónea convicción de que el problema es que no nos esforzamos lo suficiente.

Muchas de nosotras pararemos el 8 de marzo, el día de la mujer. Otras no pueden permitírselo y se dedicarán a hacer ruido allí por donde vayan. Anna Quirant explica así sus motivos: «Haré huelga el 8M para exigir que de una vez por todas se nos deje de tratar de forma diferente, de imponer límites, de debilitarnos, de adjudicar qué se nos da bien (cuidar, criar, cocinar) o qué no se nos da bien (el futbol, la política, las ingenierías), de decir que no tenemos humor porque nos molesten comentarios machistas, de creer que tienen el derecho de abusar de nosotras o de inducirnos miedo por volver de noche solas. Quiero demostrar que si nosotras paramos, el mundo se para».

Unas somos más optimistas que otras. Unas hemos tenido más suerte que otras al encontrarnos con personas que animan y apoyan. Otras hemos crecido en un entorno menos machista, en una sociedad más o menos concienciada con el problema. En mayor o menor medida hemos lidiado y seguiremos lidiando con la crudeza de los datos, con la brecha salarial, con la baja representación de mujeres en puestos de mando, con el ninguneo del día a día. Sin embargo, y quizá contra todo pronóstico, a la pregunta ¿Tienes éxito? todas nosotras hemos respondido que sí.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Son mujeres, youtubers, hablan de ciencia y tienen éxito se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Mujeres que hablan de Ciencia, mujeres que hablan de Arte
  2. Por qué los estudiantes de más éxito no tienen pasión por el colegio
  3. Sobre la ausencia de mujeres en la ciencia y la divulgación
Categories: Zientzia

Vaterita, un nanotransportador de fármacos en las hojas de una planta alpina

Wed, 2018/03/07 - 17:00

“Saxifraga sempervivum”. Foto: Paul Aston

El carbonato cálcico no parece tener nada de extraordinario. Estás presente abundantemente en la corteza terrestre, en foma de rocas calizas, es la sustancia que típicamente da dureza al agua y forma parte de la estructura de muchos seres vivos en forma de conchas, cáscaras de huevos o huesos. Sin embargo, el hallazgo de una forma de carbonato cálcico en una familia de plantas alpinas puede tener un gran impacto en la manera en la que se suministran los fármacos contra el cáncer.

Científicos la Universidad de Cambridge (Reino Unido) han descubierto que la vaterita, una forma de carbonato de calcio, es un componente dominante de la corteza protectora de color blanco plateado que se forma en las hojas de varias plantas alpinas del género Saxifraga.

No todo el carbonato cálcico tiene la misma estructura, por eso se dice que es polimorfo. En las condiciones normales de la corteza terrestre está como calcita y, en determinadas circunstancias, se puede encontrar en otras poliformas, como el aragonito o la vaterita. Estas poliformas son metaestables a temperaturas ordinarias, es decir, que si se encuentran en algún lugar, a poco que cambien las condiciones de temperatura o humedad, se convierten en calcita.

Por esta razón la vaterita de origen natural rara vez se encuentra en la Tierra. Se han encontrado pequeñas cantidades de cristales de vaterita en algunos crustáceos marinos y de agua dulce, en huevos de aves, en los oídos internos del salmón, en meteoritos y en algunas rocas. Esta es la primera vez que se ha encontrado un mineral tan raro e inestable en una cantidad tan grande y también es la primera vez que se encuentra asociado a plantas.

Aparte del interés puramente científico del hallazgo hay una componente utilitaria muy importante. La vaterita es muy atractiva desde el punto de vista farmacológico. De hecho, los químicos hace ya mucho tiempo que trabajan para intentar fabricar vaterita artificialmente con un método que sea económicamente viable.

Por una parte, la vaterita tiene unas propiedades características que la convierten en un nanotransportador de medicamentos casi ideal: la alta capacidad de carga, una alta absorción por parte de las células y su solubilidad le permiten ofrecer una liberación sostenida y específica de fármacos. Por ejemplo, las primeros estudios de nanopartículas de vaterita cargadas con fármacos anticancerosos indican que son capaces de descargar el fármaco lentamente solo en en la zona del cáncer, limitando, por tanto, los efectos secundarios negativos del fármaco. Por otra, la vaterita también parece mejorar los cementos que se emplean en cirugía ortopédica.

Los análisis con técnicas microscópicas pusieron de manifiesto que varias especies de Saxifraga exudan vaterita a través de los hidátodos (lo que en los animales vendrían a ser las glándulas del sudor) que se encuentran en los bordes de las hojas. Varias especies exudan una mezcla de vaterita y calcita; una en concreto, Saxifraga sempervivum, exuda vaterita pura. Es un misterio por qué ocurre esto; podría ser que fuese algo común en especies que han evolucionado en climas extremos, como las cumbres alpinas, y que, debido a la metaestabilidad de la vaterita, ésta se convierta rápidamente a calcita en otras especies.

Paradójicamente este descubrimiento llega cuando el cambio climático está amenazando muy seriamente la supervivencia de estas especies de plantas extremas.

Referencia:

Raymond Wightman, SimonWallis, Paul Aston (2018) Leaf margin organisation and the existence of vaterite-producing hydathodes in the alpine plant Saxifraga scardica Flora doi: 10.1016/j.flora.2018.02.006

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Vaterita, un nanotransportador de fármacos en las hojas de una planta alpina se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La forma de las hojas
  2. Otra pieza en el puzle de la fotosíntesis
  3. Un modelo teórico para acelerar el descubrimiento de nuevos fármacos
Categories: Zientzia

¿Es normal el número pi?

Wed, 2018/03/07 - 11:59

El número π es una de las constantes matemáticas más importantes que existen, pero además es un número fascinante que goza de una gran popularidad entre el público, matemático y no matemático. Por este motivo, el 14 de marzo, es decir, 3/14 en inglés (o también en euskera), se celebra el internacional Día de pi, debido a la sencilla aproximación a π que nos enseñaron en la escuela, 3,14.

El día de pi se celebra desde el año 1988 a partir de la idea propuesta por el físico Larry Shaw, y apoyado por el hecho de coincidir con la fecha del cumpleaños de Albert Einstein. También es el aniversario del nacimiento de un gran matemático, el polaco Wlaclaw Sierpinski (1882-1969), aunque prácticamente desconocido fuera de las matemáticas, salvo por los fractales que llevan su nombre.

Tetraedro de Sierpinski realizado con bolas de golf por el matemático Dale Seymour. MOMATH, National Museum of Mathematics

Este año la Cátedra de Cultura Científica, junto con BCAM (Basque Center for Applied Mathematics) y Naukas, se han querido sumar a la celebración internacional del Día de Pi, y hemos organizado la jornada BCAM-NAUKAS: Día de Pi. Toda la información sobre la misma la podéis encontrar aquí.

El número π, es decir, la relación entre la longitud de una circunferencia y su diámetro, tiene unos 4.000 años de edad. Desde la antigüedad se han intentado calcular aproximaciones suyas. En la Biblia se le daba el sencillo valor de 3 y en la actualidad, gracias a los ordenadores, se conocen más de 20 billones de sus infinitos decimales.

En uno de los más antiguos textos matemáticos, el Papiro de Rhind (1.700 años antes de nuestra era), el escriba Ahmés incluye la evaluación de un círculo inscrito en un cuadrado, que luego transforma en un octógono. A partir de ahí, el valor que propone para π, hecha la conversión, es (16/9)^2=3,16049…

En el 120 de nuestra era, el matemático chino Chang Hing llegará a la relación 142/45, es decir, 3,1555….

Arquímedes, en el siglo III a. C. se había acercado a la relación entre la circunferencia y el diámetro (π) no a través de una fracción sino como una sucesión de marcos (es decir, de diferentes pares de números cercanos, uno mayor y otro menor), que acotaban el valor de π. La idea era la siguiente… si se consideran las dimensiones de los cuadrados dibujados dentro y fuera del círculo y que tocan a su circunferencia, resulta obvio que πdebe ser mayor que 2 y menor que 4 (que es una aproximación muy burda)… a continuación podemos considerar hexágonos dibujados dentro y fuera del círculo y que tocan a su circunferencia, obteniendo así un nuevo marco para π …podemos seguir con octógonos…y Arquímedes llegó hasta utilizar polígonos de 96 lados, lo cual establecía que π está entre las cantidades 3+10/71 y 3+1/7. Ahora bien 3+1/7 es el famoso 22/7 (=3,1428…), fracción bien conocida en la escuela antes de las calculadoras.

En la India, el matemático Aryabhatta, hacia el 500, propuso 62.832/20.000, que es la aproximación cuyos cuatro primeros decimales son la aproximación más conocida, entre el público general, del número pi, 3,1416….

Como podemos observar todas estas aproximaciones que aparecieron en la historia se produjeron con números racionales, es decir, que son el cociente de dos números enteros, pero ¿es π un número racional?.

Recordemos brevemente el concepto de número racional. Como acabamos de decir, un número racional es aquel que puede expresarse como cociente de dos números enteros. Por ejemplo, 0,5 es un número racional ya que puede expresarse como el cociente 1/2; ó 0,333… es racional ya que puede expresarse como 1/3. Si consideramos la expresión decimal de los números (por ejemplo, 5,235), entonces un número es racional si podemos encontrar un “patrón entre sus decimales”, es decir, si los decimales del número son una cantidad finita (por ejemplo, 1/4=0,25) o si los decimales satisfacen que a partir de uno de los decimales se repite una pauta, un número finito de decimales que se repite de forma infinita, conocida como el período del número racional (por ejemplo, 1/3=0,333…, en el que se repite de forma infinita el 3; o 51/7=7,285714285714285714…, cuyo período es 285714). En la época de los pitagóricos se demostró, no sin cierta crisis existencial, que la raíz de 2 es un número no racional, que no puede expresarse como cociente de dos números enteros.

El número π tampoco es racional. No se puede expresar como cociente de dos números enteros, o lo que es equivalente, su expresión decimal es infinita y no hay un grupo de decimales que se repita de forma periódica generando todos los decimales. La primera demostración de que π es irracional se debe al matemático J. H. Lambert (1761).

De hecho, la búsqueda de los decimales del número π es una investigación activa hoy en día. Se trata de conocer todos los decimales posibles de π (recordemos que todos es imposible, son infinitos y no hay un patrón que se repita). El record de decimales en la actualidad es de … 22.459.157.718.361 dígitos … obtenido por Peter Trueb en 2016. Se tardaron 105 días en calcularlo y 28 horas en verificarlo.

Vista parcial de la instalación “El número pi” (2007), del artista chino-canadiense Ken Lum, en el metro de Viena

El símbolo π viene de la palabra griega “periferia” περιφέρεια y fue utilizado por primera vez por el matemático inglés William Oughtred en 1652.

3,14159265358979323846264338327950288419716939937510582097494459230781640

6286208998628034825342117067982148086513282306647093844609550582231725359

4081284811174502841027019385211055596446229489549303819644288109756659334

4612847564823378678316527120190914564856692346034861045432664821339360726

0249141273724587006606315588174881520920962829254091715364367892590360011

33053054882046652138414695…

Parte de la magia de este número es que aparece en los lugares más insospechados, y tiene infinidad de aplicaciones, aunque como muchas otras constantes matemáticas. En todas las ramas de las matemáticas, desde la geometría hasta la probabilidad, pasando por la teoría de números, en física (en el principio de incertidumbre de Heisenberg, la teoría de la relatividad o la ley de Coulomb de la electricidad), en geología (para estimar la longitud de los ríos, debido a que relaciona dicha longitud con la distancia directa del nacimiento del río a su desembocadura), en bioquímica (en el estudio de la estructura de una molécula de ADN), en astronomía (en la búsqueda de exo-planetas o el estudio de la forma del universo), y muchas aplicaciones más en navegación, análisis de señales, dinámica de poblaciones o ingeniería, incluso en deportes (para calcular las posiciones de salida en las pistas de una carrera de atletismo, como vimos en la entrada Pi atleta).

Debido a la fascinación que existe por el número pi nos lo encontramos ampliamente en la cultura, del cine a la literatura, de la música a las series de animación, de las artes plásticas al humor gráfico, incluso la revista Investigación y Ciencia lo utilizó, este pasado 2017, para una broma del día de los inocentes, Las leyes cuánticas cambian el valor de pi.

El poema Número pi de la Premio Nobel de literatura, la polaca Wislawa Szymborska (1923-2012), empieza así “El número Pi es digno de admiración//tres coma uno cuatro uno//todas sus cifras siguientes también son iniciales//cinco nueve dos, porque nunca se termina.//No permite abarcarlo con la mirada seis cinco tres cinco//con un cálculo ocho nueve//con la imaginación siete nueve//o en broma tres dos tres, es decir, por comparación//cuatro seis con cualquier otra cosa//dos seis cuatro tres en el mundo”.

La cantante inglesa Kate Bush, en su disco Aerial (2005), tiene una canción dedicada al número π. En la película La cortina rasgada de Alfred Hitchcock, el símbolo π era el nombre de una organización secreta de la resistencia en la República Democrática Alemana durante la Guerra Fría. El número πtiene un papel protagonista en la película de Darren Aronofski, Pi, fé en el caos (2000). En la novela, y también en la película, La vida de pi (2001), del escritor Yann Martel, el apodo del protagonista es “Pi” y tiene que ver con nuestro apasionante número.

Cartel de la película “Pi, fe en el caos” (1998), de Darren Aronofsky

En la famosa serie Los Simpson, cuyo contenido matemático en muy conocido (véase el libro Los Simpson y las matemáticas), también se menciona el número π en más de una ocasión. Por ejemplo, uno de los personajes secundarios de la serie, es el tendero hindú Apu, quien tiene una gran capacidad para el cálculo. En un capítulo en el que llevan a juicio a Marge, al olvidarse de pagar una botella en el supermercado, Apu es el principal testigo, y para demostrar su memoria dice que es capaz de recitar 40.000 decimales del número π. Y dice que “el último decimal es el 1”.

De hecho, el record en memorización de los decimales del número pi está en 100.000 decimales, conseguido por el japonés Akira Haraguchi, en 2006. Necesitó 16 horas y 30 minutos para recitar, de memoria, todos estos decimales. El método que utiliza para recordar los decimales es asociar cada cifra, de 0 a 9, con una sílaba. Por ejemplo, el cero se asocia con alguna de las siguientes, ra, ri, ru, re, ro, wo, on or oh, e igual con el resto. Aunque este record no ha sido reconocido oficialmente por el Libro Guinness de los Records. Por lo tanto, el record oficial está en la memorización de 70.000 decimales, conseguido por el indio Rajveer Meena en 2015.

Otra referencia graciosa a π en Los Simpson, es cuando Lisa le habla a su padre del número π y Homer se pone a babear ya que en inglés tarta (pie) y π se pronuncian igual, “pai”.

Imagen reproduciendo la escena de la serie “Los Simpson” con la confusión sobre el número π

En la serie hermana de la anterior, Futurama, también hay varias referencias al número π. Una lata de aceite lubricante -en-1(parodiando la frase 3-en-1), la -th Avenue después de la 3rd Avenue, la marca de muebles y complementos del hogar Kea, o el concurso televisivo “¿Cuál es el último dígito de ?“.

Hay muchísimas referencias a nuestro amado número, pero me gustaría dedicar lo que nos queda de esta entrada para hablar de una propiedad matemática de este número (aunque aún no se ha conseguido demostrar) y la expresión artística de esta propiedad que realiza la artista donostiarra Esther Ferrer.

Como hemos comentado más arriba, el número π no es racional, es decir, su expresión decimal contiene infinitos decimales, pero que no poseen un patrón que se repita (no es un decimal periódico). Aunque podríamos plantearnos cuales de las diez cifras básicas 0, 1, 2, …, 9 aparece con más frecuencia, y cuales, con menos, dentro de la expresión decimal del número π, o si por el contrario todas las cifras aparecen en la misma proporción.

Si miramos a los 100 primeros decimales del número π,

3,1415926535897932384626433832795028841971693993751058209749445923078164062862089986280348253421170679…

observaremos que las diez cifras básicas aparecen en la siguiente proporción:

Si las diez cifras básicas aparecieran en la misma proporción, tendrían que aparecer diez veces cada cifra básica en los 100 primeros números, aunque la verdad es que 100 decimales no son muchos, y necesitaríamos ver más decimales. ¿Qué ocurre para 1.000, 10.000, 100.000, o más, decimales?

Como podemos observar, según va aumentando el número de decimales, la proporción de cada una de las diez cifras básicas dentro de los decimales del número π se van acercando a 1/10, es decir, al 10% de los decimales.

En el artículo Digit Statistics of the First 22.4 Trillion Decimal Digits of Pi, su autor, Peter Trueb, nos confirma este hecho entre los 22.459.157.718.361 decimales que se han calculado del número π. Más aún, si se toman las 100 secuencias de dos dígitos formadas por las diez cifras básicas, del 00 al 99, cada una aparece en una proporción que se va acercando cada vez más a 1/100, es decir, un 1%. Y lo mismo ocurre para las 1.000 secuencias de tres dígitos, de 000 a 999, cada una de las cuales aparece en una proporción que se va aproximando a 1/1.000. Todas las secuencias posibles son igualmente probables.

Todo esto lo que nos está diciendo es que aparentemente el número π podría ser lo que se conoce como un número normal (para la base 10). El concepto de número normal fue introducido por el matemático francés Émile Borel (1871-1956) en 1909. La definición es la siguiente:

Un número real x es normal para la base b (por ejemplo, 2 para los números binarios o 10 para la representación decimal usual) si los infinitos dígitos de la representación del número x en la base b están distribuidos de una forma uniforme, es decir, las b cifras básicas (por ejemplo, 0 y 1 en la representación binaria, o 0, 1, 2, …, 9 en la representación decimal) tienen la misma “densidad natural”, es decir, según vamos aumentando el número de decimales su proporción, para todos la misma, se aproxima a 1/b, todos los posibles pares, b2, de dígitos formados por dos cifras básicas tienen la misma densidad natural 1/b2, todos los triples , b3, de dígitos formados por tres cifras básicas tienen la misma densidad natural 1/b3, etcétera.

Los números racionales (por ejemplo, el número 51/7 = 7,285714285714285714… cuyo período es 285714) son, en general, no normales para la base 10 (o cualquier base), puesto que sus decimales son finitos o una expresión finita que se repite de forma infinita (por ejemplo, las cifras básicas 0, 3, 6 y 9 no aparecen en el desarrollo infinito de 51/7, mientras que las cifras 1, 2, 4, 5, 7 y 8 aparecen con una densidad normal de 1/6). Y podemos generar números irracionales que sean no normales si, por ejemplo, los construimos de forma que en su expresión decimal no haya una cierta cifra básica, por ejemplo, el 3.

El conocido como número de Champernowne, es decir,

0,12345678910111213141516171819202122232425…

es, por construcción, normal en base 10, pero podría no serlo para otras bases. De hecho, un número x se dice que es normal (aunque algunas personas lo denominan absolutamente normal) si x es normal para cualquier base b.

Émile Borel demostró que casi todos (en un sentido matemático que no abordaremos aquí) los números son normales, aunque existen infinitos (no numerables) números no normales.

Pero volviendo a nuestro popular número π, aparentemente, o al menos, así lo da a entender el comportamiento de los 22.459.157.718.361 decimales que se han calculado del número π, este podría ser un número normal para la base 10. Sin embargo, a día de hoy aún no existe una demostración matemática de este hecho.

La artista donostiarra Esther Ferrer, de la que ya hablamos en la entrada Variaciones artísticas del teorema de Napoleón, ilustra esta propiedad en su obra Pi (2009-2010), que pudo verse en la exposición Esther Ferrer. En cuatro movimientos (Artium, 2011-2012).

Sala de Artium, durante la exposición “Esther Ferrer. En cuatro movimientos” (08/10/2011 – 08/01/2012), con los 21 lienzos del número Pi y la proyección de “Los decimales de Pi”

La obra Pi (2009-2010), de Esther Ferrer, consta de 21 lienzos, que podemos ver en la imagen de arriba. En la pared de la derecha hay un lienzo separado del resto, que sería como el lienzo inicial, y luego cada lienzo de la izquierda se corresponde con uno de la derecha, y con una cifra básica, que protagoniza esa pareja de lienzos.

En cada lienzo están representados los primeros decimales del número pi (junto al 3 entero inicial) hasta un cierto número. La artista realiza una cuadrícula muy grande, de 79 × 79 = 6.241 cuadraditos, en los cuales va a representar el número entero 3 inicial y los 6.240 primeros decimales de π. Cada cuadrado va a estar pintado de un color en función de la cifra básica que esté en dicho cuadrado, es decir, a lo largo de todo el lienzo cada cifra básica se corresponde con un color (0 amarillo, 1 azul claro, 2 morado, 3 rojo, 4 verde oscuro, 5 rosa, 6 verde claro, 7 naranja oscuro, 8 azul oscuro, 9 naranja claro). Además, los dígitos del número π se empiezan a pintar en el centro y recorriendo los cuadrados en espiral, 3,141592…

Como cada color está relacionado con una cifra básica, de 0 a 9, entonces la obra Pi (2009-2010) tiene como objetivo transmitir de un vistazo, a través de los colores, cual es la proporción y la distribución (en espiral) de las cifras básicas entre los primeros decimales de π.

Lienzo de la obra “Pi” (2009-2010), de la artista Esther Ferrer, en el cual están pintados todas las cifras salvo la cifra 1, cuyos cuadrados están en blanco

Con el objetivo de visualizar el comportamiento de cada una de las cifras en particular, cada uno de los diez lienzos que estaban en la pared de la izquierda, solamente incluían el color de una cifra básica. El primer lienzo solo los cuadraditos amarillos, en los que se encuentra la cifra 0, en el segundo lienzo solo los cuadraditos de color azul claro que se corresponden con el número 1, y así con el resto. Mientras que, en frente de cada uno de los lienzos, estaba el lienzo complementario, es decir, estaban pintados todos los cuadraditos con su color correspondiente, salvo el de la cifra que le tocaba, así en el primer lienzo todos los colores salvo el amarillo del 0, en el segundo lienzo todos menos el azul claro del 1, y así para el resto.

Lienzo de la obra “Pi” (2009-2010), de la artista Esther Ferrer, en el cual está pintada solamente la cifra 1, cuyos cuadrados están en azul

Precisamente, este lunes 12 de marzo, a las 19:00, en el Biblioteca de Bidebarrieta (Bilbao), tendremos la oportunidad de conversar sobre la utilización de las matemáticas en los procesos creativos de la artista Esther Ferrer y el compositor Tom Johnson, dentro del programa Diálogos en la frontera (de Bidebarrieta Científica).

Bibliografía

1.- Celebra el día de Pi con BCAM Naukas en Bilbao, Cuaderno de Cultura Científica, febrero 2018.

2.- Alfred S. Posamentier, Ingmar Lehmann, La proporción tracendental. La historia de π, el número más misterioso del mundo, Ariel, 2006.

3.- Simon Singh, Los Simpson y las matemáticas, Ariel, 2013.

4.- Peter Trueb, Digit Statistics of the First 22.4 Trillion Decimal Digits of Pi, 2016. Preprint Arxiv 1612.00489

5.- Esther Ferrer, Catálogo de la exposición Esther Ferrer. En cuatro movimientos, Artium. Centro Museo Vasco de Arte Contemporáneo, Acción Cultural Española (AC/E), 2011. Publicación on-line.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo ¿Es normal el número pi? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. 666, el número de la Bestia (1)
  2. 666, el número de la Bestia (y 2)
  3. El número de Erdős-Bacon-Sabbath
Categories: Zientzia

Regulación de la circulación (1): control del sistema cardiovascular

Tue, 2018/03/06 - 17:00

La circulación está sometida a un estricto control al objeto de cumplir tres tareas prioritarias y cumplirlas por este orden: (1) suministro de un volumen de sangre suficiente al encéfalo y al corazón, (2) suministro de suficiente sangre al resto de órganos y tejidos corporales, y (3) control de la presión hidrostática capilar, de manera que se mantenga dentro de un rango razonable de valores el volumen de los tejidos y la composición del fluido intersticial.

El sistema nervioso recibe señales de diferente naturaleza acerca del estado en que se encuentra el sistema circulatorio, por lo que hay diferentes tipos de receptores sensoriales implicados en esa tarea. Están por un lado los barorreceptores, que informan de la presión de la sangre en determinados enclaves. Otros son quimiorreceptores; codifican y envían información acerca de la concentración del CO2, el O2 y el pH sanguíneos. Las contracciones musculares, así como los cambios en la composición del fluido extracelular de los músculos también dan lugar a señales específicas. Por último, también es relevante la información recogida por varios termorreceptores.

En los mamíferos toda esta información es procesada por un conjunto de neuronas que forman lo que se denomina el centro cardiovascular medular, que se encuentra en la médula oblonga (bulbo raquídeo) y el puente de Varolio, y que también recibe inputs de otras regiones encefálicas, como el centro respiratorio (del que hablamos aquí), el hipotálamo, la amígdala (al que nos referimos aquí) y la corteza cerebral.

El centro cardiovascular medular, por su parte, elabora señales que se dirigen a través de motoneuronas pertenecientes a las divisiones simpática y parasimpática del sistema nervioso autónomo (parte del sistema periférico), que inervan el corazón y la musculatura lisa de arteriolas y venas. La estimulación de los nervios simpáticos provoca una elevación del ritmo cardiaco y de la fuerza de impulsión, y también causa vasoconstricción. En consecuencia, se eleva el gasto cardiaco (Q) y la presión sanguínea. La estimulación parasimpática produce los efectos opuestos: reduce el latido, el gasto cardiaco y la presión arterial.

El centro cardiovascular medular puede dividirse en dos áreas funcionales, cuyos efectos sobre la presión sanguínea son opuestos: los centros presor (o vasoconstrictor) y depresor (vasodilatador). El primero estimula el sistema simpático y provoca una elevación en la presión sanguínea y el segundo estimula el parasimpático y provoca una bajada en la presión.

Hay barorreceptores arteriales por todo el sistema arterial. Unos, desprovistos de vaina mielínica, se han encontrado en anfibios, reptiles y mamíferos, y responden a la subida de la presión arterial elevando la frecuencia a la que envían señales al centro cardiovascular medular. Protegen al organismo de los riesgos inherentes a la hipertensión arterial al desencadenar reflejos cuyas consecuencias consisten, precisamente, en una reducción de la tensión. Esa reducción se produce porque el centro cardiovascular medular reduce la actividad de las motoneuronas simpáticas, provocando un descenso en la frecuencia de latido, la fuerza de impulsión del corazón y la resistencia vascular periférica. Al reducirse la presión arterial, los barorreceptores reducen su actividad, lo que conduce a una corrección de las actuaciones anteriores. Además, cuando se reduce la tensión arterial, también aumenta la concentración circulante de la hormona antidiurética (o vasopresina), lo que ayuda a retener líquidos y llevar la presión a los valores de referencia. Otros barorreceptores (dotados de vaina de mielina), solo hallados en mamíferos, responden a la presión baja y provocan una respuesta contraria a la de los anteriores.

Como vimos aquí, los quimiorreceptores de los cuerpos aórticos y carótidos cumplen un importante papel en el control de la actividad respiratoria, pero también participan en la regulación de la función cardiaca. Cuando esos quimiorreceptores detectan un aumento de la concentración de CO2 o una reducción del pH o de la concentración de O2, responden elevando la frecuencia de emisión de potenciales de acción (señales nerviosas), lo que provoca vasoconstricción periférica y una reducción de la frecuencia cardiaca si el organismo ha dejado de respirar (en una inmersión, por ejemplo); de esa forma se limita la circulación por los tejidos periféricos (músculos, principalmente) y se dirige a los órganos internos y, sobre todo, al encéfalo.

Varias regiones cardiacas cuentan con mecanorreceptores y quimiorreceptores. La información acerca del estado del corazón que recogen estos receptores es enviada a través de la médula espinal al centro cardiaco medular y a otras regiones del encéfalo. Además, la estimulación de ciertos receptores cardiacos provoca la liberación de hormonas, tanto desde el propio corazón, como desde otros órganos endocrinos. La frecuencia cardiaca, el grado de llenado y volumen de las aurículas, y el volumen de sangre que llega desde el sistema venoso son monitorizados de manera permanente por esos mecanorreceptores. Los resultados de esa monitorización se traducen en variaciones en la frecuencia de latido y en la concentración de vasopresina en la sangre, por lo que no solo afecta a la actividad cardiaca, sino también a la renal, ayudando de esa forma a ajustar el volumen de sangre en el organismo en su conjunto.

La pared de la aurícula cuenta con células secretoras que son sensibles al estiramiento. Son células endocrinas que producen el péptido natriurético auricular, y que lo liberan cuando se encuentran estiradas. Su efecto consiste en estimular la excreción de sodio y la producción de orina, de manera que contribuye a reducir tanto el volumen de plasma sanguíneo como el de la presión arterial. Además, reduce la actividad del sistema renina-angiotensina-aldosterona, sistema endocrino que induce una mayor reabsorción renal de Na+ y menor filtración glomerular (menor producción de orina primaria). Inhibe también la liberación de hormona antidiurética.

Además de los receptores auriculares, el corazón también cuenta con receptores ventriculares con funciones mecanorreceptoras y quimiorreceptoras. Las primeras son estimuladas por la interrupción del flujo sanguíneo coronario. Las quimiorreceptoras son sensibles a sustancias químicas que median las respuestas inflamatorias.

Los músculos esqueléticos cuentan con numerosas fibras sensoriales, más incluso que motoras. Algunas registran la tensión muscular y modulan de forma refleja la contracción de los músculos; esas fibras no intervienen en la regulación del sistema cardiovascular. Otras, sin embargo sí lo hacen, y las hay quimiorreceptoras (registran cambios en la composición química del líquido extracelular) y mecanorreceptoras (registran estiramiento y contracción). La estimulación de estas fibras produce cambios en la frecuencia cardiaca y de la presión arterial, en un sentido que depende de las fibras concretas implicadas.

En resumen, la circulación se encuentra sometida a un complejo sistema de control. El centro cardiovascular medular recibe e integra información recogida por los mecanorreceptores, quimiorreceptores y termorreceptores distribuidos en diferentes puntos del sistema vascular, y elabora respuestas que tienden a garantizar el cumplimiento de las funciones del sistema y, ante todo, el suministro de sangre al encéfalo y el corazón.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Regulación de la circulación (1): control del sistema cardiovascular se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un viaje a través del sistema circulatorio humano
  2. Sistemas nerviosos: el sistema límbico
  3. La emergencia de un doble sistema circulatorio
Categories: Zientzia

Más que materia en movimiento

Tue, 2018/03/06 - 11:59

Aunque la teoría de la relatividad especial de Einstein no representó una ruptura traumática con la física clásica, sí acabó con la visión mecánica del mundo, esa que todo lo reduce a materia en movimiento. Nuestra comprensión de la naturaleza proporcionada por la relatividad especial, junto con la mecánica cuántica, la teoría de la relatividad general y otros hallazgos, modelarán lentamente una nueva comprensión del universo que todavía está inacabada. La teoría de la invariancia fue la primera grieta seria (la hipótesis cuántica daría frutos posteriormente) en la cosmovisión newtoniana.

Ahora que hemos visto las conclusiones principales de la teoría especial, vamos a detenernos un momento para considerar qué supuso esa rotura y en qué aspectos influyó principalmente. Eso nos preparará para introducir a continuación el concepto de intervalo de espaciotiempo y, a partir de él, explorar la relatividad general.

La relatividad especial elimina dos ideas importantes implícitas en la visión mecánica del mundo: las de reposo y movimiento absolutos. Hasta Einstein, la mayoría de los físicos definían el reposo absoluto y el movimiento en términos del llamado éter, la materia que llenaba todo el espacio y que permitía la transmisión de la luz y de las fuerzas eléctricas y magnéticas. Einstein simplemente ignora el éter como “superfluo”, ya que en su teoría solo se usaban los movimientos relativos.

Desde décadas antes del trabajo de Einstein, y posteriormente a este, se llevaron a cabo una gran cantidad de experimentos diferentes muy cuidadosos para detectar el éter; todos con resultado negativo. Uno de estos experimentos, sin duda el más famoso, fue una serie de ellos realizados en 1887 por Albert A. Michelson y Edward Morley basándose en un primer experimento de Michelson de 1881, repetidos en 1902 y 1905 y después otra vez en los años veinte por distintos investigadores, cada vez con mayores refinamientos. En este tipo de experimentos se pretende medir el “viento de éter” experimentado por la Tierra a medida que avanza a través del supuesto éter estacionario en su órbita alrededor del Sol.

Mesa óptica del experimento de Michelson-Morley. Fuente y más información: El viento del éter lumifero y el experimento de Michelson-Morley

Si existía el éter entonces debería causar un “viento de éter” sobre la superficie de la Tierra a lo largo de la dirección del movimiento. Como se creía que la luz era una onda que se movía a través del éter, algo así como las ondas de sonido a través del aire, debería verse afectada por este viento. En concreto, una onda luminosa que viajase contra el viento y vuelta debería emplear más tiempo para hacer un viaje de ida y vuelta que una onda que viajase exactamente la misma distancia en ángulo recto, es decir, atravesando el viento y vuelta. Comparando dos ondas en direcciones perpendiculares en un dispositivo muy ingenioso, Michelson y Morley no pudieron encontrar diferencias en los tiempos, dentro de los límites de precisión de su experimento; los experimentos posteriores se limitaron a reducir esos límites. A los pocos años de la teoría de Einstein, la mayoría de los físicos habían abandonado la noción de éter. Si no se puede detectar y no juega ningún papel en la teoría de Einstein, ¿para qué mantenerlo?

La pérdida del éter no solo descartó los conceptos de reposo y movimiento absolutos, sino que los científicos tuvieron que replantearse su comprensión de cómo funcionan las fuerzas, como la electricidad, el magnetismo y la gravedad. Se suponía que era el éter el que debía transmitir estas fuerzas. Pero Maxwell había desarrollado su teoría electromagnética matemáticamente, independientemente de cualquier modelo concreto de éter y, de repente no había éter al que recurrir. Entonces, ¿qué eran estos campos? Los científicos finalmente aceptaron la idea de que los campos electromagnético, gravitatorio o cualquier otro, son independientes de la materia.

Ahora en el universo había algo más que materia en movimiento. Ahora había materia, campos y movimiento, lo que significaba que no todo se puede reducir a las interacciones materiales y las leyes de Newton. Los campos no materiales también tenían que incluirse y ser capaces de transportar energía a través del espacio vacío en forma de rayos de luz. El universo de repente, en cuestión de muy pocos años, se había vuelto mucho más complejo que la materia y el movimiento de nuestro día a día.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Más que materia en movimiento se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El principio de relatividad (1): movimiento relativo
  2. Una cuestión de movimiento
  3. Otras predicciones del modelo cinético. Movimiento browniano
Categories: Zientzia

Narrar historias promueve la cooperación

Mon, 2018/03/05 - 11:59

A los seres humanos nos gusta que nos cuenten historias. Nos gustan las narraciones. Y a algunos también les gusta contarlas. No se trata solo de las que nos contamos unos a otros de manera oral. También las leemos. O, cada vez en mayor medida, las vemos u oímos en programas de televisión o de radio. Dedicamos muchísimo tiempo -y dinero- a oír, leer o ver historias. Es un rasgo cultural universal: a todos los seres humanos nos gustan las narraciones.

Hay quien se ha preguntado acerca de la razón de ser de este universal. Al fin y al cabo, si todos los seres humanos amamos las narraciones, es lógico pensar que alguna ventaja debe o ha debido de proporcionarnos esa actividad en términos evolutivos. Con esa idea general como punto de partida, un grupo de investigadores de diferentes procedencias geográficas y disciplinares, liderado por Andrea Bamberg Migliano, del University College de Londres, han sometido a contraste la hipótesis de que la narración de historias ha cumplido una función importante en la evolución de la cooperación humana mediante la transmisión de las normas sociales y cooperativas que permiten coordinar el comportamiento del grupo.

Según este equipo de antropólogos, para que un grupo humano coopere, no solamente hay que resolver el problema de cómo penalizar a los que no cooperan y se aprovechan de quienes sí lo hacen (lo que en inglés se denomina el problema del free-rider). También haría falta que los miembros del grupo compartan el conocimiento acerca del comportamiento de los demás; en otras palabras, no sería suficiente con saber cómo actuar en una situación dada, sino que los miembros del grupo necesitan saber que los demás también saben cómo actuar. Es lo que los autores del trabajo denominan metaconocimiento. En ese contexto, el lenguaje es esencial, por supuesto, como medio de comunicación, pero además del lenguaje es necesario que los miembros del grupo compartan normas y formas de actuación con los demás, y que lo sepan. Y para ello, -sostienen- las historias pueden ser instrumentos muy importantes.

Para contrastar la hipótesis de partida, los autores se propusieron estudiar pueblos de cazadores-recolectores ya que son grupos de esa condición los que mejor representan la situación en que se han desenvuelto los grupos humanos a lo largo de la mayor parte de su historia. El grupo escogido fue el de los agtas, cazadores-recolectores que viven en las Filipinas. Analizaron varias historias que se cuentan los adultos unos a otros y que los adultos cuentan a los niños. También recopilaron 89 historias contadas en varios grupos de cazadores-recolectores de diferentes procedencias y las clasificaron de acuerdo con su contenido y el tipo de normas o actitudes que transmiten. En otro orden de cosas, valoraron si la presencia de buenos narradores en el grupo tiene reflejo en el grado de cooperación en su seno, así como si los narradores se ven favorecidos de alguna forma, ya sea por las relaciones sociales que mantienen o por su éxito reproductor. Mediante estos dos últimos elementos pretendían averiguar si unas capacidades útiles para el grupo, como es la de narrar buenas historias, rinden además algún beneficio para quien las ejercita.

Y efectivamente, los agta se cuentan historias que transmiten mensajes que promueven la cooperación, la igualdad de sexos, y la igualdad social, rasgos que caracterizan a sus grupos. No solo las de los agta, las historias que cuentan en otros grupos humanos también parecen estar elaboradas para coordinar el comportamiento social y promover la cooperación. Los individuos pertenecientes a poblados en los que hay una mayor proporción de individuos dotados para narrar historias son más cooperativos. Los mejores narradores son preferidos como compañeros de cuadrilla o amigos y tienen también un mayor éxito reproductivo.

La conclusión que extraen los autores del trabajo es que la narración de historias es un rasgo cultural con valor adaptativo, ya que ayuda a articular eficaces sistemas de cooperación en las sociedades de cazadores-recolectores. Y resaltan además el hecho de que ciertos comportamientos o rasgos individuales, que son beneficiosos para el grupo, también pueden ser seleccionados de manera individual. No obstante, que las narraciones cumplan esas funciones no es óbice para que cumpla también otras o para que se deriven otros beneficios de la práctica de contar historias.

Somos contadores de historias; no solamente disfrutamos contando, escuchando, leyendo o viéndolas; hasta la manera en que pensamos está directamente relacionada con la estructura de la narración. Si no se tratase de un rasgo valioso, no nos gustaría tanto y no tendría tanta importancia en nuestras vidas. La idea de que las narraciones promueven la cooperación es sugerente, pero quizás haya más razones por las que disfrutamos tanto con ellas.

Referencia:

D Smith, P Schlaepfer, K Major, M Dyble, A E Page, J Thompson, N Chaudhary, G D Salali, r Mace, L Astete, M Ngales, L Vinicius & A B Migliano (2017): Cooperation and the evolution of hunter-gatherer storytelling. Nature Communications doi: 10.1038/s41467-017-02036-8

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Narrar historias promueve la cooperación se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La cooperación no favorece a los invasores rápidos
  2. Una buena colección de historias maravillosas
  3. Limpieza promueve limpieza
Categories: Zientzia

El caso de los enfermos de Minamata

Sun, 2018/03/04 - 11:59

La mano de Tomoko Uemura, enferma de Minamata. Foto: W. Eugene Smith (1971)

Era un día de la primavera de 1956. El 21 de abril, una niña de la ciudad, de 5 años de edad y llamada Tsukinoura, amaneció con convulsiones y dificultades para andar y hablar. Ingresó en el hospital de Minamata, el Hospital Chisso, de la empresa propietaria de la principal fábrica de la ciudad. Fue, esa niña, el primer caso bien documentado de la enfermedad de Minamata. Su aparición fue reconocida oficialmente el 1 de mayo, cuando había cuatro enfermos ingresados, entre ellos, la hermana de la primera enferma. El director del hospital notificó a los servicios de salud que cuatro enfermos mostraban síntomas cerebrales de origen desconocido.

Minamata, de la Prefectura de Kumamoto, era una pequeña ciudad del sur de la isla de Kyushu, en el Japón, en la desembocadura del río Minamata que se abre a la bahía del mismo nombre y al mar de Yatsushiro. En 1956, cuando comienza esta historia, tenía unos 50000 habitantes.

Con el tiempo y muchos estudios, se descubrió que la causa de la enfermedad de Minamata era el envenenamiento con metil mercurio asociado al consumo diario de grandes cantidades de pescado y marisco contaminado con mercurio.

Presenta síntomas muy variados según el grado de exposición al tóxico. Los casos más graves se caracterizan por problemas sensoriales, sobre todo en las extremidades, problemas de movimiento y equilibrio y reducción del campo visual. Hay otros signos de problemas neurológicos como la dificultad en el habla, pérdida de audición, movimiento difícil de los ojos, temblores,… Los casos más suaves incluyen sensación de pinchazos en las extremidades (parestesia), dolor en las articulaciones, problemas en el uso de los dedos, dolores de cabeza, fallos de la memoria, insomnio,…

Todo empezó unos 50 años antes, cuando se instaló en Minamata la empresa Chisso, entonces conocida como Nippon Nitrogen Fertilizer Corporation, que, a partir de la década de los 50, comenzó a producir acetaldehído, compuesto utilizado en la síntesis de plásticos y en otras aplicaciones. La ciudad creció a la vez que la fábrica, su industria más importante. Para la síntesis del acetaldehído era necesario el mercurio como catalizador, o acelerador de la reacción química. Después, el mercurio sobrante se vertía al mar donde, en parte, cambiaba a metil mercurio, mucho más tóxico y más fácilmente asimilable por los organismos vivos. En los peces, moluscos y crustáceos entraba por el sistema digestivo o por las branquias. Los bivalvos y los peces morían, las algas no crecían y, en tierra, los gatos y las aves agonizaban.

Las investigaciones identificaron el mercurio como la causa de la enfermedad de Minamata, pero las autoridades y la empresa Chisso no utilizaron este dato para contener la extensión de la enfermedad. En 1956 eran 54 casos reconocidos, con 17 fallecimientos. Y, por estadísticas epidemiológicas, se demostró que la enfermedad estaba asociada al consumo de pescado y marisco, y se sugirió que los síntomas se debían a una intoxicación con un metal pesado. A pesar de ello, las autoridades no prohibieron ni la pesca ni el consumo de pescado y, por supuesto, desconocían el origen del metal pesado. La fábrica Chisso era sospechosa de la contaminación pero, en aquellos años, no era fácil de probar.

Se diagnosticaron más casos en 1958 y, también aquel año, Chisso incrementó la producción de acetaldehído y, por si se demostraba que eran los causantes de la enfermedad con sus vertidos, diluyeron lo que expulsaban con agua de mar y cambiaron el punto de vertido. Pero, para el año siguiente, aparecieron nuevos enfermos en los alrededores del nuevo punto de descarga.

Los grupos de investigación detectaron, para julio de 1959, grandes concentraciones de mercurio en la bahía, con un máximo de 2 gramos por kilogramo de muestra en el punto de vertido de la empresa Chisso. La empresa rechazó estas cifras pero no mencionaba que el mercurio fuera parte de sus vertidos, sobre todo desde que inició la producción de acetaldehído a principios de los 50. Incluso, como veremos más adelante, no hizo público que en sus laboratorios había reproducido los síntomas de la enfermedad de Minamata en gatos alimentados con pescado y marisco de la bahía y, también, mezclando su alimento con lo que vertían al entorno como subproducto de la síntesis del acetaldehído.

Fueron los equipos de investigación de la Facultad de Medicina de la Universidad de Kumamoto los que trabajaron durante años para conocer mejor la enfermedad y su origen en el metil mercurio. El 22 de julio de 1959 publicaron un informe en el que escribían que

La enfermedad de Minamata es una enfermedad del sistema nervioso que es causada por la alimentación con pescado y marisco en el área local (Bahía de Minamata). El mercurio ha llamado nuestra atención como la causa posible de la contaminación del pescado y el marisco.”

Firmaban este informe los profesores Tadao Takeuchi y Haruhiko Tokuomi. El 5 de agosto la empresa Chisso respondía afirmando que

La teoría del mercurio orgánico de la Universidad de Kumamoto es una especulación sin ninguna prueba, y es irracional según el sentido común de la química.”

Sin embargo, el 6 de octubre de 1959, en un experimento en el Hospital Chisso de Minamata, el hospital de la empresa, los gatos alimentados con los vertidos sufrían síntomas de la enfermedad de Minamata. Chisso nunca publicó estos resultados.

La hipótesis de que el metil mercurio que vertía la empresa Chisso podía ser la causa de la enfermedad, convirtió el problema médico y ambiental en un problema social. Los pescadores exigían a Chisso una compensación por el daño causado, que cesaran los vertidos y que se depurara todo lo que salía de la fábrica hacia el mar. Hay manifestaciones, invasión de la fábrica, mandato del gobierno para que Chisso tratara sus vertidos y, también, comisiones de investigación en el Parlamento.

En diciembre de 1959, Chisso firmó un acuerdo con los pescadores y puso en marcha una depuradora que, aunque el presidente de la compañía bebió un vaso del agua depurada delante de pescadores y administración, no servía de mucho para retirar el mercurio. Separaba del vertido las sustancias que lo enturbiaban, con lo que el agua era transparente y parecía limpia, pero no actuaba sobre las sustancias disueltas y, entre ellas, estaba el mercurio.

Chisso compensó económicamente a los enfermos, 78 censados en aquel año, y a sus familias con un acuerdo que les prohibía cualquier otra reclamación en el futuro. La empresa añadía que su ayuda era por simpatía a los enfermos, no como compensación de cualquier daño del que sintieran responsables.

Con este acuerdo, pescadores y gobierno, y por supuesto la empresa, daban por finalizado el asunto, aunque los científicos seguían estudiando la intervención del metil mercurio en la enfermedad y su presencia en la bahía y en el sedimento y en el pescado y marisco de la dieta de los pescadores.

Entonces estalló la segunda fase de la enfermedad de Minamata. Desde mediados de los 50, en la ciudad habían aumentado los casos de parálisis cerebral, los abortos, los nacimientos prematuros y había cambiado el índice de sexos pues los afectados eran, sobre todo, los niños frente a las niñas. En 1961 y 1962, murieron dos mujeres jóvenes y, en la autopsia, ambas llevaban fetos muertos con la enfermedad de Minamata. Además, en 1962 se declararon 15 nuevos casos de parálisis cerebral.

En aquellos días, los empleados de Chisso seguían encontrando metil mercurio en los procesos de síntesis de acetaldehído, aunque la empresa no lo hizo público. Solo en 1967 los investigadores conseguieron demostrar la presencia de metil mercurio en el proceso de síntesis de acetaldehído. Y en 1968, el gobierno estableció que el metil mercurio vertido por Chisso era la causa de la enfermedad de Minamata. Habían pasado 12 años desde aquella primera niña enferma de 5 años detectada en 1956. Aquel mismo año, 1968, Chisso dejó de producir acetaldehído en su factoría de Minamata. Se calcula que en los años de contaminación, Chisso vertió a la bahía de 70 a 150 toneladas de mercurio, incluyendo de 0.6 a 6 toneladas de metil mercurio.

Hubo que esperar hasta 1971, 15 años después, para que la justicia sentenciara que Chisso era responsable de lo ocurrido. En 2005, habían recibido el certificado oficial de padecer la enfermedad de Minamata 1775 pacientes, y hay más de 3000 a la espera de que se resuelva su petición. Para 2007, Minamata, con la enfermedad y la crisis de la economía, había perdido casi la mitad de su población respecto a la década de los 50, cuando se declaró la enfermedad, y tenía unos 29000 habitantes.

Tomoko Uemura en su baño. Foto: W. Eugene Smith (1971)

No es fácil demostrar que una persona tiene la enfermedad de Minamata. En primer lugar, el metil mercurio se excreta en 70-90 días y, por tanto, años después es difícil que se detecte en el cuerpo del enfermo. Y, en segundo lugar, a menudo los síntomas que declara el paciente son subjetivos y difíciles de evaluar.

Durante años estuvo prohibida la pesca en la Bahía de Minamata e, incluso, había zonas cercadas con vallas metálicas para impedir la entrada por estar los sedimentos contaminados con mercurio. El 1997, los niveles del tóxico ya se encontraban por debajo de los límites que marcaban los reglamentos y la concentración en el pescado era, de media, cercana o inferior a 0.4 microgramos por gramo de pescado, por debajo del límite que marca la legislación japonesa. El 15 de octubre de 1997, la Bahía de Minamata se reabrió a la pesca.

En 2010, son 2771 personas las que tienen el certificado de padecer la enfermedad de Minamata pero hay más de 40000, con síntomas más leves, que también reciben tratamiento médico. En la bahía, la concentración media de mercurio es de 25 microgramos por gramo de sedimento en un área de unos 2 kilómetros cuadrados. No son raras las concentraciones por encima de 100 microgramos de mercurio por gramo de sedimento. En los materiales depositados en el fondo de la bahía, la contaminación con mercurio se detecta hasta los 4 metros de profundidad.

Quizá Minamata no ha terminado. Todavía no se conocen con exactitud los efectos a largo plazo de estos, y de muchos otros, contaminantes. Son concentraciones bajas pero absorbidas en pequeña cantidad durante muchos años y pueden provocar efectos que aún no detectamos. Además, Minamata abrió los estudios sobre daños producidos por metales pesados. Así conocimos el “Itai Itai”, el daño producido por el cadmio. También se descubrió en Japón con esta enfermedad provocada por la alimentación con arroz contaminado por cadmio procedente de los vertidos de una mina. Ocurrió en Toyama, pero es otra historia.

Ya conocemos lo que ocurrió en Minamata, Japón, y la tragedia que provocó la contaminación con mercurio, su acumulación en el pescado que consumía la población y las decenas, quizá miles, de enfermos que sufrieron, y sufren, el llamado síndrome de Minamata. Ahora, medio siglo después, en 2011, la Agencia Española de Seguridad Alimentaria y Nutrición emitió un comunicado en relación con la presencia de mercurio en pez espada (Xiphias gladius), tiburón Selachimorpha sp.), atún rojo (Thunnus thynnus) y lucio (Esox lucius). Según los informes de la Autoridad Europea de Seguridad Alimentaria y de la Dirección General de Sanidad y Consumo de la Unión Europea, la Agencia Española recomendaba que las embarazadas y los niños menores de 3 años debían evitar el consumo de estos pescados, y los niños entre 3 y 12 años limitar su consumo a 50 gramos por semana. El mercurio es un riesgo para el desarrollo del sistema nervioso central en embriones y niños y, en personas mayores de 50 años, se le relaciona con enfermedades cardiovasculares.

El mercurio llega al entorno por actividades como la quema de carbón en centrales eléctricas o calefacciones, procesos industriales, incineradoras de basura y minería. En el ambiente, el mercurio se combina con carbono e hidrógeno y se sintetizan compuestos orgánicos. El más abundante, como vimos en Minamata, es el metil-mercurio, sintetizado por microorganismos, y entra en las cadenas tróficas y termina acumulándose en los grandes depredadores y, entre ellos y en medio marino, en el atún, pez espada, tiburones y peces similares.

Atún rojo pescado en Cabo de Palos (Murcia) mediante jigging

El atún rojo es una de las especies de este grupo más controladas y el grupo de Agustín Pastor, de la Universidad de Valencia, analizó su contenido en mercurio. Compraron los ejemplares en comercios de Valencia y encontraron que, de media, tenían 0.55 miligramos de mercurio por kilogramo de peso. Esta concentración cumple los límites marcados por la Unión Europea. Cuando, según las estadísticas de la dieta de los consumidores, calcularon la ingesta de mercurio en el pescado encontraron que es, de media, de 44.6 microgramos de mercurio por persona y semana. Esta cantidad es el 43% de la dosis semanal tolerable.

En un estudio, parecido al de Valencia, con muestras de Galicia, el grupo de Sonia Lucía Blanco, del Centro Técnico Nacional de Conservación de Productos de la Pesca de Vigo, encuentra resultados similares pero con un 17% de los ejemplares de pez espada y un 31% de tiburón que superan los límites de la legislación europea.

Y un último ejemplo es el estudio de Giuseppe Di Bella y sus colegas, de la Universidad de Messina, en Italia, sobre la presencia de mercurio en 23 ejemplares de atún pescados en el Mediterráneo. Pesan de 130 a 290 kilogramos y se busca el metal en muestras de músculo. En ningún caso se sobrepasan los límites marcados por la Unión Europea ni el riesgo de la dosis semanal tolerable.

Hay que destacar que la presencia de mercurio en atún y pez espada se conoce, en nuestro entorno, desde hace medio siglo, desde los setenta del siglo pasado. Fueron los estudios de Rafael Establier, del Instituto de Investigaciones Pesqueras de Cádiz, un científico pionero en la detección de metales pesados en el pescado. En un trabajo publicado en 1972 encontraba mercurio en atún y pez espada, y en concentraciones superiores a las permitidas por la legislación de la época.

Banco de atunes en las aguas de Sicilia

En estos estudios de presencia del mercurio en peces, a menudo no se precisa la especie que se investiga y pueden ser especies diferentes en su biología y ecología, con diferentes tasas de acumulación del metal. Pueden ser especies que se comercializan con la misma denominación pero tienen diferentes distribución geográfica y comportamiento respecto a la contaminación. En el estudio de Gaetano Camilleri y su grupo, del Instituto Zooprofiláctico Experimental de Sicilia en Palermo, se miden concentraciones de mercurio en el atún rojo, con distribución en el Mediterráneo, y en el rabil o atún de aleta amarilla (Thunnus albacores), de los mares tropicales y subtropicales y que nos llega congelado o en conserva.

Los resultados muestran que la concentración de mercurio, de media, es cinco veces mayor, con 0.84 miligramos por kilogramo, en el atún rojo que en el rabil, con 0.16 miligramos por kilogramo. Además, entre las muestras del atún rojo hay 20 de músculo, la parte comestible, que superan los límites de la reglamentación de la Unión Europea.

El grupo de Yangyang Liu, de la Universidad de Illinois en Chicago, ha tomado datos de la Encuesta Nacional de Salud de Estados Unidos (NHANES) entre los años 2011 y 2014. Estiman el pescado consumido en 30 días y lo relacionan con la concentración de mercurio en sangre. Comparan poblaciones de origen asiático, con mayor consumo de pescado, y población no asiática.

La población asiática en edad reproductora y los mayores de 50 años tienen más mercurio en sangre que en la población no asiática. Además, los autores encuentran una relación, en la población asiática, entre la concentración de mercurio en sangre y la dieta de pescado, sobre todo en mujeres en edad reproductora. En su dieta son importantes la caballa y el atún.

En España y en una revisión publicada en 2013, la medida de la concentración de mercurio en sangre de 1800 recién nacidos indica que el 24% supera las recomendaciones de la OMS y el 64% supera las de la Agencia de Protección Ambiental de Estados Unidos. Sin embargo, esta revisión, liderada por Sabrina Llop, del Consejo Superior de Investigación en Salud Pública de Valencia, y que también firma Jesús Ibarlucea, del Instituto de Investigación BioDonostia, también encuentra que, dos años después, los niños no muestran signos de riesgo en su desarrollo cognitivo. Hay que recordar que la recomendación de no comer estos pescados con mercurio en niños de corta edad es porque se supone que el metal interfiere en el desarrollo del sistema nervioso central. Por si acaso, hay que tener en cuenta que en Francia, donde se ha estudiado, hay muy poco mercurio en la dieta de los niños hasta los 3 años. El estudio de Thiery Guérin y su grupo, de la Universidad de París-Este, encuentra que, de 291 muestras de alimentos analizadas, el 92.4% no tiene mercurio. Solo hay una cierta concentración en el pescado y siempre por debajo de lo que marca la legislación.

Cocer, asar o freír, en una palabra, cocinar disminuye la bioaccesibilidad del metil-mercurio entre el 30% y el 99% en varias especies de peces. En concreto, Ousséni Ouédrago y Marc Amyot, de la Universidad de Montreal, han estudiado el efecto de la cocina en caballa, atún y tiburón comprados en el mercado de la ciudad. Cocer y freír el pescado reduce la bioaccesibilidad entre un 40% y un 60%. Y, además, si se ingiere, a la vez, te o café, la bioaccesibilidad se reduce un 99%, según este estudio y otro del mismo grupo liderado por Catherine Girard.

Esta es la historia de la presencia de mercurio en el pescado del que nos alimentamos y de las precauciones que debemos tomar para evitar riesgos para la salud. Y tampoco debemos olvidar que estos depredadores del mar, situados en lo más alto de la cadena trófica, acumulan los contaminantes presentes en sus presas. Además, hay que investigar los efectos a largo plazo y con dosis bajas y durante mucho tiempo. El control de vertidos, como vimos en Minamata, es esencial para evitar los daños en la salud y en el ambiente.

Referencias:

Balogh, S.J. et al. 2015. Tracking the fate of mercury in the fish and bottom sediments of MinamataBay, Japan, using stable mercury isotopes. Environmental Science & Technology DOI: 10.1021/acs.est.5b00631

Blanco, S.L. et al. 2008. Mercury, cadmium and lead levels in samples of the maintraded fish and shellfish species in Galicia, Spain. Food Additives & Contaminants Part B 1: 15-21.

Camilleri, G. et al. 2017. Mercury in fish products what’s the best for the consumers between bluefin tuna and yellowfin tuna. Natural Products Research doi: 10.1080/1478419.2017.1309538

Di Bella, G.D. et al. 2015. Trace elements in Thunnus thynnus from Mediterranean Sea and benefit-risk assessment for consumers. Food Additives & Contaminants 8: 175-181.

Establier, R. 1972. Concentración de mercurio en los tejidos se algunos peces, moluscos y crustáceos del golfo de Cádiz y caladeros del noroeste africano. Investigación Pesquera 36: 355-364.

Girard, C. et al. 2018. Cooking and co-ingested polyphenols reduce in vitro methylmercury bioaccessibility from fish and may alter exposure in humans. Science of the Total Environment 616-617: 863-874.

Guérin, T. et al. 2018. Mercury in food from the first French total diet study on infants and toddlers. Food Chemistry 239: 920-925.

Hachiya, N. 2006. The history and present of Minamata disease – Entering the second half a century – . Japan Medical Association Journal 49: 112-118.

He, M. & W. Wang. 2011. Factors affecting the bioaccessibility of methylmercury in several marine fish species: Journal of Agricultural and Food Chemistry 8: 7155-7162.

Liu, Y. et al. 2018. Association of methylmercury intake from seafood consumption and blood mercury level among the Asian and Non-Asian populations in the United States. Environmental Research 160: 212-222.

Llop, S. et al. 2013. Estado actual sobre la exposición alimentaria al mercurio durante el embarazo y la infancia y recomendaciones en salud pública. Gaceta Sanitaria 27: 273-278.

Minamata Disease Municipal Museum. 2007. Minamata disease – Its history and lessons – 2007. Minamata City. Planning Division. Minamata. 58 pp.

Ouedrago, O. & M. Amyot. 2011. Effects of various cooking methods and food components on bioaccessibility of mercury from fish. Environmental Research 111: 1064-1069.

Tsuchuya, K. 1969. Causation of ouch-ouch disease (Itai-Itai Byo) –An introductory review- Part II. Epidemiology and evaluation. Keio Journal of Medicine 18: 195-211.

Yusá, Y. et al. 2008. Monitoring programme on cadmium, lead and mercury in fish and seafood from Valencia, Spain: levels and estimated weekly intake. Food Additives and Contaminants Part B 1: 22-31.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo El caso de los enfermos de Minamata se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El caso de Rin Tin Tin y sus amigos
  2. El caso de Julius Lederer (y del agua que bebemos)
  3. El consumo de alcohol para el corazón y las dificultades de divulgar ciencia
Categories: Zientzia

Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan

Sat, 2018/03/03 - 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

Lo de Juego de Tronos queda en un chiste si lo comparamos con la guerra entre bacterias y virus, que empezó allá en los inicios de la vida y que continúa hoy día. Nacho López-Goñi lo cuenta como nadie.

Ignacio López-Goñi: Las bacterias también se vacunan

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ignacio López-Goñi: “El sistema de defensa de las bacterias es el mejor editor de genomas que existe”
  2. Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma
  3. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
Categories: Zientzia

100 años después el neandertal de La Ferrassie sigue dando información

Fri, 2018/03/02 - 17:00

La Ferrasie en 2005. Wikimedia Commons

El abrigo rocoso de La Ferrassie está localizado en la base de una colina de caliza en Savignac de Miremont, a 5 km al norte de Le Bugue, en Dordoña (Francia). El 17 de septiembre de 1909, un esqueleto neandertal adulto masculino fue descubierto y nombrado como La Ferrassie 1 (LF1), en lo que el director de la excavación Denis Peyrony consideró una fosa funeraria en un nivel que ha sido datado entre 40 y 54 mil años. Este esqueleto es uno de los individuos neandertales más importantes, tanto por su excepcional estado de conservación como por el papel que ha jugado históricamente en la interpretación de la anatomía y comportamiento de los neandertales.

Foto del descubrimiento de La Ferrassie 1 en 1909. © Collections M.N.P. Les Eyzies

Más de 100 años después de su descubrimiento, este fósil continua ofreciéndonos nuevas perspectivas en el estudio de los neandertales. Un equipo internacional, con investigadores de la Universidad de Alcalá de Henares (Madrid), Musée de l’Homme (Paris), Liverpool John Moores University (Reino Unido), Centro Mixto UCM-ISCIII para el estudio de la Evolución y comportamiento humanos (Madrid), y Binghamton University (USA), liderado por el investigador Ikerbasque de la UPV/EHU Asier Gómez-Olivencia ha obtenido nueva información relevante.

La Ferrassie 1 era un neandertal masculino de más de 50 años de edad que sufrió varias lesiones a lo largo de su vida, probablemente en relación con su estilo de vida cazador-recolector. En el momento de su muerte sufría problemas relacionados con una enfermedad pulmonar. Poco después de su muerte fue enterrado por otros miembros de su grupo en lo que hoy conocemos como Abrigo Rocoso de La Ferrassie, un lugar que los neandertales usaron como campamento de manera reiterada durante miles de años.

En este estudio se han utilizado tomografías computerizadas y radigrafías de alta resolución para poder encontrar nuevos restos y poder caracterizar mejor las lesiones patológicas. Los resultados no podían ser más interesantes.

Se han identificado nuevos restos fósiles pertenecientes a este esqueleto, incluyendo los tres huesecillos del oído que se encontraban en el hueso temporal derecho, tres fragmentos de vértebra y dos fragmentos de costilla. Los huesecillos del oído están completos y nos ayudan a comprender mejor la variabilidad de los neandertales en esta región anatómica.

Se han identificado nuevas lesiones patológicas, incluyendo una fractura de la clavícula sin desplazamiento del hueso, mayor degeneración artrósica en la columna vertebral y una ligera escoliosis, y una variante congénita de la primera vértebra cervical que no tendría consecuencias clínicas. Estas anomalías se sumarían a otras anomalías descritas previamente como son una fractura del trocánter mayor del fémur derecho y la evidencia de una afección sistémica de origen pulmonar debida a una infección o un carcinoma, que pudo haber sido la causa de la muerte de este individuo.

Se ha confirmado que no hay alteraciones superficiales en los huesos del esqueleto de La Ferrrassie 1, y que la manera en que los huesos aparecen rotos es típico de huesos que han perdido el colágeno. El estudio tafonómico de este individuo es coherente con la hipótesis de que su cuerpo fue enterrado poco después de su muerte, por lo que ningún carnívoro atacó el cadáver. Durante la putrefacción, los huesos perdieron el colágeno y se rompieron in situ por el peso del sedimento. Estos datos son coherentes con la hipótesis de un enterramiento intencional de este esqueleto, tal y como se ha propuesto por estudios anteriores.

Más de 100 años después de su descubrimiento, el neandertal de La Ferrassie sigue proporcionando nueva información que nos ayuda a comprender la anatomía y comportamiento de los neandertales.

Referencia:

Asier Gómez-Olivencia et al (2018) La Ferrassie 1: New perspectives on a “classic” Neandertal Journal of Human Evolution doi: 10.1016/j.jhevol.2017.12.004

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo 100 años después el neandertal de La Ferrassie sigue dando información se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El estribo más completo del registro neandertal
  2. Gripe A, cuatro años después
  3. La complejidad de la mente neandertal
Categories: Zientzia

Alzhéimer, ¿el fin de la expedición?

Fri, 2018/03/02 - 12:00

Ha vuelto a ocurrir. Lo publicaba la farmacéutica con sede en Indianápolis en New England Journal of Medicine el pasado 24 de enero. El último de los grandes estudios Expedition, el tercero de la saga para ser exactos, ha fallado. Después de las noticias de hace un par de años, creo que todos nos lo temíamos. El solanezumab (acabado en “-mab” por lo de “monoclonal antibody”) no disminuye significativamente el deterioro cognitivo asociado a la enfermedad de Alzheimer. La ventaja competitiva inicial de este anticuerpo es que estaba dirigido contra el amiloide soluble monomérico, una estrategia que pretendía disminuir las especies de amiloide soluble en el cerebro y así evitar la formación de placas seniles.

Cerebro de enfermo de alzhéimer con placas amiloides marcadas con rojo congo (arriba a la izquierda) y marcas de amiloide envolviendo los vasos sanguíneos (abajo a la derecha)

Se trataba de un Fase III. Con más de 2.000 pacientes. El mayor estudio hecho hasta la fecha sobre la modulación del amiloide en la enfermedad de Alzheimer. Expedition 3 ha comparado 1.057 enfermos tratados con el anticuerpo contra 1.072 que han recibido placebo. El fármaco ha sido administrado intravenosamente a una dosis mensual de 400 mg durante 80 semanas. A las 28 semanas de tratamiento, y también en las semanas 52 y 64, los resultados parecían indicar un eventual efecto positivo que finalmente se he difuminado en los últimos puntos de la cinética de la enfermedad. Como siempre, parece que algo hace, pero cuando se estudia la significación estadística el beneficio se pierde como lágrimas en la lluvia.

Portada de Nature de septiembre de 2016 donde se ilustra una imagen de PET de un cerebro de un enfermo de alzhéimer (a la izquierda), y el cerebro de una persona sana (a la derecha).

Como decía Viktor Frankl en “El hombre en busca de sentido”, el que tiene un porqué siempre encuentra un cómo. Así que afirman los investigadores que tal vez el fármaco no falle, y que la ausencia de beneficio terapéutico sea consecuencia de que la cantidad utilizada de anticuerpo no haya sido lo suficientemente alta como para haber producido efectos claros. O que el tratamiento se empezó cuando la enfermedad estaba demasiado avanzada, aunque hay que recordar que entre los criterios de reclutamiento se especificaba que los enfermos de alzhéimer a utilizar en el estudio estarían en la fase leve de la enfermedad. De hecho, su investigador principal, Lawrence Honig, del Columbia University Medical Center en Nueva York, afirma que, a pesar de los resultados del Expedition 3, sigue siendo optimista con las terapias anti-amiloide.

Expedition 3 es el tercer gran estudio de la farmacéutica americana con este anticuerpo, tras los fracasos del Expedition original en 2012 y el Expedition 2 en 2016 (el Expedition EXT es una extensión de los pacientes de las dos primeras expediciones farmacológicas). Ambos sumaron más de dos mil pacientes, de los casi 7.500 que se han incluido en los estudios con este fármaco. En ninguno de ellos la mejoría de los pacientes fue lo suficientemente clara.

El comienzo tardío del tratamiento en relación al avance de la enfermedad es el argumento más utilizado en los últimos años para justificar la ausencia de efectos de los anticuerpos anti-amiloide. Se repite constantemente como un mantra en congresos especializados y en publicaciones científicas; nos hemos equivocado en cuándo iniciar el tratamiento. Pero una y otra vez siguen fallando los estudios clínicos que atacan a esta diana. Si esto es así, el momento idóneo sería tratar a los enfermos antes de que empiece el declive cognitivo, pero anticipar qué persona va a desarrollar la enfermedad es realmente complicado, y de hecho medio planeta está trabajando en ello. A no ser que utilicemos la variante familiar y hereditaria de la enfermedad, aunque hay que recordar que esta tipología del alzhéimer es realmente rara y no sabemos aún si se regirá por los mismos principios fisiopatológicos que la variante más abundante de la enfermedad, la llamada “esporádica” o “no familiar”.

Por esta razón se han diseñado y puesto en marcha los estudios A4 y DIAN. El A4 es el último intento de la compañía americana para ver el efecto del solanezumab. Se está probando en altas dosis en individuos mayores de 65 años con evidencia de amiloide en sus cerebros, pero que todavía estén cognitivamente sanos. Por su parte, DIAN es un acrónimo de Dominantly Inherited Alzheimer Network, y es una iniciativa donde se evaluarán hasta tres fármacos (dos de ellos anticuerpos contra el amiloide y el otro también relacionado con su producción) de tres compañías diferentes (Eli Lilly, Hoffmann-La Roche y Janssen) en pacientes con enfermedad hereditaria, y donde los enfermos todavía están en fase asintomática o muy leve de la enfermedad. Si ninguno de estos dos ensayos funciona deberemos ir resignándonos a aceptar que probablemente el amiloide no sea el fantasma que causa la enfermedad, y deberemos aceptar que el árbol nos ha tapado el bosque durante casi treinta años de investigación, aunque hayamos aprendido enormemente por el camino. Esto último no es un consuelo, es uno de los mecanismos intrínsecos al avance de la ciencia.

A día de hoy, y según datos de la Alzheimer’s Drug Discovery Association (ADDF), la mayoría de los 126 tratamientos en fases clínicas que se estaban probando en 2017 para la enfermedad de Alzheimer seguían estando dirigidos contra el péptido amiloide. Curiosamente, esta fundación americana no financia el desarrollo de fármacos contra esta diana, la más estudiada sin lugar a dudas en la investigación contra el alzhéimer, lo que cuanto menos resulta significativo.

Las últimas noticias del Expedition 3, y las del Expedition 2 hace un par de años, me han hecho recordar un viaje que hice hace cinco años a la conferencia anual del JP Morgan en San Francisco, un bizarro evento farmacéutico que puebla de ejecutivos todos y cada uno de los rincones de la ciudad de la bahía. Los puedes ver detrás de sus corbatas mostrándose unos a otros presentaciones en los sitios más peregrinos, desde los lugares más transitados a los más recónditos, desde los sillones de los ostentosos halls de hoteles caros a las habitaciones privadas surtidas con todo tipo de lujos a cientos de metros de altura, o desde restaurantes de moda hasta las más populares cafeterías franquicia. Allí tuve la oportunidad de charlar con uno de los asesores de Eli Lilly. Íbamos caminando por Union Square cuando me dijo bajito que el solanezumab no funcionaba, pero que no quedaba más remedio que seguir para adelante, ya que se había gastado demasiado dinero y se tenía que hacer el último intento.

Ya ven, parece que el negocio del alzhéimer sigue teniendo más ambición que memoria.

Este post ha sido realizado por Javier Burgos (@Javisburgos) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Referencias científicas y más información:

El artículo Alzhéimer, ¿el fin de la expedición? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El papel de la insulina en la enfermedad de Alzheimer
  2. Parkinsonia parkinsoni
  3. Háblame y te digo si tienes alzhéimer
Categories: Zientzia

El papel de la memoria en el proceso de enseñanza-aprendizaje

Thu, 2018/03/01 - 17:00

¿Cómo se tratan algunos de los trastornos cognitivos más frecuentes en las aulas? ¿Son efectivos los programas y herramientas del sistema educativo actual? ¿Carecen de eficacia algunas de las prácticas educativas más populares?

Estas son algunas de las cuestiones que se debatieron en la jornada “Las pruebas de la educación”, que se celebró el pasado 2 de febrero de 2018 en el Bizkaia Aretoa de Bilbao. El evento, en su segunda edición, estuvo organizado por la Cátedra de Cultura Científica de la UPV/EHU y el Consejo Escolar de Euskadi, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT).

Las ponencias de los expertos que expusieron múltiples cuestiones relacionadas con la educación, basándose siempre en las pruebas científicas existentes. Los especialistas hicieron especial hincapié en destacar cuál es la mejor evidencia disponible a día de hoy con el objetivo de abordar las diferentes realidades que coexisten en las aulas y en el sistema educativo en general.

“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde diversos ámbitos de la actividad científica. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.

El profesor de la Universidad de Oviedo Joaquín Morís analiza en esta ponencia el papel de la memoria en el proceso de enseñanza y aprendizaje. El experto repasa algunos de los conceptos más destacados relacionados con el campo de la memoria y analizará las técnicas basadas en la evidencia que se derivan de estos conceptos y cómo se pueden aplicar en la práctica diaria en las aulas.

El papel de la memoria en el proceso de enseñanza-aprendizaje

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo El papel de la memoria en el proceso de enseñanza-aprendizaje se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Autismo y educación: problemas y pautas en el aula
  2. La intervención en la dislexia: de la evidencia científica a la práctica educativa
  3. Del mito al hecho: hemisferios, gimnasia cerebral y estilos de aprendizaje
Categories: Zientzia

La tentación de la explicación única

Thu, 2018/03/01 - 11:59

Una de las principales y quizá más importantes características del cerebro humano es esa incomodidad, esa especie de ‘picor’ metafísico que sufre cuando desconocemos la explicación a un fenómeno observado. Esa inquietud que nos lleva a perseverar en buscar explicaciones y que nos recompensa con un instante de placer, un destello de gozo y bienestar cuando descubrimos la solución a un problema o la explicación a un enigma: la razón de que los humanos consideremos los rompecabezas, puzzles y todo tipo de juegos de adivinanzas como algo agradable en lugar de como una maldición. A nuestra mente le gusta descubrir cosas, y esto hace que tengamos un irresistible impulso curioso que nos mueve a buscar y a preguntar.

Aunque como casi todas las características que podemos considerar ‘naturales’ esta tendencia irreprimible a la curiosidad también puede provocar efectos paradójicos que nos lleven justo en la dirección contraria a la que queremos llevar. La naturaleza y nuestros impulsos morales muchas veces no tienen un encaje sencillo, y si nuestra querencia por ese momento ‘ahá’ del descubrimiento y la comprensión nos puede llevar a practicar la ciencia y a buscar el conocimiento también nos puede empujar a una de las tentaciones intelectuales más comodonas y cobardes, como es la explicación única: inventar una teoría o concepto que, como una navaja suiza intelectual, sirve para explicarlo TODO.

Un ejemplo simple es la cosmogonía de todas y cada una de las religiones que en el mundo hay y ha habido, para las cuales la historia humana y prehumana se explica entera con un concepto simple: porque la [inserte deidad] así lo quiere. ¿La distribución de los animales y plantas y sus características? La divinidad así lo dispuso. ¿Algo que no encaja en física, geología, meteorología? Es voluntad de la deidad. ¿Problemas sociales, históricos, sorpresas evolutivas? Nuestro dios lo quiso así. Con un mínimo de flexibilidad que permita incorporar (como subunidades de la divina voluntad) cualquier explicación racional y lógica esta versátil herramienta no hay fenómeno, causa o consecuencia que no sea capaz de explicar. Con la ventaja de que incluso puede usarse para construir relaciones causales tan barrocas y complejas como para satisfacer a las mentes más inquisitivas: la historia de la escolástica demuestra la cantidad de esfuerzo intelectual que se puede dedicar (¿perder?) en tratar de seguir los vericuetos de la voluntad divina, si uno se empeña en ello.

La así llamada ‘teoría de los antiguos cosmonautas’ es una versión más moderna del mismo principio; en este caso la explicación multiusos se resume en una única palabra, que es ‘alienígenas’. ¿No entendemos los detalles nimios de cómo los egipcios construyeron las pirámides, los habitantes de la britania prehistórica erigieron Stonehenge o los incas crearon los magníficos templos de Cuzco o Machu Picchu? Los extraterrestres. ¿Hay parecidos entre algunos edificios erigidos por civilizaciones dispersas a grandes distancias en el espacio y el tiempo? Claro, porque los alienígenas. ¿Algunos símbolos de lenguajes separados por decenas de miles de kilómetros y otros tantos años se parecen, si los miramos asá? Lógico: es cosa de los Grises y su (oculta, casi indescifrable, misteriosa, constante) intervención en la historia humana. Como las cosmogonías religiosas se trata de crear una explicación única que sirve para tapar cualquier hueco en nuestro conocimiento y que rellena cualquier grieta, real o imaginaria. Teniendo una explicación, única, polivalente y sin posible discusión, hay quien se da por satisfecho y a otra cosa. Todas las ventajas del conocimiento sin necesidad ninguna de trabajar para conseguirlo: un verdadero chollo.

Las cosas, por supuesto, son mucho más complejas, difíciles de comprender e interesantes que todo eso. Las explicaciones únicas sólo satisfacen el principio de economía de esfuerzo: contempladas con espíritu crítico las numerosas simplificaciones y renuncias intelectuales que conllevan quedan dolorosamente claras. Cuando se aplica un mínimo de rigor las juntas de las grietas salen a la superficie, las dudas vuelven y los hechos no encajan; la realidad siempre es mucho más sutil e interesante que las explicaciones polivalentes que al igual que las herramientas multiuso sirven para todo, pero todo lo hacen mal. Lo más curioso es que sí hay una explicación subyacente que es real a muchas de las coincidencias en las que se apoyan los partidarios de las teorías únicas del universo, una que es tan obvia que raras veces se subraya y que es tan simple como caer en que hay un factor común en muchos fenómenos y misterios, que no es otro que el factor humano.

Si hay paralelismos entre edificios, momentos históricos, imágenes o decoraciones entre diferentes civilizaciones es porque todas ellas estaban compuestas por seres humanos, que comparten limitaciones, capacidades e inteligencia. Si muchos edificios antiguos tienen forma de pirámide es porque todos ellos fueron construidos por sociedades de humanos, que por definición miran, piensan y trabajan de formas paralelas, ya que pertenecen a la misma especie. Si existen similitudes entre representaciones gráficas de distintas civilizaciones y tiempos es porque todas las civilizaciones comparten un hecho común, que no es que fueran visitadas por deidades o extraterrestres, sino que estaban compuestas por personas. Extraer este factor común es suficiente casi siempre para que las teorías de la Explicación Única se derrumben como si estuviesen hechas de arena. Que, intelectualmente, es de lo que son.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo La tentación de la explicación única se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tentación de la posesión
  2. Por qué los niños preguntan “por qué” y qué constituye una buena explicación
  3. Pseudociencia y arrogancia
Categories: Zientzia

Los amiloides y el origen de la vida

Wed, 2018/02/28 - 17:00

Suponiendo que reconozcas la palabra amiloide, si te pido que la asocies con algo lo más probable es que ese algo sea el alzhéimer. Si por alguna razón te interesa el mundo de las enfermedades neurodegenerativas es probable que también la asocies al párkinson o a la enfermedad de Creutzfeldt-Jacobs. Lo que es menos probable es que la asocies con el origen de la vida. Y de esto precisamente es de lo que vamos a hablar.

Los amiloides son agregados fibrosos de unas moléculas llamadas péptidos. Hasta hace poco no se sabía que los amiloides aparecen como elementos estructurales y funcionales en una amplia gama de formas de vida, desde bacterias, levaduras y hongos hasta humanos. En los vertebrados intervienen en la producción del pigmento melanina (en los humanos este es la molécula que los broncea al exponerse al sol), mientras que las células de levadura usan agregados amiloides para formar un tipo de memoria molecular (sí, eso existe).

Las fibras de amiloide están compuestas de aminoácidos unidos de una forma concreta, la parte ácido de uno con la amino del siguiente, formando lo que se conoce como enlace peptídico; por ello se dice que los amiloides son péptidos cortos. Las proteínas son cadenas largas de péptidos (polipéptidos) y las enzimas son proteínas que aceleran y regulan las reacciones bioquímicas. Resulta que las fibras de amiloide pueden acelerar las reacciones bioquímicas de una forma similar a como lo hacen las enzimas. Este hecho ha sido clave para que algunos investigadores aventurasen la posibilidad de que los amiloides participasen activamente en el origen de la vida como precursores de las moléculas de la vida, la llamada abiogénesis. Pero faltaba algo evidente en esta hipótesis: la capacidad de autorreplicarse.

Ahora, investigadores del Instituto Federal Politécnico de Zúrich (Suiza) han realizado un experimento en el que demuestran que los amiloides pueden servir como plantilla química para la síntesis de péptidos cortos. De donde se deduce que esta capacidad también se aplicaría potencialmente al amiloide mismo, él mismo un péptido corto; por lo tanto las moléculas podrían autorreplicarse.

Hace dos años este mismo grupo de investigación demostró experimentalmente que las estructuras amiloides pueden formarse espontáneamente con asombrosa facilidad, a partir de aminoácidos simples que probablemente ya existían cuando la Tierra aún carecía de vida, y bajo condiciones de reacción que parecen muy plausibles que pudiesen existir en aquella época. Lo mismo aplica para la síntesis de péptidos cortos: el mecanismo de reacción es general, es estable en un rango amplio de condiciones de temperatura y salinidad, y lo es tanto en medios ácidos como básicos. Todo esto junto refuerza la idea de que los amiloides pudiesen haber jugado un papel relevante en la historia evolutiva química, tanto como portadores de información como como catalizadores.

Hasta ahora la hipótesis más aceptada para los comienzos moleculares de la vida ha sido la del ARN, que ve al ácido ribonucleico (ARN) como el único elemento clave en la sopa prebiótica primordial. Esto se debe a que, al igual que el ADN, las moléculas de ARN pueden codificar información y también pueden autorreplicarse.

Estos resultados harían de la hipótesis amiloide una idea claramente competitiva frente a la hipótesis del mundo de ARN por dos motivos fundamentalmente. El primero porque las moléculas de ARN con función biológica son mucho más grandes y complejas que los amiloides, por lo que es menos fácil que se formen en condiciones prebióticas. Por otra parte, los amiloides son mucho más estables y tienen una ruta de síntesis abiótica mucho más simple que las versiones catalíticas del ARN.

No se podrá probar nunca a ciencia cierta cual es la hipótesis correcta. Pero no parece demasiado aventurado afirmar que pudieron existir procesos moleculares múltiples que participaron en el origen de la vida.

Referencia:

Rout SK, Friedmann MP, Riek R, Greenwald J (2018) A prebiotic template-directed peptide synthesis based on amyloids. Nature Communications doi: 10.1038/s41467-017-02742-3

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Los amiloides y el origen de la vida se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Pro 2017: Carlos Briones y el origen de la vida
  2. ¿Y si la Gran Oxidación tuvo un origen geológico?
  3. Un origen químico de la vida elegantemente simple
Categories: Zientzia

Pierre Fatou, un matemático poco (re)conocido

Wed, 2018/02/28 - 11:59

Pierre Joseph Louis Fatou (1878-1929) nació tal día como hoy, hace 140 años.

Pierre Fatou. Fuente: Wikimedia Commons

Fue un matemático y astrónomo francés. Ingresó en la École Normale Supérieure de París en 1898 para estudiar matemáticas, y se graduó en 1901. Intentó obtener un puesto como matemático –en el Collège de France, en La Sorbona, etc.– sin éxito: trabajó durante casi toda su vida como astrónomo adjunto de Observatorio de París, hasta el año 1928 en el que se convirtió en astrónomo titular. Como cualquier astrónomo que trabajaba por la noche, vivía cerca del Observatorio, en el boulevard Montparnasse, cerca del Bal Bullier, un salón de baile en el que pasaba bastante tiempo practicando una de sus pasiones –le gustaba la música, la fotografía, caminar por París, los paseos por la montaña… y el baile: incluso asistió a clases de tango–.

Fue un científico activo, que escribió numerosos artículos de matemáticas sobre temas variados de análisis y geometría, realizó observaciones astronómicas –se especializó en el análisis de estrellas dobles– y obtuvo importantes resultados sobre mecánica celeste.

También estuvo integrado en medio científico de su tiempo, siendo miembro activo de las comunidades matemática y astronómica. Fue –entre otros– presidente de la Association amicale des personnels scientifiques des observatoires français y participó en las actividades de la Société mathématique de France desde 1907 hasta su muerte –fue su presidente en 1926–.

¿Qué aportaciones matemáticas realizó? Es muy conocido –cualquier persona que ha estudiado teoría de la medida lo debería recordar– el lema de Fatou. Su tesis doctoral, defendida en 1907, llevaba por título Séries trigonométriques et séries de Taylor.

Las personas que trabajan en dinámica compleja saben, además, que Fatou fue uno de los creadores de su disciplina. Su carrera fue lenta y modesta, como él mismo admitía a su amigo Paul Montel (1876-1975) hacia 1920:

En cuanto a mí, me he resignado de antemano a no llegar nunca, continuaré tranquilamente mi profesión de suborden […]; no es muy glorioso, pero mi filosofía se acomoda y eso no me impedirá hacer matemáticas en la medida de mis posibilidades (traducido de [1]).

Desde 1906, Fatou empezó a interesarse en los procesos iterativos, y aunque obtuvo resultados sorprendentes, no publicó nada sobre este tema.

En 1915, la Académie des sciences convocó precisamente un Grand Prix des sciences mathématiques –para 1918– sobre este tema. Fatou empezó a trabajar en ello a partir de 1917 y publicó sus resultados en forma de notas en los Comptes rendus. En junio de 1917, Paul Montel publicó una nota en esta misma revista científica sobre otro tema: contenía una idea de la que Fatou se adueñó, y que sesenta años más tarde Benoît Mandelbrot (1924-2010) denominaría conjuntos de Julia.

Un conjunto de Julia. Fuente: Wikimedia Commons

El matemático Gaston Julia (1893-1978) también había visto la nota de Montel, y tuvo ideas análogas a las de Fatou… reclamó la prioridad sobre ellas y la Académie des sciences se la concedió. Fatou continuó trabajando tranquilamente sobre el tema, y Julia envió su candidatura para el Grand Prix des sciences mathématiques y lo ganó. Aunque Fatou no presentó su candidatura para el premio, la Académie des sciences le mencionó en el informe que atribuía el premio a Julia, y posteriormente le concedió un reconocimiento por sus trabajos en este tema.

¿Por qué la Academia se posicionó a favor de Julia? En [1], Michèle Audin comenta que quizás la situación de Gaston Julia pudo ayudar. El joven Julia tuvo que partir a la guerra en 1914 tras su brillante carrera en la École normale supérieure de París. En enero de 1915 fue gravemente herido en la cara –tuvo que llevar toda su vida una máscara de cuero–. Muchos jóvenes científicos franceses fallecieron en aquella guerra y, quizás Julia representaba un icono para la comunidad matemática francesa.

En el libro [2] de Michèle Audin ([3] en su traducción al inglés), la autora habla precisamente sobre como Fatou y Julia inventaron los hoy llamados conjuntos de Julia. Habla de las matemáticas, los conflictos y las personalidades de estos dos científicos… y también un poco de dinámica compleja. ¡Muy recomendable!

Referencias

[1] Michèle Audin, Pierre Fatou, mathématicien et astronome, Images des Mathématiques, CNRS, 2009

[2] Michèle Audin, Fatou, Julia, Montel, le Grand Prix des sciences mathématiques de 1918, et après…, Springer, 2009

[3] Michèle Audin, Fatou, Julia, Montel. The Great Prize of Mathematical Sciences of 1918, and Beyond, Springer, 2011

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Pierre Fatou, un matemático poco (re)conocido se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un convite matemático ‘de altura’
  2. El problema matemático de las cartas extraviadas
  3. Del nudo gordiano al nudo de los enamorados, por territorio matemático
Categories: Zientzia

Corazones miogénicos y neurogénicos

Tue, 2018/02/27 - 17:00

Los iones como Na+, Cl–, K+, Ca2+ y otros no se distribuyen de forma simétrica a ambos lados de la membrana celular. Además, esta no es igualmente permeable para con unos iones y otros, y esa diferencia de permeabilidad determina que unos la puedan atravesar con facilidad y otros no. En las células animales la distribución de los iones a los dos lados de la membrana y la permeabilidad diferencial de esta para con unos y otros electrolitos da lugar a la existencia de una diferencia de potencial eléctrico entre el interior y el exterior celular. Llamamos “potencial de membrana” a esa diferencia de potencial, y suele ser negativa, lo que quiere decir que en el lado interno se acumulan cargas negativas y positivas en el externo.

Las células musculares se contraen en respuesta a despolarizaciones o cambios de polaridad de la membrana celular. O sea, la membrana celular puede pasar a tener más cargas positivas en el lado interno de la membrana y más cargas negativas en el externo. Esas despolarizaciones, denominadas potenciales de acción, son transitorias y, como se ha señalado, son los estímulos que provocan la contracción de las células musculares y, en consecuencia, el acortamiento del músculo1. Esto vale para todo tipo de musculatura, incluido el músculo cardiaco.

Un corazón se contrae rítmicamente porque sus células se contraen de esa forma. Eso quiere decir que en los corazones se están produciendo despolarizaciones de forma permanente con carácter rítmico. Por otro lado, la despolarización puede tener su origen en las mismas células cardiacas -en los corazones miogénicos-, o en células nerviosas -en los corazones neurogénicos-. Los corazones de vertebrados son del primer tipo, mientras que los de algunos artrópodos (crustáceos decápodos, cangrejo en herradura, arañas y escorpiones) son del segundo.

Corazones miogénicos

La mayor parte de los corazones de vertebrados reciben señales del sistema nervioso autónomo y está sometido a un cierto control por su parte, pero si se aísla uno de estos corazones, no deja de latir enseguida, lo que quiere decir que es capaz de hacerlo sin necesitar impulsos externos.

Las células cardiacas de vertebrados se hallan conectadas eléctricamente unas a otras mediante uniones gap, que son estructuras propias de ciertas membranas celulares que proporcionan continuidad citoplasmática a células adyacentes y que se encuentran en regiones especializadas denominadas discos intercalares. Las cargas eléctricas (en forma de iones) se mueven libremente por esas uniones gap, por lo que las despolarizaciones pueden transmitirse de unas células a otras a su través. Por ello, una vez se produce una despolarización en una célula, esta se extiende progresivamente al resto del corazón.

Las células cardiacas de vertebrados tienen la facultad de contraerse rítmicamente de forma espontánea. Pero si se dejase a cada célula contraerse por su cuenta, el conjunto del corazón no lo haría de forma coordinada, porque cada célula tendría su propio ritmo. Hay un grupo de células musculares especializadas, denominado marcapasos, que controla el ritmo de las demás células del miocardio (músculo cardiaco). En los vertebrados ectotermos el marcapasos se encuentra en la pared del seno venoso, la primera cámara cardiaca o en la unión entre el seno venoso y la aurícula. En aves y mamíferos, en los que el seno venoso ya se ha incorporado a la aurícula2, el marcapasos se halla en la pared de la aurícula derecha y es conocido como nodo seno-auricular. Las células del marcapasos son de naturaleza muscular pero apenas tienen capacidad para contraerse. Son las que tienen la frecuencia de despolarización espontánea más alta de todas las células del miocardio. Gracias a ese rasgo son las primeras en despolarizarse en cada latido, de manera que son las que inician la onda de despolarización que se expande por todo el corazón; y por ello el de esas células es el ritmo de contracción que seguirá todo el corazón.

Las aurículas están separadas de los ventrículos por una capa de tejido conjuntivo fibroso que no permite el paso de las señales eléctricas pues carecen de las uniones gap propias de las células musculares. En los mamíferos hay un sistema de conducción, una vía de conexión entre ambas zonas, las aurículas y los ventrículos. Está formado por células musculares especializadas, y empieza en un grupo de células situadas en la pared de la aurícula derecha que se denomina nodo aurículo-ventricular. De este nodo parte un conjunto de células denominado fascículo aurículo-ventricular, o fascículo de His, que atraviesa la capa de tejido conectivo y penetra en la pared o septo interventricular (pared que separa los dos ventrículos), donde se separa en dos ramas. Las ramas se deslizan por las superficies izquierda y derecha de la pared hasta conectar con las fibras de Purkinje, que se ramifican en el fondo de cada ventrículo.

El dispositivo descrito provoca que la onda despolarizante surgida en el nodo seno-auricular se extienda, en primer lugar, por las aurículas; una vez se han contraído estas, la onda se transfiere a los ventrículos a través del fascículo de His. De esa forma los ventrículos no comiencen su contracción hasta que no la han completado las aurículas, garantizándose así un flujo de sangre normal de las aurículas a los ventrículos.

Homarus gammarus

Corazones neurogénicos

Al contrario que en los corazones miogénicos, en los neurogénicos la despolarización rítmica no tiene su origen en células musculares, sino en células nerviosas. Un ejemplo magnífico de este tipo de corazones es el del bogavante. En este las células musculares funcionan de forma similar a como lo hacen las del músculo esquelético, ya que todas ellas se encuentran inervadas por células nerviosas que son las que les transmiten los impulsos que dan lugar a la despolarización de la membrana que desencadena el mecanismo de la contracción.

El tejido nervioso que genera las despolarizaciones rítmicas es el ganglio cardiaco, que consta de nueve neuronas y se halla situado en la superficie interna del lado dorsal del corazón. Los axones de cinco de esas neuronas inervan las células musculares. Y las otras cuatro, las que conforman el ganglio propiamente dicho son las que generan el ritmo de despolarizaciones; es una de sus neuronas, en concreto, la que asume esa función. Actúa como un generador central de patrones, produciendo de forma espontánea y periódica trenes de potenciales de acción (impulsos nerviosos). Esas señales se transmiten a través de las otras cinco neuronas a las células musculares, contrayéndose todas ellas casi al unísono. Al contrario que las células de los corazones miogénicos de vertebrados, si al corazón del bogavante se le priva del ganglio, sus células musculares no son capaces de contraerse de manera espontánea.

Fuente:

Richard W. Hill, Gordon A. Wyse & Margaret Anderson (2004): Animal Physiology. Sinauer Associates, Sunderland

Notas:

1 Conviene aclarar que bajo determinadas circunstancias puede producirse contracción de las células musculares pero el músculo no llega a acortarse. Es a lo que se llama contracción isométrica.

2 Aquí puede consultarse una descripción muy somera de los diferentes configuraciones cardiacas en vertebrados.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Corazones miogénicos y neurogénicos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Corazones
  2. Un viaje a través del sistema circulatorio humano
  3. Corazones cámbricos
Categories: Zientzia

Confirmación experimental de la teoría de la relatividad especial (y 2)

Tue, 2018/02/27 - 11:59

La relatividad de longitud

Recuerdemos que una de las ideas básicas de la teoría de la invariancia es que toda velocidad es relativa al observador que mide la velocidad. Con esto en mente, volvemos al rompecabezas de los muones de larga vida, pero esta vez desde la perspectiva del desventurado muón que atraviesa la atmósfera de la Tierra. Desde el punto de vista del muón está en reposo, mientras que es la superfive de la Tierra la que está volando hacia él a una velocidad cercana a la velocidad de la luz. Dado que la Tierra se está moviendo ahora con respecto al propio marco de referencia del muón, la distancia desde la parte superior de la atmósfera hasta el suelo sufre una contracción de la longitud cuando se ve desde el punto de vista del muón. La contracción es tan grande que, desde la perspectiva del muón, no tiene problemas para cubrir esta distancia corta en los tan solo 2,2·10-6 segundos corta vida que tiene en su marco de referencia “estacionario”. Una vez más, las observaciones están en completo acuerdo con las predicciones de la teoría de la relatividad especial.

La relatividad de la masa

La teoría de la invariancia predice que la masa observada de un objeto aumentará a medida que aumente la velocidad relativa del objeto. Curiosamente, este efecto se había observado incluso antes de la teoría de Einstein, cuando los científicos se sorprendieron al notar un aumento en la masa de los electrones de alta velocidad en los tubos de vacío. Este efecto se observa fácilmente hoy en día en los aceleradores de partículas, donde las partículas elementales cargadas, como los electrones o los protones, se aceleran mediante campos electromagnéticos a velocidades tan altas como 0,9999999 de la velocidad de la luz. Las masas de estas partículas aumentan exactamente la cantidad predicha por la fórmula de Einstein. A esa velocidad, el aumento de su masa mm es aproximadamente 2236 veces la masa en reposo. De hecho, los aceleradores circulares deben diseñarse para tener en cuenta este aumento de masa.

A medida que las partículas se aceleran a altas velocidades por los campos eléctricos, los campos magnéticos las curvan en una trayectoria circular para hacerlas volver al principio y permitir que los campos eléctricos las aceleren repetidamente. Para impedir que la partícula que se mueve en una trayectoria circular salga en línea recta se requiere una fuerza centrípeta. Esta fuerza viene dada por la ecuación F = mv2 / R., donde R es el radio del círculo, que es constante; v es la velocidad de la partícula, que va aumentando aumenta; y m es la masa en movimiento, que también aumenta según la teoría de la relatividad.

Si los ingenieros no toman en cuenta el aumento de masa a la hora de diseñar los aceleradores de partículas, la fuerza magnética no sería suficiente para mantener las partículas en la trayectoria circular del acelerador, golpearían la pared y se acabó el acelerador. Un acelerador circular simple se llama ciclotrón. Pero cuando el aumento de la fuerza de aceleración (la frecuencia del campo eléctrico) se sincroniza con precisión con los aumentos de velocidad y masa relativistas, se llama sincrociclotrón.

La equivalencia de masa y energía

Einstein consideró la equivalencia de masa y energía, tal y como se expresa en la ecuación E = m·c2, como un resultado teórico significativo de la relatividad especial, pero no creía que tuviera ninguna importancia práctica cuando anunció su hallazgo. Y ahí se equivocó. Quedó patente en las explosiones nucleares (mejor que “atómicas”) de 1945. La tremenda energía liberada en una bomba de ese tipo se deriva de la transformación de una pequeña cantidad de la masa de los núcleos de uranio o plutonio en su enorme cantidad equivalente de energía.

Las bombas y los reactores nucleares se basan en la energía liberada por la división de átomos pesados. Un proceso opuesto, una reacción de fusión, tiene lugar cuando se unen núcleos de elementos ligeros. De nuevo, una pequeña cantidad de la masa se convierte en energía de acuerdo con la fórmula de Einstein. Aún no ha sido posible controlar este proceso de fusión a una escala suficiente para producir electricidad para uso doméstico e industrial; este proceso sí tiene uso militar. Con todo, el proceso de fusión nuclear tiene una importancia muy práctica: es la base de la producción de energía del Sol y todas las demás estrellas del Universo. Sin él, la vida no podría existir en la superficie de la Tierra.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Confirmación experimental de la teoría de la relatividad especial (y 2) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Confirmación experimental de la teoría de la relatividad especial (1)
  2. La primera confirmación experimental de la teoría de Maxwell
  3. La relatividad de la masa
Categories: Zientzia

“Si todos tus amigos se tiran por un puente, ¿tú también te tiras?”: los adolescentes, los amigos y los riesgos

Mon, 2018/02/26 - 11:59

Fuente: Pixabay

En un experimento cuyos resultados se publicaron en 2014, se colocó a 66 chavales de entre 16 y 18 años en un simulador de conducción para medir lo temerario de sus decisiones. A veces conducían solos y a veces lo hacían acompañados por otro adolescente. Los resultados demostraron lo que cualquier padre cree saber por intuición: que un chaval de esa edad es mucho más sensato cuando está solo que cuando le ven sus amigos.

La forma en que los adolescentes se exponen a determinados riesgos es un quebradero de cabeza para cualquier progenitor: alcohol, tabaco, drogas, sexo sin protección, peleas, accidentes de tráfico, comportamientos temerarios en general… ¿Por qué estos hijos nuestros (vuestros) parecen olvidar todo lo aprendido sobre seguridad y autocuidado cuando llegan a la adolescencia y se rodean de la banda de cabestros (con perdón) que pueden llegar a ser sus amigos?

Que los adolescentes son más temerarios no es solo una intuición. Según datos de la OMS la tasa de muerte entre los 15 y los 19 años es un 35% mayor que entre los 10 y los 14, y los comportamientos de riesgo están asociados a muchas de las amenazas para la vida durante este periodo: los accidentes de carretera es la principal causa de muerte para adolescentes en todo el mundo, seguidos por las autolesiones y otras formas de violencia. Además, algunas prácticas que pueden llevar a problemas de salud más adelante, como el tabaquismo, el alcoholismo o una vida sedentaria muchas veces provienen de malas elecciones hechas durante la adolescencia.

Fuente: Pixabay

Más allá del “tú no me mandas”

Asociamos esa forma de asumir riesgos sin pensar en las consecuencias a la rebelión de la edad, el “tú ya no me mandas”, pero algunas investigaciones recientes que recoge la revista Nature en su especial Ciencia adolescente han empleado un enfoque neurocientífico más profundo para entender este fenómeno.

Porque entender la forma en que los adolescentes interactúan con el riesgo es interesante. Es cierto que asumen más peligros que los adultos, algunos de ellos con graves consecuencias: heridas, lesiones, enfermedades o problemas de salud de por vida, antecedentes penales y encontronazos con la justicia… Pero hay otros tipos de riesgos, como los riesgos sociales, por ejemplo, a los que pueden ser mucho más adversos que las personas de más edad, y otros, como los riesgos positivos (hacer exámenes o pruebas que den acceso a niveles educativos superiores, por ejemplo) con los que se relacionan de forma más habitual que nosotros.

Y cada uno de estos comportamientos parece tener diferentes efectos en el cerebro. Tener esto en cuenta puede ser importante por ejemplo para decidir si hay que reducir o no la edad mínima para conducir, o cómo debe tratarse a un adolescente que haya cometido un crimen. Saber cómo el cerebro adolescente evalúa y maneja las situaciones de riesgo puede servir para diagnosticar enfermedades como la esquizofrenia o la depresión, a que a menudo empiezan a asomar la patita durante la estos años.

No es un campo nuevo. El cerebro adolescente y su relación con el riesgo lleva años analizándose. Las primeras teorías apuntaban a un posible desequilibrio durante el desarrollo cerebral: las áreas asociadas con la impulsividad y con la sensibilidad a la recompensa, especialmente la recompensa social, se desarrollan mucho antes y del tirón, mientras que el control de los procesos cognitivos, como la memoria de trabajo (cómo almacenamos y elaboramos la información), siguen un proceso más lento pero continuado durante todo el crecimiento. La metáfora habitual era la de un coche con el acelerador pulsado a fondo pero con los frenos defectuosos.

Y esto encajaba con algunos datos, pero no con el hecho de que algunos adolescentes no son tan proclives a asumir riesgos, algo que debería ser generalizado si hablamos de una cuestión asociada con la edad y el proceso de desarrollo. Por eso ahora la mayoría de los neurocientíficos consideran que diferentes sistemas desarrollándose a diferentes velocidades no significan que el cerebro esté desequilibrado.

Fuente: Pixabay

La influencia de los iguales

Así que la investigación se orienta a un mayor abanico de riesgos y de influencias del ambiente. Para muchos adolescentes el riesgo no es solo lo que les puede causar daño físico o repercusiones legales: hay situaciones relativamente benignas, como pedir una cita a una persona que les gusta o dar la cara ante un progenitor o un profesor, que parecen para ellos mucho más arriesgadas.

En 2009, una investigación de la Universidad Temple, en Philadelphia, llevó a cabo una versión del experimento con el que abrimos este artículo: pidió a voluntarios adolescentes que se sometiesen a un escáner cerebral a la vez que jugaban a un videojuego en el que conducían un coche que pasaba por la enervante cantidad de 20 semáforos en 6 minutos. Algunos de ellos comenzaban a acelerar con la luz en ámbar mientras otros esperaban a que se pusiese en verde. A veces acelerar antes salía bien, pero otras terminaba en un accidente.

Los investigadores observaron que cuando los chavales jugaban a solas, asumían el riesgo de tener un accidente con la misma frecuencia que los adultos. Pero cuando se les decía que sus amigos les estaban viendo jugar desde la habitación de al lado, lo hacían con mucha más frecuencia. En otro experimento parecido, los chavales asumían muchos menos riesgos cuando se les decía que quien les estaba viendo jugar desde la sala contigua era su madre.

Mientras tanto, el escáner reveló una actividad muy intensa en las zonas del cerebro relacionadas con la recompensa, como la llamada núcleo estriado, cuando asumían riesgos mientras les veían sus amigos; cuando era su madre la que observaba, era la zona del córtex prefrontal, relacionada con el control cognitivo, la que se ponía a funcionar.

Fuente: Pixabay

La influencia del grupo no siempre es negativa

Así que se pudo comprobar una vez más que la propensión a asumir riesgos en los adolescentes depende en gran medida de las relaciones sociales con sus iguales, y del miedo a quedar aislados. Esto, de nuevo, es una realidad casi palpable para todos aquellos padres preocupados porque los amigos de sus hijos puedan ser para ellos una mala influencia.

Pero no todo es malo, porque algunos experimentos han demostrado un efecto positivo en esta presión de sus iguales. En un estudio se pidió a varios adolescentes que jugasen un juego en el que tenían que elegir entre donar dinero a una buena causa o quedárselo, mientras otros adolescentes les veían. Los resultados mostraron que si el sujeto hacía una donación y los otros aprobaban el gesto, éste tendía a hacer más donaciones durante el resto del juego. Así que, aunque solemos asumir que la influencia del grupo es siempre algo negativo, la realidad parece ser algo más compleja.

Y es aun más interesante observar que el mismo sistema cerebral que empuja a los adolescentes a asumir riesgos insanos les empuja también a asumir riesgos positivos: la actividad en el núcleo estriado, concretamente un aumento en los receptores de dopamina de esas zonas, se ha relacionado con una mayor sensibilidad a recompensas por actos positivos, así como peligrosos.

Las limitaciones de estos estudios

Como casi todos, estos estudios tienen sus limitaciones porque es difícil reproducir en un laboratorio los estímulos, las actividades y las condiciones sociales y de comportamiento en las que se ven envueltos los adolescentes en su día a día. Como mucho se puede captar la inclinación a asumir riesgos de los chavales que participan en ellos, pero eso queda algo lejos de cómo afrontan riesgos cotidianos concretos.

Hay que tener en cuenta también que los adolescentes de estos estudios, igual que la media, solo se exponen a riesgos moderados, mientras que existen algunos individuos que están dispuestos a exponerse a riesgos muy elevados (violencia juvenil, acceso a lugares peligrosos por caídas o accidentes…), y estos podrían procesar esos riesgos de una forma muy distinta.

Pero teniendo en cuenta lo que estos estudios revelan y lo que podemos aprender de estos adolescentes medios, quizá debamos replantearnos esas ideas preconcebidas sobre la adolescencia y la presión del grupo: existe y funciona para mal, pero también para bien, algo de lo que se habla mucho menos.

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo “Si todos tus amigos se tiran por un puente, ¿tú también te tiras?”: los adolescentes, los amigos y los riesgos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Y si el cambio climático nos termina haciendo a todos más simpáticos?
  2. El sensacionalismo en las noticias clave en la concienciación sobre los riesgos de Internet
  3. La familia, los amigos, los jóvenes y la ciencia
Categories: Zientzia

¿Cuántas células hay en el cuerpo humano?

Sun, 2018/02/25 - 11:59

La respuesta no es fácil y, de hecho, hasta hace poco no ha habido estimaciones mínimamente fiables. Los primeros cálculos con cierto rigor se publicaron en 2013, pero en 2016 se hicieron estimaciones más precisas de los seis tipos celulares que se tenían por más abundantes. Esos tipos daban cuenta del 97% del número total de células. Según los últimos cálculos, en el cuerpo de un hombre joven de unos 70 kg y 170 cm de estatura hay aproximadamente 30 billones de células. Y las cifras no serían muy diferentes para una mujer de similares características.

Las células más abundantes, con gran diferencia, son los glóbulos rojos. Hay del orden de veintiséis billones de estos y una cantidad ligeramente inferior en una mujer. Ese número representa el 84% de todas las células. Las plaquetas, aunque mucho menos numerosas, también son muy abundantes, un 4,9% del total. Si tenemos en cuenta que además de glóbulos rojos y plaquetas, en la sangre hay leucocitos, casi el 90% de las células del cuerpo humano se encuentran en la sangre. Y dado que tanto los glóbulos rojos como las plaquetas carecen de núcleo, resulta que casi el 90% de nuestras células -veintiséis billones- son enucleadas.

La médula ósea también contribuye con un elevado número al total: utilizando métodos histológicos, se ha estimado que contiene setecientos cincuenta mil millones de células (2,5%). Otro tipo abundante es el de las endoteliales vasculares, que son las células que tapizan el interior de los vasos sanguíneos. No es fácil determinar su número; lo han calculado a partir del volumen total de sangre que hay en los diferentes tipos de vasos (arterias, venas, capilares), estimando la longitud de cada tipo de vaso a partir de sus diámetros medios. De esa forma calcularon la superficie interna de los vasos, y la dividieron por la superficie media de las células endoteliales. Hay del orden de seiscientos mil millones de estas células (2,1%).

Los linfocitos –del sistema inmunitario- representan un 1,5% del total de células y los hepatocitos –del hígado-, un 0,8%. En el sistema nervioso hay neuronas y células de la glía; estas segundas son las que dan soporte a las anteriores. Pues bien, aunque antes se pensaba que había diez veces más células gliales que neuronas, parece ser que hay muchas menos de las primeras de lo que se creía y el número de unas y de otras es similar. Según las últimas estimaciones, tenemos alrededor de ochenta y cinco mil millones de neuronas y otras tantas células gliales; en conjunto suponen un 0,6% del total. El resto de tipos representan proporciones aún menores del acervo celular humano.

Las cifras anteriores expresan la cantidad de células, su número, pero la imagen cambia mucho si atendemos a la masa de cada tipo. El 25% del peso humano corresponde a líquidos extracelulares (plasma sanguíneo y líquido intersticial) y otro 7% son sólidos extracelulares. Por lo tanto, a una persona de 70 kg le corresponden 46 kg de masa celular. Esa masa se reparte del modo siguiente: 20 kg de células musculares; 13 kg de adipocitos (células con depósitos de grasa); 3 kg de glóbulos rojos. La masa del resto es, en total, de 10 kg. Así pues, las proporciones en términos de masa son muy diferentes, por la sencilla razón de que hay grandes diferencias en los volúmenes de unas células y otras.

Y por supuesto, también tenemos bacterias, en el colon principalmente, pero muchas menos de las que se pensaba: son del orden de 38 billones pero solo pesan unos 200 g en total.

Fuente: Ron Sender, Shai Fuchs & Ron Milo (2016): Revised Estimates for the Number of Human and Bacteria Cells in the Body. PLOS Biology

—————————————————————–

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

Una versión anterior de este artículo fue publicada en el diario Deia el 19 de noviembre de 2017.

El artículo ¿Cuántas células hay en el cuerpo humano? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cuantas menos ecuaciones…. ¿mejor?
  2. Cómo criopreservar células madre
  3. Sistemas circulatorios: células sanguíneas
Categories: Zientzia

Naukas Bilbao 2017 – Laura Morrón: La gran divulgadora

Sat, 2018/02/24 - 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

Laura Morrón presenta a su candidata al título de mejor divulgador/a de la historia: Jane Haldimand Marcet

Laura Morrón: La gran divulgadora

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – Laura Morrón: La gran divulgadora se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
  2. Naukas Bilbao 2017 – Mónica Lalanda: Una muerte de cómic
  3. Naukas Bilbao 2017 – Álex Méndez: Luz de luna
Categories: Zientzia

Pages