El ingenio de los pájaros, de Jennifer Ackermann
Juan Ignacio Pérez Iglesias, lector
Jennifer Ackermann ha escrito un muy buen libro de divulgación científica. Trata, como su título indica, de pájaros. Es un repaso muy completo de los comportamientos de las aves que dan cuenta de las capacidades cognitivas de estos animales. La otra palabra del título, genio, está muy bien escogida. Porque no cabe hablar de inteligencia. Si ya es difícil a veces saber de qué hablamos cuando nos referimos a la inteligencia humana, mucho más lo es si de lo que se trata es de otras especies, aves en este caso. Genio es una buena palabra para reflejar el contenido del libro.
Por el libro de Ackermann pasan todo tipo de comportamientos. Se ocupa de la capacidad de aprendizaje de las aves y de su posible relación con el tamaño encefálico. Comenta, por ejemplo, que en su evolución el cuerpo se redujo mucho más que el encéfalo, por comparación con los dinosaurios de los que proceden. De manera que los pájaros, en contra de la creencia popular, tienen un encéfalo de tamaño relativo bastante grande. Hay aves que fabrican instrumentos, aves que juegan, otras son capaces de posponer la gratificación a una tarea bien completada en espera de una mejora, cuervos que reconocen personas y las recuerdan durante mucho tiempo.
La autora hace un repaso de las extraordinarias capacidades vocálicas de algunas especies. Y también se ocupa del canto, una habilidad que en algunos pájaros resulta, por su ejecución, casi increíble. Repasa la relación que hay entre la actividad y capacidad canora y el desarrollo del alto centro vocal (HVC), un área encefálica implicada en el aprendizaje y la generación del canto. Es impresionante el caso de una especie cuyos machos han de aprender un canto nuevo en cada época de apareamiento; pues bien, el tamaño de esa región aumenta en la primavera y se encoge al final del verano, y eso ocurre porque varía el número de neuronas en los circuitos del canto. También se ocupa de los pergoleros, esas aves cuyos machos fabrican en medio de la selva australiana unas pérgolas de gran complejidad estructural y cromática, y que forman parte de su técnica para poder aparearse.
Las migraciones y la cuestión de los mecanismos implicados en la orientación ocupan una parte importante del libro. Valora las diferentes hipótesis que se han barajado para explicar la enorme capacidad de orientación que tienen algunas especies. Magnetismo terrestre, claves visuales, olores, o la combinación de inputs de diferente naturaleza podrían estar en la base de su capacidad de navegación. Ackermann, en los compases finales del libro, manifiesta su preocupación por el riesgo de desaparición en que se encuentran muchas especies debido al efecto de la acción humana sobre los ecosistemas y, concretamente, por la subida de temperaturas que ya está desplazando a algunas especies hacia el norte, hacia la cumbre de las montañas o modificando peligrosamente sus calendarios de cría.
Al finalizarlo uno no puede dejar de pensar que la razón por la que nos resulta tan difícil entender a otros animales, entender las bases y alcance de sus capacidades cognitivas, es porque buscamos en ellos habilidades humanas, sin reparar en el hecho de que esas otras especies tienen una diferente configuración encefálica y estructura mental por la sencilla razón de que han evolucionado bajo presiones selectivas diferentes y han de hacer frente a problemas diferentes.
El libro está muy bien documentado. La autora no solo ha consultado a numerosos especialistas. También presenta una extensa bibliografía. En algún momento puede dar la impresión de un cierto desorden, pero creo que esa sensación proviene de la dificultad, también para el lector, de gestionar mentalmente tanta y tan interesante información como ha manejado Ackermann. El texto tiene el ritmo y las dimensiones adecuadas. Y las anécdotas que narra dejan al lector boquiabierto.
Este libro solo tiene, a mi juicio, un pero: la traducción es mala, algo a lo que, desgraciadamente, ya nos tienen acostumbrados la mayoría de editoriales españolas. Para muestra, un botón: traduce ecologist (ecólogo) como ecologista. He cotejado las dos versiones (inglés en formato electrónico y castellano en papel) y el resultado ha sido penoso. Recomiendo vivamente su lectura en inglés. Es una delicia.
Ficha:
Autora: Jennifer Ackermann
En español:
Título: El ingenio de los pájaros
Editorial: Ariel (Planeta)
Año: 2017
En inglés:
Título: The Genius of Birds
Editorial: Penguin Random House LLC, Nueva York
Año: 2016
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
El artículo El ingenio de los pájaros, de Jennifer Ackermann se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ciencia a presión: Evolución de la imagen de la ciencia en la prensa española
La expresión publish or perish (publica o perece) es de sobra conocida en el ámbito científico. Quiere expresar la importancia que tienen las publicaciones en los currículos del personal investigador. En ciencia no basta con hacer observaciones, obtener unos resultados y derivar conclusiones. Hay, además, que hacerlo público y, a poder ser, en medios de la máxima difusión internacional. La ciencia que no se da a conocer, que no se publica, no existe. El problema es que de eso, precisamente, depende el éxito profesional de los investigadores, sus posibilidades de estabilización y de promoción. De ahí la conocida expresión del principio.
El mundo de la comunicación tiene también sus normas. En comunicación se trata de que lo que se publica sea consumido. De la misma forma que la ciencia que no se publica no existe, en comunicación tampoco existen los contenidos que no se consumen: o sea, no existen los artículos que no se leen, los programas de radio que no se oyen, los de televisión que no se ven o los sitios web que no se visitan. En comunicación valdría decir “sé visto, oído o leído, o perece”.
Ambas esferas tienen ahí un interesante punto en común. Y por supuesto, en comunicación o difusión científica el ámbito de confluencia se aprecia en mayor medida aún. Confluyen aquí ambas necesidades, la de hacer públicos los resultados de investigación y, además, conseguir que lleguen a cuantas más personas mejor.
El problema es que la presión por publicar y por tener impacto comunicativo puede conducir tanto a unos como a otros profesionales, a adoptar comportamientos deshonestos, contrarios a la ética profesional e, incluso, a desvirtuar completamente el fin de la ciencia y de su traslación al conjunto del cuerpo social. Y también puede conducir, y de hecho ha conducido, a que se haya configurado un sistema de publicaciones científicas con patologías.
De todo esto se trató el pasado 31 de marzo en “Producir o perecer: ciencia a presión”, el seminario que organizarono conjuntamente la Asociación Española de Comunicación Científica y la Cátedra de Cultura Científica de la UPV/EHU.
6ª Conferencia. Ana Victoria Pérez Rodríguez, directora de la Agencia DiCYT: Evolución de la imagen de la ciencia en la prensa española
Evolución de la imagen de la ciencia en la prensa españolaEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Ciencia a presión: Evolución de la imagen de la ciencia en la prensa española se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las herramientas de edición genética CRISPR y los ratones avatar
Quiero dedicar este primer artículo que publico en la web de la cátedra de cultura científica de la UPC/EHU a un concepto nuevo y, creo, interesante, que nos ha cambiado la vida en nuestro laboratorio y en muchos otros laboratorios internacionales de biomedicina. Me refiero a los ratones avatar, a los nuevos modelos animales para investigar enfermedades raras de base genética que podemos ahora generar fácilmente gracias a las herramientas CRISPR de edición genética. Ellos fueron también los protagonistas de mi primera incursión divulgadora en la última reunión Naukas17, patrocinada por esta cátedra, celebrada en Bilbao hace pocos días.
En mi laboratorio del Centro Nacional de Biotecnología, en Madrid, y también gracias a nuestra participación en el Centro de Investigación Biomédica en Red de Enfermedades Raras (CIBERER-ISCIII) nos dedicamos a investigar sobre la genética de las enfermedades raras. ¿Qué mutaciones y en qué genes son los causantes de estas enfermedades raras? Y, naturalmente, también investigamos sobre qué podemos hacer para aliviar o resolver estas condiciones genéticas de baja prevalencia en la población. Las enfermedades raras son aquellas que afectan a menos de 5 de cada 10,000 personas (o menos de 1 de cada 2,000). Conocemos más de 7,000 enfermedades raras. Cada una de ellas afecta a un reducido número de personas, aunque globalmente suponen una parte importante de la población (3 millones de personas en nuestro país, según estimaciones recientes).
En concreto nosotros investigamos sobre una de estas condiciones genéticas raras: el albinismo, causado por mutaciones en alguno de los 20 genes asociados, que dan lugar a otros tantos tipos de albinismo. En el albinismo lo que se ve (pérdida de pigmentación) no es lo más relevante (déficit visual). La discapacidad visual severa (con una agudeza visual inferior al 10%, es decir, con ceguera legal) es pues lo más característico de las personas con albinismo. El albinismo afecta aproximadamente a 1 de cada 17,000 personas, unas 3,000 personas en nuestro país. Hasta el momento habíamos podido aproximarnos a esta condición genética a través de modelos animales utilizando alguna de las técnicas de modificación genética, que conocemos desde hace más de 30 años. Son tecnologías muy poderosas pero no exentas de limitaciones y, generalmente, sofisticadas y muy caras de aplicar. Sin embargo, como no conocíamos otras técnicas, nos parecían estupendas y ello nos ha permitido, a nosotros y a muchos otros laboratorios en todo el mundo, generar numerosos modelos animales para el estudio de enfermedades raras, como el albinismo.
Todo cambió en 2013. En enero de ese año descubrimos la existencia de unas nuevas herramientas para la edición genética de los genomas, denominadas CRISPR (acrónimo en inglés de secuencias repetidas, palindrómicas, regularmente intercaladas y agrupadas), descritas muchos años antes por microbiólogos en bacterias. A principios de la década de los años 90 Francisco Juan Martínez Mojica (Francis Mojica), microbiólogo de la Universidad de Alicante, se dio de bruces con ellas al secuenciar el genoma de unas arqueas (otro grupo de microorganismos procariotas, similares pero no idénticos a las bacterias) que habitaban en las salinas de Santa Pola (Alicante). Publicó sus resultados en 1993.
No fue el primero en descubrirlas en bacterias, pero si fue el primero en percatarse de su relevancia y en decidir dedicar su carrera profesional a entenderlas. Lo consiguió unos 10 años más tarde, al percatarse de que se trataba de una estrategia innovadora de defensa, un verdadero sistema inmune adaptativo, que usaban las bacterias para zafarse de las infecciones de los virus que les acechaban. A diferencia de nuestro sistema inmune, las bacterias son capaces de transmitir su inmunidad frente a determinados patógenos a su descendencia, porque aquella tiene una base genética. Algo insólito e inesperado que le costó casi tres años publicarlo, hasta conseguir que lo aceptarán en una revista científica modesta, en 2005. Y precisamente ese artículo pionero es el que ha le ha permitido, años más tarde, ser premiado por diversas instituciones (Jaime I, Fundación BBVA-Fronteras del Conocimiento, Lilly, Albany, etc…) y es muy probable que le asegure plaza en una terna del premio Nobel de Medicina (o de Química), caso de que en Estocolmo decidan próximamente premiar el descubrimiento de las CRISPR y/o sus aplicaciones de edición genética, las que constituyen una verdadera revolución en biología.
Los descubrimientos básicos de Francis Mojica, y de los investigadores que le siguieron, permitieron describir cómo funcionaba el sistema CRISPR en bacterias y definir sus componentes. Esencialmente una molécula de ARN guía y una enzima capaz de cortar las dos cadenas del ADN (una nucleasa). Estas tijeras moleculares de alta precisión atacan el genoma del virus invasor en las bacterias inmunes a ese patógeno, y, a su vez, en células animales, pueden realizar una función similar, cortando el gen que nosotros le indiquemos al sistema, según la guía utilizada. Estos cortes en el genoma deben repararse de inmediato, para que las células sobrevivan y no pierdan material genético, que podría tener consecuencias fatales. Los sistemas de reparación los tenemos ya en todas nuestras células y son de dos tipos. El sistema reparador que actúa por defecto progresa añadiendo y eliminando letras (bases del genoma, A, G, C ó T) hasta que logra generar una cierta complementariedad (la G siempre se aparea con la C, y la T con la A) que finalmente es sellada y resuelta la cicatriz en el genoma. La inserción y eliminación de bases en el genoma normalmente conlleva la inactivación del gen cortado. Nunca antes había sido tan fácil inactivar un gen. Sencillamente dirigimos una herramienta CRISPR específica contra el gen que deseamos silenciar, el sistema CRISPR corta el ADN en el gen, y el sistema de reparación lo inactiva durante el proceso reparador.
Existe otro sistema de reparación, más sofisticado, que puede reparar el corte en el ADN a partir de secuencias molde externas, con ciertas similitudes a ambos lados del corte, pero con secuencias nuevas internas. Es decir, podemos inducir la introducción de secuencias previamente no existentes, lo cual permite tanto incorporar mutaciones específicas como corregirlas. Sorprendente y muy versátil. A este proceso le llamamos edición genética, aprovechando la similitud con la edición de textos realizada con un programa de ordenador, que permite localizar la palabra equivocada y corregirla, substituirla o eliminarla.
Mediante el uso de las herramientas CRISPR de edición genética es ahora posible inducir la incorporación de mutaciones específicas en genes determinados, a voluntad del investigador. Tanto en células en cultivo como en modelo animales, como son los ratones, los peces cebra o las moscas de la fruta (Drosophila). En ratones, desde principios de los 80, hemos generado miles de mutantes específicos de muchos de los más de 20,000 genes que tenemos tanto los roedores como nosotros, los primates.
Sin embargo, estas mutaciones generadas usando las técnicas clásicas eran relativamente groseras. Por ejemplo, la mayoría de ratones mutantes específicos de cada gen portan la eliminación de una parte importante del gen, frecuentemente el primero de los exones (las partes en las que se subdivide la zona de un gen que codifica información genética. Esta modificación genética tan relevante asegura prácticamente la inactivación de un gen. Sin embargo, tiene un problema. Al diagnosticar que tipo de mutaciones genéticas aparecen en la población humana nos damos cuenta que apenas existen este tipo de mutaciones entre los pacientes. Es decir, no hay apenas personas a quienes les falte el primero de los exones de un gen. Por el contrario, lo que encontramos al diagnosticar genéticamente a los pacientes afectados por alguna enfermedad congénita son pequeñas substituciones, eliminaciones o duplicaciones, a veces de hasta una sola base, de una sola letra. Son cambios mucho más sutiles que no obstante pueden tener consecuencias severas para la persona portadora de tales cambios en su genoma. Hasta hace poco, con los métodos disponibles, no era nada sencillo (y generalmente era imposible) reproducir estos diminutos cambios en el gen para investigar la enfermedad en células o animales modelo.
Las herramientas CRISPR han solventado la limitación que teníamos. Ahora es posible usar reactivos CRISPR para inducir, específicamente, el cambio, substitución, eliminación o duplicación de una o pocas bases en células o animales. Es pues ahora relativamente sencillo generar ratones portadores, exactamente, de la misma mutación que previamente hemos diagnosticado en pacientes. Estos ratones que llevan la misma modificación genética que los pacientes son los denominados ratones avatar. Cada uno de esos ratones reproduce los efectos de la mutación de la persona de la que derivan. De la misma manera que en la famosa película de ciencia ficción de James Cameron las criaturas azules están conectadas a las personas también aquí estos ratones avatar están asociado a la persona de la que portan la misma mutación.
Los ratones avatar representan un cambio conceptual en la generación de modelos animales para el estudio de enfermedades humanas. En medicina se dice que no hay enfermedades, sino enfermos, teniendo en cuenta que cada enfermo presenta síntomas ligeramente distintos y no siempre los mismos ni con la misma intensidad, lo que ha dado pie a la medicina personalizada. De la misma manera ahora, gracias a las herramientas CRISPR de edición genética, podemos generar los ratones avatar que representan modelos animales personalizados, específicos, que sin duda nos ayudarán a entender mejor cómo se establecen y desarrollan las enfermedades (y qué podemos hacer para detener o corregir la aparición de los síntomas de las mismas). Estos modelos animales avatar podrán ahora ser usados para validar propuestas terapéuticas innovadoras, y así poder asegurar los parámetros de seguridad y eficacia antes de saltar al ámbito clínico, antes de trasladar los posibles tratamientos a los pacientes. Esta es, sin duda, una de las aplicaciones más espectaculares de las herramientas CRISPR, que ni tan siquiera hubiéramos podido soñar hace apenas cuatro años. Felicitémonos y aprovechemos estos adelantos tecnológicos para mejorar el desarrollo de terapias avanzadas. El futuro ya está aquí.
Este post ha sido realizado por Lluis Montoliu (@LluisMontoliu) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Las herramientas de edición genética CRISPR y los ratones avatar se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ciencia, política y hechos
El objetivo de la política es estar a cargo de la gestión de grandes grupos de humanos para cambiar el mundo; el objetivo de la ciencia es conocer el universo. En este sentido la política se parece más a una tecnología, dado que lo que pretende es actuar sobre la realidad y cambiarla, mientras que la ciencia sólo intenta conocer lo que existe con la mayor precisión posible. Esta es una más de las razones por las cuales ciencia y política jamás se han llevado y nunca se podrán llevar demasiado bien: porque sus fines están en curso de colisión, siempre lo han estado y siempre lo estarán.
Para la ciencia los hechos son sagrados, porque son la base misma de cualquier explicación del cosmos. Para poder aspirar siquiera a comprender lo que hay es necesario empezar por describirlo con la mayor precisión posible, por lo que los datos son esenciales, básicos y (a ser posible) inmutables. Es cierto que se pueden cometer errores, a veces sistemáticos, en otras ocasiones incluso deliberadamente torticeros, aunque los más perniciosos y difíciles de erradicar son los inconscientes, por su propia naturaleza. Cuando los hechos recogidos son falaces, cuando se falsifican deliberadamente o a veces cuando simplemente cuando se clasifican mal, la ciencia puede llegar a descarrilar de modo espectacular. A nadie le agrada pasar su vida y su carrera profesional defendiendo y enseñando teorías basadas en hechos erróneos, por lo que la ciencia como actividad ha desarrollado con el paso del tiempo métodos ingeniosos para eliminar en la medida de lo posible los errores de los datos.
Las interpretaciones, las hipótesis y las teorías son discutibles; idealmente los datos no, aunque en la realidad se discuten continuamente para poner a prueba su resistencia y solidez. La ciencia respeta el poder del dato; como dice el proverbio muchas bellas e ingeniosas teorías se han venido abajo por culpa de un feo, insignificante e incluso repugnante dato. La más hermosa de las teorías no es capaz de resistir si no puede explicar un dato comprobado.
En política, sin embargo, los datos son una herramienta para modificar la realidad, como todo lo demás. La ciencia, sus teorías y sus datos pueden ser utilizadas en un momento dado, pero ése no es el obvetivo de la política, que no pretende describir sino prescribir: modificar la realidad para hacerla más cercana a un modelo preconcebido. De modo que si la ciencia es útil, se usa, pero si las teorías o los datos resultan ser inconvenientes no hay problema ninguno: se ignoran, se tergiversan, se niegan o se retuercen como convenga en cada caso. Si para convencer a suficientes humanos de que nos apoyen hay que negar que el sol sale por el este o afirmar que la luna está hecha de queso todo vale, por mor de la causa. Si para obtener la ventaja táctica a corto plazo hay que comprometer el futuro a largo plazo no importa, porque al fin y al cabo los votantes o partidarios futuros aún no están aquí mientras que las elecciones son inminentes.
Por eso política y ciencia al final no pueden ser otra cosa que antagónicas. Los científicos, como personas que son, tienen todo tipo de ideas políticas, desde las razonables (esas que cada uno estamos pensando ahora mismo) hasta las más descabelladas (que usted y yo sabemos cuáles son). Pero por deformación profesional los científicos acaban respetando los hechos y los datos, de modo que a la larga todos ellos acaban siendo decepcionados por los políticos y sus ‘hechos maleables’.
Quien respeta lo que hay no puede por menos que perder el respeto a quien es capaz de negar lo evidente con tal de rascar un poco de poder, justificándolo en que es mejor que gobierne él mismo que el de enfrente, que es peor. Por eso ninguna relación entre ciencia y política es estable a largo plazo. Y por eso resulta, una vez más, risible imaginar que la ciencia forma parte de las estructuras de poder. Cuando no puede haber nada más antagónico en el mundo de la política que el respeto reverencial (y crítico) al dato sobre la emoción; a la realidad que es sobre la realidad que debería ser. Y por eso ciencia y poder, al final, no se pueden llevar bien.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo Ciencia, política y hechos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Computación cognitiva de espectros infrarrojos
Los avances en inteligencia artificial y las noticias acerca de ellos parecen estar por todas partes. Desde vehículos autónomos, a buscadores de Internet o filtros de spam, los algoritmos que hemos dado en llamar inteligencia artificial son tremendamente versátiles. En IBM llaman, quizás más apropiadamente, “computación cognitiva” a lo que los demás llamán inteligencia artificial. Y es que las máquinas no poseen una inteligencia, artificial, sino que realizan lo que hacen mejor, computar, de otra forma, cognitivamente.
De hecho, esta es pues otra noticia sobre un avance en computación cognitiva, pero probablemente uno del que no oirás hablar en otra parte. Se trata de algo importante y muy útil, pero que no es tan espectacular como para alcanzar un informativo de televisión, por ejemplo. Sin embargo, ilustra perfectamente la capacidad de complementar (no necesariamente sustituir) la inteligencia humana que esos algoritmos pueden tener.
La espectroscopia infrarroja es uno de los métodos experimentales más útiles para conocer el mundo de las moléculas. Se basa en cómo las moléculas de las sustancias responden a la radiación infrarroja, vibrando y rotando. Los espectros infrarrojos son, por tanto,huellas químicas que proporcionan información sobre la composición y las propiedades de las sustancias y los materiales.
En muchos casos, estos espectros son muy complejos y, si se quiere realizar un análisis detallado, las simulaciones por ordenador se hacen indispensables. Mientras que los cálculos químico-cuánticos teóricamente permiten una predicción extremadamente precisa de los espectros infrarrojos, llevarlos a cabo en la práctica se hace difícil, si no imposible, por el enorme coste computacional que tienen. Por esta razón, los espectros infrarrojos fiables sólo pueden calcularse para sistemas químicos relativamente pequeños.
Y aquí es donde entra la computación cognitiva. Un grupo de investigadores de las Universidades de Viena y Gotinga ha encontrado una forma de acelerar estas simulaciones utilizando lo que se llama aprendizaje máquina, una forma de computación cognitiva. Para este propósito han utilizado redes neuronales artificiales, modelos matemáticos que se basan en el funcionamiento del cerebro humano. Estas redes son capaces de aprender las complejas relaciones mecano-cuánticas que son necesarias para el modelado de los espectros de infrarrojo a partir de solo algunos ejemplos. De esta manera, los científicos pueden llevar a cabo simulaciones en pocos minutos, unas simulaciones que con técnicas estándar necesitarían literalmente miles de años incluso con los superordenadores modernos, y todo ello sin sacrificar la fiabilidad.
Es tal la potencia del nuevo método, que no parece osado predecir que se implantará rápidamente tanto en los laboratorios de investigación (científica y criminal) como en los de control de calidad, y que mejoras sucesivas lo harán una herramienta indispensable en el futuro.
Referencia:
Michael Gastegger,Jörg Behlerb and Philipp Marquetand (2017) Machine learning molecular dynamics for the simulation of infrared spectra Chemical Science doi: 10.1039/C7SC02267K
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Computación cognitiva de espectros infrarrojos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Una conjetura sobre ciertos números en el ‘sistema Shadok’
Los Shadok son los personajes de una serie de animación francesa creada por Jacques Rouxel (1931-2004).
Los Shadok son seres antropomorfos, con la apariencia de pájaros ‘redondos’, con largas piernas y alas diminutas. Son bastante crueles y tontos; por ejemplo, se dedican a construir máquinas absurdas, que nunca funcionan.
La lengua shadok solo posee cuatro fonemas de base: GA, BU, ZO, MEU. En efecto, su cerebro está constituido por cuatro casillas, y no puede contener más sílabas… de hecho, los Shadok solo son capaces de hacer cuatro cosas; para aprender una nueva, deben olvidar otra…
Estos personajes pueden construir palabras usando las sílabas GA, BU, ZO y MEU… pero la lengua shadok es incomprensible, ya que las palabras son polisémicas. Así, todo Shadok puede emitir cualquier palabra y su interlocutor comprenderá lo que mejor le convenga… aunque intercambian ideas entre ellos. Por ejemplo, ZoGa significa ‘bombear’, ZoBuGa denota ‘bombear con una bomba pequeña’ y ZoBuBuGa representa ‘bombear con una bomba grande’. GaMeu es la noche, BuBu el mar y BuGa la tierra.
Estos cuatro fonemas sirven también para contar: GA (0), BU (1), ZO (2) y MEU (3), y cualquier número se construye a partir de estos cuatro por un sistema de numeración por posición, que es sencillamente la base 4:
Existen incluso páginas web destinadas a convertir números del sistema de numeración decimal al sistema shadok y viceversa. Por ejemplo, el número 100 se escribe en el sistema shadok:
BU-ZO-BU-GA.
El pasado domingo, en Blogdemaths (ver [1]) su autor escribía un artículo describiendo algunas propiedades interesantes de los números
Ga-Bu-Zo-Meu-Ga-Bu-Zo-Meu-[…]-Ga-Bu-Zo-Meu,
donde Ga-Bu-Zo-Meu se repetía n veces.
Los primeros valores de estos números son:
A la vista de esta serie de valores, el autor del blog establece la siguiente conjetura:Conjetura: La descomposición en factores primos de los números
Ga-Bu-Zo-Meu-[…]-Ga-Bu-Zo-Meu
es el producto de una potencia de 3 por un entero libre de cuadrados.
Intentando probar esta conjetura (o encontrar un contraejemplo para ella), el autor obtiene una expresión general para estos números:
Así, para encontrar los divisores de Ga-Bu-Zo-Meu-[…]-Ga-Bu-Zo-Meu, basta con encontrar los divisores de 28n-1, que es un número de Mersenne.
Usando el teorema de Euler, el autor demuestra que
Ga-Bu-Zo-Meu-[…]-Ga-Bu-Zo-Meu (42 veces)
es divisible por 49… así que su conjetura es falsa. A partir de allí encuentra más contraejemplos a su conjetura, para
Ga-Bu-Zo-Meu-[…]-Ga-Bu-Zo-Meu (n veces)
con n = 54, 110, 120, 156,… todos ellos números pares.
La conjetura es falsa, pero el autor se pregunta a continuación, ¿quizás no existe un contraejemplo a su conjetura para
Ga-Bu-Zo-Meu-[…]-Ga-Bu-Zo-Meu (n veces)
con n impar? La respuesta es negativa; esta vez, usando números de Mersenne y números primos de Wieferich, es capaz de encontrar un contraejemplo con n impar a su conjetura, y lo descubre para n=91.
Aún es posible hacerse más preguntas, y el autor, efectivamente, las plantea: ¿es n=91 el menor contraejemplo impar a su conjetura?
Referencias
[1] GaBuZoMeu…GaBuZoMeu, Blogdemaths, 24 de septiembre de 2017
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Una conjetura sobre ciertos números en el ‘sistema Shadok’ se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Sistemas respiratorios: los límites a la difusión de los gases
La mayor parte de los animales necesitan oxígeno para vivir. Es el aceptor final de electrones en la cadena respiratoria, por lo que sin su concurso no sería posible la síntesis de ATP que tiene lugar en el interior de las mitocondrias. Es, pues, la molécula clave para poder degradar las sustancias carbonadas que proporcionan la energía necesaria para el funcionamiento de los sistemas orgánicos. El catabolismo de esas moléculas, además de energía en forma de ATP, rinde CO2, sustancia que ha de ser expulsada al exterior, pues su acumulación en los medios interno o intracelular, daría lugar a peligrosas elevaciones del pH[1]. Llamamos respiración interna o respiración celular a los procesos metabólicos que tienen lugar en las mitocondrias y que, utilizando O2, dan lugar a la obtención de ATP y la producción de CO2 a partir de moléculas carbonadas.
El oxígeno se encuentra en el medio externo y ha de ser transferido al interior de las mitocondrias. Y, como se ha dicho, el CO2 ha de ser expulsado al exterior. Denominamos respiración externa al conjunto de procesos implicados en esas transferencias. Debemos, para empezar, considerar las limitaciones que afectan a la difusión de los gases respiratorios para, a continuación, analizar los dispositivos específicos que han permitido la superación de tales limitaciones.
La difusión es el proceso clave y universal mediante el que se produce el intercambio de gases entre el medio respiratorio y el organismo. Se produce de acuerdo con la denominada ley de Fick que, aplicada a los gases, establece que la tasa o velocidad a que se produce es directamente proporcional al denominado coeficiente de difusión (que depende de la permeabilidad para con cada gas de la barrera que hay que traspasar), a la superficie disponible para el intercambio, y al gradiente de presiones parciales del gas existente entre los dos compartimentos; y es inversamente proporcional a la distancia que ha de superar.
Llegados a este punto, conviene introducir la noción de presión parcial pues desde el punto de vista de la actividad biológica de los gases, es a ese parámetro al que hemos de atenernos y no a la concentración. A nivel del mar la presión atmosférica total es de 1 atm (atmósfera) o 760 mmHg (milímetros de mercurio). A dicha presión contribuyen todos los gases que hay en la mezcla y principalmente el N2 y el O2. El oxígeno representa un 21% del volumen del gas, por lo que su presión parcial (pO2) es de 159 mmHg. La del CO2 es de tan solo 0,03 mmHg. Si en vez de tratarse de un gas en la atmósfera, nos referimos a uno disuelto en agua o en alguna disolución fisiológica (medio interno, sangre, etc.), su presión parcial se define como la presión de ese mismo gas en una atmósfera con la que la disolución se encontrase en equilibrio.
Las configuraciones respiratorias más simples son aquellas en las que los gases pasan de un enclave a otro a través de procesos de difusión únicamente. A partir de cálculos teóricos basados en niveles metabólicos y requerimientos de O2 considerados “moderados” y dada una pO2 ambiental de 159 mmHg, la distancia de difusión –o distancia crítica– no debería superar el valor de 1 mm. Esta es una consecuencia de las características del proceso de difusión y supone, de hecho, una importante limitación fisiológica de partida. Hay animales en los que tal limitación no llega a operar. Son los más simples: organismos de muy pequeño tamaño –unicelulares incluso, como los paramecios u otros protozoos- o aquellos cuya anatomía permite que las células se encuentren en contacto con el medio externo o muy próximas a este, como esponjas, cnidarios o gusanos planos.
Sin embargo, la limitación anterior sí actúa sobre la mayor parte de los animales porque, como vimos aquí, en el curso de la evolución su tamaño ha tendido a crecer, además de haber aumentado también su complejidad. También han surgido grupos con muy altas demandas metabólicas (peces escómbridos, insectos voladores, aves y mamíferos). Y por otra parte, prácticamente todos o casi todos los enclaves acuáticos o terrestres de nuestro planeta -incluyendo zonas de muy diversa disponibilidad de oxígeno– han sido colonizados por algún grupo animal. Por todas esas razones, en el curso de la evolución todos esos animales se han dotado de dispositivos específicos que, actuando sobre los términos de la ley de Fick antes citados, facilitan el intercambio de gases respiratorios. Esos dispositivos son el aparato respiratorio, cuya función es realizar los intercambios directos con el exterior, y el sistema cardiovascular, que se ocupa de la transferencia interna (aquí vimos algunas características del sistema circulatorio humano, y aquí una panorámica de las bombas de impulsión). Veamos esto con cierto detalle.
El coeficiente de difusión es propio del gas y de la naturaleza de la barrera que separa el medio respiratorio del medio interno; obviamente, la selección natural no puede actuar sobre las características del gas, pero sí puede hacerlo sobre el epitelio que separa ambos medios. Por ello, los epitelios respiratorios y las paredes de los capilares sanguíneos presentan una alta permeabilidad para con los gases objeto de intercambio.
El área superficial también está sometida a la acción de la selección natural, y lo está en dos niveles. El primero corresponde a los órganos respiratorios, que consisten generalmente en múltiples pliegues del epitelio que se encuentra en contacto con el medio externo, llenos en ocasiones de infinidad de recovecos. A título de ejemplo valga el dato de que la superficie interna del total de alveolos pulmonares de un ser humano es de 100 m2. Cuando los pliegues se proyectan hacia el exterior del organismo en forma de evaginaciones, los órganos respiratorios reciben el nombre de branquias; son característicos de animales acuáticos. Y cuando consisten en invaginaciones reciben el nombre de pulmones; son característicos de animales terrestres. Los insectos, con sus tráqueas, constituyen un grupo aparte, aunque en rigor también su sistema traqueal es un sistema de invaginaciones. El segundo nivel corresponde a los enclaves en los que el sistema cardiovascular se halla en contacto con los tejidos. En este, la irrigación de los tejidos a cargo de variables (y en caso de ser necesarios, grandes) números de capilares sanguíneos ofrece enormes posibilidades para modificar la superficie de transferencia en la vía final de difusión a las células, incluyendo la posibilidad de aumentarla de manera considerable.
La selección natural también actúa sobre los dispositivos implicados en el intercambio de gases, de un modo tal que tienden a mantenerse gradientes de presiones parciales de la suficiente magnitud. También en este caso, son dos los enclaves implicados, órgano respiratorio y sistema circulatorio. Los gradientes amplios se consiguen en el aparato respiratorio impulsando el medio (aire o agua) a su través, de manera que su renovación permite mantener elevada la presión parcial de O2 y, por lo tanto, el gradiente. Lo opuesto vale para el CO2. Llamamos ventilación a la actividad que consiste en hacer circular el medio respiratorio sobre la superficie de los epitelios.
El mismo mecanismo sirve para la transferencia interna a través del sistema circulatorio, ya que la renovación de la sangre o medio interno que irriga o baña los tejidos permite mantener la pO2 relativamente alta y la pCO2 relativamente baja, lo que favorece el intercambio de esos gases con las células. De la misma forma se facilita la captación de O2 desde el medio respiratorio por la sangre, así como la cesión de CO2. En este caso es la bomba de impulsión del sistema circulatorio la que genera el movimiento, cuya velocidad puede también modificarse en función de las necesidades. Y además de lo anterior, muchos animales cuentan con unas sustancias de naturaleza proteica, a las que denominamos pigmentos respiratorios, que se combinan con el O2 y CO2, de manera que se reduce la presencia de dichos gases en la sangre en forma disuelta y por lo tanto, su presión parcial. El efecto de dichos pigmentos es muy importante; al reducir la pO2 en la sangre que irriga el órgano respiratorio, ayuda a mantener un gradiente entre los medios externo (respiratorio) e interno (sangre o hemolinfa) que facilita la transferencia de O2. Y lo mismo ocurre con el CO2 en los tejidos, aunque en este caso, los procesos implicados en su transporte interno son más complejos.
Por último, también la distancia de difusión está sometida a la actuación de la selección natural. Por un lado, los epitelios (respiratorio y capilar) a través de los cuales se produce difusión de gases son muy finos, por lo que la distancia de difusión se minimiza. Por el otro, la misma existencia de sistemas circulatorios equivale, en realidad, a una reducción funcional de la vía de difusión. Y por último, en los animales con sistemas circulatorios abiertos, no existen barreras a la difusión en la vía final, dado que el medio interno baña directamente las células.
Hasta aquí la descripción de los elementos funcionales que participan en los intercambios de gases respiratorios, así como del modo en que actúa la selección natural sobre los procesos representados por los términos de la ecuación de Fick. En posteriores anotaciones nos ocuparemos de otros aspectos de la respiración y de una descripción de la diversidad de órganos respiratorios.
Nota:
[1] Además de disolverse, el CO2 se combina con el agua para dar ácido carbónico, lo que potencialmente genera una elevación del pH.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas respiratorios: los límites a la difusión de los gases se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La ley del gas ideal a partir del modelo cinético
Tras exponer nuestro modelo simple del gas ideal, incorporar la distribución de las velocidades de las moléculas de Maxwell y tener en cuenta el efecto del tamaño de las moléculas, ya lo tenemos todo para ver cómo se deriva a partir del modelo cinético una ley a la que se ha llegado por estudios macroscópicos y fenomenológicos, la ley del gas ideal.
Según estableció Bernoulli, en la teoría cinética la presión de un gas es el resultado de los impactos contínuos de las partículas del gas contra las paredes del contenedor. Esto explica por qué la presión es inversamente proporcional al volumen (ley de Boyle) y directamete proporcional a la densidad: cuanto más pequeño sea el volumen o mayor la densidad, mayor será el número de partículas que colisionan con la pared en un momento dado. Pero la presión tambien depende de la energía cinética de las partículas (Ec)y, por tanto, de su velocidad, v, ya que Ec = 1/2 m·v2. Esta velocidad determina no solo la fuerza que se ejerce sobre la pared durante cada impacto, sino también la frecuencia de estos impactos.
Si las colisiones con la pared son perfectamente elásticas, la ley de conservación del momento lineal describe perfectamente el resultado del impacto. Un átomo que rebota e una pared sufre un cambio de momento lineal. Como el momento lineal es el producto de la masa por la velocidad, este cambio de momento se traduce en un cambio de velocidad, ya que asumimos que la masa es constante para la partícula (aquí habría que recordar que la velocidad es un vector). Pero si hay un cambio de momento lineal es porque se ha ejercido una fuerza sobre la partícula durante el impacto, como sabemos por las leyes de Newton. Por estas mismas leyes, para esa fuerza que ha hecho rebotar a la molécula de gas debe existir una fuerza de reacción que se aplica sobre la pared: esta fuerza es la contribución del impacto de la partícula a la presión.
Aplicando las mecánica de Newton a nuestro odelo simple de gas llegamos a la conclusión, para las tres dimensiones del movimiento, de que la presión P está relacionada con el promedio de la velocidad de los átomos al cuadrado, (v2)pr, y con el volumen, V, y la masa de la molécula de gas, m, según la expresión P = m· (v2)pr / 3V.
La derivación de esta expresión es muy sencilla y un magnífico ejemplo de la aplicación de las leyes de Newton en un dominio en el que el propio Newton no se aventuró.
Tenemos ahora dos expresiones para la presión de un gas. Una derivada de datos experimentales macroscópicos, P· V = k ·T y otra derivada de las leyes de Newton aplicadas a nuesto modelo simple, P = m· (v2)pr / 3V. Si ambas describen la misma realidad, entonces debe ocurrir que k · T = m · (v2)pr / 3. De aquí se deduce que la temperatura, T = 2/(3k) · m ·(v2)pr /2, es decir, la temperatura de un gas es proporcional a la energía cinética promedio de sus moléculas.
Ya teníamos alguna indicación de que aumentar la temperatura de un material afectaba de alguna manera al movimiento de sus “pequeños componentes”. También éramos conscientes de que cuanto mayor es la temperatura de un gas, más rápido se movían sus moléculas. La novedad es que ahora tenemos una relación cuantitativa precisa derivada del modelo cinético y de las leyes experimentales. Por fin podemos afirmar no solo que el calor no es algún tipo de fluido u otra sustancia, sino también que es solo la energía cinética de las partículas (átomos, moléculas) que constituyen el material*.
Nota:
* Para ser precisos, eso que estamos llamado calor, y que ya dejamos claro que es energía térmica, no solo es movimiento de las partículas, también es energía radiante. Pero baste esta forma de expresarse para los fines de esta serie.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La ley del gas ideal a partir del modelo cinético se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ignacio López-Goñi: “El sistema de defensa de las bacterias es el mejor editor de genomas que existe”
Las bacterias también se vacunan. Bajo esta premisa comenzó la ponencia que el microbiólogo navarro Ignacio López-Goñi, catedrático en la Universidad de Navarra, ofreció en la primera jornada del evento de divulgación científica Naukas, que este año cumple su séptima edición en el Palacio Euskalduna de Bilbao.
“Las bacterias no piensan, pero son muy listas”, anunció López-Goñi ante una audiencia apasionada de la ciencia que abarrotó el Auditorio del Palacio Euskalduna. Y es que, según avanzó el divulgador, cuando un virus infecta a una bacteria, la bacteria es capaz de coger parte de ese DNA e incluirlo en su genoma. “Así, en la siguiente infección, la bacteria es capaz de reconocer el virus y aniquilarlo. Así se vacunan las bacterias contra los virus”, explicó el científico en su ponencia.
Se trata de un avanzado sistema de defensa heredable mediante el cual las bacterias y sus descendientes guardan en su memoria una primera infección para hacer frente a las posteriores. Un sistema de defensa que “ha permanecido oculto durante millones de años”, según explicó López-Goñi, hasta que entró en juego la labor del microbiólogo español Francis Mojica, de la Universidad de Alicante.
Todo comenzó cuando el alicantino comenzó a estudiar el genoma de la arquea Haloferax mediterranei, un microorganismo que habita en las salinas de Santa Pola (Alicante) y que requiere de altas concentraciones de sal para vivir.
Fue entonces cuando descubrió unas secuencias de ADN que se repetían en el genoma del microorganismo; unas secuencias a las que denominó con las siglas CRISPR, o lo que es lo mismo, repeticiones palindrómicas cortas agrupadas y regularmente interespaciadas (Clustered Regularly Interspaced Short Palindromic Repeats, por sus siglas en inglés).
Estas secuencias repetidas hicieron al investigador recapacitar sobre la función que estas pudieran tener en la célula. Años más tarde, Mojica encontró la respuesta, y descubrió el maravilloso sistema de defensa que esta secuencias representaban para la bacteria.
En concreto, las procariotas son capaces de incorporar a su genoma un fragmento del ADN invasor que le sirve de guía para evitar futuras invasiones. Es decir, la secuencia del virus queda almacenada como información en el genoma de la bacteria y sus descendientes. Las bacterias quedan “vacunadas”.
A partir de 2012, y gracias a las investigaciones del español, la bioquímica francesa Emmanuelle Charpentier y la química estadounidense Jennifer Doudna demostraron que el mecanismo CRISPR descubierto por el alicantino se puede emplear como una herramienta para editar cualquier genoma; un auténtico “editor” genético que permite cortar y pegar trozos de ADN.
Se trata de una técnica de edición que, como si de un procesador de texto se tratara, y de una manera “sencilla, barata y precisa”, permite quitar y poner genes, además de estudiar y corregir mutaciones de los mismos. “El sistema de defensa de las bacterias ha resultado ser el mejor editor de genomas que existe”, aseguró en su ponencia el navarro López-Goñi.
Se trata de una técnica muy utilizada en los laboratorios de todo el mundo. Mediante este sistema, los microbiológicos y científicos son capaces de obtener plantas resistentes a plagas, animales con más masa muscular o mosquitos que no transmiten la malaria o el dengue. “Incluso puede servir para terapia génica y para la investigación de enfermedades raras e infecciosas”, explicó el científico.
Sin ir más lejos, este verano la técnica CRISPR se ha utilizado en Estados Unidos para modificar embriones con una enfermedad genética, eliminando de forma selectiva las secuencias de ADN no deseadas.
Ahora, más de 20 años después de que el microbiólogo alicantino descubriera las secuencias repetidas y el sistema de defensa de aquellas bacterias de Santa Pola, Francis Mojica es nuestro próximo candidato al Nobel de Medicina y Química.
Sobre la autora: Iraide Olalde, es periodista en la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Ignacio López-Goñi: “El sistema de defensa de las bacterias es el mejor editor de genomas que existe” se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Estroncio en la leche
El estroncio (Sr) es un elemento que en caso de accidente nuclear se vierte de forma mayoritaria a la atmosfera. El comportamiento químico del estroncio es similar al del calcio y se puede acumular en el suelo, en vegetales y en animales (especialmente en los huesos). Se trata de un elemento con dos principales radioisótopos (90Sr y 89Sr) que tienen una vida efectiva biológica relativamente alta para el ser humano, y debido a su fijación en los huesos, acaba impartiendo una dosis de radiación a lo largo de muchos años.
El Organismo Internacional de Energía Atómica (OIEA) ha propuesto, entre otros muchos, un método de detección rápida de Sr radiactivo en leche para casos de emergencia o accidente nuclear. Sin embargo, este tipo de métodos no es válido para su aplicación en medidas de rutina medioambientales, en los que los límites de detección son mucho menores que en los casos de emergencia nuclear. Es por ello que en un estudio llevado a cabo por el grupo de investigación Seguridad nuclear y radiológica del Departamento de Ingeniería Nuclear y Mecánica de Fluidos de la UPV/EHU ha obtenido las condiciones y los parámetros con los que convertir el método rápido propuesto por la OIEA en un método utilizable en los planes de vigilancia radiológica integrados en estudios medioambientales rutinarios.
El laboratorio del grupo de investigación Seguridad nuclear y radiológica es un laboratorio de medidas de baja actividad, que además de dedicarse a la investigación también realiza medidas de vigilancia radiológica para diferentes entidades como el Consejo de Seguridad Nuclear. En opinión de la doctora Raquel Idoeta, investigadora del grupo, “se trata de un método rápido, con rendimientos buenos y relativamente fácil y económico de adaptar”.
En el estudio han llevado a cabo tanto medidas experimentales como simulaciones numéricas para determinar los parámetros y condiciones de adaptación; asimismo, según explica Idoeta, han hecho una valoración económica “para ver qué facilidades pueden tener otro laboratorios para adaptarlo”. Y añade que “cualquier laboratorio medioambiental que tenga equipos de detección de partículas beta o que realice determinaciones de estroncio no requiere apenas de nada para integrar este método. Un laboratorio que aplicase este método de forma rutinaria, aunque adaptando en este caso los volúmenes y tiempos de medida, según lo determinado en nuestro estudio para alcanzar las exigencias en materia medioambiental, no tendría mayores problemas en aplicarlo debidamente en caso de una emergencia para dar una respuesta rápida a la determinación de estroncio radiactivo en leche”.
Referencia:
M. Herranz, R. Idoeta, S. Rozas, F. Legarda (2017) “Analysis of the use of the IAEA rapid method of 89Sr and 90Sr in milk for environmental monitoring”. Journal of Environmental Radioactivity. DOI: 10.1016/j.jenvrad.2017.06.003.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Estroncio en la leche se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La cara más emocionante, humana y filosófica de la ciencia
Fernando del Álamo, lector
Debía correr el año 1989, siendo yo estudiante, y charlando con el catedrático de física (del que decían que “libro que caía en sus manos, libro que leía”) me comentó:
– ¿No conoce Ud. a Richard Feynman?
– No.
– Sí hombre, fue Premio Nobel de Física y declarado deficiente mental por el ejército.
– ¡Ostrás!
– Hay un libro maravilloso titulado “¿Está Ud. de broma, Sr. Feynman?” donde habla de estas y otras cosas. Léalo, hombre, que le gustará.
Localicé el libro, lo compré y, literalmente, me enganché. No pude dejarlo hasta el final. En él narra las peripecias de su vida, había trabajado en el Proyecto Manhattan (donde, entre otras cosas, se dedicaba a reventar cajas fuertes). Lo interesante es que cuando empecé el libro pensé “este tío está un poco loco” y cuando lo finalicé pensé “¡claro! ¡tiene razón!”. No es un libro técnico, en absoluto, sino la visión de la ciencia y la vida que tiene una mente privilegiada como la suya.
Posteriormente, me enteré de la existencia de su segundo libro: “¿Qué te importa lo que piensen los demás?”, en el que explica las investigaciones posteriores a la explosión del Challenger y cómo lo pasó con la enfermedad de su esposa. Da gusto ver cómo mientras otros iban de reunión en reunión, él se iba a hablar con los ingenieros.
Leídos estos dos libros, aquel mismo catedrático me enseño un tercer libro titulado “El arco iris de Feynman”, de Leonard Mlodinow. Me volvió a decir: “¿Ha leído Ud. esto? Es maravilloso”.
Con un apellido como ese me quedé un tanto escéptico. Pero si aquel catedrático me lo recomendaba, por algo iba a ser. Y no se equivocaba. El autor explica que era un joven físico, estudioso de Teoría de Cuerdas al que le dieron un despacho en un pasillo en el que había otros dos despachos con otros dos físicos: Murray Gell-Mann y el citado Richard Feynman. Ambos Premios Nobel, ambos mayores, ambos famosos; y Feynman con un cáncer que le estaba consumiendo.
¿Cómo puedo abordar a ese par de gigantes? Pensaba el autor. Y acercándose a ambos y dada una serie de circunstancias empieza a conocer la forma de ser y ver la vida de cada uno de ellos. Es maravilloso leer en esas páginas el cambio de mentalidad ante la vida y a qué dedicarse, llegando a abandonar la Teoría de Cuerdas para dedicarse, entre otras cosas, a escribir libros. ¡Y qué libros! Y, curiosamente, la mayoría sobre lo que es el ser humano más que libros especializados en física.
“El andar del borracho”, en el que nos explica cómo, sin darnos cuenta, el azar tiene mucho que ver en nuestras vidas (me recordó mucho, aunque con un estilo totalmente diferente a “El hombre anumérico” del matemático John Allen Paulos). La importancia de los estudios como en el que se dieron cuenta de que en Londres moría más gente ajusticiada que no de hambre, cuando había muchísimos mendigos por las calles. O la forma en que estadísticamente Poincaré desenmascaró el fraude de poner menos masa de pan como media en las barras.
“Subliminal”, por ejemplo, donde nos explica cómo nuestro subconsciente tiene más importancia de la que pensamos. Llega a citar situaciones reales como juicios a personas en las que el subconsciente jugó un papel clave para que lo condenaran viéndose posteriormente que era inocente.
“Las lagartijas no se hacen preguntas”, libro dedicado al recuerdo de su padre, desde un suceso en el campo de concentración de Auschwitz en la que había en juego un mendrugo de pan por una curiosidad. El autor prometió a su padre que escribiría un libro sobre por qué tenemos esas ansias de conocer, de saber. Y este es el libro, pero para ello tiene que explicar la historia de la humanidad desde los inicios viendo cómo poco a poco se va llegando a lo que somos hoy día.
Todos sus libros reflejan cultura, ciencia, conocimiento y, sobre todo, emoción. Son libros que tienen grandes momentos que marcan y hacen reflexionar. No son libros técnicos y lo que escribe está al alcance de cualquier persona.
Y en este artículo, quería mostraros precisamente esto: la cara más emocionante, humana y filosófica de la ciencia de la mano de estos dos hombres, de Richard Feynman y de Leonard Mlodinow. Recomiendo leer los libros en el orden en que los he ido citando. Espero que los disfrutéis.
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
El artículo La cara más emocionante, humana y filosófica de la ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ciencia a presión: ¿Periodismo científico o periodismo de “papers”?
La expresión publish or perish (publica o perece) es de sobra conocida en el ámbito científico. Quiere expresar la importancia que tienen las publicaciones en los currículos del personal investigador. En ciencia no basta con hacer observaciones, obtener unos resultados y derivar conclusiones. Hay, además, que hacerlo público y, a poder ser, en medios de la máxima difusión internacional. La ciencia que no se da a conocer, que no se publica, no existe. El problema es que de eso, precisamente, depende el éxito profesional de los investigadores, sus posibilidades de estabilización y de promoción. De ahí la conocida expresión del principio.
El mundo de la comunicación tiene también sus normas. En comunicación se trata de que lo que se publica sea consumido. De la misma forma que la ciencia que no se publica no existe, en comunicación tampoco existen los contenidos que no se consumen: o sea, no existen los artículos que no se leen, los programas de radio que no se oyen, los de televisión que no se ven o los sitios web que no se visitan. En comunicación valdría decir “sé visto, oído o leído, o perece”.
Ambas esferas tienen ahí un interesante punto en común. Y por supuesto, en comunicación o difusión científica el ámbito de confluencia se aprecia en mayor medida aún. Confluyen aquí ambas necesidades, la de hacer públicos los resultados de investigación y, además, conseguir que lleguen a cuantas más personas mejor.
El problema es que la presión por publicar y por tener impacto comunicativo puede conducir tanto a unos como a otros profesionales, a adoptar comportamientos deshonestos, contrarios a la ética profesional e, incluso, a desvirtuar completamente el fin de la ciencia y de su traslación al conjunto del cuerpo social. Y también puede conducir, y de hecho ha conducido, a que se haya configurado un sistema de publicaciones científicas con patologías.
De todo esto se trató el pasado 31 de marzo en “Producir o perecer: ciencia a presión”, el seminario que organizarono conjuntamente la Asociación Española de Comunicación Científica y la Cátedra de Cultura Científica de la UPV/EHU.
5ª Conferencia.
Ángela Bernardo, redactora de ciencia en Hipertextual: ¿Periodismo científico o periodismo de “papers”?
¿Periodismo científico o periodismo de “papers”?Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Ciencia a presión: ¿Periodismo científico o periodismo de “papers”? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Catástrofe Ultravioleta #19 ASTEROIDE
¿Estamos realmente preparados para enfrentarnos a las amenazas del espacio? En Catástrofe Ultravioleta nos preguntamos si, utilizando solamente la tecnología que disponemos en la actualidad, podríamos detener un asteroide en rumbo de colisión con la Tierra. Repasamos la ciencia tras los asteroides en todas sus facetas, desde su detección y prevención, hasta su futura explotación en busca de recursos.
Agradecimientos: Josep M. Trigo (Institute of Space Sciences CSIC-IEEC), Víctor Manchado (Radio Skylab), Daniel Marín (Eureka), Álvaro Peralta (Centro español de láseres pulsados CLPU), Rafael Harillo (Consultoría Stardust), Pablo F. Burgueño (Abanlex), Faustino, Leonor y Fernando del Observatorio de la Hita, Jose María Madiedo (Universidad de Huelva).
* Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.
El artículo Catástrofe Ultravioleta #19 ASTEROIDE se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los rangos de la percepción
Los seres humanos somos sensibles a diversas magnitudes, tanto externas como internas. De entre ellas recibimos información de dos tipos de ondas: las de presión en el aire que nos rodea (sonido), y ondas electromagnéticas que llegan a nuestros ojos (luz). Para poder hacerlo disponemos de unos detectores considerablemente sofisticados. Tantos los oídos como los ojos poseen unas prestaciones verdaderamente notables, pero limitadas a unos determinados rangos de frecuencias. Si consideramos la amplitud de los espectros electromagnético y sonoro, podemos llegar a pensar que somos prácticamente sordociegos, como dice una figura que ha dado muchas vueltas por internet (figura 1). ¿Es esto realmente así?
Hay tres características de la propagación del sonido que hay que tener en cuenta para comprender el interés evolutivo de percibir un rango particular de ondas sonoras. Por una parte, la atenuación del sonido es mayor cuanto más alta es la frecuencia o, visto al revés, los sonidos de bajas frecuencias son capaces de viajar distancias mayores. En segundo lugar tenemos que la reflexión del sonido es eficaz cuando choca con objetos del tamaño de la longitud de onda del mismo (o mayores). Por último, la capacidad de las ondas de rodear obstáculos (la difracción) también ocurre cuando las longitudes de onda y los obstáculos son de tamaños parecidos.
Así pues, los animales como murciélagos o delfines que utilizan el eco para localizar objetos (ecolocalización) tendrán que utilizar ondas de altas frecuencias (pequeñas longitudes de onda, por tanto) de forma que puedan resolver objetos pequeños y no verse afectados por la difracción. En cambio, los animales que utilicen el sonido para advertir la presencia de depredadores podrán beneficiarse de la difracción, de forma que les llegue información del peligro aunque haya obstáculos en el camino (piedras, matorrales, etc). Finalmente, hay animales que han desarrollado sistemas de comunicación a muy larga distancia, y para ello necesariamente han de emplear ondas de frecuencias muy bajas.
A lo anterior hay que añadir que los tamaños de los dispositivos para producir y recibir sonidos también están en proporción con la longitud de onda de los mismos. Así, solo animales grandes podrán acceder a los sistemas de transmisión a largas distancias, ya que las ondas de bajas frecuencias tienen longitudes de onda grandes. Es el caso de los elefantes y algunos cetáceos. Por el contrario, animales pequeños que usan la ecolocalización, como los murciélagos, perciben sonidos en un rango de 20 a 200 kHz. Sus sonidos más graves a nosotros nos resultan imperceptibles por ser demasiado agudos.
Se suele considerar que el intervalo audible para los humanos se extiende entre los 20 y los 20.000 Hz, aunque en condiciones de laboratorio algunos individuos perciben un rango algo más extenso; y en condiciones normales no pasamos de los 15.000, especialmente los adultos. Si nos fijamos en las longitudes de onda que corresponden a dicho intervalo (figura 2), vemos que está centrado en los tamaños de las personas, extendiéndose desde los 17 mm a los 17 m. Este intervalo es muy adecuado para controlar el entorno en un radio de unos 20 m. Resulta especialmente valiosa la difracción que permite que podemos oír personas en otra habitación aunque no podamos verlas.
En el caso del intervalo visible, las restricciones son más severas, y de hecho las variaciones entre distintos animales son mucho más pequeñas que en el caso del sonido. El intervalo visible del espectro electromagnético está determinado por tres condicionantes. En primer lugar, es el principal componente de la radiación que nos envía el Sol. Nuestra estrella emite un espectro de radiación correspondiente al de la emisión de un cuerpo negro a 5900K que tiene pequeñas partes de ultravioleta e infrarrojo, flanqueando el grueso de su emisión, que es visible (figura 3).
En segundo lugar, la atmósfera que recubre nuestro planeta es opaca a la mayoría del espectro electromagnético (figura 4). Si tomamos el rango de longitudes de onda que va desde un nanómetro hasta un kilómetro, catorce órdenes de magnitud, solo hay dos ventanas de transparencia. Una es para las ondas de radio (entre un centímetro y veinte metros, aproximadamente); y otra es en el visible y el infrarrojo, aunque con muchos altibajos debidos a la absorción de los distintos gases de la atmósfera. Es decir, de los catorce órdenes de magnitud considerados, solo dos y medio atraviesan la atmósfera. De hecho, cuando hemos querido observar el cosmos en otras zonas del espectro, ha sido necesario colocar los correspondientes telescopios en satélites. La observación terrestre se limita al visible y la radio (y las ondas de radio son demasiado grandes para que puedan resultar aprovechables por los animales).
Por último, la energía de los fotones del rango visible es compatible con las moléculas orgánicas que componen los seres vivos. Energías mayores (ultravioleta y más allá) rompen enlaces e impiden la estabilidad molecular; mientras que energías menores interaccionan poco, y es difícil imaginar detectores basados en estas moléculas, como sí ocurre con el visible.
Tras estas consideraciones, podemos poner en perspectiva la figura del comienzo. Es verdad que en el universo hay ondas a las que no somos sensibles, pero o bien no las hay en la superficie del planeta, o bien son muy poco relevantes para animales como los humanos. Al menos así ha sido durante miles de años, hasta que en las últimas décadas la ciencia y la tecnología nos han permitido medirlas. A día de hoy disponemos de instrumentación capaz de extender el rango original de nuestros sentidos y hacerlo prácticamente ilimitado.
Este post ha sido realizado por Joaquín Sevilla (@Joaquin_Sevilla) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Los rangos de la percepción se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La educación no es la materia prima de la mano de obra
Steven Fesmire
Cuando se trata de debates actuales en política y políticas, incluso una defensa estridente de las humanidades, como la de George Anders “You Can Do Anything: The Surprising Power of a ‘Useless’ Liberal Arts Education” [Puedes hacer cualquier cosa: el sorprendente poder de una educación “inútil” en humanidades] o la de Randall Stross “A Practical Education: Why Liberal Arts Majors Make Great Employees” [Una educación práctica: ¿Por qué los grados en humanidades hacen grandes empleados?], tiende a aceptar que el empleo remunerado es el principal objetivo de la educación.
Como especialista en el filósofo y educador del siglo XX John Dewey, he estado observando estos debates con interés. El filósofo académico más citado del siglo XX, Dewey hizo, posiblemente, las contribuciones más significativas del siglo pasado al desarrollo del pensamiento educativo. Entre otras cosas, criticó influyentemente la educación concebida como “mera preparación para la vida posterior“.
Recordar a Dewey plantea preguntas pertinentes sobre la misión fundamental de la educación hoy en día. ¿Es el objetivo principal de la educación proporcionar un yugo acolchado para la población activa preexistente en el estado? ¿O es, en conjunto, mejorar nuestras vidas?
El propósito de la educación
En el siglo XIX, la defensora de los derechos de las mujeres Margaret Fuller criticó la práctica de educar a las niñas solo para ser esposas y madres. “Un ser de alcance infinito”, escribió, “no debe tratarse con una visión exclusiva para relación alguna. Dé al alma el curso libre … y el ser será apto para cualquiera y cada una de las relaciones para las que pueda ser llamado “.
En mi opinión, la política educativa en los Estados Unidos hoy en día es de una manera tangible tan restrictiva como la que criticó Fuller hace más de 150 años. Para muchos, la misión de primaria, secundaria y de la educación superior es, en palabras tristemente famosas del gobernador de Wisconsin Scott Walker, “desarrollar los recursos humanos que satisfagan las necesidades de población activa del estado“.
Sea lo que sea que uno pueda pensar en la política de Walker, su perspectiva general no es extraña. Tipifica la opinión de que la educación es principalmente una manera de alimentar a la industria con mano de obra cualificada, y está en tensión con el objetivo de preparar a los estudiantes “para cualquiera y cada una de las relaciones para las que pueda[n] ser llamado[s]”.
En lugar de educar a personas completas para el crecimiento a lo largo de toda la vida, este “modelo industrial” trata la educación tan solo como otro sector de la economía. Desde este punto de vista, el trabajo de la educación es fabricar mano de obra cualificada, y se espera que lo haga de una manera que sea lo más eficiente posible. El conocimiento es visto como una mercancía, los maestros y profesores son vehículos de entrega de contenido y los estudiantes son ya consumidores ya productos manufacturados.
Las instituciones educativas que siguen el modelo industrial son vistas como mercados en los que adquirir y entregar contenido. Y cuando hay matrícula de por medio, ésta es simplemente el precio justo para acceder a ese contenido.
¿Qué pierde la sociedad?
Cuando se describe de esta manera, parece un enfoque frío e inhumano de la educación. Sin embargo, los dos principales partidos políticos estadounidenses parecen haber adoptado el modelo industrial. Los partidos pueden estar en desacuerdo sustancial sobre los detalles de cómo proporcionar la educación, pero (en lo principal) los valores no económicos no merecen su atención demasiado a menudo.
Afirmo que algo se pierde cuando tratamos la educación como nada más que un sector de la economía industrial.
En primer lugar, el modelo industrial profundiza nuestros problemas sociales.
Es cierto que muchos objetivos específicos de la educación están, y deben estar, definidos por nuestra infraestructura económica, como la demanda de un énfasis curricular en STEM [véase nota 1]. Pero eso no significa que nuestro objetivo educativo primordial debe centrarse en esto. Capacitar a los estudiantes exclusivamente para ajustarse a las especificaciones existentes no sólo ahoga la imaginación y la innovación, sino que también dirige a los estudiantes por los mismos canales que están implicados en nuestros problemas sociales, económicos, ambientales y geopolíticos. Creo que esto sacrifica nuestra mejor esperanza de hacer las cosas mejor.
Y así llegamos a John Dewey. De niño, realizaba tareas habitualmente en la granja de su abuelo en las afueras de Burlington, Vermont. Posteriormente, lamentría que esos productivos suplementos ocupacionales a la educación formal estuvieran eclipsados casi completamente por la urbanización y la mecanización. Buscó maneras de llevar la vida diaria al aula para que la educación pudiera hablar a la vida.
Pero hay que hacer una distinción importante. En un enfoque, puedes infundir educación con contenido que hable de salidas potenciales – la llamada “vida real”. Por otro lado, podrías permitir que la infraestructura económica existente sea la única fuerza impulsora tras la práctica educativa. Esto último, en palabras de Dewey, convierte a estudiantes y profesores en “instrumento [s] en la realización del dogma feudal de la predestinación social”.
El primero es lo que la mayoría de los educadores esperan: estudiantes que se convierten en participantes en la redirección inteligente de la sociedad.
Culturas de imaginación, crecimiento y realización
No sólo el modelo industrial de educación debilita la acción social inteligente, sino que también sacrifica el enriquecimiento personal.
Una institución educativa es capaz de capacitar a más estudiantes con menos maestros o peor pagados, igual que un sector industrial puede producir más ropa, automóviles o proteína animal para satisfacer las demandas del mercado con menores costos generales. Estos productos se pueden comprar a un precio relativamente bajo y se utilizan para, o se ponen a trabajar para producir, más cosas.
¿Pero qué otra cosa producimos involuntariamente cuando la educación (o la industria, para el caso) se hace “eficiente” de esta manera? Por ejemplo, ¿hacemos que las vidas sean más pobres? ¿En palabras de Dewey, hacemos la vida más “congestionada, apresurada, confusa y extravagante“?
Tal y como se ve a través de una estrecha lente utilitario-industrial, simplemente no está claro cómo la educación podría abordar el crecimiento personal, la comunidad y la calidad de vida. Si no se aborda, creo que corremos el riesgo de marginar estos aspectos del enriquecimiento individual.
Democracia y educación
La democracia, insistía Dewey, no es una herencia estática de la que simplemente podamos vivir, sino un ideal que cada generación debe lograr a través del esfuerzo activo. Las escuelas son nuestros principales medios culturales para educar a ciudadanos libres que puedan participar de manera inteligente y creativa en este esfuerzo. La educación es cómo invertimos en el futuro de nuestra democracia.
Bajo las condiciones económicas y sociales de hoy, ¿qué significa si la “educación para la mano de obra del estado” es la principal misión de las escuelas? ¿Sacrifica la calidad de la vida presente de un estudiante en aras de un bien prometido? ¿Apoya un sistema de privilegios estático, un consumo frenético e insostenible y una eficiencia que amortece?
Dewey argumentó, en oposición, que todos deberían tener la oportunidad de una educación reflexiva críticamente y rica en ocupaciones que enfatice el crecimiento, el desarrollo emocional, el compromiso imaginativo, la vitalidad estética, la responsabilidad social y el cuidado. Desde primaria y secundaria a la universidad, esta educación puede ayudar a establecer las condiciones para el enriquecimiento personal, la investigación crítica y la participación democrática.
Nota del traductor:
[1] STEM es un acrónimo para ciencia, tecnología, ingeniería y matemáticas, por sus siglas en inglés.
Sobre el autor:
Steven Fesmire es profesor visitante de filosofía en el Middlebury College (Vermont, EE.UU.)
Texto traducido y adaptado por César Tomé López a partir del original publicado por The Conversation el 31 de agosto de 2017 bajo una licencia Creative Commons (CC BY-ND 4.0)
El artículo La educación no es la materia prima de la mano de obra se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Así es la mejor crema antiedad según la ciencia
¿Qué contiene la mejor crema antiedad? ¿Hialurónico, glicólico, retinol, coenzima Q10, vitamina C? La publicidad de los cosméticos antiedad suele centrar la atención en uno o dos de sus componentes, pero la mejor crema antiedad contiene varios principios activos que cuentan con el aval de la ciencia.
Las cremas antiedad combaten varios signos del envejecimiento, no sólo las arrugas. Las manchas en la piel, la falta de luminosidad, la pérdida de elasticidad o los poros abiertos son tanto o más importantes que las dichosas arrugas. Echemos un vistazo a los componentes que encontramos en la mejor crema antiedad y cómo funcionan sobre nuestra piel.
-
Hidroxiácidos
Los más comunes son el ácido glicólico, el salicílico, el mandélico o el láctico. Lo que hacen estos principios activos es debilitar los enlaces entre las células muertas de la piel con el resto de la epidermis, es decir, actúan como exfoliantes. Esto acelera el proceso normal de regeneración de la piel y aportan luminosidad.
En los últimos años se ha descubierto que, por ejemplo, el ácido glicólico incrementa la síntesis de colágeno, con lo que mejora la elasticidad y tersura de la piel. El ácido salicílico ha demostrado ser un principio activo que, además de desobstruir los poros, mitiga las manchas e ilumina la piel.
El inconveniente de estos hidroxiácidos es que su capacidad exfoliante puede producir irritación y además provoca que la piel sea más sensible al sol. Por este motivo los encontramos en cremas antiedad de noche o en cremas de día con un elevado índice de protección solar.
-
Ácido hialurónico
Esta sustancia se encuentra de forma natural en el cuerpo, en las articulaciones, el cartílago y la piel. Cumple una función estructural y, en el caso de la piel, su escasez se percibe como pérdida de firmeza. Con el paso de los años su proporción va disminuyendo. Por eso es importante ayudar a nuestro cuerpo a mantenerlo y a regenerarlo. En contra de la intuición, el ácido hialurónico que aplicamos sobre nuestra piel no penetra y suple las deficiencias, sino que se ha descubierto que funciona de otra manera.
Existen dos tipos de ácido hialurónico, el de alto peso molecular (APM) y el de bajo peso molecular (BPM). El APM está formado por agregados de moléculas de gran tamaño, por lo que no se absorbe, formando una película superficial que retiene el agua. Esta es su propiedad más codiciada, que es capaz de absorber 1.000 veces su peso en agua, lo que se traduce en un increíble poder hidratante. Para prevenir los signos de la edad es fundamental mantener la piel hidratada.
El BPM, también denominado ácido hialurónico fragmentado o hidrolizado, forma agregados moleculares de pequeño tamaño, capaces de penetrar hasta la dermis, captar agua y producir un efecto de relleno que atenúa las arrugas y mantiene la hidratación durante más tiempo. A medio plazo se ha comprobado que estimula la formación de más hialurónico. El BMP es el hialurónico más novedoso y también el más costoso de producir, por eso lo encontramos en productos de gama media-alta, especialmente en formato serum, mientras que el APM suele formar parte de cremas y geles más económicos.
-
Vitaminas
Una de las causas del envejecimiento de la piel es la formación de radicales libres por estrés oxidativo de las células, cosa que se acelera en presencia de radiación solar. Esto hace perder elasticidad porque se destruye la elastina y el colágeno. Para paliar la oxidación, las cremas antiedad contienen antioxidantes como algunas vitaminas. Normalmente estos antioxidantes son derivados de la vitamina C y la vitamina E con capacidad de penetración en la piel, como ascorbatos y acetatos respectivamente.
La vitamina C dinamiza la producción de colágeno y aclara las manchas. La encontramos en fórmulas ligeras, para pieles grasas o con acné. Como este activo se oxida con facilidad, el envase cobra importancia: ha de ser airless en tubo o con dosificador, cosa que encarece el producto final.
Otro antioxidante común es el derivado de la vitamina E, el tocoferol. Lo encontramos en fórmulas más untuosas y es más fácil de conservar. Se suele asociar a la vitamina C para conseguir mayor efecto. Posee acción hidratante, previene la formación de eritemas y quemaduras durante la exposición solar, tiene acción calmante, por lo que se utiliza con frecuencia en productos aftersun.
Otro antioxidante, más asequible que las vitaminas C y E, es el derivado de la coenzima Q10, el ubiquinol. Previene el estrés oxidativo y frena la destrucción del colágeno provocada por la radiación solar.
Otra vitamina común en estas cremas es la niacinamida o vitamina B3, que reduce la formación de manchas porque inhibe la acción de la tirosinasa, la enzima necesaria para la síntesis de la melanina. Si no se metaboliza, no se produce la mancha.
-
Retinoides
Los retinoides son derivados del ácido retinoico o vitamina A. En las cremas los encontramos como retinol y como retinaldehído. Previene el envejecimiento de la piel desde varios frentes. Es, posiblemente, el principio activo más prometedor de las cremas antiedad. A nivel de la epidermis reduce la cohesión de las células muertas, disminuye la actividad de los melanocitos, por lo que reducen las hiperpigmentaciones y estimula la cicatrización al promover el crecimiento de los tejidos y la síntesis de colágeno. A nivel de la dermis estimula la actividad de los fibroblastos, aumentando así la síntesis de colágeno y elastina. El conjunto de estas acciones se traduce en que difumina las líneas de expresión, reduce los poros, incrementa la elasticidad, previene y reduce las manchas y mejora el tono de la piel.
-
Ácidos grasos
Los ácidos grasos como el ácido linoleico tienen actividad antioxidante y contribuyen notablemente a la regeneración celular. Regulan de la permeabilidad de la piel, con lo que favorecen que otros principios activos penetren en ella. Desarrollan un papel importante en la hidratación y el mantenimiento de la integridad de la barrera cutánea.
-
Filtros solares
Los filtros solares son los ingredientes estrella de cualquier producto cosmético antiedad. No pueden faltar. La radiación solar, especialmente la radiación ultravioleta, es el mayor enemigo de nuestra piel. No solo produce quemaduras y aumenta el riesgo de cáncer, sino que además es el principal factor que provoca la aparición de manchas, la destrucción del colágeno y la elastina, la aparición y acentuación de arrugas. Es decir, además del paso del tiempo, la radiación ultravioleta es responsable de todos los signos de la edad. Por este motivo, la mejor crema antiedad es aquella que tenga protección solar, cuanto mayor factor SPF, mejor.
En ellas encontramos tanto filtros físicos como filtros químicos. Los primeros reflejan la radiación ultravioleta, como un espejo, y los segundos transforman la radiación ultravioleta en radiación inocua. Los físicos son menos cosméticos que los químicos, ya que dejan rastro blanco, así que lo habitual es encontrarse filtros químicos en las cremas de gama media-alta o una combinación de ambos.
-
Conclusiones
La mejor crema antiedad es aquella que mantiene la piel hidratada, libre de células muertas y de radicales libres y, sobre todo, protegida de la radiación solar. Eso lo hemos conseguido gracias a la investigación científica. Para lograrlo es necesaria una combinación de diferentes principios activos como hidroxiácidos, vitaminas, hialurónico, retinoides, ácidos grasos y filtros solares.
En la mayoría de los casos los encontramos en diferentes productos cosméticos, y no en uno solo, ya que algunos de estos activos compiten entre sí y no se pueden formular en un único producto. A esto hay que sumarle que las expectativas son diferentes en cada caso. No es lo mismo una piel de 35 años que una de 60. La piel de un hombre que la de una mujer. Una piel que ha sido maltratada por el sol, que otra que no lo ha sido. Una piel con arrugas y manchas ya marcadas o una que sólo las tiene incipientes. Igual que una piel seca que una piel grasa.
Hay que tener en cuenta que los resultados difieren entre unas personas y otras por estos y otros muchos factores, así que hay que mantener unas expectativas realistas. Estos principios activos funcionan difuminando los signos de la edad y, sobre todo y más importante, los previenen. Contra los signos de la edad, mejor prevenir que curar.
Las concentraciones de cada principio activo varían y se combinan en una fórmula que se adapta a diferentes tipos de piel y a diferentes bolsillos. Unos principios activos son más costosos que otros, por sí mismos y por las implicaciones que tienen sobre la fabricación y conservación del producto final. Unos requieren de bases ricas y otros de bases ligeras para ser realmente eficaces.
Hay muchas razones por las que no existe una única mejor crema antiedad, sino que en el mercado existe una gran variedad de mejores cremas antiedad. Eso sí, las mejores se fundamentan en principios activos de probada eficacia.
Es imposible ponerse de acuerdo sobre cuál es la mejor crema antiedad porque no existe la mejor crema antiedad universal, que satisfaga por igual todos los casos posibles. La que para mí es la mejor crema antiedad, por mi tipo de piel y mi estilo de vida, quizá para ti no lo sea, por muchos ingredientes que coincidan con los citados. Para averiguar cuál es tu mejor crema antiedad, acude a tu dermatólogo, a tu farmacéutico o a tu dermoconsejero. Cuanto mejor conozcas tu piel y tus necesidades, mejores opciones van a ofrecerte. Seguro que entre sus ingredientes encuentras algunos de estos seis principios activos que, según la ciencia, funcionan.
Fuentes principales:
Improvement of Naturally Aged Skin With Vitamin A (Retinol). Reza Kafi, MD; Heh Shin R. Kwak, MD; Wendy E. Schumacher, BS; et al Soyun Cho, MD, PhD; Valerie N. Hanft, MD; Ted A. Hamilton, MS; Anya L. King, MS; Jacqueline D. Neal, BSE; James Varani, PhD; Gary J. Fisher, PhD; John J. Voorhees, MD, FRCP; Sewon Kang, MD. Arch Dermatol. 2007;143(5):606-612.
Human skin penetration of hyaluronic acid of different molecular weights as probed by Raman spectroscopy. Essendoubi M , Gobinet C, Reynaud R, Angiboust JF, Manfait M, Piot O. Skin Res Technol. 2016 Feb;22(1):55-62
A Multicenter, Single-Blind Randomized, Controlled Study of a Volumizing Hyaluronic Acid Filler for Midface Volume Deficit: Patient-Reported Outcomes at 2 Years. Pocos J, Cox SE, Paradkar-Mitragotri D, Murphy DK. Aesthet Surg J. 2015 Jul;35(5):589-99
Glycolic acid treatment increases type I collagen mRNA and hyaluronic acid content of human skin. Bernstein EF1, Lee J, Brown DB, Yu R, Van Scott E. Dermatol Surg. 2001 May;27(5):429-33.
Topical ascorbic acid on photoaged skin. Clinical, topographical and ultrastructural evaluation: double-blind study vs. placebo. Philippe G. Humbert, Marek Haftek, Pierre Creidi, Charles Lapière, Betty Nusgens, Alain Richard, Daniel Schmitt, André Rougier, Hassan Zahouani. Experimental Dermatology. Volume 12, Issue 3. June 2003. Pages 237–244
Efecto de los alfahidroxiácidos en la permeabilidad de la epidermis humana in vitro. Octavio Díez Sales, Alfonso Copoví y Marina Herráez. Dep. de Farmacia y Tecnología Farmacéutica. Universidad de Valencia.
Coenzyme Q 10, a cutaneous antioxidant and Energizer. Hoppe, U.; Bergemann, J. Diembeck, W. Ennen, J. Gohla, S. Harris, I. Jacob, J. Kielholz, J. Mei, W. Pollet, D. Schachtschabel, D. Sauermann, G. Schreiner, V. Stäb, F. Steckel, F. Journal Biofactors, vol. 9, no. 2‐4, pp. 371-378, 1999
¿Cómo funciona tu crema solar? Dimetilsulfuro.es, 2015
Use of salicylic derivatives for the treatment of skin aging. Jean L. Leveque, Didier Saint Leger. Patent US 5262407 A, 1993.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Así es la mejor crema antiedad según la ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La materia oscura auto-interactuante y las curvas de rotación de las galaxias
La naturaleza de la materia oscura sigue siendo uno de los grandes misterios de la ciencia. Tanto es así que hay científicos que consiguen gran eco mediático simplemente proponiendo teorías en las que la materia oscura no aparece. Pero ninguna de estas teorías termina de explicar las cosas tan bien como lo hace la materia oscura. O las materias oscuras, porque sabemos tan poco de ella que no sabemos con seguridad si es caliente, fría, tibia o si interactúa consigo misma.
La materia oscura auto-interactuante -una forma hipotética de materia oscura hecha de partículas que interactúan entre sí- es un recurso que soluciona problemas en cosmología. A escalas galácticas o menores, puede corregir discrepancias entre las observaciones y las predicciones del modelo cosmológico estándar, que en su lugar considera una materia oscura “fría” que no interactúa consigo misma. Y esto lo hace dejando intacto el éxito del modelo estándar a escalas más grandes.
Ahora, Ayuki Kamada, de la Universidad de California en Irvine, y sus colegas demuestran que la materia oscura auto-interactuante también puede explicar la diversidad de curvas de rotación de las galaxias, para entendernos, las gráficas que resultan de representar las velocidades de las estrellas en una galaxia frente a su distancia al centro de la misma.
Las estrellas y el gas en las galaxias suelen girar a una velocidad constante más allá de una cierta distancia del centro de la galaxia: las curvas de rotación son esencialmente planas, sin importar lo masivos que sean los “halos” de materia oscura en los que están sumergidos. Pero las galaxias con halos de materia oscura de masa similar pueden tener curvas muy diferentes por debajo de esa distancia: algunas curvas suben abruptamente hacia la meseta y otras gradualmente. Esta diversidad es difícil de explicar en el marco del modelo de materia oscura fría estándar.
Los investigadores analizaron las curvas de rotación de 30 galaxias que representan esta diversidad y compararon las curvas con las que se derivan de un modelo galáctico que habían desarrollado. Este modelo incluye un halo de materia oscura que interactúa consigo mismo en la región interior, y tiene en cuenta la distribución de la materia visible en el halo, así como la historia de la formación del halo. Los investigadores encontraron que el modelo proporciona un ajuste excelente a los datos, dando apoyo a la hipótesis de que la materia oscura es auto-interactuante.
Con todo, este es solo un dato más entre los muchos que habrá que generar para algún día poder resolver uno de los grandes misterios de la ciencia de hoy, a saber, qué es la materia oscura.
Referencia:
Ayuki Kamada, Manoj Kaplinghat, Andrew B. Pace, and Hai-Bo Yu (2017) Self-Interacting Dark Matter Can Explain Diverse Galactic Rotation Curves Phys Rev. Lett. doi: 10.1103/PhysRevLett.119.111102
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La materia oscura auto-interactuante y las curvas de rotación de las galaxias se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El problema matemático de las cartas extraviadas
Para empezar esta entrada del Cuaderno de Cultura Científica os voy a proponer un juego. A continuación, vamos a mostrar dos listas. La primera lista, la situada a la izquierda, está formada por los nombres de cinco grandes artistas del siglo XX (Sonia Delaunay, Maruja Mallo, Lee Krasner, Georgia O’Keefe y Loïs Mailou Jones) y la lista de la derecha contiene los títulos de cinco obras de arte, una de cada una de las artistas de la primera lista. El juego consiste en unir cada una de las artistas de la fila de la izquierda con su correspondiente cuadro en la lista de la derecha.
A continuación, podéis ver las obras mencionadas. Y mientras vais viendo cada una de las pinturas podéis intentar asociarla con la artista que la pintó, cuyo nombre es uno de los de la lista de arriba.
Si ya habéis dado una respuesta al juego, podéis seguir adelante con la lectura de esta entrada, aunque si aún no habéis asociado cada artista con una obra podéis volver a mirarlas y haced vuestra elección.
La respuesta correcta a este juego relacionado con el arte es: (A, 2), (B, 5), (C, 1), (D, 4) y (E, 3).
Pero pensemos un poco en el juego y en las diferentes elecciones que se podrían haber hecho. Para empezar, ¿cuántas formas existen de unir los cinco nombres de artistas con los cinco títulos de cuadros, es decir, cuántas posibles respuestas, aunque sean erróneas, tiene el juego?
La solución a esta cuestión seguro que ya la conocéis. Es el número de aplicaciones biyectivas del primer conjunto {A, B, C, D, E} en el segundo {1, 2, 3, 4, 5} o, equivalentemente, de permutaciones de cinco elementos. Si pensamos en que tenemos que asociar a cada una de las letras A, B, C, D y E (que son las artistas), uno de los números 1, 2, 3, 4 y 5 (que son los cuadros), cada posible respuesta al juego es una permutación de los números {1, 2, 3, 4, 5}. Así, la respuesta correcta era la permutación {2, 5, 1, 4, 3}. El número de permutaciones de 5 elementos, o lo que es lo mismo, respuestas al juego de los cuadros, correctas o no, es el factorial de 5, 5! = 5 × 4 × 3 × 2 × 1 = 120. Esto se debe a que, si empezamos por orden, a la artista A la podemos asociar con cada uno de los 5 números {1, 2, 3, 4, 5}, pero una vez realizada una elección para A, y para cada una de ellas, hay 4 posibles elecciones para B. En resumen, para A y B hay en total 5 × 4 = 20 posibles asociaciones de números. Seguimos. Fijadas A y B, y para cada una de las 20 elecciones posibles de ellas, quedarán 3 números libres para poder asociar a C, dos para D, elegida también la opción para C, y finalmente, fijadas las anteriores, solo habrá 1 posibilidad para E. Es decir, las posibles respuestas son 5 × 4 × 3 × 2 × 1 = 120.
Más aún, de esas 5! = 120 posibles respuestas al juego, solo una de ellas es la correcta, como sabemos (A, 2), (B, 5), (C, 1), (D, 4) y (E, 3), pero ¿para cuántas respuestas no habríamos acertado ninguno de los cuadros de las cinco artistas? ¿O un cierto número dado de cuadros, por ejemplo, solo uno? De estas cuestiones vamos a hablar en esta entrada del Cuaderno de Cultura Científica.
Este problema se conoce con el nombre de problema de las cartas extraviadas, o mal dirigidas, aunque también se conoce con otros muchos nombres, entre ellos, el problema de la encargada del guardarropa, el problema de los sombreros, el problema de las coincidencias, el problema de los desarreglos o el problema de Bernoulli-Euler.
El problema dice así:
Determinar el número de permutaciones de n elementos (por ejemplo, los n primeros números {1, 2, …, n}) en las que ningún elemento ocupa su posición natural.
Aunque normalmente el problema se expresa de una forma más divulgativa, cercana al juego que hemos planteado al principio de esta entrada, y que es el motivo por el que recibe el nombre de problema de las cartas extraviadas:
Una persona ha escrito n cartas a n personas distintas (por ejemplo, n amigas suyas) y escribe las direcciones de estas en n sobres. ¿De cuántas formas puede colocar las n cartas en los n sobres de forma que todas las cartas estén en sobres “incorrectos”, es decir, que no lleven la dirección que le corresponde a la carta que contienen?
El problema fue propuesto originalmente por el matemático francés Pierre Rémond de Montmort (1678-1719) en su libro sobre probabilidad y juegos de azar Essay d’analyse sur les jeux de hazard (Análisis de los juegos de azar), de 1708. De Montmort había introducido en su libro un juego de cartas llamado Treize (trece), que es como el juego la ratonera de Arthur Cayley, pero con 4 tacos de 13 cartas (precisamente una baraja francesa de póquer, tiene 52 cartas, con cuatro palos –corazones, diamantes, tréboles y picas– y cada palo con 13 cartas, que podemos considerar numeradas del 1 al 13).
De Montmort se propuso el análisis del juego del Treize, así como algunos problemas más sencillos relacionados con el mismo, entre los que estaba el que denominó el “problema del reencuentro”, que no es otro que el enunciado arriba (problema de las cartas extraviadas).
De Montmort discutió ampliamente este problema con su amigo el matemático Nicolas Bernoulli (1687-1759) en la extensa correspondencia que mantuvieron entre ambos, así como con Johann Bernoulli (1667-1748).
En la segunda edición de su libro Essay d’analyse sur les jeux de hazard, de 1813, de Montmort publica la solución del problema del reencuentro (problema de las cartas extraviadas), así mismo la solución de Nicolas Bernoulli aparece en la correspondencia con de Montmort, la cual es incluida por el francés en esa segunda edición. Otros grandes matemáticos analizaron el problema, como Leonhard Euler (1707-1783) en Calcul de la probabilité dans le jeu de rencontre (1743), Abraham de Moivre (1667-1754) en The Doctrine of Chances (1756), Johann H. Lambert (1728-1777) en Examen d’une espèce de superstition ramenée au calcul des probabilités (1773) o Pierre-Simon Laplace (1749-1827) en Théorie Analytique des Probabilités (1812).
Pero vayamos con la demostración del problema de las cartas extraviadas. La demostración que vamos a mostrar aquí es la realizada por Leonhard Euler, y aparece recogida en el libro 100 Great Problems of Elementary Mathematics: Their History and Solutions.
Vamos a denotar por c1, c2, …, cn los objetos (por ejemplo, las cartas), por S1, S2, …, Sn las posibles posiciones (en la versión de las cartas serían los sobres) y por D(n) el número de permutaciones de n objetos en las cuales ninguno queda en su posición original, es decir, ninguna carta está en el sobre que le corresponde.
Se consideran dos casos:
Caso 1. Las permutaciones de los objetos, esto es, las formas de meter las cartas en los sobres, de manera que la carta c1 está en el sobre S2 (en general, sería cuando el objeto c1 está en la posición S2) y la carta c2 está en el sobre S1.
En este caso, las demás cartas c3, c4, …, cn van a estar en los sobres S3, S4, …, Sn, pero cada una de esas n – 2 cartas ci no está en el sobre correcto Si (i = 3, 4, …, n). Por lo tanto, el número de estas permutaciones es D(n – 2), es decir, el número de permutaciones de n – 2 objetos de forma que ninguno esté en su posición original.
Caso 2. Las permutaciones para las cuales la carta c1 está en el sobre S2, pero la carta c2 no está en el sobre S1.
En estas permutaciones la carta c1 está en el sobre S2, y hay que distribuir las cartas c2, c3, …, cn en los sobres S1, S3, …, Sn, de forma que c2 no esté en S1, c3 no esté en S3, c4 no esté en S4, así hasta la carta cn que no puede estar en Sn. Es decir, si pensamos que al no poder estar la carta c2 en el sobre S1, podemos “asociar” c2 y S1, entonces el número de formas de realizar dicho reparto (la carta c1 está en el sobre S2, pero la carta c2 no está en el sobre S1) es D(n – 1).
En resumen, estos dos casos me muestran que el número de permutaciones de n objetos en las que ningún objeto está en su posición original, pero además c1 está en S2, es igual a
D(n – 2) + D(n – 1).
Y como un argumento similar se puede aplicar a los casos en los que c1 está en S3, S4, …, Sn, se ha demostrado que el número de permutaciones de n objetos en las que ningún objeto está en su posición original es
D(n) = (n – 1) · [D(n – 2) + D(n – 1)]. (fórmula 1)
La fórmula (recursiva) 1 anterior puede reescribirse de la siguiente forma
D(n) – n · D(n – 1) = – [D(n – 1) – (n – 1) · D(n – 2)].
De donde se deduce por recursión y teniendo en cuenta que D(1) = 0 (no hay forma de meter 1 carta en 1 sobre sin acertar), D(2) = 1 (solo hay una forma de meter 2 cartas en 2 sobres de forma incorrecta, cada carta en el sobre que no es) y (–1)n-2 = (–1)n,
D(n) – n · D(n – 1) = (–1)n, (fórmula 2)
puesto que
D(n) – n · D(n – 1) = – [D(n – 1) – (n – 1) · D(n – 2)]
= (–1)2 [D(n – 2) – (n – 2) · D(n – 3)]
= (–1)3 [D(n – 3) – (n – 3) · D(n – 4)]
= … = (–1)n-2 [D(2) – 2 · D(1)].
Si consideramos la fórmula (recursiva) 2 anterior y la dividimos por n!, se obtiene
D(n) / n! –D(n – 1) / (n – 1)! = (–1)n / n!.
De nuevo un argumento recursivo nos lleva a la fórmula
D(n) / n! = (–1)2 / 2! + (–1)3 / 3! + … + (–1)n / n!.
O equivalentemente,
Así, para un número n pequeño de objetos (respectivamente, de cartas) podemos calcular el número D(n) de las permutaciones de esos n objetos en las cuales ninguno queda en su posición original. En concreto, D(3) = 2, D(4) = 9, D(5) = 44, D(6) = 265 y D(7) = 1854. A estos números se les suele conocer con el nombre de números de Montmort o números de desarreglos, y en la Enciclodepia on-line de sucesiones de enteros (OEIS) es la sucesión de números A000166.
Si tenemos en cuenta que en el juego del inicio de esta entrada teníamos cinco artistas, es decir, n es 5, sabemos que el número de soluciones del juego para las cuales no se acierta ni uno solo de los cuadros es D(5) = 44, del total de 120 posibles.
La fórmula obtenida para D(n) se puede demostrar también utilizando el principio de inclusión-exclusión, que es como lo realizó Abraham de Moivre, y quien esté interesado en la misma la puede encontrar por ejemplo en el libro How to count, an introduction to combinatorics.
Pero el problema de las cartas extraviadas, o de los desarreglos, que aquí hemos presentado en su versión combinatoria, suele presentarse también en su versión probabilística.
Problema: Una persona ha escrito n cartas a n personas distintas, escribe las direcciones de estas en n sobres y mete “sin mirar” (al azar) las n cartas en los n sobres. ¿Cuál es la probabilidad de que ninguna de las cartas acabe en el sobre correcto, es decir, con la dirección que le corresponde?
Teniendo en cuenta que la probabilidad de un evento, en este caso que todas las cartas acaben en sobres incorrectos, es igual al número de casos favorables, que es D(n) y acabamos de calcularlo, dividido entre el número de casos posibles, que es n!, entonces dicha probabilidad P(n) es
Ahora si tenemos en cuenta la serie de la función exponencial ex:
para x = – 1, se tiene que la probabilidad P(n) de que ninguna de las cartas acabe en el sobre correcto se va acercando a 1/e, que es aproximadamente 0,36788 (36,788%), a medida que n va siendo cada vez mayor,
Además, dicha convergencia es muy rápida, como podemos observar en la siguiente tabla.
Si volvemos al juego del inicio de esta entrada, observamos que si hemos contestado al azar, la probabilidad de no acertar ni uno solo de los cuadros es del 36,67%, que es bastante alta.
Por otra parte, el problema probabilístico de las cartas extraviadas se puede extender al problema general de que haya un cierto número dado de cartas que sí están en el sobre correcto.
Problema: Una persona ha escrito n cartas a n personas distintas, escribe las direcciones de estas en n sobres y mete “sin mirar” (al azar) las n cartas en los n sobres. ¿Cuál es la probabilidad de que exactamente k de las n cartas acabe en el sobre correcto, es decir, con la dirección que le corresponde?
La respuesta es
Como curiosidad, si deseamos saber la probabilidad de que solamente una carta de las n posibles acabe en el sobre correcto, observamos que es P(n,1) = P(n – 1). Es decir, para valores grandes de n, esa cantidad se aproxima, de nuevo, a 0,36788 (36,788%).
Vamos a terminar esta entrada del Cuaderno de Cultura Científica recordando un episodio lamentable, el del accidente del Yak-42 en Turquía, en el que el problema de las cartas extraviadas, aunque en esa ocasión se mencionó como el problema de los sombreros, apareció citado en un medio de comunicación.
En el accidente del avión Yak-42 del 26 de mayo de 2006 (para quien desee más información sobre el tema puede consultar aquí ), murieron 62 militares españoles. De los 30 cadáveres que tenían que identificar las autoridades españolas (los otros 32 fueron identificados correctamente por las autoridades turcas), no acertaron ni uno solo, como se menciona en el titular de la siguiente noticia de El País “Defensa no acertó a identificar ni una sola de las víctimas del Yak-42”.
Parecía sorprendente que de las 30 identificaciones, que obviamente habían sido realizadas al azar, no se hubiese acertado ni siquiera una. Como hemos explicado a lo largo de esta entrada, y como se explicó en el recuadro “El problema de los sombreros” de la mencionada noticia de El País, la probabilidad de no acertar en ninguna de las identificaciones (habiendo sido realizadas estas al azar) era del 36,79%, muy alta, luego era bastante probable. Pero si además tenemos en cuenta que, como hemos mencionado también, la probabilidad de que solamente acertaran una identificación también era del 36,79%, entonces la probabilidad de que no acertaran ninguna, o solamente una, identificación era del 73,58%. Muy, muy alta.
Bibliografía
1.- Miodrag S. Petkovic, Famous puzzles of Great Mathematicians, AMS, 2009.
2.- Heinrich Dorrie, 100 Great Problems of Elementary Mathematics: Their History and Solutions, Dover, 1965.
3.- R. B. J. T. Allenby, Alan Slomson, How to count, an introduction to combinatorics, CRC Press, 2011.
4.- Montmort’s Problême du Treize, MacTutor History
of Mathematics archive, 2015.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El problema matemático de las cartas extraviadas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Sistemas nerviosos: evolución de la estructura encefálica
J. B. Johnston, uno de los fundadores de la neurobiología evolutiva, afirmó en 1923, refiriéndose a diferentes grupos de vertebrados, que “new structures have not appeared” (no han aparecido nuevas estructuras). Y sin embargo, tal y como hemos visto en las anotaciones anteriores, los encéfalos de unas especies carecen de estructuras que sí aparecen en otras. Es más, el uso del prefijo “neo” en neuroanatomía es muy común.
Ludwig Edinger, otro de los precursores, había propuesto en 1908 que en el curso de la evolución del encéfalo de vertebrados se añadió un “neencephalon” al “palaeencephalon” preexistente. Esa idea tuvo amplia aceptación en la primera mitad del siglo XX y dio lugar a la visión más general de que los encéfalos han evolucionado por la acumulación de partes nuevas. La idea tiene el atractivo de que implica un aumento de la complejidad: como se añaden partes nuevas, el número de regiones aumenta, luego la complejidad es mayor. Sin embargo, Johnston había comprobado por sí mismo y a partir de trabajos de otros investigadores que las consideradas nuevas tenían estructuras homólogas1 en los vertebrados “inferiores”. Por ejemplo, el pallium de peces y reptiles, aunque de aspecto muy diferente, es homólogo al neocortex de mamíferos y por lo tanto, éste no se puede considerar propiamente “nuevo”. En la actualidad se acepta que en el curso de la evolución de vertebrados no han aparecido estructuras nuevas, entendiendo nuevas como no homólogas a estructuras precursoras, pero lo que es claro es que, en general, conforme han ido surgiendo nuevos grupos, sus encéfalos han ido siendo cada vez más complejos, porque el número de regiones encefálicas o agrupamientos celulares ha aumentado. De hecho, una somera comparación de su número sugiere que la complejidad ha aumentado y disminuido en la evolución de los vertebrados en varias ocasiones.
Número de áreas encefálicas diferenciables (la secuencia sigue un orden de diferenciación en el curso de la evolución): mixinos (peces brujas): 36; lampreas: 25; tiburones: 46; rayas: 45; bichires de Cuvier (osteíctio actinopterigio): 46; teleósteos: 71; peces pulmonados: 29; salamandras: 31; ranas: 50; reptiles: 85; aves: 87; mamíferos: 257.
A la vista de esos datos parece que la complejidad encefálica aumentó en los peces teleósteos, más adelante en el origen de los amniotas y después con los mamíferos. Y descendió con los peces pulmonados y las salamandras. Así pues, los encéfalos han variado en su número de estructuras y, en general, la tendencia ha sido de aumento.
Hay varios mecanismos que pueden explicar el aumento de regiones encefálicas sin que se hayan generado (filogenéticamente) nuevas estructuras. Pueden haber aparecido por conversión filogenética (cuando una estructura se transforma en otra) o proliferación filogenética, y dentro de esta, segregación (cuando una estructura da lugar a dos o más) y adición (cuando una estructura surge ex novo).
La aparición de estructuras en láminas a partir de una anterior homóloga pero no laminar es un caso paradigmático de conversión filogenética. Tienen estructuras laminares el lóbulo vagal de los teleósteos ciprínidos, el torus semicircularis de los peces eléctricos Gymnotidae, y el núcleo geniculado lateral dorsal de los mamíferos; todas estas estructuras son homólogas a otras no laminadas que existen en grupos relacionados. Una clara ventaja de la estructura laminar es que minimiza las longitudes de conexión neuronal y, por lo tanto, permite ahorros en energía, espacio y tiempos de conducción. También facilita la emergencia de funciones más complejas que los reflejos. La estructura laminar se desarrolla con facilidad y es funcionalmente ventajosa porque las neuronas en láminas diferentes pueden conectarse con mínimo cableado (dendritas y axones).
El término segregación filogenética se acuñó para denominar la diferenciación de ganglios (núcleos) a partir de un tejido poco diferenciado del tallo encefálico, y se puede aplicar, en general, a aquellos casos en los que regiones encefálicas homogéneas dan lugar a varias regiones diferentes, ninguna de las cuales es homóloga (una a una) a la antigua. Un ejemplo es el tálamo dorsal, que contiene bastantes más núcleos en amniotas que en anamniotas. Otro es el del complejo preglomerular de los peces (osteíctios) actinopterigios, con un número de núcleos muy diferente en unas especies y otras. El número de núcleos es mayor cuanto más recientemente han evolucionado las especies. El aumento en el número de núcleos se atribuye a un proceso de proliferación filogenética, que muy probablemente ha ocurrido por segregación.
Los casos mejor conocidos de adición son el lóbulo de la línea lateral electrosensorial de peces eléctricos, la válvula cerebelar, que solo aparece en teleósteos, la porción electrosensorial del torus semicircularis del encéfalo medio de los Gymnotidae y los siluros; o el torus longitudinalis del techo óptico de todos los (osteíctios) actinopterigios. Las adiciones pueden producirse mediante desarrollo de nuevas estructuras a partir de tejido embrionario. Ese tejido precursor, que en estadios evolutivos anteriores daba lugar a una estructura determinada en el encéfalo adulto, puede –además de conservar la anterior- generar nuevas estructuras en fases evolutivas posteriores. Lo puede hacer, además, mediante dos posibles vías. Una consistiría en una nueva forma de expresión génica en una zona de ese tejido precursor. Y la otra se puede producir si el tejido en cuestión alcanza un tamaño mayor y parte de la estructura se ve expuesta a estímulos ontogenéticos diferentes, de manera que su desarrollo cursa de forma distinta, dando lugar a una estructura nueva.
Un aspecto de especial interés es el modo en que se han desarrollado las diferentes áreas corticales. Se ha constatado que mamíferos de muy diferentes grupos tienen las mismas áreas sensoriales primarias y secundarias bien diferenciadas. Y algo similar cabe decir de las áreas motoras en placentarios. Lo más probable es, por lo tanto, que las áreas sensoriales y motoras de niveles básicos de la corteza surgieran ya en los primeros mamíferos, lo que no parece ser el caso de las áreas corticales de niveles superiores. ¿Cómo surgieron, entonces, esas áreas de orden superior? Al respecto se han formulado diferentes hipótesis, como la de la posibilidad de una agregación selectiva de heterogeneidades modulares preexistentes en las áreas antigua, o la duplicación de áreas preexistentes y posterior diferenciación funcional, entre otras. No obstante, hay aspectos sustanciales de la arquitectura encefálica y de la diversificación de áreas que no son explicadas de forma satisfactoria por ninguna de las hipótesis formuladas.
Para concluir, remarcaremos la idea de que sean cuales sean los mecanismos implicados en la aparición de nuevas áreas o regiones en el encéfalo de los vertebrados, parece claro que un mayor número de áreas es ventajoso desde el punto de vista funcional, porque de esa forma pueden especializarse en tareas diferentes. La división del trabajo redunda en una mayor eficiencia aunque también reduce la flexibilidad del sistema. No obstante, en el curso de la evolución de las especies de vertebrados parece haberse favorecido la eficiencia en perjuicio de la flexibilidad. De esa forma se han alcanzado encéfalos de gran tamaño, lo que no hubiera sido posible con bajos niveles de diferenciación. En síntesis, a lo largo de la evolución se han ido desarrollando encéfalos más complejos porque son funcionalmente útiles y han sido la única forma de tener grandes números de neuronas sin sacrificar su funcionalidad.
Fuentes:
Eric R, Kandel, James H. Schwartz, Thomas M. Jessell, Steven a. Siegelbaum & A. J. Hudspeth (2013): Principles of Neural Science 5th ed., Mc Graw Hill, New York
Georg F. Striedter (2005): Principles of Brain Evolution, Sinauer & Co, Sunderland USA
Nota:
1Homólogo es un rasgo que tiene origen común, o sea que evolucionó una vez.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas nerviosos: evolución de la estructura encefálica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El tamaño de las moléculas
Hasta que llegó la prueba de que las ideas de Maxwell sobre la distribución de las velocidades de las moléculas eran correctas aparecieron no pocas cuestiones, muchas muy razonables, a las que se tuvo que enfrentar la hipótesis cinética. Una no menor fue la siguiente: si es razonable suponer que los gases están compuestos de moléculas que se mueven a velocidades que pueden alcanzar varios centenares de metros por segundo a temperatura ambiente, entonces los gases deberían mezclarse de forma muy rápida, casi instantánea en una habitación de tamaño normal. Pero cualquiera que haya estudiado rudimentos de química o, simplemente, haya visto desplazarse al gas que desprende el hielo seco (en la imagen) sabe que eso no es cierto.
Supongamos que alguien abre una botella de perfume o una botella que contiene amoniaco en un rincón de la habitación. Si la habitación es grande, pueden pasar varios minutos antes de que el olor se note en el otro extremo. Pero según la distribución de velocidades de Maxwell, cada una de las moléculas de gas debería haber cruzado la sala cientos de veces para entonces. Por lo tanto, algo debía estar mal con el modelo gas que había empleado Maxwell [1].
Rudolf Clausius reconoció que esta era una objeción válida a su propia versión de la teoría cinética. Su artículo de 1857 había supuesto que las partículas eran tan pequeñas que pueden ser tratadas como puntos matemáticos. Si esto fuera cierto, las partículas casi nunca chocarían unas con otras. Sin embargo, la lentitud observada de difusión y mezcla convenció a Clausius para cambiar su modelo. Pensó que era probable que las moléculas de un gas no fueran infinitesimalmente pequeñas, sino de un tamaño finito. Las partículas de tamaño finito moviéndose muy rápidamente chocarían a menudo unas con otras. Una molécula individual puede tener una velocidad instantánea de varios cientos de metros por segundo, pero cambia la dirección de su movimiento cada vez que choca con otra molécula. Cuanto más a menudo choca con otras moléculas, menos probable es que se desplace muy lejos en cualquier dirección. La frecuencia con la que ocurren las colisiones depende de su tamaño y de lo agrupadas que estén las moléculas. En general podemos considerar que las moléculas están relativamente alejadas entre sí y que son muy pequeñas, pero que son lo suficientemente grandes y están lo suficientemente cerca unas de otras como para que se crucen sus caminos. Al darse cuenta de esto, Clausius fue capaz de modificar su modelo para explicar por qué los gases se mezclan tan lentamente, un proceso conocido como difusión.
En este punto Clausius se enfrentaba a un problema que afecta a todo físico teórico en algún momento. Si se modifica un modelo simple para explicar mejor las propiedades observadas, se vuelve más complicado. Puede ser necesario algún ajuste plausible o una aproximación para hacer cualquier predicción usando el modelo. Si las predicciones no están de acuerdo con los datos experimentales, ¿es esto debido a un fallo en el modelo o un error de cálculo introducido por las aproximaciones? El desarrollo de una teoría a menudo implica un compromiso entre la explicación adecuada de los datos y la conveniencia matemática [2].
Sin embargo, pronto se hizo evidente que el nuevo modelo era una gran mejora con respecto al anterior. Y ello porque ciertas otras propiedades de los gases también dependen del tamaño de las moléculas. Mediante la combinación de datos de varias de estas propiedades, fue posible realizar una especie de ingeniería inversa y encontrar valores bastante fiables para los tamaños moleculares. No vamos a entrar aquí en cómo se realizaron estos cálculos y nos limitaremos a dar el resultado. El diámetro de las moléculas de gas resultó ser del orden de 10-10 a 10-9 m. Un valor que no está lejos de los valores modernos, un resultado increíblemente bueno.
La obtención de estos valores finitos y razonables resultó muy bienvenida. Lord Kelvin había comentado previamente:
La idea de átomo ha estado tan constantemente asociada a asunciones increíbles de fuerza infinita, rigidez absoluta, acciones místicas a distancia e indivisibilidad, que los químicos y muchos otros naturalistas razonables de los tiempos modernos, perdiendo toda su paciencia, la han enviado a los reinos de la metafísica, y lo hicieron más pequeño que “todo lo que podemos concebir”.
Kelvin showed that other methods could also be used to estimate the size of atoms and molecules. None of these methods gave results as reliable as did the kinetic theory. But it was encouraging that they all led to the same order of magnitude (power of ten).
El propio Kelvin demostraría que se pueden emplear otros métodos alternativos para estimar el tamaño de átomos y moléculas. Sin embargo, ninguno de estos métodos era capaz de proporcionar resultados tan fiables como los de la teoría cinética. Pero era alentador que todos llevaran al mismo orden de magnitud (poder de diez).
Nota:
[1] Hemos de aclarar que nuestro modelo simple de gas incluye, en su sencillez, las correcciones necesarias.
[2] Y el uso de hipótesis auxiliares. Pero de esto hemos hablado más extensamente aquí.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El tamaño de las moléculas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: