Un atlas para materiales 2D

Imagen: J. Nevalaita / University of Jyväskylä
En 1869 un químico teórico ruso, Dimitri Mendeleev, ordenó los elementos químicos conocidos en su día en lo que hoy conocemos como tabla periódica. Algo similar había sido hecho antes, pero Mendeleev estaba tan convencido de entender qué periodicidad tenían los elementos que se atrevió a dejar huecos en su tabla para elementos aún desconocidos, pero de los que era capaz de predecir sus propiedades. Poco tiempo después algunos de esos elementos eran descubiertos y la tabla periódica se convertía en uno de los grandes logros de la ciencia.
Desde el aislamiento del grafeno en 2004, los investigadores han descubierto cientos de materiales bidimensionales (2D), que tienen una o varias capas atómicas de grosor y tienen propiedades interesantísimas, como una resistencia excepcional, una gran movilidad de electrones o capacidades reactivas excepcionales. Muchos de los dispositivos que sustituirán previsiblemente a la electrónica (habrá que irse habituando a nombres como espintrónica o polaritónica) se basan en materiales 2D.
Las estructuras y propiedades de estos materiales están determinadas por sus enlaces químicos, que generalmente son covalentes, como en el caso del grafeno. Pero también existen materiales 2D con enlaces metálicos, que han demostrado recientemente además tener mucho potencial en catálisis y otras aplicaciones, como la detección de gases.
Ahora dos teóricos, Janne Nevalaita y Pekka Koskinen, del Centro de Nanociencia de la Universidad de Jyväskylä (Finlandia) han realizado un estudio sistemático de materiales en 2D que podrían formarse a partir de muchos elementos metálicos. El resultado es un “atlas” que podría servir de guía a los investigadores que intentan sintetizar estos materiales como la tabla de Mendeleev lo hizo con el descubrimiento de nuevos elementos.
Si bien solo unos pocos metales 2D elementales se han investigado con anterioridad, tanto experimental como teóricamente, los investigadores llevaron a cabo un estudio del funcional de la densidad de los materiales 2D que podrían formarse a partir de 45 elementos metálicos, desde el litio al bismuto. Para cada uno calcularon las propiedades clave relacionadas con la estructura y la resistencia mecánica: longitudes de enlace promedio, energía cohesiva (una medida de la fuerza con la que se une la retícula de átomos) y módulo de compresibilidad (una medida de la resistencia a ser comprimida de una sustancia).
Los cálculos sugieren que las propiedades de un material 2D se “heredan” de las de la versión 3D del mismo metal y, por lo tanto, pueden calcularse a partir de las propiedades del metal 3D mediante una extrapolación lineal. Para cada metal en 2D, los investigadores analizaron tres posibles configuraciones de estructura cristalina: hexagonal, cuadrada y en nido de abeja, señalando aquellas para las que con mayor probabilidad conducirían a láminas fuertes y estables.
La ciencia de nuevos materiales está en efervescencia y estudios como este permiten avanzar aún más rápidamente hacia dispositivos dignos de las mejores películas de ciencia ficción. Justo como pasó en los cincuenta años posteriores a la tabla de Mendeleev.
Referencia:
Janne Nevalaita and Pekka Koskinen (2018) Atlas for the properties of elemental two-dimensional metals Physical Review B doi: 10.1103/PhysRevB.97.035411
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Un atlas para materiales 2D se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un algoritmo genético para buscar materiales 2D
- Usando ADN para sintetizar nanoestructuras de oro
- Aislantes topológicos en sólidos amorfos
Errare humanum est
El genial Leonardo da Vinci (1452-1519) también se equivocaba; algo completamente normal, por cierto, como afirma el título de esta entrada. Damos cuenta a continuación de un pequeño error de cálculo cometido por este científico, y contenido en la página 75R del Códice Madrid I.

Página 75R. Fuente: Universiteit Gent.
Recordemos que los Códices Madrid I y II son una serie de manuscritos de Leonardo da Vinci, encontrados en los archivos de la Biblioteca Nacional de España (Madrid) en 1964. Llegaron a nuestro país a través del escultor italiano Pompeo Leoni (aprox. 1533-1608) quien los adquirió de Orazio, el hijo del pintor Francesco Melzi (1493-1572), amigo y alumno de Leonardo, que los heredó tras la muerte de su maestro. Tras diferentes cambios de dueño, acabaron en la Biblioteca del Monasterio del Escorial, pasando en 1712 a la Biblioteca Real. Allí permanecieron extraviados durante 150 años, “por el trasiego de la biblioteca regia por cuatro sedes distintas, por una fatal confusión de signatura y por el aura de Da Vinci, que cegó a muchos para adosar su fama a la del genio” en unas declaraciones al periódico El País de Julián Martín Abad; responsable de Manuscritos de la Biblioteca Nacional (ver [3]).
Estos códices, que contienen 540 páginas, tratan sobre mecánica, estática, geometría y construcción de fortificaciones. Están escritos en un dialecto del italiano y tienen una gran relevancia, ya que contienen cerca del 15% de las notas de Leonardo de Vinci referenciadas en nuestros días, además de ser uno de los tratados de ingeniería más importantes de su época.
Volvamos al manuscrito aludido al principio, y miremos con un poco más de atención la tabla situada en la parte izquierda de la página 75R.

Página 75R. Fuente: Universiteit Gent.
Escritos a mano, pero invertidos –puede verse el texto correcto por simetría especular–, se ven una serie de números representando potencias sucesivas del número 2.

La zona invertida en el documento original y su simetría especular para leer el contenido correctamente.
Sin embargo, Da Vinci comete un error al pasar del número 4 096, a su doble: en efecto, escribe 8 092, en lugar de 8 192. Tras este error, las sucesivas duplicaciones de Leonardo son correctas, con lo cual las potencias de 2 escritas en el manuscrito son erróneas a partir de ese momento.

Las potencias de 2 de Da Vinci y las correctas.
Peter Dawyndt, de la Universidad de Gante, señala en [2]: “Sin lugar a dudas, éste es un error de cálculo de Leonardo y no de unos copistas descuidados, ya que se encontró en el manuscrito original (invertido) del propio Da Vinci. El que se haya descubierto en este momento, quinientos años después de la muerte de Da Vinci, se debe probablemente al hallazgo tardío del manuscrito, hace apenas cincuenta años”.
Los genios también se equivocan, porque Errare humanum est…
Nota:
Visto en Great and small, Futility Closet, 28 diciembre 2017
Más información:
[1] Códice Madrid I (digitalizado), Biblioteca Nacional de España
[2] Peter Dawyndt, Miscalculations of da Vinci, Universiteit Gent, 13 marzo 2012
[3] Rafael Fraguas, Código Da Vinci a la castellana, El País, 22 mayo 2009
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Errare humanum est se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Artistas que miran a las matemáticas
- El teorema de los cuatro colores (y 4): ¿Podemos creer la prueba de la conjetura?
- El rostro humano de las matemáticas
Sistemas respiratorios: pigmentos de baja afinidad

Imagen: Andrei Shpatak
Hay grandes variaciones en la concentración de pigmento respiratorio de unas especies a otras. Por ello, hay también importantes diferencias entre especies en lo relativo a la concentración de O2 en la sangre. En la especie humana, por ejemplo, cuando toda la hemoglobina se halla combinada con oxígeno, la sangre alberga unos 200 ml de O2 por litro de sangre (ml O2 l-1). En aves y mamíferos ese valor suele encontrarse entre 150 ml O2 l-1 y 200 ml O2 l-1, pero en mamíferos marinos es mucho más alto: en la foca de Weddell, por ejemplo, hay más de 300 ml O2 l-1 y puede llegar a 400 ml O2 l-1 en otros. En los peces varía entre 50 y 150 ml O2 l-1 (en la caballa, que es un pez muy activo, hay del orden de 150 ml O2 l-1). En los cefalópodos no llega a 50 ml O2 l-1; y en otras especies de invertebrados hay incluso menos: en moluscos y en crustáceos varía entre 10 y 20 ml O2 l-1. Los valores indicados son lo que técnicamente se denomina capacidad de oxígeno, que es la concentración que corresponde a una tensión parcial de O2 (tO2) sanguínea de 158 mmHg (o sea, la que corresponde a la presión parcial de O2 en condiciones estándar).
Veamos cómo funciona la sangre humana a los efectos del transporte de oxígeno. Sale de los pulmones recién oxigenada con una tO2 algo inferior a 100 mmHg, tensión a la que corresponde una concentración de unos 195 ml O2 l-1. En condiciones de reposo la sangre retorna de los tejidos a los pulmones con una tO2 de unos 40 mmHg aproximadamente, a la que corresponde una concentración de unos 150 ml O2 l-1. La diferencia arteriovenosa, esos 40 ml O2 l-1, es a lo que llamamos la descarga de O2 y refleja la magnitud de la reducción sanguínea de oxígeno provocada por el consumo que han efectuado los tejidos.
Si en vez de en reposo, el individuo realiza ejercicio físico, la sangre arterial sale del corazón con una tO2 de entre 80 y 90 mmHg, dependiendo del flujo sanguíneo, y la concentración ronda los 190 ml O2 l-1; como se ve, esas tensiones parciales y concentración de O2 son algo inferiores a las que tenía la sangre arterial en condiciones de reposo, pero la diferencia es muy pequeña. La menor concentración en este caso obedece al hecho de que para satisfacer las demandas metabólicas derivadas del ejercicio, la sangre fluye a través de los capilares pulmonares más rápidamente, por lo que no llega a equilibrarse completamente con la presión parcial de oxígeno en los alveolos. La sangre (ya venosa) retorna de los tejidos con una tO2 de aproximadamente 20 mmHg (concentración de unos 70 ml O2 l-1). Por lo tanto, la descarga es de unos 120 ml O2 l-1, y aunque puede variar dependiendo de la intensidad de la actividad física, la variación no es demasiado importante salvo que los niveles de actividad sean tan altos que las mitocondrias musculares provoquen una fuerte reducción de la tO2 venosa. Si la tO2 llega a reducirse por debajo de 10 mmHg, el aporte de O2 sería insuficiente para sostener el metabolismo aerobio y sería necesario recurrir a la fermentación láctica para la obtención de ATP. En condiciones de actividad física no demasiado intensa, es el gasto cardiaco (volumen de sangre impulsada por el corazón por unidad de tiempo) a través, sobre todo, de la frecuencia cardiaca (frecuencia de latido), el que se modifica para hacer frente a distintas necesidades.
Las magnitudes de los parámetros consignados en los párrafos anteriores para la especie humana son muy similares para la mayoría de los mamíferos. Su hemoglobina es un pigmento típico de baja afinidad y de alta tensión de carga. La afinidad de un pigmento refleja la propensión de ese pigmento a combinarse con el oxígeno, o sea, a captarlo. Los de alta afinidad lo captan incluso a muy bajas tensiones parciales; lo contrario ocurre con la hemoglobina de mamíferos y con otros pigmentos, ya que se necesitan tensiones parciales de oxígeno bastante altas para que el pigmento se aproxime a la saturación. Estas hemoglobinas son características de animales que viven en entornos de alta disponibilidad de oxígeno y cuyos epitelios respiratorios no imponen apenas limitaciones a la difusión de gases a su través. Bajo esas condiciones es conveniente que el pigmento sea de baja afinidad pues no tiene ningún problema para captar el oxígeno necesario y sin embargo, lo cede a los tejidos con suma facilidad.
No solo los mamíferos tienen pigmentos con esas características. Muchos otros vertebrados cuentan con hemoglobinas de alta tensión de carga; se trata de especies que habitan en medios con abundante oxígeno. Y ciertas especies de invertebrados, como los poliquetos sabélidos, también poseen ese tipo de pigmentos, aunque en este caso se trata de clorocruorinas.
Los cefalópodos también tienen pigmentos de afinidad relativamente baja. No son hemoglobinas, como los de vertebrados, ni clorocruorinas, como los de los poliquetos citados, sino hemocianinas. Y no se encuentran en el interior de células especializadas, sino en suspensión coloidal. Esa característica limita mucho la capacidad de la sangre para albergar oxígeno combinado, ya que por razones osmóticas, la concentración de proteínas plasmáticas no puede ser demasiado alta. El caso es que los cefalópodos se caracterizan por tener una concentración pigmentaria baja y, por ello, la capacidad de oxígeno de su sangre es modesta: entre 20 y 50 ml O2 l-1, valores que se encuentran en el rango inferior de los correspondientes a los peces, que son los vertebrados con los que podemos compararlos porque ambos ocupan los mismos medios y desarrollan similares niveles de actividad.
Al contrario que aves y mamíferos, los pulpos y calamares llegan prácticamente a agotar el oxígeno al atravesar la sangre los tejidos, de manera que la venosa llega a los corazones branquiales casi anóxica. Y eso ocurre incluso cuando se encuentran en reposo; por ello, las necesidades que pueden derivarse de un aumento de las demandas metabólicas solo pueden cubrirse elevando el gasto cardiaco o recurriendo a vías del metabolismo anaerobio. En el pulpo Enteroctopus dofleini la sangre arterial tiene una tO2 de unos 70 mmHg (puede variar entre 50 y 90 mmHg) y la hemocianina se encuentra saturada al 85% (entre 65% y 95%). La sangre venosa, sin embargo, tiene una tO2 de alrededor de 8 mmHg (entre 0 y 16 mmHg) y la hemocianina solo tiene un 7% (entre 0 y 18%) del oxígeno que puede llegar a tener en condiciones de saturación. La descarga del pigmento es muy importante en términos relativos, prácticamente se vacía, pero conviene recordar que se trata de una sangre con baja concentración de pigmento y, por lo tanto, baja capacidad de oxígeno.
Hemos visto aquí varios pigmentos (hemoglobina, clorocruorina y hemocianina) de baja afinidad; y todos ellos corresponden a animales que viven en medios con elevada disponibilidad de O2 y que desarrollan una importante actividad física. Que el pigmento sea de baja afinidad no supone ningún inconveniente, dado que la abundancia ambiental de oxígeno permite una adquisición suficiente y, por otro lado, se descargan con facilidad, lo que permite satisfacer las demandas de oxígeno propias del metabolismo de animales activos.
Fuentes:
Richard W. Hill, Gordon A. Wyse & Margaret Anderson (2004): Animal Physiology. Sinauer Associates, Sunderland
John D. Jones (1972): Comparative physiology of respiration. Edward Arnold, Edinburgh
Knut Schmidt-Nielsen (1997): Animal Physiology. Adaptation and Environment. Cambridge University Press; Cambridge
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas respiratorios: pigmentos de baja afinidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Sistemas respiratorios: los pigmentos respiratorios
- Sistemas respiratorios: distribución de los pigmentos
- Sistemas respiratorios: la curva de disociación de un pigmento respiratorio
La relatividad del tiempo (y 3)

Dos fotogramas de la películla Interestellar (2014) de Christopher Nolan. En ambos los personajes son los mismos, Joseph Cooper y su hija Murphy “Murph” Cooper. Murph permanece en la Tierra, mientras su padre viaja a velocidades relativistas (próximas a c) y, claro, pasa lo que pasa.
Ya hemos visto qué le sucede a velocidades muy altas y a velocidades ordinarias a la relación entre el intervalo de tiempo transcurrido registrado por un reloj que está estacionario con respecto al observador (Mónica) y el intervalo de tiempo transcurrido para el mismo fenómeno medido por alguien que observa el reloj en movimiento a una velocidad constante v (Esteban). La relatividad del tiempo, viene dada por una ecuación muy sencilla, Δte = Δtm /√(1-v2/c2). Vamos a explorar a continuación algunas situaciones extremas.
¿Qué ocurre si la velocidad alcanza la velocidad de la luz?
Conforme aumentamos la velocidad v y nos aproximamos mucho a la velocidad de la luz c la dilatación del tiempo se va haciendo cada vez mayor . Si nos fijamos, si v se acerca mucho a c, entonces v/c se aproxima a 1, y v2/c2 también lo hace; por tanto lo que está dentro de la raíz, (1-v2/c2), se acerca a 0 y la propia raíz también. Un número dividido por algo muy pequeño, casi cero, da como resultado un número enorme: una hora en la vida de Mónica ( Δtm) se viviría como décadas, si no siglos o milenios por Esteban (Δte ). Dicho de otra manera, si v se va haciendo casi igual a c, la dilatación del tiempo tiende a infinito.
De hecho, si v = c entonces el denominador es 0 y Δte sería infinito. Una simple fracción de segundo para Mónica sería un tiempo infinito para Esteban o, visto desde la perspectiva de Esteban, a todos los efectos prácticos el tiempo no transcurre para Mónica.
¿Qué ocurre si nos las arreglásemos para alcanzar una velocidad superior a la de la luz?
Si esto pudiera suceder, entonces v2/c2 sería mayor que 1, por lo ques (1-v2/c2) sería negativo. ¿Cuál es la raíz cuadrada de un número negativo? Como nos hemos impuesto como limitación no emplear otras matemáticas que las que se estudian en primaria hemos de responder que no hay un número que, al cuadrado, arroje un resultado negativo. Por lo tanto, llegamos a la conclusión de que la raíz cuadrada de un número negativo en sí no tiene realidad física [1].
En la práctica, esto significa que los objetos no pueden tener velocidades mayores que c. Esta es una razón por la cual la velocidad de la luz a menudo se considera como el “límite de velocidad” del Universo [2].
¿Es posible que el tiempo vaya hacia atrás?
Las matemáticas nos dicen que hay dos formas de llegar a un número cuadrado como 9: puedo multiplicar 3 por 3 o -3 por -3 y en ambos casos el resultado es el mismo, 9. Visto en el otro sentido, la raíz cuadrada de 9 es doble, 3 y -3. Los valores negativos se suelen despreciar por carecer de sentido físico.
Para que el tiempo fuese hacia atrás entonces Δtm /√(1-v2/c2) tendría que ser negativo, lo que significa que en el intervalo de tiempo Δte, el tiempo final es menor que el tiempo inicial. La única forma de conseguirlo es si √(1-v2/c2) tiene un valor negativo. Lo que es perfectamente posible, basta con no despreciar la solución negativa de la raíz cuadrada. Por tanto, viajar en el tiempo hacia atrás es teóricamente posible [3].
Notas:
[1] Aunque sí tiene una solución matemática, lo que se llama un “número imaginario”.
[2] Ni los objetos ni la información pueden viajar más rápido en el vacío que la luz. Nada que tenga masa puede ni siquiera alcanzar la velocidad de la luz, ya que c actúa como un límite asintótico (lo que siginifica que puedes aproximarte todo lo que quieras o puedas pero nunca alcanzarlo) de la velocidad.
[3] El único inconveniente es que un intervalo de tiempo negativo implicaría que masa y energía serían negativas absolutamente. Y, hasta donde sabemos, masa y energía son positivas. Obviamente las diferencias de masa y energía pueden ser negativas, por eso decimos absolutamente. Un objeto puede ganar o perder 1g o 100 kg, pero no puede tener una masa de – 7 kg; lo mismo para la energía.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La relatividad del tiempo (y 3) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La relatividad del tiempo (2)
- La relatividad del tiempo (1)
- El principio de relatividad (y 4): la versión de Einstein
Desmitificando: La vitamina C y el resfriado
El resfriado, o esa enfermedad leve, molesta y cotidiana, que antes o después nos fastidia a todos con unos días de nariz goteante y cabeza cargada, es habitual en cuanto enfría el tiempo. No hay quien lo cure ni con qué curarlo; en todo caso, se pueden aliviar los síntomas. Por eso, es importante investigar sobre cómo prevenirlo y, si es posible, escapar de él. La vitamina C, o ácido ascórbico, es una de las sustancias que se dice previene el constipado y sobre ella se ha investigado mucho y escrito todavía más. No hay que olvidar que la dosis diaria recomendada es de 80 miligramos. En 2013, Harri Hemila y Elizabeth Chalker, del Departamento de Salud Pública de Helsinki, han revisado toda la literatura que han podido localizar sobre la relación entre la vitamina C y el constipado.
Para averiguarlo, eligen los trabajos en que la dosis diaria de vitamina C es, por lo menos, de 0.2 gramos y, a partir de ahí, dividen las cantidades ingeridas en tres tramos: entre 0.1 y 1.0; entre 1.0 y 2.0; y más de 2.0 gramos diarios. Después de revisar las bases de datos con lo publicado entre 1990 y 2012, seleccionan 56 publicaciones con 29 ensayos controlados que incluyen a 11306 personas. Además, añaden los estudios de Linus Pauling, el científico que popularizó, a principios de los setenta, la prevención del constipado con grandes dosis de vitamina C.

Linus Pauling
Entre paréntesis, merece la pena que conozcamos mejor a Linus Pauling. Químico, bioquímico, activista por la paz y contra las armas nucleares, educador y divulgador, Linus Pauling fue un científico enormemente influyente en la ciencia y la sociedad del siglo XX, sobre todo en su segunda mitad. Nacido en 1901 y fallecido en 1994, fue dos veces Premio Nobel, de Química en 1954 y de la Paz en 1962. Es una de las cuatro personas que recibieron dos veces el Nobel y una de las dos personas, la otra es Marie Curie, que ganó sus Premios Nobel en especialidades distintas. Puso toda su influencia en el apoyo público a la vitamina C como prevención del constipado y él mismo tomaba 3 gramos al día. Recordar que la dosis diaria recomendada por las autoridades sanitarias es de 80 miligramos al día. Pauling propone, para la población en general, una dosis diaria de 2.3 gramos o superior, y en 1974 la sube hasta los 4 gramos. En los años ochenta participó en algunas investigaciones sobre la relación entre la vitamina C y el cáncer, la recuperación de daños en el cerebro o la angina de pecho. Cerremos el paréntesis sobre Pauling y volvamos al constipado.
Volviendo a la revisión de Harri Hemila, con sus 29 ensayos y las 11306 personas que intervienen en ellos, las conclusiones son que no hay una reducción convincente en la incidencia del constipado por tomar vitamina C, excepto en personas que están sometidas a una fuerte exigencia física. Son tres grupos muy especiales que se cuentan entre los 11306 voluntarios: un grupo de maratonianos, un grupo de escolares que van de vacaciones a esquiar, y, finalmente, un grupo de soldados canadienses que van de maniobras a la zona subártica de su país. La disminución de la incidencia del constipado no es muy grande, alrededor del 10%, y la dosis diaria de vitamina C no es exagerada, alrededor de 1 gramo, poco más de los 80 miligramos recomendados.
Sin embargo, la toma de vitamina C parece acortar los días que dura la enfermedad si se ingiere una vez que el constipado nos ha atrapado. Entonces, la toma de vitamina C disminuye el tiempo de constipado un 13.6% en niños y un 8% en adultos. De todas formas, si algo queda claro en esta revisión es que la acción de la vitamina C es muy heterogénea en los enfermos, quizás por el ambiente en que viven y la conducta de cada uno de ellos (permanecer en casa o salir a trabajar o a la escuela, si hay calefacción o no,…), o por la genética de cada enfermo o, más sencillo, por el diferente planteamiento de los estudios que revisan Hemila y Chalker, como veremos más adelante.
Resultados similares se han detectado en el meta-análisis del investigador suizo G. Ritzel, publicado en una fecha tan lejana como 1961, que incluye el estudio tan citado de los niños que salen a esquiar. Otro meta-análisis lo publicaron T.W. Anderson y su grupo, de la Universidad de Toronto, que encuentran que se produce una ligera mejoría si se toma la vitamina C en la fase aguda del constipado.
Ha sido Richard Shader, Editor Jefe de la revista Clinical Therapeutics, el que acaba de publicar algunos fallos metodológicos de los estudios sobre la acción de la vitamina C sobre el constipado. Por ejemplo, afirma que el constipado no se debe a un solo virus sino a un conjunto muy variable, incluso con algunos virus todavía desconocidos, y que incluye coronavirus, rinovirus y virus sincicial respiratorio. También es importante resaltar que la prevalencia de esta enfermedad varía mucho de año en año y de estación en estación. En la mayoría de los estudios no se proporciona a los voluntarios una vitamina C estándar sino la que se ha extraído de muchas fuentes como son maíz, algas rojas, arándanos, clorella, escaramujos y otros orígenes. En estos estudios tampoco se tiene en cuenta las cantidades de vitamina C que los voluntarios ingieren de su dieta. Y, también, la vitamina C se disuelve en agua y si es grande la cantidad ingerida, se elimina de inmediato, por la excreción, con lo que conocer el efecto de grandes dosis no es sencillo.
Un buen resumen nos lo da Shader con textos extraídos de la última revisión de Hemila y Chalker. Dice así:
“La ingesta regular de vitamina C no tuvo ningún efecto sobre el constipado común… El fracaso de los suplementos con vitamina C para reducir la incidencia de resfriados en la población general indica que la toma rutinaria de suplementos de vitamina C no está justificada… Sin embargo, dado el efecto consistente de la vitamina C en la duración y gravedad de los resfriados en los estudios regulares de suplementación … puede valer la pena probar esta suplementación en pacientes con una base individualizada para ver si la vitamina C terapéutica es beneficiosa para ellos.”
En conclusión, para los autores de estas revisiones no existe justificación alguna para la toma diaria de vitamina C para prevenir el constipado en la población normal. Quizá es útil para acortar su duración en las personas que ya lo sufren y en aquellos que están sometidos a mucho esfuerzo físico y a temperaturas bajas.
Referencias:
Anderson, T.W. et al. 1974. The effects on winter illness of large doses of vitamin C. Canadian Medical Association Journal 111: 31-36.
Douglas, R.M. & H. Hemila. 2005. Vitamin C for preventing and treating the common cold. PLOS Medicine 2: e168
Hemila, H. 2017. Vitamin C and infections. Nutrients DOI: 10.3390/nu9040339
Hemila, H. & E. Chalker. 2013. Vitamin C for preventing and treating the common cold. Cochrane Database of Systematic Reviews DOI:10.1002/14651858.CD000980.pub4
Pauling, L. 1970. Evolution and the need for ascorbic acid. Proceedings of the National Academy of Sciences USA 67: 1643-1648.
Pauling, L. 1971. The significance of the evidence about ascorbic acid and the common cold. Proceedings of the National Academy of Sciences USA 68: 2678-2681.
Ritzel, G. 1961. Kritische Beurteilung des Vitamins C als Prophylacticum und Therapeuticum der Erkälrungskrankherten. Helvetica Medica Acta 28: 63-68.
Shader, R.J. 2017. Vitamins C and D. Clinical Therapeutics 39: 873-876.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Desmitificando: La vitamina C y el resfriado se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Desmitificando: Alguien me está mirando…
- Historias de la malaria: El charlatán y caballero Sir Robert Talbor
- Historias de la malaria: Charles Louis Alphonse Laveran y el protozoo
¡Salvemos al helio!

Tubo de descarga lleno de helio puro. Wikimedia Commons
Todos estamos más o menos familiarizados con la tabla periódica de los elementos, una representación gráfica de todos los elementos que componen toda la materia a nuestro alrededor, e incluso a nosotros mismos. Publicada por el ruso Dimitri Mendeleyev en 1869, desde entonces se han ido añadiendo nuevos elementos según se iban descubriendo. En total, hoy contiene 118 elementos, los últimos añadidos en 2015.
44 de ellos están al borde de la desaparición. No de la tabla, sino del mundo. Los elementos, igual que los seres vivos, se extinguen, y un buen puñado de elementos están cerca de hacerlos o se verán en esa situación en el próximo siglo. Están todos recogidos en esta versión de la tabla periódica que marca en amarillo, naranja y rojo los elementos amenazados según su lo crítico de esa amenaza. Entre ellos, algunos que echaremos de menos si efectivamente terminan desapareciendo.

La tabla periódica de los elementos en peligro de extinción. ACS/Compound Interest
El motivo por el que han recibido esta clasificación es diferente en cada uno de ellos, pero tienen que ver con la escasez de la oferta respecto a la demanda, prácticas de reciclaje inexistentes o ineficientes, la dificultad para extraerlos o directamente su escasez en la corteza terrestre.
¿Con qué haremos nuestros móviles cuando no haya indio?
Muchos de ellos están en riesgo por la multiplicación descontrolada de pantallas y dispositivos táctiles, que necesitan para funcionar decenas de estos elementos. Es el caso del indio, un elemento esencial de la capa transparente que se encarga de transportar la electricidad en esas pantallas.

Bloques de indio. Wikimedia Commons
El problema es que el indio no se encuentra en concentraciones suficientemente abundantes como para que sea rentable extraerlo, así que la mayoría del que se utiliza actualmente proviene de minas de zinc, ya que es un subproducto de su extracción. Además, la cantidad de indio que hay en estos dispositivos de hecho es minúscula, así que el trabajo necesario que haría falta para recuperar el indio de pantallas y dispositivos desechados no resulta rentable tampoco.
Los generadores de energías renovables también son enormes consumidores de algunos elementos, y las baterías de los coches eléctricos no se quedan atrás. El litio, de lo que están hechas muchas baterías se encuentra en este grupo.
El helio: el curioso caso del segundo elemento más abundante del universo
Es curioso el caso del helio. Este gas está entre los más abundantes del universo y por tanto resulta irónico clasificarlo como un elemento seriamente amenazado durante los próximos 100 años. El problema es que es un gas tan ligero que se escapa de la atmósfera terrestre sin dificultad, lo que quiere decir que a cantidad de helio presente en la Tierra no hace más que disminuir.

Hoy en día se utiliza helio líquido para refrigerar los imanes superconductores en los escáneres de resonancia magnética. Wikimedia Commons
Y eso es una faena porque el helio tiene mucha utilidad para nosotros: desde llenar divertidos globos en fiestas y desfiles hasta enfriar imanes en dispositivos como los escáneres de imagen médica o los aceleradores de partículas. Para evitar su extinción, habría, por un lado, que tratar de reciclar el helio que se utiliza para estos fines y así darle un nuevo uso, y por otro desarrollar procesos que capturen el helio que se produce en las extracciones de gas natural y evitar que este preciado recurso se escape.
Pero ¿por qué iba a hacerlo nadie? Actualmente el helio es un elemento demasiado barato: cuesta muy poco comprarlo, y por tanto no hay nadie interesado en reciclarlo o encontrar nuevas formas de producirlo.
Los tres problemas que esto supone
Esta tabla periódica de elementos en peligro de extinción forma parte de un informa publicado por la American Chemical Society en el que se ponían frente a frente dos riesgos o amenazas ya conocidas.
Por un lado están las agresiones medioambientales causadas por la minería y los procesos de extracciones de algunos metales y minerales, que además de ser en sí mismas dañinas, dependen de combustibles fósiles que producen grandes cantidades de emisiones contaminantes, perjudiciales para el cambio climático y directamente para la salud humana.

Las placas de ensamblaje de dispositivos electrónicos pueden contener decenas de elementos en peligro de extinción.
La otra es la necesidad de mantener a las industrias provistas de los materiales que necesitan, algunos de ellos metales y tierras raras como el galio, que solo se generan como subproductos de fundiciones y otros procesos industriales.
Pero hay un tercer riesgo: la concentración de muchos de estos elementos que escasean o que se prevé que escaseen en un futuro próximo en determinadas zonas, como China o África, lo que puede dar pie a nuevas tensiones y equilibrios geopolíticos en las próximas décadas.
Por eso, no nos quedemos solo en las ballenas, los pandas y otros animales adorables (y aprovecho este cierre para reivindicar también la protección de los animales feos, de los que ya hablaremos otro día) y protejamos también a los elementos amenazados. ¡Salvemos al helio!
Referencia:
T.E. Graedel et al (2015) Criticality of metals and metalloids PNAS doi: 10.1073/pnas.1500415112
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo ¡Salvemos al helio! se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El helio superfluido y los agujeros negros
- De cómo se formaron los átomos de mi mano
- Un algoritmo genético para buscar materiales 2D
Una consecuencia inesperada de la longevidad
A lo largo del siglo XX los test que medían el cociente de inteligencia (IQ) y otras capacidades cognitivas arrojaron valores cada vez mayores en los países occidentales. Al parecer, la gente era cada vez más inteligente. Y ese mismo ascenso se ha producido también en otras zonas del Mundo. Es el fenómeno conocido como efecto Flynn y aunque no se sabe bien a qué obedece, se atribuye a una mejor alimentación, entornos más estimulantes, mejor formación y, quizás también, menor incidencia de enfermedades infecciosas. Sin embargo, hace algo más de una década el IQ dejó de aumentar y empezó a bajar en algunos países de Occidente a un ritmo de entre siete y diez puntos de IQ por siglo.
Si no estaban claras las razones del ascenso a lo largo del siglo XX, menos lo están las del descenso actual. No cabe alegar que los mismos factores que provocaron la subida actúen ahora en sentido contrario por haber empeorado las condiciones. Ni la alimentación, estado de salud, educación, o calidad intelectual del entorno, por apuntar los citados antes, son peores ahora que hace dos décadas. La explicación más aceptada ha sido la que proponía que las mujeres mejor educadas y que viven en entornos más estimulantes tienen, por comparación, menos hijos que las demás mujeres, y que ese hecho, por sí mismo, ha podido provocar el cambio de tendencia en el valor medio de IQ.
No es fácil hacer estudios en que se comparan valores de IQ de diferentes épocas, porque los test han variado. Pero se pueden estudiar aspectos parciales que todos los test utilizados tienen en común. Partiendo de esa idea, un equipo dirigido por Robin Morris, del King’s College de Londres ha examinado 1750 tipos de test utilizados de 1972 en adelante y ha seleccionado los que han medido la memoria a corto plazo y los que han medido la memoria operativa. La primera se refiere a la capacidad para almacenar información durante breves periodos de tiempo, y la segunda a la capacidad para procesar y utilizar esa información en la toma de decisiones. Lo que vieron es que la memoria a corto plazo no ha dejado de elevarse, siguiendo una pauta similar a la del efecto Flynn, mientras que la memoria operativa ha descendido durante los últimos años. El grupo de Morris también observó que ha aumentado bastante la proporción de personas mayores de sesenta años que realizaban los test. Y es sabido que la memoria operativa desciende con la edad, mientras que la memoria a corto plazo se mantiene. Por ello, bien podría ocurrir que los descensos en la puntuación media de los test de inteligencia se deban en realidad al aumento de la proporción de personas mayores en la población, dada la menor puntuación que obtienen estos en algunas pruebas de los test. Y si así fuese, podría descartarse la hipótesis de la fecundidad que he comentado antes.
No obstante, conviene tomar estos resultados con cautela. Hacen falta estudios más detallados, enfocados a diferentes capacidades cognitivas, antes de sacar conclusiones que puedan considerarse firmes. Lo que me interesa de estas hipótesis en que en ambas se proponen elementos de carácter demográfico (fecundidad en una y longevidad en la otra) para explicar un fenómeno de carácter psicológico y de importantes consecuencias potenciales. Ambos elementos son, además, consecuencia de la transición demográfica que nos ha afectado. Y todo ello no hace sino remarcar la gran importancia que dicha transición ha tenido y tendrá en el futuro inmediato de Occidente, y en el futuro algo más lejano de la humanidad.
—————————————————————–
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 22 de octubre de 2017.
El artículo Una consecuencia inesperada de la longevidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Hackean recuerdos
- Implante de factores de crecimiento en nanoesferas para el tratamiento de alzhéimer y párkinson
- Idiocracia
Naukas Bilbao 2017 – Mónica Lalanda: Una muerte de cómic
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Mónica Lalanda, médico y novelista gráfica, nos habla del cada vez mayor uso del cómic en medicina.
Mónica Lalanda: Una muerte de comicEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Mónica Lalanda: Una muerte de cómic se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma
- Naukas Bilbao 2017 – Diana González: Identidad digital y robots
- Naukas Bilbao 2017- Daniel Torregrosa: ¡Estamos rodeados!
Una posible terapia neuroprotectora y neurorrestauradora para el párkinson
La enfermedad de Parkinson es la segunda patología neurodegenerativa más común en la actualidad. Las terapias disponibles son principalmente sustitutivas y presentan problemas a largo plazo, por lo que el reto está en hacer un diagnóstico temprano y desarrollar una terapia neuroprotectora y neurorrestauradora que permitan ralentizar o incluso revertir los síntomas de la enfermedad. Trabajos realizados por el grupo LaNCE del Departamento de Neurociencias de la UPV/EHU, y en los que han intervenido el grupo de nanoneurocirugía de Biocruces y el servicio de neurocirugía del Hospital Universitario de Cruces, han documentado el efecto regenerador y neuroprotector de dos factores neurotróficos cuando se aplican de forma combinada.
El Parkinson es un trastorno motor, originado por la pérdida de neuronas dopaminérgicas en la sustancia negra del cerebro. Estas neuronas son las células nerviosas que producen dopamina, un neurotransmisor que tiene un papel central en la modulación de los movimientos involuntarios.
La investigación se ha desarrollado en un modelo experimental que permite reproducir diferentes estadios de la enfermedad de Parkinson. Los resultados mostraron que los cambios provocados por la dolencia no eran homogéneos en las diferentes regiones del cerebro afectadas. “La afectación se corresponde con la distribución anatómica específica de las neuronas dopaminérgicas y sus terminales”, indica la investigadora Catalina Requejo. Es decir, aquellas zonas de la sustancia negra en las que las neuronas dopaminérgicas tienen más conexiones con regiones que se mantienen íntegras se veían menos afectadas.
Tras confirmar que el modelo experimental servía para explorar los cambios morfológicos y funcionales que provoca la enfermedad, se aplicaron estrategias terapéuticas basadas en la liberación de factores neurotróficos. Estos factores son proteínas que favorecen el crecimiento, la plasticidad y la supervivencia celular y juegan, por tanto, un papel fundamental en la regulación de la función neuronal.
En concreto, se aplicaron dos factores: el factor de crecimiento del endotelio vascular (VEGF) y el factor derivado de las células gliales (GDNF). Estas moléculas se administraron embebidas en microesferas o en nanoesferas, más pequeñas aún que las anteriores, de un polímero biocompatible y biodegradable como es el ácido poli-láctico-co-glicólico (PLAG), lo cual permite su liberación de forma continua y gradual. Además, administraron los factores de manera combinada para determinar si juntos inducían un efecto sinérgico.
Tanto en la fase temprana como en la severa del modelo, los resultados fueron alentadores. La combinación del VEGF y GDNF no solo redujo significativamente la degeneración en las neuronas dopaminérgicas de la sustancia negra, sino que también indujo la formación de nuevas células y la diferenciación celular. Además, pudieron comprobar que había una mejora en las áreas donde proyectaban las fibras nerviosas de esta región. Para confirmar el efecto sinérgico y neurorregenerador de ambos factores, administraron una molécula que inhibe los receptores de los dos factores neurotróficos que estaban estudiando. “Las consecuencias sobre el sistema dopaminérgico eran aún peores, lo cual apoya los efectos beneficiosos y sinérgicos que ejercen el VEGF y el GDNF en la enfermedad de Parkinson”, concluye la investigadora.
Por último, cabe destacar que los mejores resultados se obtuvieron cuando se administraron los factores embebidos en nanoesferas durante la fase temprana de la enfermedad replicada en el modelo. Todo ello refuerza la importancia del diagnóstico precoz y que “la nanotecnología podría ser una herramienta muy útil a la hora de administrar factores neurotróficos”, añade.
Referencia:
Lafuente JV, Requejo C, Carrasco A, Bengoetxea H. (2017) Nanoformulation: A Useful Therapeutic Strategy for Improving Neuroprotection and the Neurorestorative Potential in Experimental Models of Parkinson’s Disease. Int Rev Neurobiol doi: 10.1016/bs.irn.2017.09.003
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Una posible terapia neuroprotectora y neurorrestauradora para el párkinson se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Implante de factores de crecimiento en nanoesferas para el tratamiento de alzhéimer y párkinson
- La mutación vasca de la dardarina y el párkinson
- Nanopartículas de oligoquitosano para terapia génica
Lo que más quiero en la vida es a mi pez cebra
Sobre todo si tengo cáncer y mi oncólogo duda entre varios tratamientos. Pero vayamos por partes.

Avatar
Empecemos por el principio ¿qué es un avatar?
La eutopía futurista de la película de James Cameron ha inspirado el uso del término en ciencia. En el mundo perdido de Pandora el marine Jake Sully participa en el programa Avatar que transvasa la mente de los humanos a cuerpos artificiales idénticos a los nativos de la luna colonizada, los na’vi. En el mundo científico, un avatar resulta ser una analogía más o menos poética de los animales de experimentación que nos sirven para modelizar tumores malignos de una forma personalizada.
¿Existen los avatares realmente?
Existen. En los últimos tiempos se ha popularizado la investigación en cáncer usando ratones avatar. Los oncólogos y los patólogos saben que cada cáncer es tan único como la persona que lo sufre, y que la respuesta a un tratamiento, o la evolución de la enfermedad depende de un sinfín de condiciones, donde influyen mecanismos y procesos tanto del propio tumor como del huésped que lo alberga. Con la excepción de algunas terapias basadas en el uso de un puñado de biomarcadores, los pacientes normalmente se exponen a rondas de ensayo-error para identificar el mejor tratamiento para su enfermedad.
Hasta el momento, los oncólogos no usan tratamientos personalizados de forma generalizada, y optan por aplicar fármacos con tasas de éxito razonables obtenidas en ensayos clínicos de muchos pacientes. Por ello, el desafío en terapia anticáncer pasa por diseñar estrategias que permitan escoger el tratamiento específico al que responda un tumor exclusivo. La solución basada en avatares consiste en extraer parte del tumor maligno humano de cada individuo concreto e implantarlo en un ratón (normalmente inmunosuprimido, para que el tumor evolucione rápidamente). Ese ratón será nuestro avatar, y nos permitirá evaluar las diferentes propuestas del oncólogo para escoger a cuál de ellas responde (o responde mejor) nuestro cáncer (usando no uno, si no tantos ratones como sean necesarios). Este podría ser el futuro de la medicina personalizada, y, huelga decir, que un gran avance en diseño terapéutico.

Ratón inmunosuprimido (sin pelo) junto a ratón silvestre (blanco)
Si los avatares son tan buenos ¿cuál es el problema entonces?
Veamos, un ratón en condiciones de laboratorio tiene una vida media superior a los dos años. Si tenemos un paciente con un proceso maligno agresivo no podemos esperar meses para estudiar cómo responden los avatares a los diferentes tratamientos propuestos. Así que el ratón, probablemente, no sea el mejor sistema para generar avatares. Hay un modo de acelerar el proceso y es suprimir el sistema inmune del animal para que el cáncer progrese más rápido, pero aun así necesitamos varios meses de los cuales normalmente no se dispone. Para ello usamos, lo que se llaman ratones desnudos (nude mice), y que carecen de timo y donde su población de linfocitos T es residual. Así que la idea es buena, pero los tiempos de experimentación no parecen acompañar.
¿Qué porqué lo que más quiero en la vida es a mi pez cebra?
Pues por varios motivos, entre ellos la rapidez de la experimentación. Veamos la historia de la que se desprende esta idea. Todo empieza con Rita Fior, una portuguesa especialista en biología del desarrollo que usaba el pez cebra para sus estudios. Rita pensaba que el rápido desarrollo del pez cebra podría ayudar en el estudio de los procesos cancerosos. El también portugués Miguel Godinho Ferreira estudiaba a su vez la evolución de los procesos tumorales malignos, y le preocupaba cómo cambiaban los tumores con el tiempo. Miguel sabía que esta variabilidad, junto con la heterogeneidad de los tumores malignos, son algunas de las causas de la baja tasa de éxito de la quimioterapia. Por otra parte, Miguel también sabía que la administración de una quimioterapia inadecuada debilita a los pacientes y puede empeorar la evolución de su enfermedad. Por su parte, Rita conocía muy bien que muchas veces no se puede predecir la respuesta de un enfermo a un tratamiento; lo aprendió directamente de la enfermedad de su madre.

Larva de pez cebra (en verde) con tumor (en rojo)
Así que a ambos científicos se les ocurrió, como idea bizarra, implantar células malignas de tumores humanos en peces cebra, concretamente a embriones de pez cebra, y esperar tan sólo unos pocos días a ver qué pasaba. A los cuatro días de la implantación de las células cancerosas los embriones presentaban tumores con las mismas características que los tumores sólidos en humanos; las células se dividían rápidamente, formaban vasos sanguíneos dentro del tumor (lo que se conoce como angiogénesis) y producían metástasis.
El siguiente paso para ambos investigadores fue probar exactamente los mismos protocolos de quimioterapia que iban a recibir los enfermos reales y estudiar su respuesta. Así que implantaron las células de tumores malignos procedentes de cinco cánceres colorrectates de humanos y los trataron de la misma forma que a los pacientes, usando incluso los sobrantes de los fármacos con los que se trataban los enfermos. Sorprendentemente los peces pudieron predecir lo que iba a ocurrir a los pacientes varios meses después de la cirugía y tras el tratamiento de quimioterapia.
Cuatro de los cinco tumores malignos se comportaron de igual forma en humanos que en peces (dos de ellos respondieron a la quimioterapia y otros dos fueron refractarios). Los humanos donantes de los peces avatares en los que la quimioterapia no funcionó tuvieron una recaída en el cáncer poco tiempo después del tratamiento. Los tumores de los peces que respondieron favorablemente también lo hicieron en sus correspondientes humanos. Estos enfermos superaron el cáncer y, según los investigadores, no han vuelto a recaer.

Investigadora observando peces cebra
Así que el plan se atisba en el horizonte. En un escenario un poco menos futurista que en la película ambientada en la luna del planeta Polifemo, y si todo progresa adecuadamente, tal vez los hospitales del mañana dispongan de protocolos de implantación de las células malignas de sus pacientes oncológicos en sus correspondientes peces. Si esto es así, el método de quimioterapia a aplicar al enfermo se seleccionará de entre aquellos peces que respondan mejor a las diferentes variantes terapéuticas que proponga el oncólogo.
Así que, tal vez, en un futuro no muy lejano, los familiares del enfermo visitarán con más interés las instalaciones de los acuarios de los peces avatares de los hospitales, que al propio enfermo.
No me negarán que a veces la ciencia nos conduce a extraños escenarios.
Este post ha sido realizado por Javier Burgos (@Javisburgos) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
Referencias y más información:
- Fior R, Póvoa V, Mendes RV, Carvalho T, Gomes A, Figueiredo N, and Godinho Ferreira M. Single-cell functional and chemosensitive profiling of combinatorial colorectal therapy in zebrafish xenografts. PNAS 2017, 114 (39), E8234-E8243.
- Malaney P, Nicosia SV, Davé V. One mouse, one patient paradigm: New avatars of personalized cancer therapy. Cancer Lett. 2014,344(1):1-12.
El artículo Lo que más quiero en la vida es a mi pez cebra se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¿Mi hijo tiene autismo o este comportamiento es “normal”?
Adam McCrimmon

Para muchos padres distinguir entre las rarezas del comportamiento infantil “normal” de los síntomas de un trastorno del espectro autista puede provocar ansiedad.
Criar a un hijo es a menudo uno de los acontecimientos más desafiantes y felices en la vida de una persona. Ver a tu hijo crecer y desarrollarse es una fuente de placer. Sin embargo, algunos padres se preocupan cuando su hijo parece desarrollarse de manera diferente a los demás.
En ocasiones, los padres pueden preocuparse por la posibilidad de un trastorno del espectro autista o TEA.
Como profesor asociado y psicólogo colegiado en la Werklund School of Education de la Universidad de Calgary (Canadá), me especializo en la evaluación diagnóstica del TEA tanto en niños y como en adultos.
Muchas familias me hablan de sus preocupaciones (o de las preocupaciones de los demás) por sus hijos y se preguntan acerca de la posibilidad de un TEA.
Descubrí que informar a los padres sobre los síntomas del TEA puede ayudarlos a decidir si sus preocupaciones están justificadas. Además, muchos padres desconocen cómo se caracteriza actualmente el trastorno y, por lo tanto, les cuesta entender si una evaluación puede beneficiar a su hijo.
Los síntomas individuales son únicos
El TEA es, de acuerdo con la descripción utilizada por la mayoría de los médicos en América del Norte, un “trastorno del neurodesarrollo“, lo que significa que se hace patente durante el desarrollo temprano de un niño y se traduce en dificultades en su funcionamiento personal, social, académico u ocupacional.
Las personas con TEA típicamente muestran síntomas a los dos a tres años de edad. Sin embargo, en muchas habrá signos antes en el desarrollo y el TEA se puede diagnosticar de manera fiable alrededor de los 18 meses de edad.

Algunos niños con TEA son muy sensibles a los estímulos sensoriales y se angustian mucho con los ruidos de la casa.
Los sujetos deben presentar dificultades en dos áreas de funcionamiento: 1) comunicación social y 2) patrones de conducta restringidos y/o repetitivos.
Es importante destacar que las personas con TEA se encuentran en un “espectro”, lo que significa que pueden experimentar una variedad de dificultades dentro de cada área. Esto significa que los síntomas específicos de cada persona serán únicos.
Problemas de comunicación social
En el área de la comunicación social, los niños pueden demostrar un retraso en el desarrollo del habla, ya sea por no usar palabras sueltas a los 18 meses o por la inexistencia de frases de dos a tres palabras a los 33 meses de edad.
Es posible que no dirijan la atención de los demás (p. ej., señalando o mirando a los ojos), que no sigan lo que otro señala o que no respondan a su nombre. A veces carecen de la capacidad, o tienen habilidades limitadas, de jugar a juegos de simulación.
Otros signos pueden incluir poco interés en jugar con los compañeros, no enseñar o llevar objetos a otros para compartir un interés, sonreír con poca frecuencia a los demás o no hacer gestos para expresar sus necesidades, por ejemplo asintiendo o levantando los brazos para que los cojan.

Muchos niños muestran síntomas consistentes con TEA pero crecen hasta eliminarlos de forma natural
Muchos niños que son diagnosticados de TEA no imitan los comportamientos de los demás. Por ejemplo, es posible que no respondan a alguien que los saluda con la mano. O les cuesta comprender el lenguaje de los demás o muestran un variedad limitada de expresiones faciales.
Algunas veces usan las manos de otros como una herramienta, por ejemplo, usando la mano de un padre para señalar las imágenes de un libro en vez de señalarlas ellos mismos. Y pueden repetir las palabras de los demás en lugar de usar su propio lenguaje para expresar necesidades o deseos.
Patrones de comportamiento repetitivos
Con respecto a los patrones de comportamiento restringido / repetitivo, algunos niños muestran una fuerte preferencia por, o aversión a, estímulos sensoriales. Por ejemplo, un niño puede ansiar el estímulo visual al mirar fijamente a un ventilador durante largos períodos de tiempo. O pueden sentirse muy angustiados por los ruidos típicos de la casa, por cortarse el pelo o por que los toquen.
Los niños a menudo se apegan a objetos específicos, como un bloque [de madera o plástico] o una libreta que deben llevar consigo, pero muestran poco interés por los juguetes. Pueden interesarse intensamente en cosas como los pomos de las puertas o los asientos de los inodoros, o pueden obsesionarse con un personaje de dibujos animados familiar o un juguete.

Sonreír poco a los demás puede ser un síntoma de TEA
Pueden agitar los brazos o las manos, mecerse o girar repetitivamente cuando están excitados. Algunos niños repiten acciones una y otra vez, como encender y apagar una luz. Algunos se centran en los componentes pequeños de un objeto (la rueda de un coche de juguete) en lugar de en todo el objeto (el coche).
Otros pueden alinear los objetos con insistencia, como los juguetes o los zapatos de los miembros de la familia, y se angustian si alguien mueve los objetos. Pueden ser agresivos con los demás o pueden lastimarse a sí mismos. A menudo anhelan la previsibilidad y lo pasan mal cuando se rompen sus rutinas.
La identificación temprana es clave
Es importante destacar que ningún síntoma concreto es necesario o suficiente para un diagnóstico. Sin embargo, más síntomas sí aumentan la probabilidad de un diagnóstico.
Además, muchos niños muestran síntomas consistentes con TEA pero crecen hasta eliminarlos de forma natural y no reciben un diagnóstico. Los médicos experimentados toman en cuenta el desarrollo infantil típico al determinar si se justifica un diagnóstico.

La identificación temprana permite a los niños y sus familias acceder a intervenciones y apoyos que tienen su mayor impacto durante la primera infancia.
Si le preocupa que su hijo pueda tener TEA, un primer paso importante es hablar con su médico o pediatra. Autism Canada [en España, Autismo España] es un recurso excelente que proporciona información sobre las posibilidades de evaluación e intervención.
La evaluación a menudo involucra a equipos de profesionales que trabajan juntos para identificar como se ajusta un niño con los síntomas de TEA y generalmente incluye la observación del niño en diferentes entornos, entrevistas con los padres y la realización de tareas de evaluación para valorar el desarrollo del niño.
La identificación temprana es clave. Este reconocimiento permite a los niños y sus familias acceder a intervenciones y apoyos que tienen su mayor impacto durante la primera infancia.
Sobre el autor:
Adam McCrimmon es profesor asociado de la facultad de educación de la Universidad de Calgary (Canadá)
Texto traducido y adaptado por César Tomé López a partir del original publicado por The Conversation el 8 de enero de 2018 bajo una licencia Creative Commons (CC BY-ND 4.0)
El artículo ¿Mi hijo tiene autismo o este comportamiento es “normal”? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Natacha Aguilar: “Necesitamos que el mar esté en equilibrio para que el planeta también lo esté”
- Una nueva investigación muestra que explicar cosas a la gente “normal” puede ayudar a los científicos a ser mejores en su trabajo
- ¿Tiene límite el tamaño de un agujero negro?
Agua cruda, la nueva moda antiprogreso del primer mundo
En Silicon Valley (California) se encuentran las mayores corporaciones de tecnología del mundo, hasta tal punto que Silicon Valley se ha convertido en el metónimo para el sector de la alta tecnología (a la manera de Hollywood para el cine). Marcan tendencias a escala global: moda, estilo de vida, pensamiento… Incluso alimentación. La última idea feliz que ha triunfado en Silicon Valley es la de beber «agua cruda», agua sin tratar y sin analizar.
Siendo justos, ya existía en el mercado agua sin tratar que se embotella directamente extraída del manantial. Es el agua mineral natural que todos conocemos y que podemos comprar por unos 30 céntimos el litro. Sin embargo, si un agua no se trata, o se trata mínimamente, es porque no lo necesita. Periódicamente se analiza su composición química y biológica para determinar si es segura. Si no se analiza, sencillamente no se puede vender.
En cambio, el «agua cruda» (raw water), aunque también es agua sin tratar como la mineral, no se analiza. Ahí está la diferencia fundamental: no sabes qué estás bebiendo, si es agua segura o no. La comercializan embotellada, a una media de 6 € el litro (20 veces más que el agua mineral natural), empresas como Live Water, en Oregón, y Tourmaline Spring, en Maine. Zero Mass Water, en Arizona, es una empresa que instala en los hogares sistemas para captar agua de la atmósfera y evitar así beber agua del grifo. Liquid Eden, en San Diego, ofrece, entre otras opciones, agua libre de flúor y libre de cloro, según publicaba recientemente The New York Times.
-
Los supuestos beneficios del agua cruda son disparates
Los absurdos motivos que han llevado a que estas empresas generen ingresos comercializando agua cruda son de naturaleza muy diversa. Apuntan a la desconfianza en la calidad del agua que sale del grifo, principalmente por los compuestos de cloro y flúor que se agregan durante el tratamiento, sustancias a las que les atribuyen efectos tóxicos sin parangón e incluso la conspiranoica idea de que esas sustancias sirven para volvernos dóciles y controlarnos. Otros alegan que el agua corriente contiene restos de medicamentos y fitosanitarios capaces de producirnos enfermedades. Algunos creen que durante el filtrado se eliminan minerales beneficiosos y probióticos saludables. Otros hablan de disparates mayores, como que el agua cruda ayuda a los chacras y está impregnada de energías de piedras preciosas.
-
Potabilización del agua: uno de los mayores progresos en salud pública de la historia
En 1997 la revista Life publicó que «la filtración de agua potable y el empleo de cloro es probablemente el avance en salud pública más significativo del milenio».
A lo largo de la historia hemos ido desarrollando métodos cada vez más eficaces para garantizar la seguridad del agua que consumimos. Hay registrados métodos para mejorar el sabor y el olor del agua 4.000 años antes de Cristo. Se han encontrado escritos griegos en los que se hablaba de métodos de tratamiento de aguas por filtración a través de carbón, exposición a los rayos solares y ebullición.
En el antiguo Egipto el agua se decantaba. Se dejaba reposar en vasijas de barro hasta que precipitasen las impurezas, quedándose con la parte superior del agua. También añadían alumbre para favorecer la precipitación de las partículas suspendidas en el agua.
A principios del siglo XIX algunas ciudades ya contaban con sistemas de abastecimiento de aguas y filtrado. Sin embargo, estos métodos eran insuficientes. Algunos agentes patógenos sobrevivían tras estos tratamientos.
En 1854, el médico británico John Snow, descubrió que el cólera era causado por el consumo de aguas contaminadas con materias fecales, al comprobar que los casos de esta enfermedad se agrupaban en las zonas donde el agua consumida estaba contaminada con heces. La OMS publicó un monográfico en el que se contabilizaron seis pandemias de cólera en el siglo XIX que se cobraron la vida de millones de personas en todo el mundo.
En 1908 se emplearon compuestos de cloro por primera vez como desinfectantes primarios del agua potable de New Jersey. La cloración causa alteraciones en la pared celular de las células bacterianas. Las deja indefensas, de modo que disminuyen sus funciones vitales hasta llevarlas a la muerte, por lo que son incapaces de producir enfermedades. Estos compuestos clorados, que bien pueden utilizarse como gas cloro, hipoclorito o dióxido de cloro, son oxidantes. Esto hace que además sean germicidas, eliminando mohos, algas y otros microorganismos además de bacterias.
Antes de la llegada de la cloración para el tratamiento de agua potable la gente se contagiaba fácilmente de enfermedades mortales como el cólera, la fiebre tifoidea, la disentería o la poliomielitis. Actualmente conocemos otros muchos oxidantes con cualidades similares, como los halógenos, el permanganato o el ozono.
Hoy en día, en las estaciones de tratamiento de agua potable (ETAP) se realizan los procesos necesarios para que el agua natural procedente de embalses y otras captaciones se transforme en agua potable. En ellas se llevan a cabo procesos físicos, químicos y biológicos complejos capaces de lograr un agua segura, con buen olor y sabor. Además de tratar el agua, ésta se analiza periódicamente, es decir, se mide su calidad y su composición química y biológica.
Sin lugar a duda, el tratamiento del agua ha sido uno de los mayores avances en salud pública de la historia. Ha salvado una cantidad ingente de vidas. Rechazar el tratamiento del agua es rechazar el progreso. Es rechazar la salud. Incluso es rechazar un derecho humano fundamental.
-
El agua potable es un derecho humano fundamental
El 28 de julio de 2010 la Asamblea General de las Naciones Unidas declaró que el acceso al agua potable segura y limpia y al saneamiento era un derecho humano esencial para el pleno disfrute de la vida y de todos los demás derechos humanos. Además, expresó su profunda preocupación por el hecho de que casi 900 millones de personas en todo el mundo carecen de acceso al agua potable. Esta carencia provoca la muerte de 3,5 millones de personas cada año. El doble de fallecimientos que se producen por accidentes viales y casi el triple de los ocasionados por el VIH.
-
Un problema inventado del primer mundo.
La escasez de agua potable y de saneamiento es la causa principal de enfermedades en el mundo. El 42% de los hogares carece de retretes y una de cada seis personas no tiene acceso a agua potable.
La mortandad en la población infantil es especialmente elevada. Unos 4.500 niños y niñas mueren a diario por carecer de agua potable y de instalaciones básicas de saneamiento. En los países en vías de desarrollo, más del 90% de las muertes por diarrea a causa de agua no potable y la falta de higiene se producen en niños y niñas menores de cinco años. Preguntadles a sus familias qué opinan del agua cruda, si están preocupados por los probióticos, por el control mental por cloración o por los chacras del agua.
La moda de beber agua cruda sólo la pueden seguir aquellos que cuentan con una nevera llena, buena cobertura sanitaria y, sobre todo, agua corriente potable. Ellos son los que lideran el movimiento antiprogreso, los que no tienen nada que temer y con insultante esnobismo, se lo inventan.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Agua cruda, la nueva moda antiprogreso del primer mundo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Puedes presumir de tener la mejor piel del mundo.
- Libavius y el primer libro de texto químico
- Una proteína humana para potabilizar agua
Hay más estrellas masivas de lo que se creía y lo que eso implica para la historia del universo
Un equipo internacional de astrónomos ha descubierto que hay muchas más estrellas masivas en una galaxia satélite de la Vía Láctea de las que se pensaba. El descubrimiento, realizado en la gigantesca región de formación estelar 30 Doradus (número de catálogo NGC 2070) en la Gran Nube de Magallanes, tiene consecuencias muy importantes para nuestra comprensión de cómo las estrellas transformaron el Universo primitivo en el que vivimos hoy.

30 Doradus (NGC 2070), también llamada Nebulosa de la Tarántula
El equipo utilizó el Very Large Telescope del Observatorio Europeo Austral (ESO) para observar cerca de 1,000 estrellas masivas en 30 Doradus, un gigantesco vivero estelar también conocido como la nebulosa de la Tarántula. Realizó análisis detallados de alrededor de 250 estrellas con masas de entre 15 y 200 veces la masa de nuestro Sol para determinar la llamada función de masa inicial (FMI), esto es, una función empírica que describe la distribución de las masas iniciales de una población de estrellas, en este caso, 30 Doradus.
Las estrellas masivas son particularmente importantes para los astrónomos debido a la enorme influencia que ejercen en su entorno. Además, pueden explotar en espectaculares supernovas al final de sus vidas, formando algunos de los objetos más exóticos del Universo, como las estrellas de neutrones y los agujeros negros.
En los resultados se obtiene una sorprendente población actual abundante en estrellas de 200 masas solares; aún es más chocante que también se encuentra una FMI con un alto porcentaje de estrellas supermasivas. Y es chocante porque, hasta hace poco, afirmar la existencia de estrellas de hasta 200 masas solares era algo muy controvertido, y este trabajo ha encontrado que una masa de nacimiento máxima de entre 200 y 300 masas solares no solo es posible, sino probable.
En la mayoría de las zonas del universo estudiadas por los astrónomos hasta la fecha se ha encontrado que cuanto mayor es la masa estelar, menos abundantes son las estrellas. La FMI predice habitualmente que la mayor parte de la masa acumulada en forma de estrellas se encuentra en estrellas de baja masa y que menos del 1% de todas las estrellas nacen con masas que superan diez veces la del Sol.

La Gran Nube de Magallanes al completo. ¿Eres capaz de encontrar la Nebulosa de la Tarántula?
Medir la proporción de estrellas masivas es extremadamente difícil, debido precisamente a su escasez, y solo hay un puñado de lugares en el universo observable donde se puede hacer. Uno de estos lugares es 30 Doradus, la mayor región local de formación de estrellas, que alberga algunas de las estrellas más masivas que se han encontrado. La gran muestra de estrellas de esta región analizada por los investigadores ha permitido a los astrónomos demostrar que las estrellas masivas son mucho más abundantes de lo que se pensaba. De hecho, estos resultados sugieren que la mayor parte de la masa estelar no está en estrellas de baja masa, sino que una fracción significativa estaría en estrellas muy masivas.
Implicaciones importantísimas para nuestra comprensión de la evolución del universo.
Las estrellas han producido la mayoría de los elementos químicos más pesados que el helio, desde el oxígeno que respiramos todos los días hasta el hierro que está en los glóbulos rojos de nuestra sangre. Durante sus vidas, las estrellas masivas producen cantidades gigantescas de radiación ionizante y de energía cinética en forma de fuertes vientos estelares. La radiación ionizante de las estrellas masivas fue crucial para volver a iluminar el Universo después de la llamada Épocas Oscuras, y su efecto cinético impulsa la evolución de las galaxias. Saber por tanto la proporción y número de estrellas masivas es fundamental.
Con estos resultados en la mano podríamos estar hablando de que habría un 70 % más de supernovas en el universo, de que la producción de elementos químicos pesados podría ser el triple y de que se estaría emitiendo cuatro veces más radiación ionizante de lo que se pensaba. Por si esto no fuese suficiente, la tasa de formación de agujeros negros sería un 180 % mayor, lo que se traduciría directamente en un aumento de las fusiones de agujeros negros binarios como las recientemente detectadas por LIGO en forma de ondas gravitacionales.
Los resultados como vemos tienen una importancia potencial enorme. La cuestión es, ¿son extrapolables al conjunto del universo? Y, si es así, ¿cuáles serían las consecuencias para el actual modelo de evolución de nuestro universo?
Referencia:
F.R.N. Schneider et al (2018) An excess of massive stars in the local 30 Doradus starburst Science doi: 10.1126/science.aan0106
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Hay más estrellas masivas de lo que se creía y lo que eso implica para la historia del universo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Está la materia oscura detrás de las extinciones masivas?
- El universo en un día: La vida de las estrellas, por Natalia Ruiz Zelmanovitch
- La estructura en común de estrellas de neutrones y aparcamientos
Blaise Pascal, Dios y la cicloide
Siempre me ha gustado una anécdota del matemático francés Blaise Pascal (1623-1662) del periodo de su vida en el que abandonó la ciencia y se dedicó por completo a Dios, pero se le cruzaron en el camino un dolor de muelas y la cicloide. En esta entrada del Cuaderno de Cultura Científica me gustaría contaros esta anécdota, junto con otra sobre su precoz talento para las matemáticas, y en particular, para la geometría.

Grabado del matemático Blaise Pascal (1623-1662), realizado por el grabador Goulou. Fuente: Bibliothèque Interuniversitaire de Santé/Wikimedia Commons
Blaise Pascal nació el 19 de junio de 1623 en Clermont, hoy en día Clermont-Ferrand, (Francia). Su padre fue Etienne Pascal (1588-1651), jurista francés que fue consejero del rey por la Baja Auvernia, vicepresidente de la Cour des aides, una corte suprema encargada de los impuestos y otros temas fiscales, de Clermont y posteriormente, presidente de la Cour des aides de Normandia, quien además hizo sus pinitos en matemáticas, como el estudio de la curva llamada “el caracol de Pascal”. Su madre, Antoinette Begon, murió cuando Blaise tenía tan solo tres años, tras el nacimiento de su hermana Jaqueline. Tenía otra hermana, Gilberte, tres años mayor que Blaise.

Obra “Caracol de Pascal” (2017), de la serie MathArt (Wiskunst), del artista holandés Bart Mulckhuijse
Se tiene mucha información sobre la niñez del matemático Blaise Pascal debido a que su hermana Gilberte, de casada Gilberte Périer, escribió una biografía sobre su hermano. Por ejemplo, sabemos que su padre se encargó de la educación de sus tres hijos, y muy especialmente de la de Blaise. Así, Gilberte escribió, como se recoge en el libro Blaise Pascal: la certeza y la duda,
“…al morir mi madre en 1626, cuando mi hermano no tenía más que tres años, mi padre, al quedarse solo, se entregó con mayor dedicación al cuidado de la familia; y como Blaise era su único hijo varón, esta cualidad y las demás que en él observó [las grandes pruebas de inteligencia que observó en él] le llenó hasta tal punto de afecto paternal que decidió no encargar a nadie la tarea de su educación y tomó la resolución de instruirle él mismo, como en efecto hizo, pues mi hermano no tuvo nunca otro maestro que mi padre…”
Más aún, en 1631, Etienne decidió marcharse con sus dos hijas y su hijo, que tenía 8 años, a vivir a París, pensando especialmente en la educación de su hijo varón.
Blaise era un niño enfermizo por lo que su padre decidió darle una educación más clásica, centrada en las lenguas y la filosofía, y alejada completamente de las matemáticas, con el objetivo de mantenerlo en una relativa tranquilidad y no forzar su salud. Más aún, Etienne evitaba hablar de matemáticas en presencia de su hijo, incluso cuando sus amigos (entre ellos estaba, por ejemplo, el matemático Gilles Personne de Roberval o Marin Mersenne) le visitaban en casa. Pero la prohibición de incluir las matemáticas en su educación, solo consiguió despertar en Blaise la curiosidad por las mismas, y terminó preguntándole a su padre, cuando tenía 12 años, sobre la geometría. Etienne le explicó, según narra Gilberte en su bografía, que “… en general, [la geometría] es el medio de construir las figuras exactas y de encontrar las proporciones entre ellas”, pero le prohibió volver a hablar, o pensar, sobre el tema.

“Alegoría de la geometría” (1649), del pintor francés Laurent de la Hyre (1606-1656)
Estimulado por la descripción que su padre hizo de la geometría, y a pesar de su prohibición, Blaise empezó a estudiarla a escondidas en su habitación. Descubrió por su cuenta muchas propiedades de figuras geométricas, por ejemplo, que la suma de los ángulos de un triángulo es lo mismo que dos ángulos rectos, es decir, 180º. Según Howard W. Eves, esto fue realizado después mediante algún proceso que consistía en el plegado de un triángulo de papel, del estilo de plegar los vértices del triángulo sobre el centro de una circunferencia inscrita en el triángulo o el plegado de los vértices sobre uno de los lados del triángulo, procesos que se muestran en la siguiente imagen.
Cuenta la hermana mayor de Blaise que como tampoco conocía los términos matemáticos de los objetos geométricos que estudiaba, se fue inventando los nombres de los mismos. Por ejemplo, al círculo le llamó “aro” y a la línea recta “barra”.
Cuando su padre le sorprendió estudiando las figuras geométricas y vio los resultados que había obtenido por su cuenta lloró de alegría al ver la capacidad que tenía su hijo para las matemáticas. Entonces le regaló una copia del gran libro de las matemáticas griegas Los Elementos del matemático Euclides (aprox. 325 – 265 a.c.), un compendio de todo el saber geométrico, aunque también de aritmética y álgebra, de la matemática griega y que fue el libro de texto de matemáticas por antonomasia durante más de dos mil años, que devoró rápidamente con gran placer.
A la edad de 14 años ya empezó a participar, con su padre, en las reuniones de un grupo de matemáticos de París, organizadas por el matemático Marin Mersenne (1588-1648), conocida como la “Academia de Mersenne” y germen de lo que sería la Academia de Ciencias de París, fundada en 1666. Con tan solo 16 años, escribió su Essai pour les coniques –Ensayo sobre las cónicas- (1640), un artículo con una única página que contenía uno de los grandes resultados geométricos de la historia de las matemáticas, hoy en día un resultado clásico de la geometría proyectiva, el conocido como teorema de Pascal o como lo denominó el joven Pascal, el hexagrama místico.
Teorema de Pascal: Sean A, B, C, X, Y, Z seis puntos sobre una cónica Q del plano proyectivo. Si las líneas AY, BZ, CX intersecan a las líneas BX, CY, AZ, respectivamente, entonces los tres puntos de intersección son colineales, es decir, pertenecen a una misma recta (que se suele denominar recta de Pascal).
El resultado también se puede formular de la siguiente forma: si un hexágono (que puede ser estrellado, como en la imagen anterior) está inscrito en una cónica del plano proyectivo, entonces los puntos de corte de las rectas que continúan a los lados opuestos del hexágono son colineales, de ahí el nombre de “hexagrama místico” (de Pascal).
Cuando Pascal tenía 18 o 19 años inventó la primera calculadora mecánica, la pascalina, que funcionaba con ruedas y engranajes. Después de realizar muchos prototipos, la pascalina fue presentada en público en 1645.

Pascalina, calculadora mecánica diseñada por Blaise Pascal, con seis rodillos, conservada en el Museo de artes y oficios de París y firmada personalmente por el matemático francés. Fotografía de David Monniaux / Wikimedia Commons
Blaise Pascal de interesaría después, hacia 1648, por el estudio de la hidrostática, demostrando la existencia de la presión atmosférica mediante el experimento de Puy-de-Dôme, confirmando la teoría y los ensayos del físico y matemático italiano Evangelista Torricelli (1608-1647) o la ley de Pascal sobre los vasos comunicantes, es decir, el estudio de la presión ejercida por un fluido.
Hacia 1653, el caballero de Méré, amigo de Blaise, le planteó algunas cuestiones como la siguiente. Supongamos que dos jugadores de dados determinan jugarse un cierto dinero a apostar quien saca mejor puntuación después de un número dado de partidas, por ejemplo siete, pero el juego se interrumpe antes de esas siete partidas ¿Cómo debería repartirse el dinero apostado si, por ejemplo, uno ha ganado tres partidas y el otro una? Pascal le escribió al matemático (en realidad jurista) francés Pierre de Fermat (1607-1665) sobre estas cuestiones y la correspondencia entre ambos se considera hoy en día el origen de la teoría de probabilidades.
En 1654 publicaría varias obras estudiando otras cuestiones matemáticas, entre ellas el Traité du triangle arithmétique en la que estudia el famoso triángulo de Pascal, que es la representación de los coeficientes binomiales en forma triangular o el Traité des ordres numériques acerca de los órdenes de los números.

En el libro “El diablo de los números” (Siruela, 1988), de Hans Magnus Enzensberger, se explica el triángulo de Pascal y algunas de sus interesantes propiedades. Estas dos ilustraciones pertenecen al libro, la primera es el triángulo de Pascal en el cual cada número es la suma de los dos inmediatamente por encima, y en la segunda se muestran los patrones triangulares que aparecen cuando solo se muestran los números pares
Pero en otoño de 1654 Blaise Pascal sufre una profunda depresión. Su padre había muerto en 1651 y su hermana Jaqueline había ingresado en un convento. Entonces, se produce su conversión religiosa, tras un “accidente de tráfico”.
La noche del 23 de noviembre de 1654 Blaise Pascal iba dando uno de sus habituales paseos en coche de caballos al Pont de Neully. Al entrar en el puente los caballos se espantaron saltando el muro del mismo, pero antes de que estos en su caída arrastraran al carruaje, y a Blaise que estaba dentro, los enganches cedieron, quedando el carruaje, y en consecuencia también su pasajero, sobre el puente. El matemático se salvó de milagro.
Pascal vio este suceso como un mensaje de Dios y experimentó una especie de éxtasis religioso (esa misma noche del 23 de noviembre escribió su pensamiento sobre la experiencia en un texto de una hoja conocido como el Memorial, que está plagado de menciones a Dios), abandonando a partir de ese momento las matemáticas y la ciencia, para dedicarse por entero a la teología.
En ese periodo de tiempo dedicado a la religión escribe sus obras Lettres provinciales –Cartas provinciales- (1656-57) y los Penseés –Pensamientos- (se publicaría póstumamente en 1669), una defensa de la religión cristiana y una reflexión sobre el ser humano.

Memorial de Blaise Pascal, del 23 de noviembre de 1654. Bibliothèque Nationale de France / Wikimedia Commons
Pascal había abandonado completamente el estudio de las matemáticas. Pero ocurrió que una noche de 1658 sufría un terrible dolor de muelas, o quizás uno de los primeros dolores de cabeza que serían permanentes en sus últimos años de vida, y para intentar distraerse del dolor que sufría decidió dedicarse al estudio de la curva cicloide. La cicloide es la curva geométrica que describe un punto de una circunferencia que rueda sobre una línea recta.

La cicloide. Fuente: LaTeX Stack Exchange
Mientras trabajaba esa noche en la cicloide, el dolor de muelas cesó, lo cual fue interpretado por Pascal como que el estudio de las matemáticas no desagradaba a Dios y volvió de nuevo a dedicar parte de su tiempo a la investigación científica.
Por desgracia, en 1659 la salud de Blaise Pascal se deterioró mucho, por lo que tuvo que abandonar definitivamente el estudio de las matemáticas. Finalmente, el 19 de agosto de 1662, a la edad de 39 años, murió este gran científico, del que siempre se ha especulado sobre lo mucho que podría haber hecho, dado su gran talento para las matemáticas, si su vida hubiese transcurrido de otra forma. A pesar de ello, a Pascal le debemos grandes contribuciones a las matemáticas y la ciencia en general, y es uno de los grandes personajes de la historia de las matemáticas.

“Cicloides” (2004), del artista estadounidense Michael Schultheis
Bibliografía
1.- Howard W. Eves, Mathematical Circles (volume I), MAA, 2003.
2.- Carl B. Boyer, Historia de la matemática, Alianza Universiadad Textos, Alianza, 1992.
3.- Francisco Díez Del Corral, Blaise Pascal: la certeza y la duda, Vision Libros, 2009.
4.- Gilberte Périer, La vie de Monsieur Paschal, escrite par Madame Perier, sa sœur, femme de Monsieur Perier, conseiller de la Cour des Aides de Clermont, 1663. Este libro se puede consultar on line en wikisource
5.- Raúl Ibáñez, Cayley, el origen del álgebra moderna, Genios de las Matemáticas, RBA, 2017.
6.- Página web del artista Michael Schultheis
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Blaise Pascal, Dios y la cicloide se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Triangulando: Pascal versus Sierpinski
- La traba de Pascal: geometría proyectiva y literatura
- Matemáticas y mundo físico (y III): los pensamientos de dios
Sistemas respiratorios: la curva de disociación de un pigmento respiratorio

Sangre desoxigenada, a la izquierda, frente a sangre oxigenada, derecha.
El oxígeno se combina con la molécula del pigmento respiratorio uniéndose a sus átomos metálicos. En las hemoglobinas, por ejemplo, hay cuatro grupos hemo y en cada uno de ellos, un átomo de hierro, con cada uno de los cuales puede combinarse una molécula de oxígeno, aunque esas proporciones son diferentes en otros pigmentos. El grado de oxigenación del pigmento es una función de la tensión parcial del oxígeno (tO2) en la sangre, hemolinfa o medio respiratorio de que se trate.
La tensión parcial de un gas disuelto en un medio líquido es, por definición, la presión parcial que tiene ese gas en la fase atmosférica con la que ese líquido se encuentra en equilibrio. Eso no quiere decir que para poder referirnos a una determinada tensión parcial el líquido en el que se encuentra disuelto el gas haya de estar en equilibrio con una fase atmosférica, sino que su tensión parcial es la presión parcial que tendría el gas en una atmósfera con la que hipotéticamente se encontrase en equilibrio. Y aunque, para una presión parcial determinada, la concentración de un gas disuelto puede variar en función de la temperatura y de la presencia y concentración de otros solutos, en condiciones fisiológicas normales la tensión parcial de un gas es proporcional a su concentración. Por lo tanto, el grado de oxigenación de un pigmento respiratorio es una función de la concentración de oxígeno disuelto en la sangre. Analizaremos ahora la naturaleza de la dependencia entre el grado de oxigenación del pigmento (magnitud que expresaremos como porcentaje de saturación) y la tensión parcial de oxígeno en el medio circulatorio. En lo sucesivo solo nos referiremos a la hemoglobina (Hb).
La concentración de hemoglobina combinada con el oxígeno [HbO2] es proporcional al producto de la concentración de hemoglobina no combinada [Hb] y de la concentración de oxígeno [O2], de manera que [HbO2] = K [Hb] [O2], siendo K un coeficiente denominado constante de equilibrio.
El porcentaje de saturación (y) es la fracción porcentual de hemoglobina combinada con respecto a la hemoglobina total (la suma de la combinada y la no combinada); o sea,
y = 100 · [HbO2]/{[Hb] + [HbO2]},
por lo que
y = 100 · K [Hb] [O2]/{[Hb] + K [Hb] [O2]};
de donde
y = 100 · K [O2]/{1 + K [O2]},
y dado que como antes se ha dicho, tO2 es proporcional a [O2], tenemos que
y = 100 · K tO2/(1+tO2).

Curva teórica de disociación de la hemoglobina
Esa expresión define la denominada curva de disociación (o de saturación) del pigmento; es una función hiperbólica con un valor asintótico de 100. La ecuación nos dice que (1) a bajas tensiones parciales de oxígeno la probabilidad de que una molécula del gas se combine con una molécula de hemoglobina es muy alta, porque la mayor parte de los átomos metálicos de los grupos hemo se encuentran disponibles para ello, pero que (2) conforme aumenta la tensión parcial y las moléculas de hemoglobina van combinándose con las de oxígeno, cada vez quedan menos átomos metálicos disponibles, por lo que es necesario que haya cada vez más moléculas de oxígeno en disolución (mayor tO2) para que siga aumentando la fracción del pigmento combinado. Al tratarse de una curva asintótica, nunca se alcanza el 100%, o sea, nunca se satura el pigmento en su totalidad.
El valor de K refleja la propensión que tiene el pigmento a combinarse con el oxígeno. Cuanto más alto es ese valor con mayor facilidad se combinan ambos y más difícil resulta para el oxígeno desprenderse del pigmento. Por eso, un pigmento cuya curva de disociación tiene un valor alto de K, capta oxígeno con facilidad y lo cede difícilmente. Gráficamente estaría representado por una curva hiperbólica que se aproxima rápidamente al valor de 100.
En pigmentos reales, sin embargo, las cosas son algo más complejas. En multitud de ocasiones se ha comprobado experimentalmente que la curva de disociación, más que hiperbólica, es sigmoidea; o sea, tiene forma de s. Y matemáticamente viene expresada por la denominada ecuación de Hill:
y = 100 x K tO2n/(1+tO2n),
que es similar a la anterior, pero en la que el término independiente (tO2) viene afectado por una potencia, n, que es el coeficiente de sigmoidicidad. Cuando n vale 1, tenemos la curva de disociación anterior. Y si toma valores superiores se trata de curvas sigmoideas; o sea, curvas con una primera fase de elevación relativamente lenta pero creciente para valores bajos de tO2, una segunda de elevación más rápida, y la tercera de aproximación asintótica al valor de 100.

Curvas de disociación de la mioglobiba (hiperbólica) y de la hemoglobina (sigmoidea, con forma de “s”)
La sigmoidicidad se produce como consecuencia de la existencia de fenómenos de cooperatividad. Al unirse una molécula de O2 a la molécula de hemoglobina, se altera levemente la conformación de esta y facilita, como consecuencia, las subsiguientes combinaciones. Eso explica que a muy bajos valores de tO2 la curva ascienda lentamente, porque la molécula de O2 que se une a la hemoglobina con mayor dificultad es la primera, pero una vez combinada esta, las siguientes lo hacen con facilidad creciente, razón por la cual la curva pasa a elevarse rápidamente a tensiones parciales de oxígeno intermedias, hasta aproximarse a los valores cercanos a 100, en los que el crecimiento es necesariamente lento y decreciente. La potencia n refleja la intensidad de las interacciones que dan lugar a la cooperatividad, de manera que cuanto mayor es, más intensa es esa cooperatividad y la curva de disociación es más sigmoidea.
Una noción clave en el estudio de los pigmentos respiratorios es la de “afinidad” del pigmento por el oxígeno. Nos hemos referido a esta noción de pasada antes, sin nombrarla. La afinidad de un pigmento refleja la intensidad con la que se combina con el oxígeno o, expresado en otros términos, la propensión o facilidad para combinarse. Un pigmento de alta afinidad se combina con el O2 con facilidad y se desprende con dificultad. O sea, capta oxígeno muy fácilmente y le cuesta cederlo. Por ello, a bajas tensiones parciales de oxígeno gran parte del pigmento se encuentra combinado en un gran porcentaje; lo contrario ocurre con un pigmento de baja afinidad. No hay un parámetro que mida directamente esa característica, aunque suele utilizarse el denominado p50, como indicador. El p50 es el valor de tensión parcial de oxígeno al que el pigmento ha alcanzado el 50% de su valor de saturación.
Quien haya llegado hasta aquí quizás piense que lo lógico es que un buen pigmento respiratorio tenga una gran afinidad por el O2. En la próxima anotación podrá comprobar que esa idea es incorrecta.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas respiratorios: la curva de disociación de un pigmento respiratorio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Sistemas respiratorios: los pigmentos respiratorios
- Sistemas respiratorios: distribución de los pigmentos
- Sistemas respiratorios: los límites a la difusión de los gases
La relatividad del tiempo (2)

La dilatación del tiempo explica por qué en la Estación Espacial Internacional el tiempo va más lento, con un retraso de 0,007 segundos cada seis meses.
¿Cuánto más lento parece un reloj que se mueve respecto de un observador? La relación exacta entre el intervalo de tiempo transcurrido registrado por un reloj que está estacionario con respecto al observador (Mónica) y el intervalo de tiempo transcurrido para el mismo fenómeno medido por alguien que observa el reloj en movimiento a una velocidad constante v (Esteban), la relatividad del tiempo, viene dada por una ecuación muy sencilla,
Δte = Δtm /√(1-v2/c2).
Lo que puede hacer que la ecuación para la dilatación del tiempo parezca complicada es el término en la raíz cuadrada, que es el que contiene gran parte de la física. Sin embargo, es muy simple. El símbolo c es la velocidad de la luz en el vacío, y v es la velocidad del reloj que se mueve en relación con el observador que mide el intervalo de tiempo transcurrido Δte. Para los objetos reales, no imaginarios, v es siempre menor que c. Por lo tanto, v/c es siempre menor que uno y, por consiguiente, también lo es v2/c2. Como v2/c2 se resta de 1, el resultado de esta resta siempre es un número positivo menor que 1. La raíz cuadrada de un número positivo menor que 1 es siempre un numero menor que uno [1]. De ahí que podamos afirmar que si Mónica se mueve, esto es, para una velocidad v no nula, Δte será mayor que Δtm. En otras palabras, el tiempo pasa más rápido para Esteban que está estacionario observando cómo Mónica se mueve a velocidad v, o, visto de otra manera, Esteban observa que el reloj en movimiento que acompaña a Mónica se mueve más lentamente. Obviamente, si v = 0 entonces Δte = Δtm, esto es,dos observadores en reposo uno respecto al otro miden el mismo paso del tiempo.
 
¿Qué sucede a velocidades muy altas?
Asumamos que la velocidad del reloj en movimiento (o cualquier proceso repetitivo) es extremadamente alta, digamos 260,000 km/s, relativa a otro marco de referencia inercial. La velocidad de la luz c en el vacío es constante y, redondeando, de 300,000 km/s. Cuando el reloj en movimiento registra un intervalo de tiempo de 1 s en su propio marco inercial (Δtm = 1 s), ¿cuál es el intervalo de tiempo para alguien que mira el reloj pasar a la velocidad de 260,000 km/s? Resolvamos la ecuación Δte = Δtm /√(1-v2/c2) paso a paso:
v/c = 260.000/300000 = 0,867
v2/c2 = [0,867]2 = 0,75
1 – 0,75 = 0,25
√0,25 = 0,5
Por lo tanto, como Δtm = 1 s,
Δte = Δtm/ 0,5 = 1s /0,5 = 2 s
Este resultado dice que un reloj que se mueve a 260,000 km/s y que registra un intervalo de 1 s en su propio marco inercial, a un observador en reposo en relación con el reloj le parece que va muy lento. Mientras la persona que viaja con el reloj registra un intervalo de 1 s, el observador en reposo medirá (con respecto a su propio reloj) el doble de tiempo, 2 s. Recordemos que el reloj no parece ralentizarse en absoluto a la persona que se mueve con el reloj; pero para el observador externo el intervalo de tiempo se dilata considerablemente.
¿Qué sucede a velocidades ordinarias?
Es de señalar que en la situación anterior obtenemos un efecto de dilatación del tiempo de “solo” dos veces con una velocidad relativa de 260,000 km/s, casi el 87% de la velocidad de la luz. Para velocidades mucho más bajas, el efecto disminuye muy rápidamente, hasta que a velocidades ordinarias no es apreciable salvo en experimentos muy delicados.
Por ejemplo, veamos una situación de la vida real, digamos un reloj marcando un intervalo de 1 s dentro de un avión a reacción, volando a la velocidad del sonido de aproximadamente 0.331 km/s. ¿Cuál es el intervalo de tiempo correspondiente observado por una persona en reposo en tierra? Si repetimos la operativa, tenemos:
v/c = 0,331/300000 = 1,10 ·10-6
v2/c2 = [1,10 ·10-6]2 = 1,22 ·10-12
1 – 1,22 ·10-12 = 0,99999999999878
√0,99999999999878 = 0,99999999999938
Por lo tanto, como Δtm = 1 s,
Δte = Δtm/ 0,99999999999938 = 1s /0,99999999999938 = 1,00000000000061 s
Con una cantidad tan increíblemente pequeña de dilatación del tiempo, no es de extrañar que este efecto nunca se hubiese observado antes. Debido a que el efecto es muy pequeño, la física de Newton todavía es útil para el mundo cotidiano de las velocidades normales para el que se construyó. Es falso afirmar (Einstein jamás dijo nada parecido) que la teoría de la invariancia [2] demuestre que la física de Newton deja de ser válida; tan falso como afirmar que los calibres (pies de rey) demuestren que los metros de carpintero no sirven, lo que ocurre es que sirven a determinada escala.
En cualquier caso, la dilatación del tiempo en los relojes en movimiento está ahí, y de hecho fue confirmado en un famoso experimento que involucraba un reloj atómico muy preciso que volaba alrededor del mundo en un avión de pasajeros. Si bien se vuelve significativo solo a velocidades relativas cerca de la velocidad de la luz, que es el caso en experimentos de laboratorio de alta energía y en algunos fenómenos astrofísicos, también es importante en medidas de precisión que toman mucho tiempo. Así, los satélites del sistema GPS se desplazan a 4 km/s, lo que representa una ralentización de 7 microsegundos por día, solo debido al efecto que hemos visto [3]; este efecto debe tenerse en cuenta en el diseño.
Notas:
[1] Estrictamente la raíz cuadrada de un número no es unívoca, no da un solo resultado, sino dos, uno positivo y otro negativo. Así la raíz cuadrada de 4 es tanto +2 como -2, ya que tanto (+2)·(+2) como (-2)·(-2) dan 4. En este caso descartamos la raíz negativa por carecer de sentido físico.
[2] Popularmente, teoría de la relatividad.
[3] Existe también un efecto debido a la relatividad general. Ambos efectos combinados harían que los observadores de la Tierra vieran los relojes de los satélites GPS 38 microsegundos por día más rápidos que los relojes en la Tierra (en el satélite la atracción gravitatoria es menor que en la superficie del planeta y el reloj “corre más” compensando el efecto debido a la velocidad relativa). Las posiciones calculadas por GPS se desviarían rápidamente, acumulándose unos nada despreciables ¡10 kilómetros por día!. Esto se corrige en el diseño del GPS.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La relatividad del tiempo (2) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La relatividad del tiempo (1)
- El principio de relatividad (y 4): la versión de Einstein
- El principio de relatividad (3): la invariancia de Galileo
La verdaderamente divertido es hacer Ciencia
Haydée Valdés González
A menudo tengo la sensación de que buscando acercar la Ciencia a la sociedad y pretendiendo que la ciudadanía “pierda el miedo” a la Ciencia y se sienta más atraído y predispuesto hacia ella, recurrentemente se deja entrever el mensaje de que “la Ciencia es fácil y divertida”.
Sin embargo, este eslogan puede ser un arma de doble filo. Permítanme que me explique.
En lo que a la “facilidad” de la Ciencia se refiere, es necesario hacer hincapié en tres aspectos fundamentales: la asimilación de los contenidos científicos, el ejercicio de la Ciencia y el espíritu investigador.
En primer lugar, en lo que a los contenidos científicos se refiere, es importante aclarar que, ciertamente, el conocimiento científico es comprensible para todo aquella persona que lo desee pero creo que es importante matizar que no es, necesariamente, fácilmente comprensible. Al contrario, suele ser difícilmente comprensible puesto que requiere de mucho esfuerzo y muchas horas de dedicación al estudio para poder asimilarlo correctamente.
Lo que ocurre entonces es que para “hacer fáciles los contenidos científicos” y poder transferir conocimiento a la sociedad muchas veces se ha de recurrir a una simplificación excesiva de dichos contenidos científicos. Esta acción, como todo en la vida, tiene sus ventajas e inconvenientes. En esta ocasión me gustaría centrarme en los inconvenientes.
Presentar la Ciencia a través de conceptos demasiado simples o, bien, presentar la Ciencia a través de conceptos muy complejos de forma simple, probablemente deja al espectador con un dulce sabor de boca pero también con grandes lagunas de conocimiento y posiblemente engañado al creer que, en unos pocos minutos, ha logrado comprender teorías o conceptos científicos que en realidad son muy complejos.
Al permitir que el ciudadano se marche a su casa con la sensación general de que “la Ciencia es fácil”,se corre el gravísimo riesgo de que éste no sepa poner en verdadero valor a la Ciencia y no la perciba como lo que realmente es, un proceso que requiere mucho esfuerzo, dedicación estudio y conocimiento. Esto puede implicar a su vez que dicha persona no sepa apreciar en su justa medida el verdadero valor de los estudios científicos ni distinguirlos del resto de informaciones pseudocientíficas que están a la orden del día.
En segundo lugar, la Ciencia no sólo abarca el conjunto de conocimientos científicos derivados de su ejercicio. La Ciencia es también la actividad ejercitada por los científicos para la obtención de dicho conjunto de conocimientos y llevar a cabo dicho proceso con la seriedad y el rigor que le caracteriza tampoco es necesariamente fácil. Hay que tener en cuenta que la actividad científica es un ejercicio que habitualmente se prolonga bastante en el tiempo, para lo que se requiere mucha constancia y paciencia, y que se ha de ejecutar siempre de una forma organizada, meticulosa y precisa lo que no siempre resulta una tarea fácil.
Y en tercer y último lugar, también es importante matizar que el ejercicio de la Ciencia conlleva una transformación fundamental en el carácter y personalidad del ser humano que lo practica, lo que lógicamente entraña una cierta dificultad. Un buen científico debería poseer un espíritu científico, lo que significa que esa persona debería realizar un importante esfuerzo personal para desarrollar un conjunto de valores, habilidades y aptitudes que no siempre le son innatas. Así por ejemplo, un científico debería poseer apertura mental, ser escéptico o estar libre de prejuicios, capacidades, todas ellas, cuyo desarrollo puede llegar a entrañar una enorme dificultad dado que en muchas ocasiones puede provocar importantes conflictos con los sentimientos, deseos o creencias propias del individuo.
Por otro lado, la afirmación de que “la Ciencia es divertida” también habría que matizarla.
Seguro que todos nosotros conocemos a personas de nuestro entorno cotidiano que son felices haciendo deporte. Cuando les preguntamos por qué continúan practicando deporte a pesar de por ejemplo, las lesiones, el cansancio físico o las condiciones climatológicas, una de las razones que normalmente argumentan es que hacer deporte “les divierte”, en alusión a la diversión derivada de la propia naturaleza del proceso.
Bien, pues con la Ciencia pasa lo mismo.
La actividad científica, la práctica del ejercicio de la Ciencia, es divertida por sí misma. La Ciencia resulta entretenida y apasionante porque su fin último es comprender el mundo que nos rodea, lo que satisface el anhelo de curiosidad que ha acompañado al ser humano a lo largo de toda su existencia.
Ahora bien, no se vayan a creer ustedes que estar en el laboratorio es una fiesta continua. La actividad investigadora, como cualquier otra profesión, también puede ser rutinaria y, en ocasiones, hasta aburrida. Lo que ocurre es que hay personas para las que el proceso de investigación científica y todo lo que éste conlleva, incluidos los aspectos negativos, resulta fascinante y atractivo, de la misma manera que hay personas que disfrutan haciendo ejercicio físico a pesar de, como digo, las lesiones o el cansancio.
Otra cosa bien distinta es que además sea posible disfrutar con el conocimiento científico derivado del ejercicio de la Ciencia asistiendo a eventos de divulgación científica.
Pero resulta evidente que se trata de dos formas de disfrutar completamente diferentes.

Eva María Wara Álvarez Pari, durante su máster en química en la Friedrich-Alexander-Universität, Erlangen-Nürnberg (Alemania). Foto: Lindau Nobel Laureate Meetings
Mientras que el espectador de un evento de divulgación científica es un agente pasivo que disfruta de los contenidos científicos sentado en una butaca, el científico es un agente activo que disfruta haciendo Ciencia y generando conocimiento científico (aunque en ocasiones también pueda actuar como espectador de eventos científicos, evidentemente).
En línea con esta afirmación cabría matizar entonces que el principal inconveniente de que a la ciudadanía se le otorgue sistemáticamente el papel de espectador es que, probablemente, acabará por tener una comprensión limitada de lo que es la diversión en la Ciencia ya que nunca experimentará la diversión asociada al trabajo deinvestigación.
En este sentido, resultaría sumamente interesante que se llevaran a cabo más iniciativas que permitiesen a los ciudadanos que así lo desearan (especialmente los niños y los más jóvenes) tomar parte activa en procesos de investigación reales otorgándoles el papel protagonista del ejercicio de la Ciencia y alejándolos por completo del papel de espectador.
Esta iniciativa satisfaría además otras necesidades importantes como son las de desarrollar el espíritu científico de la población, para que puedan aplicarlo en sus vidas y beneficiarse de todo lo que éste implica, y la de permitir a los ciudadanoscomprobar en primera persona el esfuerzo, dificultad, rigor y seriedad que entraña la actividad científica, lo que incuestionablemente influiría en una percepción más positiva y respetuosa de la misma.
Otra deriva de lo que es el concepto de “Ciencia divertida” es el de los espectáculos de Ciencia que en ocasiones tenemos la oportunidad de presenciar.
Los actores de las performances científicas eligen experimentos llamativos a sabiendas de que van a resultar fascinantes y espectaculares, casi mágicos y milagrosos, lo que indiscutiblemente resulta altamente lúdico, entretenido e irresistible pero también considerablemente alejado de la realidad científica.
En estos espectáculos, la Ciencia se equipara al contenido que ha sido cuidadosamente “enlatado” con un formato atrayente para el consumo del gran público a costa de alejarla de su propia esencia como proceso de búsqueda del conocimiento, lo que tiene un efecto devastador al banalizar la Ciencia y convertirla en un producto de consumo más dentro de la oferta del sector de ocio y entretenimiento.
Incuestionablemente,es imprescindible acercar la Ciencia a la sociedad y transferir el conocimiento científico a la ciudadanía por lo que todas las posibles iniciativas tienen cabida, pero es importante recalcar la necesidad de cuidar adecuadamente las formas y el fondo para no desvirtuar a la Ciencia y conseguir así que su verdadero valor e importancia no pasen desapercibidos a la sociedad.
Sobre la autora: Haydée Valdés González es doctora en ciencias químicas.
El artículo La verdaderamente divertido es hacer Ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cómo hacer ciencia en un periódico: la experiencia de ‘Público’
- ¿Una charla? ¿de ciencia?, prefiero el bar…
- Ciencia para todos a través del cine y la literatura de ciencia ficción
Más competidores, menos competición
Analizando los resultados de la prueba SAT que se realiza en los Estados Unidos para acceder a los estudios universitarios, S. García (Michigan, EEUU) y A. Tor (Haifa, Israel) han observado que dichos resultados son peores cuanto mayor es el número de personas que realizan la prueba en una misma dependencia. También han observado el mismo fenómeno al analizar los resultados de una prueba analítica muy sencilla, denominada “Cognitive Reflection Test”.
Ese fenómeno podría tener más de una explicación. Podría deberse a que en los sitios con mucha gente hay más ruido y, en general, más distracción, o ser consecuencia del modo en que quienes se examinan reaccionan a la percepción del número de posibles competidores.
Tras esos primeros resultados, hicieron estudios adicionales. Pidieron a un conjunto de estudiantes universitarios que realizaran una prueba sencilla lo más rápido que pudiesen, sin preocuparse demasiado por la corrección de las respuestas y ofrecieron una recompensa económica al 20% que lo hiciesen en menos tiempo. A la mitad de los que iban a hacer la prueba les dijeron que competían contra otros diez y a la otra mitad, que lo hacían contra otros cien. Pues bien, la mitad que pensaban que competían contra diez respondieron al test en 29 s y la otra mitad en algo más de 33 s, una diferencia de más de un 10%. Nótese que el resultado difirió entre los dos grupos por el simple hecho de variar el número de competidores, aunque el porcentaje premiado fuese el mismo en ambos casos, el 20%, como se ha dicho.
En una siguiente prueba pidieron a unos estudiantes que imaginasen que participaban en una carrera de 5 km; unos creían que corrían en un grupo formado por 50 corredores y los otros que el grupo era de 500, y en ambos casos se les dijo que el 10% que obtuviese mejores posiciones se llevaría un premio de 1.000 dólares. Y lo que se les preguntaba era por el esfuerzo que estaban dispuestos a hacer en cada caso. El esfuerzo se expresaba en términos relativos, con un mínimo de 1 (correr algo más rápido que lo normal) y un máximo de 7 (la carrera más rápida de su vida). Resultó que los que creían correr contra 50 estaban dispuestos a realizar un esfuerzo mayor (5’4 en la escala de 1 a 7) que los que creían correr contra 500 (4’9 en esa misma escala).
Los autores del trabajo denominaron efecto “n” (n de número) a la influencia que ejerce la percepción del número de competidores sobre el esfuerzo que se está dispuesto a hacer para obtener unos resultados en un entorno competitivo. Las implicaciones prácticas de estos resultados, de confirmarse, son evidentes, aunque no lo es tanto su significado. Es comprensible que se gradúe el esfuerzo en función de lo fácil o difícil que se perciba obtener recompensa cuando el número de recompensados es fijo, pero carece de sentido que esa misma graduación se haga cuando es un porcentaje el que recibe premio. Aunque en realidad podría ocurrir que, dado el proverbial anumerismo de la mayoría de los miembros de nuestra especie, los sujetos encuestados respondiesen sin una noción clara de esa diferencia y pensando que la existencia de muchos competidores disminuye de suyo las posibilidades de obtener recompensa. De ser así, cabe pensar que la evolución nos ha dotado de una curiosa herramienta mental para economizar esfuerzos, sobre todo cuando pensamos que esos esfuerzos pueden ser baldíos. Pero la confusión número-porcentaje, a la que tan dada es nuestra especie, engaña una vez más.
Fuente: Stephen M. García & Avishalom Tor (2009): The N-Effect-More Competitors, Less Competition. Psychological Science 20 (7): 871-877.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Más competidores, menos competición se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Menos felices y menos insatisfechos a medida que envejecemos
- Conviene que los hijos se parezcan a su padre
- Cuantas menos ecuaciones…. ¿mejor?
I, Mammal. The Story of What Makes Us Mammals
Juan Ignacio Pérez Iglesias, lector
Un balonazo en la diana testicular del autor cuando jugaba como portero de fútbol condujo a este a preguntarse acerca de las razones de la ubicación de las gónadas masculinas de un gran número de especies de mamíferos en el exterior del abdomen (advierto a futuros posibles lectores de que el asunto está lejos de haber sido resuelto y de que es materia de controversia). Y a partir de esa indagación y por culpa de otros avatares de la vida, y más concretamente de su paternidad, llegó a interrogarse acerca de la condición mamífera, esa que compartimos los seres humanos con los miembros de otras muchas especies.
A cualquiera que nos preguntasen acerca de tal condición, responderíamos que los mamíferos nos caracterizamos por ser especies vivíparas, por el modo en que las hembras alimentan a sus crías recién nacidas –con leche que producen ellas mismas-, o por el pelaje que cubre nuestro cuerpo. Sin embargo, ninguna de esas características es común a todas las especies del grupo. Por eso no es fácil responder a la pregunta de qué es lo que nos hace mamíferos.
Para responderla, Liam Drew recorre un buen número de aspectos de la biología de los mamíferos. Una parte muy importante del libro lo dedica a cuestiones que tienen que ver, directa o indirectamente, con nuestra reproducción. De especial importancia son los capítulos dedicados a la lactación -no en balde se trata del rasgo que sirve para denominarnos como grupo- y a la placenta –dispositivo del que disfrutamos la mayoría de especies de mamíferos-. Pero Drew repasa muchos más aspectos de nuestra biología: condición endoterma (íntimamente relacionada con la posesión de pelaje), receptores sensoriales, corteza cerebral y otros.
No obstante, lo más notable de este libro no es el repaso de temas de paleontología, biología del desarrollo, fisiología o neurobiología, sino la aproximación evolutiva que impregna todos los aspectos tratados. El autor expresa en todo momento su interés por desentrañar la razón de ser de los rasgos que nos caracterizan a los mamíferos. Se pregunta acerca de las presiones selectivas que pudieron dar lugar a su aparición y a posteriores modificaciones. Y en ese repaso valora las diferentes interpretaciones que se han ido dando a lo largo del tiempo.
El libro es riguroso, muy completo, ameno e instructivo. Es un gran libro de divulgación. No me extrañaría que lo tradujesen al español, aunque vistos los desmanes que se suelen cometer con las traducciones, recomiendo encarecidamente su lectura en inglés. Se lee con facilidad.
Ficha:
Autor: Liam Drew
Título: I, Mammal. The Story of what Makes Us Mammals
Año: 2017
Editorial: Bloomsbury
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
El artículo I, Mammal. The Story of What Makes Us Mammals se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El ingenio de los pájaros, de Jennifer Ackermann
- La cara más emocionante, humana y filosófica de la ciencia
- El tamaño importa en organismos, empresas, ciudades y economías
Naukas Bilbao 2017 – Teresa Valdés-Solís: Limpia, fija y da esplendor
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Si bien el título de esta charla hace referencia al ideal despótico ilustrado de determinada pomposa institución, a todos los efectos prácticos manifiestamente prescindible, en ella Teresa Valdés-Solís repasa algunas aplicaciones insospechadas de los materiales porosos.
Teresa Valdés-Solís: Limpia, fija y da esplendorEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Teresa Valdés-Solís: Limpia, fija y da esplendor se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma
- Naukas Bilbao 2017- Daniel Torregrosa: ¡Estamos rodeados!
- Naukas Bilbao 2017 – Diana González: Identidad digital y robots