Naukas Bilbao 2017 – Ricardo Oltra: Que inventen ellos
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Ricardo Oltra, que es ingeniero agrónomo y físico teórico de formación, trabaja en la Oficina Europea de Patentes en La Haya (Holanda) nos introduce en el proceloso mundo de las patentes.
Ricardo Oltra: Que inventen ellosEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Ricardo Oltra: Que inventen ellos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – Álex Méndez: Luz de luna
- Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan
- Naukas Bilbao 2017 – Mónica Lalanda: Una muerte de cómic
Nanopartículas para reducir la metástasis hepática del cáncer de colon

Representación gráfica de una metástasis (blanco/gris) en el hígado (naranja).
La metástasis es el proceso por el cual un tumor que crece en un órgano se desprende de este y viaja a otro órgano y lo coloniza. En el proceso de colonización necesita crear nuevos vasos sanguíneos, a través de los que las células cancerosas obtienen los alimentos y oxígeno necesarios para crecer. Ese proceso de formación de vasos sanguíneos se denomina angiogénesis, y lo llevan a cabo las células endoteliales. “A diferencia de las células endoteliales normales, y como consecuencia de las señales que les llegan de las células tumorales, las células que abastecen a los tumores tienen un crecimiento mayor y tienden a moverse hacia la masa metastásica, para ayudarla a crecer”, comenta Iker Badiola, miembro del grupo de investigación Signaling Lab del Departamento de Biología Celular e Histología la Facultad de Medicina y Farmacia de la UPV/EHU.
Con el fin de revelar qué es lo que provoca ese cambio en las células endoteliales, el grupo de investigación Signaling Lab de la UPV/EHU y el Departamento de Farmacología, Farmacia y Tecnología Farmacéutica de la Universidad de Santiago de Compostela iniciaron una investigación con ratones, en colaboración con otra serie de investigadores. El fin último era, tal como afirma Badiola, “frenar el proceso metastásico incidiendo sobre la angiogénesis, en caso de conseguir restablecer las células endoteliales”. En la investigación, provocaron una metástasis hepática a ratones utilizando células de cáncer de colon, y de esa masa extrajeron células endoteliales. Posteriormente, realizaron una comparación entre esas células endoteliales y otras sanas. La comparativa la hicieron en dos aspectos: a nivel proteico, donde vieron que proteínas aparecían y cuáles no en cada tipo de células, y en qué nivel lo hacían, y de igual manera a nivel de micro-RNA. Los microRNA son unos pequeños elementos, que durante un tiempo se pensó que no tenían ninguna función, pero ahora se sabe que participan en la regulación de proteínas.
Mediante herramientas bioinformáticas, hicieron el cribado y selección de las proteínas y los elementos micro-RNA relevantes, y “en el último paso de esa selección nos quedamos con un micro-RNA concreto, el miR-20a. Se trata de un elemento que aparece en las células endoteliales sanas, pero desaparece en las que están en contacto con el tumor. Vimos que como consecuencia de la desaparición del miR-20a en las células endoteliales aparecían una serie de proteínas, y era entonces cuando comenzaba a cambiar su comportamiento y empezaban a crecer y desplazarse”, aclara Badiola.
Seguidamente, iniciaron los experimentos para demostrar si la inclusión del elemento miR-20a haría restablecer el comportamiento de las células endoteliales que abastecen los tumores. Para ello, desarrollaron unas nanopartículas “diseñadas para ser dirigidas a las células endoteliales hepáticas, y cargadas de miR-20a. Se las suministramos a ratones a los que previamente habíamos provocado la metástasis, para conocer el efecto. El análisis patológico reveló que en los casos tratados se habían formado muchos menos vasos sanguíneos nuevos dentro de los tumores. Asimismo, certificamos que el número y tamaño de las masas de metástasis se habían reducido en un 80 %”, detalla.
Badiola valora positivamente el poder reducir el tamaño de la metástasis en un 80 %, pero tiene claro que “si alguna vez llega a ser utilizado como tratamiento, será un tratamiento complementario. No hay que ignorar que la metástasis sigue creciendo un 20 %, y, además, en ningún momento se destruyen las células tumorales, no se arremete contra ellas directamente. La estrategia de hacer frente a la metástasis que hemos conseguido limita el aporte de alimentos y oxígeno; es decir, le restringimos la ayuda”.
Referencia:
Joana Marquez, Ines Fernandez-Piñeiro, Marcos J. Araúzo-Bravo, Gereon Poschmann, Kai Stühler, Abdel-Majid Khatib, Alejandro Sanchez, Fernando Unda, Gaskon Ibarretxe, Irantzu Bernales, Iker Badiola (2018) Targeting liver sinusoidal endothelial cells with miR-20a-loaded nanoparticles reduces murine colon cancer metastasis to the liver. International Journal of Cancer doi: 10.1002/ijc.31343
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Nanopartículas para reducir la metástasis hepática del cáncer de colon se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Seguridad diagnóstica en el cáncer de colon y tratamiento del de páncreas
- Nanopartículas de oligoquitosano para terapia génica
- Detección precoz del cáncer de colon por métodos no invasivos
Una breve historia del método de la hipótesis
Corazonada, especulación, conjetura son tres palabras válidas para describir lo que es una hipótesis. Una hipótesis no es otra cosa que una corazonada, una especulación o una conjetura que se propone como solución a un problema, pero cuya aceptabilidad necesita de más investigación mediante argumentos, observaciones o experimentos.
La formulación de hipótesis es indispensable en el pensamiento humano: desde el de una niña que aprende a manejar su último regalo tecnológico sin leerse las instrucciones a el de esa misma niña cuando se dedica profesionalmente a la metafísica, pasando por el de los detectives novelescos à la Sherlock Holmes.
Sin embargo, a pesar de ser algo común a cualquier empresa intelectual humana, muchos ven a la hipótesis como parte fundamental de eso que se ha dado en llamar “el” método científico, como si hubiese solo uno y se identificase con el hipotético-deductivo. Muchas de estas personas adoptan, sin saberlo probablemente, una posición filosófica asociada a Popper, según la cual las teorías científicas no serían otra cosa que “hipótesis empíricas”, estatus que mantienen siempre sin importar el éxito que puedan tener a la hora de soportar los repetidos intentos de hacer ver que son falsas (falsarlas).
Curiosamente esta visión de la ciencia y del papel central del método de la hipótesis es muy contemporánea, y las narrativas de la ciencia desde el siglo XVII a nuestros días como manifestaciones de este método son ahistóricas, por presentistas, además de mayoritarias. Para ilustrar este hecho esbocemos la historia del método de la hipótesis en ciencia.

Los “Principios de filosofía” de Descartes en la edición realizada en Amsterdam en 1685
Habitualmente en las narrativas contemporáneas del método de la hipótesis habría sido Francis Bacon el referente a principios del XVII para su origen. Y no es cierto, eso es atribuirle una influencia en su tiempo que no tuvo. Fue René Descartes el que lo hizo objeto de discusión en sus “Principia philosophiae” (1644).
Argumentaba Descartes que el mundo se presenta a sí mismo como el dial de un reloj cuyos mecanismos internos están ocultos. Para hablar de estos mecanismos debemos recurrir a hipótesis o conjeturas. De forma análoga, si queremos hablar de un fenómeno que observamos, como la reflexión o la refracción de la luz, y si queremos explicarlo en términos de corpúsculos hemos de recurrir a hipótesis. Los argumentos de Descartes fueron desarrollados por muchos que se dedicaban a la “filosofía mecánica”, siendo probablemente el más significado de ellos Robert Boyle.
La formación clásica de los eruditos de la época hacía que todos ellos tuviesen unos conocimientos elementales de lógica, más en una época tan cercana al Renacentismo. Hemos de recordar que en esta época Bento Spinoza escribe su obra cumbre, “Ethica more geometrico demonstrata” (Ética demostrada geométricamente) (1677), como un tratado lógico-matemático. Cualquiera con estos conocimientos elementales de lógica sabía que aceptar el método de la hipótesis era aceptar como válida una falacia, la afirmación del consecuente [1]. Incluso si damos una explicación plausible de la refracción como causada por corpúsculos, el éxito de la explicación no demuestra que los corpúsculos existan realmente [2].

Primera edición de los “Principia” de Newton (1687)
Por lo tanto era evidente para los filósofos de la época, mecánicos o no, que el método de la hipótesis no permitía alcanzar lo que Aristóteles llamaba conocimiento cierto. Isaac Newton, horrorizado por lo chapucero del método de la hipótesis (aunque él, como humano que era, recurriese a él informalmente), escribe lo siguiente [3] en el “Escolio general” que añadió a la segunda edición (1713) de los “Philosophiæ Naturalis Principia Mathematica”:
Todavía no he podido descubrir la razón de estas propiedades de la gravedad a partir de los fenómenos, y no compongo una hipótesis [hypotheses non fingo]. Porque lo que no se deduce de los fenómenos debe llamarse una hipótesis; y las hipótesis, ya sean metafísicas o físicas, o basadas en cualidades ocultas, o mecánicas, no tienen cabida en la filosofía experimental. En esta filosofía, las proposiciones particulares se infieren de los fenómenos, y luego se vuelven generales por inducción.
El prestigio de Newton llevó a la condenación del método de la hipótesis durante 150 años. Así se puede encontrar esta condena explícitamente en textos tan influyentes en su época como el “Traité des systèmes” (1741) de Condillac, los “Discours prélimenaires” (1751) de la “Encyclopedie” o el “Inquiry into de Human Mind” (1764) de Thomas Reid. Con el redescubrimiento de Francis Bacon durante la primera mitad del siglo XIX, y en contra de la narrativa presentista del siglo XXI, los métodos alternativos al de la hipótesis como la inducción enumerativa [4]y la inducción eliminativa se hicieron aún más populares.
Con todo, desde la segunda mitad del siglo XVIII existe una minoría de filósofos naturales y, ya, científicos de pleno derecho, que argumentan que la ciencia no puede evitar el método de la hipótesis. Los filósofos que usaban fluidos imponderables para explicar los fenómenos gravitatorios, como George le Sage, neurofisiológicos, como David Hartley, o la propia materia, como Ruder Boscovich, se dieron cuenta de que repudiar el método de la hipótesis era autoengañarse.
El estatus del método de la hipótesis a comienzos del siglo XIX lo ilustra muy bien el debate sobre la naturaleza de la luz. Aquellos que pensaban que el método de la hipótesis era inaceptable, como John Stuart Mill, rechazaban la teoría ondulatoria. Por tanto, el debate sobre la naturaleza de la luz, como muchos en ciencia, era tan científico como filosófico.

Edición de 1847 de “La filosofía de las ciencias inductivas basada en su historia ” de Whewell
El método de la hipótesis fue así ganando predicamento con figuras de la influencia de William Whewell en su “Philosophy of the Inductive Sciences” (1840) y Claude Bernard en su “Introduction à l’étude de la médecine expérimentale” (1865) dándole apoyo.
Los que apoyaban el método de la hipótesis trabajaron para consolidarlo, por ejemplo añadiendo que cuanto más amplio fuese el rango de fenómenos que una hipótesis puede explicar, más probable es que sea verdadera. Whewell fue un paso más allá sugiriendo que las hipótesis aceptables tenían que explicar más que aquello para lo que habían sido creadas, esto es, tenían que ser capaces de predecir nuevos fenómenos.

Ernst Mach en 1900
Sin embargo, los que apoyan el método de la hipótesis si bien crecen en número e influencia durante el siglo XIX aún no son la mayoría. Muchos científicos siguen sospechando de esta forma de proceder y afirman que solo se puede generalizar por inducción. Ernst Mach, un físico y epistemólogo de enorme influencia a finales de siglo (sus ideas se encuentran en los primeros trabajos de Einstein por ejemplo [2]), al igual que muchos positivistas, descarta su uso más allá de una ayuda heurística, reservas que se traducen en que él mismo niegue la existencia de los átomos, muchos hagan la vida imposible a Boltzmann por proponerlos y Wilhelm Ostwald reconociese su existencia [2] solo el año antes de recibir el premio Nobel de química en 1909. La sociología y la historia de la ciencia del XIX y primeros años del XX no se entiende sin una comprensión del papel del rechazo al método de la hipótesis.
Con el siglo XX comienza en serio el conocimiento en profundidad de la estructura de la materia y el universo, lo que favorece el uso de la especulación ante la limitación de observaciones, cuando son posibles, a partir de las que hacer inducciones. Esto lleva a que hoy el método de la hipótesis, conocido como método hipotético-deductivo sea el más popular de los métodos de la ciencia. Algunos historiadores, filósofos y prácticantes de la ciencia deslumbrados por la física del XX lo elevaron a paradigma de lo que es ciencia y lo identificaron con “el” método de la ciencia, cosa que, como hemos visto, no es así.
Notas:
[1] Si la hipótesis A es cierta, entonces debe ocurrir B; como ocurre B, entonces A es cierto. Por ejemplo, si está criado en Inglaterra entonces habla inglés, como habla inglés entonces es inglés; esto, como sabemos, no es necesariamente cierto, puede ser neozelandés, hablar inglés perfectamente y no haber pisado Inglaterra en su vida.
[2] Por eso la existencia de los átomos no se acepta como realidad por la comunidad científica hasta la formulación de Einstein del movimiento browniano comprobada experimentalmente por Perrin en 1908, porque no es del tipo lógico “si A entonces B” sino del “B si, y solo si, A”.
[3] Realmente lo escribe en latín. Proporcionamos una traducción libre.
[4] Se suele denominar inducción a secas: extrapola a partir de sucesos/datos concretos a afirmaciones generales. Si he visto 1000 ovejas y todas las ovejas que he visto son blancas, entonces todas las ovejas son blancas.
[5] A partir de los datos se llega a todas las conclusiones posibles (a estas conclusiones las llamaríamos hoy día hipótesis, pero preferimos conclusiones para evitar la confusión polisémica); la aparición de nuevos datos va eliminando conclusiones hasta, idealmente, quedar solo una.
Para saber más:
Este post ha sido realizado por César Tomé López (@EDocet) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Una breve historia del método de la hipótesis se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Una breve historia del concepto de trastorno bipolar
- Breve historia del trastorno bipolar (II): neurobiología y tratamiento
- La bombilla de colores (y el método científico)
Las pruebas de la educación 2018: El coloquio
¿Cómo se tratan algunos de los trastornos cognitivos más frecuentes en las aulas? ¿Son efectivos los programas y herramientas del sistema educativo actual? ¿Carecen de eficacia algunas de las prácticas educativas más populares?
Estas son algunas de las cuestiones que se debatieron en la jornada “Las pruebas de la educación”, que se celebró el pasado 2 de febrero de 2018 en el Bizkaia Aretoa de Bilbao. El evento, en su segunda edición, estuvo organizado por la Cátedra de Cultura Científica de la UPV/EHU y el Consejo Escolar de Euskadi, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT).
Las ponencias de los expertos que expusieron múltiples cuestiones relacionadas con la educación, basándose siempre en las pruebas científicas existentes. Los especialistas hicieron especial hincapié en destacar cuál es la mejor evidencia disponible a día de hoy con el objetivo de abordar las diferentes realidades que coexisten en las aulas y en el sistema educativo en general.
“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde diversos ámbitos de la actividad científica. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.
En el coloquio final asistentes y ponentes podudieron compartir sus diferentes puntos de vista e intercambiar dudas y opiniones.
Charla coloquio de la jornada ''Las pruebas de la educación''Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Las pruebas de la educación 2018: El coloquio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Autismo y educación: problemas y pautas en el aula
- Cómo destruir un buen sistema de educación. El ejemplo sueco
- Las ideas erróneas sobre educación entre el profesorado: prevalencia, causas y soluciones
La ciencia y los errores
En última instancia, y por definición, todo los que creemos saber, avanzar y entender en el campo de la ciencia es incorrecto. Porque está mal, simplemente, o porque es insuficiente e incompleto. Porque una teoría posterior englobará y digerirá cualquier idea, o porque un descubrimiento posterior desmoronará la lógica de cualquier hipótesis. Todo lo que se avanza o descubre en ciencia será sobrepasado; todo lo que creemos saber sobre el universo es menos de lo que el universo es, y posteriores científicos trabajarán con ahínco en demostrarlo así. El sino de cualquier avance, descubrimiento, hipótesis o teoría es acabar en los libros de historia de la ciencia. Porque el avance del conocimiento la habrá dejado arrumbada. Porque nunca, jamás conseguiremos saberlo Todo sobre Todas las cosas, entender Todo sobre Todo lo que hay.
En ese sentido toda la ciencia es un error. Y así es como debe ser, porque lo contrario sería detenerla en seco, parar su avance, impedir su desarrollo. A lo más que puede aspirar quien se dedica a la ciencia es a cometer errores.
Eso sí, si esa persona es ambiciosa sus errores serán interesantes. A lo más que puede aspirar un científico es a cometer errores interesantes.
Errores que dejen puertas abiertas; errores que impulsen el avance de la ciencia. Errores que sean insuficientes, pero apunten en una buena dirección. Errores fecundos, preñados de preguntas que generen nuevas respuestas. Errores que impulsen la mente de nuevos científicos; errores incluso que cabreen e irriten a otros, impulsándoles así a corregirlos. Errores grandes, ricos, plenos, que generen polémica, que empujen la investigación, que supongan un avance. Aunque sea un avance ínfimo, insuficiente, demasiado pequeño; aunque no sea más que otro error más en una cadena de errores que se remonta al conocimiento de los primeros humanos, una saga de errores que comenzó en la prehistoria y se dirige al futuro.
El conocimiento nunca puede ser definitivo, perfecto, cerrado, final. Siempre deja flecos, rincones por explorar, nuevas partes por conocer. En la vieja metáfora sobre el saber de la Humanidad se compara con una esfera, que cuando más aumenta de volumen tiene mayor superficie de contacto con lo desconocido: en realidad cuanto más sabemos tanto más desconocemos, porque cada brizna de nuevo saber abre nuevos campos a la ignorancia. Mucho mejor aportar conocimiento imperfecto pero que abra nuevas puertas que intentar conseguir lo que por definición es imposible.
Al fin y al cabo Todos los Modelos son Erróneos, pero algunos son útiles. Lo mismo ocurre con el trabajo de cualquier científico; siempre será erróneo, pero si la ciencia es buena al menos será interesante, fecundo, útil. ¿Se puede aspirar, acaso, a más?
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo La ciencia y los errores se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Más blanco que un escarabajo blanco

Escarabajo Cyphochilus. Foto: Olimpia Onelli
En 2014 se hacía famoso un pigmento negro, el Vantablack, por su capacidad para absorber el 99,96 % de la luz que recibe. Una sustancia así tiene aplicaciones evidentes en exploración espacial y militares. Su capacidad para absorber la luz no se debe a su composición química como tal, carbono, sino a su estructura, nanotubos de carbono. Y es que es la estructura lo que determina muchas de las propiedades ópticas de los materiales.
Ahora, un equipo de investigadores encabezado por Matti Tiavonen, de la Universidad Aalto (Finlandia), ha desarrollado un recubrimiento extremadamente delgado, ligero y, sobre todo, brillantemente ultrablanco que podría tener aplicación comercial en productos farmacéuticos y alimentarios, además de la evidente en pinturas y barnices.
El material, que es 20 veces más blanco que el papel blanco, está hecho de celulosa comestible no tóxica. Logra esta blancura excepcional, al igual que el pigmento negro, no por su composición como tal sino porque se hace que la celulosa imite la estructura de las escamas ultradelgadas de ciertos tipos de escarabajos.
Los colores brillantes generalmente se producen utilizando pigmentos, que absorben ciertas longitudes de onda de la luz y reflejan otras, que nuestros ojos perciben como el color. Para que nos parezca blanco, sin embargo, todas las longitudes de onda de la luz deben reflejarse con la misma eficacia. La mayoría de los productos blancos disponibles comercialmente, como cremas solares, cosméticos y pinturas, incorporan partículas altamente refractivas (generalmente dióxido de titanio u óxido de zinc) para reflejar la luz de manera eficiente. Estos materiales, si bien se consideran seguros, no son totalmente sostenibles o biocompatibles.
En la naturaleza, el escarabajo Cyphochilus, que es originario del sudeste asiático, produce su coloración ultra blanca no a través de pigmentos, sino explotando la geometría de una densa red de quitina, una molécula que también se encuentra en las conchas de los moluscos, los exoesqueletos de insectos y las paredes celulares de hongos. La quitina tiene una estructura que dispersa la luz de manera extremadamente eficiente, dando como resultado revestimientos ultra blancos que son muy delgados y ligeros.
En los casos de los colores de las mariposas o de los ópalos los colores brillantes también se obtienen estructuralmente. A diferencia de estos colores, que responden a patrones concretos en la estructura, el blanco solo se consigue con estructuras lo más aletorias posible.

Escarabajos Cyphochilus en presencia de una membrana del nuevo pigmento blanco. Foto: Olimpia Onelli
Los investigadores han imitado la estructura de la quitina usando celulosa, que no es tóxica, es abundante, resistente y biocompatible. Utilizando pequeños filamentos de celulosa, o nanofibrillas de celulosa, lograron primero el mismo efecto ultra-blanco en una membrana flexible. Después, mediante el uso de una combinación de nanofibrillas de diferentes diámetros, los químicos pudieron ajustar la opacidad y, por lo tanto, la blancura del material final. Las membranas hechas de las fibras más delgadas eran más transparentes, mientras que la adición de fibras medias y gruesas daba como resultado una membrana más opaca. De esta manera, los investigadores pudieron ajustar la geometría de las nanofibras para que reflejaran la mayor cantidad de luz.
Al igual que las escamas de los escarabajos, las membranas de celulosa son extremadamente delgadas: solo unas pocas micras (millonésimas de metro) de grosor, aunque los investigadores dicen que se podrían producir membranas incluso más delgadas optimizando aún más su proceso de fabricación. Las membranas dispersan la luz de 20 a 30 veces más eficientemente que el papel, y podrían usarse para producir los materiales blancos brillantes, sostenibles y biocompatibles eficientes de la siguiente generación.
Referencia:
Matti S. Toivonen et al (2018) Anomalous-Diffusion-Assisted Brightness in White Cellulose Nanofibril Membranes Advanced Materials doi: 10.1002/adma.201704050
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Más blanco que un escarabajo blanco se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Otra pieza en el puzle de la fotosíntesis
- Un atlas para materiales 2D
- Usando ADN para sintetizar nanoestructuras de oro
La invención matemática
Acaba de publicarse en KRK Ediciones el magnífico texto La invención matemática. Cómo se inventa: el trabajo del inconscientede Henri Poincaré, traducido y prologado por Francisco González Fernández.
L’invention mathématique es el título de una conferencia impartida por Henri Poincaré en el Institut général psychologique de París el 23 de mayo de 1908 y publicada ese mismo año (entre otras, en la revista L’Enseignement Mathématique 10, 357-371). El científico francés publicó Comment on invente. Le travail de l’Inconscienten el periódico Le Matin a finales del año 1908.
En esta edición en castellano publicada en febrero de 2018, Francisco González Fernández, enamorado y estudioso de la obra de Poincaré, traduce los textos originales y los analiza en una magnífica introducción, que en nada desmejora el discurso posterior del científico.
En la contraportada, la editorial presenta esta singular publicación del siguiente modo:
¿Cómo surgen las ideas? ¿Qué caminos conducen a la resolución de un problema? ¿Cuáles son los procesos mentales que intervienen en un acto creativo? En 1908, a petición de la Sociedad Psicológica de París, el gran matemático francés Henri Poincaré (1854-1912) impartió una conferencia en la que quiso responder a estas preguntas contando y elucidando cómo se le había ocurrido una de sus teorías primordiales. Al dar carta de naturaleza a la intuición, a la belleza y al inconsciente en el acto creativo, La invención matemática se convirtió en un modelo explicativo ineludible, no sólo en el ámbito matemático, vigente aún hoy en su esencia y que ha sido refrendado por los datos de la psicología moderna.
«Henri Poincaré se contó entre los primeros en proponer aquello que todavía se considera como los pasos básicos del proceso creativo de solución de problemas».
Daniel Goleman, El espíritu creativo
«Todos los libros sobre creatividad cuentan la manera como Poincaré descubrió las funciones fuchsianas».
José Antonio Marina, Teoría de la inteligencia creadora
«La invención matemática es «una de las más famosas exposiciones nunca escritas por un científico acerca de su propio trabajo creativo».
Peter Galison, Relojes de Einstein, mapas de Poincaré
En su introducción, Francisco González Fernández comienza tendiendo puentes entre el arte y la ciencia a través de la invención, y cita para ello testimonios sobre los procesos creativos del compositor Wolfgang Amadeus Mozart, del poeta Samuel Taylor Coleridge o del químico August Kekulé.
En el caso del matemático Henri Poincaré (1854-1912), la conferencia impartida en 1908 se centraba en la teoría de funciones fuchsianas y en la manera en la que la había “inventado”. Esta teoría forma parte de sus primeras creaciones matemáticas, realizada en los años 1880, poco después de defender su tesis doctoral.
Como comenta en la introducción González Fernández: “Para el matemático francés no se trata de referir el momento en el que se enciende la luz del genio, sino de comprender la naturaleza de esa súbita inspiración”; recordemos que su conferencia estaba dirigida a especialistas en psicología, no a personas entendidas en matemáticas.
Francisco González Fernández compara en su prólogo la creatividad de Edgar Allan Poe al escribir El cuervo –“Poe relataba la elaboración de su poema como si fuera un problema de álgebra”– y la de Poincaré en sus matemáticas –“A la inversa, Poincaré mostraría que la invención matemática no surgía del puro raciocinio, sino merced ante todo a la intuición”–. El álgebra necesaria para encadenar versos y la creatividad al servicio del análisis matemático son dos buenos ejemplos de la naturaleza híbrida de muchos procesos de invención.
Poincaré distingue en su texto entre la invención y el descubrimiento, critica la excesiva axiomatización de las matemáticas, y cita el papel fundamental del inconsciente en su proceso creativo, entre otros. Por cierto, su discurso ha sido avalado posteriormente por numerosos neurocientíficos.
Termino con una cita del discurso del científico francés, que invita a la lectura de la disertación completa de Poincaré… ¡y del magnífico prólogo de González Fernández!
Los hechos matemáticos dignos de ser estudiados son aquellos que, por su analogía con otros hechos, son susceptibles de conducirnos al conocimiento de una ley matemática, al igual que los hechos experimentales nos conducen al conocimiento de una ley física. Son aquellos que nos revelan parentescos insospechados entre distintos hechos, conocidos hace mucho, pero que se creía erróneamente que no tenían nada que ver entre sí.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo La invención matemática se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Lógica vs. intuición en la creación matemática
- Matemática discreta y trasplantes cruzados de riñones
- Los institutos Isaac Newton y Oberwolfach, dos curiosas instituciones de investigación matemática
“Filosofía, Ciencia y Valores”, el máster
Si las sociedades contemporáneas necesitan más cultura científica, el sistema educativo necesita responder a esa demanda formando a personas que sean capaces de crearla y transmitirla lo mejor posible. En esa tarea se afana la Cátedra de Cultura Científica, pero no lo hace sola. Como ya anunciamos el año pasado, en esta aventura colabora con el Máster en Filosofía, Ciencia y Valores, que se imparte en el campus de Gipuzkoa de la Universidad del País Vasco desde hace ya varios años.
Quienes cursan un máster prolongan su periodo de formación, o bien retornan a las aulas universitarias como estudiantes para adquirir conocimientos especializados en las materias que le son propias. En el caso que nos ocupa, esas materias incluyen temas de filosofía e historia de la ciencia (o de las ciencias, como prefieren algunos). Pero también filosofía de la biología, de la física y la matemática, filosofía del lenguaje y de la lógica, éticas aplicadas y bioética, filosofía política y de la cultura, estudios de ciencia y tecnología, etc. Como puede comprobarse hay diversidad disciplinar, pero es una diversidad articulada en torno a un cuerpo común de conocimientos, un cuerpo en el que las ciencias, el conocimiento, son el objeto de estudio, reflexión e investigación, y la filosofía, en varias de sus especialidades (epistemología, lógica, ética, política), constituye la aproximación o, si se quiere, la mirada con la que las ciencias son analizadas.
Quienes cursan este máster adquieren una formación especializada, como se ha dicho, y como ocurre con otros másteres, también pueden, si así lo desean, iniciar una carrera investigadora. Tras completar el Máster en Filosofía, Ciencia y Valores, el o la estudiante tiene garantizado, si así lo desea, el acceso a un doctorado, pero eso no es lo más importante. Lo que al final cuenta es haber adquirido herramientas de trabajo para profundizar e intervenir en algunos de los problemas más acuciantes de nuestro tiempo.
Como señalábamos al principio, la Cátedra de Cultura Científica se ha embarcado en una aventura en relación con este máster. En concreto, colaboramos en actividades de difusión social de la ciencia en internet. Y estamos diseñando nuevas iniciativas de manera conjunta que daremos a conocer próximamente.
El Máster en Filosofía, Ciencia y Valores está organizado por la UPV/EHU en colaboración con la Universidad Nacional Autónoma de México. El alumnado es interdisciplinar: además de Filosofía, se puede acceder desde grados de Humanidades, Ciencias Sociales, Ingeniería, Ciencias Experimentales, Bellas Artes y Ciencias de la Salud. El profesorado es internacional e incluye investigadores e investigadoras de prestigio (Ikerbasque, UNAM, UPV/EHU). Las personas interesadas en el máster pueden acudir a las sesiones informativas que se organizan en los campus. En Donostia será el viernes 16 de marzo a las 17:30 en el Centro Barriola, y en Bilbao el sábado 17 a las 10:30 en Bizkaia Aretoa.
El artículo “Filosofía, Ciencia y Valores”, el máster se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La Cátedra se va de máster
- Ciencia y valores en la sociedad del riesgo
- Por qué la filosofía es tan importante para la educación científica
Regulación de la circulación (2): control de la microcirculación

Arteriolas y capilares sanguíneos.
La circulación está sometida a un estricto control al objeto de garantizar, en primer lugar, un suministro de sangre suficiente al encéfalo y al corazón, un suministro suficiente al resto de órganos y tejidos corporales a continuación y, por último, una cierta constancia en el volumen de los tejidos y la composición del fluido intersticial. El flujo sanguíneo a través de los capilares se ajusta en función de las necesidades de irrigación de los tejidos, y ese ajuste se puede producir tanto por la acción del sistema nervioso, como mediante control local. Ya vimos aquí las particularidades del sistema de control nervioso de la circulación. En esta anotación pasaremos a describir el control de la microcirculación en los tejidos y, para ello, conviene no perder de vista los elementos que configuran el sistema circulatorio.
La mayoría de las arteriolas están inervadas por fibras simpáticas que liberan el neurotransmisor noradrenalina. En las arteriolas hay dos tipos de receptores adrenérgicos, α y β. Cuando se une una molécula de noradrenalina a los α-adrenorreceptores de la musculatura lisa de las arteriolas, estas reducen su diámetro (vasoconstricción), por lo que aumenta la resistencia al flujo y sube la presión arterial. Los β-adrenorreceptores, sin embargo, se encuentran en posiciones distantes de las terminaciones nerviosas simpáticas, por lo que lo normal es que se combinen con catecolaminas (adrenalina y noradrenalina) que han sido liberadas por neuronas adrenérgicas del sistema nervioso autónomo (noradrenalina, principalmente) y, sobre todo, por las células del tejido cromafín de la médula adrenal (adrenalina). En otras palabras, se trataría más bien de receptores hormonales. Paradójicamente, su efecto es vasodilatador, por lo que se opone al de la noradrenalina que se une a los -adrenorreceptores.
Las catecolaminas ejercen efectos variados y, como hemos visto, incluso pueden ser contrapuestos. Esos efectos dependen del tipo de receptor con el que se unen pero, además, también varían dependiendo de su concentración sanguínea, debido a la diferente sensibilidad de los receptores a una catecolamina y a la otra. Y para complicar aún más el panorama, otros factores, como el tono del músculo liso o el efecto modulador de sustancias como el neuropéptido Y o el ATP, también inciden en la forma en que las catecolaminas ejercen sus efectos.
Las arteriolas que irrigan el encéfalo y los pulmones son inervadas por fibras parasimpáticas que liberan acetilcolina (fibras colinérgicas). En mamíferos la estimulación de estas fibras provoca vasodilatación.
Sean cuales fueren los mecanismos implicados en la regulación del flujo a través de arteriolas y capilares, el sistema funciona de manera que lo que se tiende a garantizar es la irrigación adecuada del encéfalo y el corazón. Por ello, si se produce una caída en la presión arterial, la respuesta del sistema consiste en limitar al máximo el flujo sanguíneo hacia el resto de órganos y dirigirlo preferentemente hacia los dos prioritarios.

Capilar sanguíneo.
Además del control nervioso, diferentes mecanismos operan a nivel local para regular la circulación en órganos y tejidos. Así, el músculo liso de los vasos se contrae en respuesta a la dilatación provocada por un aumento del flujo a su través. Se opone al aumento del diámetro y contribuye de esa forma a mantener dentro de unos límites relativamente estrechos el flujo a través del sistema capilar. Por otro lado, el calor provoca vasodilatación, y el frío tiene el efecto contrario.
La elevación del metabolismo de un tejido también suele venir acompañada por una disminución de la concentración de O2, y un aumento de la de CO2 y pH. Por ello, no es sorprendente que esas señales provoquen la dilatación de los vasos, permitiendo de ese modo una más rápida renovación de la sangre en esos tejidos y un mayor suministro de O2 y sustratos.
El endotelio vascular y otras células asociadas con la circulación liberan sustancias con actividad sobre los vasos. El endotelio produce y libera óxido nítrico (NO) de forma permanente. Regula el flujo sanguíneo y la presión en mamíferos y otros vertebrados provocando una relajación de la musculatura lisa. Al parecer, el estiramiento del endotelio, debido a un aumento del flujo, podría servir de señal para la síntesis de NO, gracias a la entrada de calcio en sus células y al papel de este en la activación de las enzimas responsables de su síntesis. Por otro lado, la hipoxia y la reducción del pH provocan la liberación de NO, de manera que bajo esas condiciones, su acción conduce a un aumento del diámetro de los vasos y, por lo tanto, del flujo.
Además de NO, el endotelio vascular también libera endotelinas (proteínas vasoconstrictoras) en respuesta al estiramiento (dilatación de la pared endotelial) y prostaciclina, que causa vasodilatación e inhibe la coagulación sanguínea.
En el corazón y los riñones, principalmente, se produce adenosina en respuesta a condiciones de anoxia o hipoxia. Cuando se reduce el suministro de oxígeno la adenosina coordina el suministro y el gasto energético provocando una reducción de la frecuencia de latido del corazón, de manera que disminuye el trabajo que realiza y, simultáneamente, causa vasodilatación coronaria, lo que eleva el suministro de oxígeno y nutrientes al corazón.
En los tejidos hipóxicos se eleva la actividad del denominado HIF-I (factor inducible por hipoxia 1), que reduce la transcripción génica con carácter general, a la vez que estimula la específica de genes asociados con la producción de eritropoietina, factores de crecimiento endotelial vascular, endotelina 1, sintetasa de NO y enzimas glucolítica
En definitiva, además del control que el sistema nervioso ejerce sobre la circulación general (que vimos aquí), también la circulación a través de arteriolas y capilares está sometida a control. En este segundo caso también interviene el sistema nervioso, pero además, hay mecanismos que actúan localmente. El conjunto de controles y mecanismos compensatorios consigue efectuar una regulación muy precisa, tanto del gasto cardiaco total (Q), a través de ajustes de la frecuencia de latido y la fuerza de impulsión, como del volumen preciso que se dirige a cada destino orgánico en función de las necesidades. Salvo condiciones patológicas, todo ello se consigue manteniendo la presión arterial dentro de los límites de referencia.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Regulación de la circulación (2): control de la microcirculación se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Regulación de la circulación (1): control del sistema cardiovascular
- El flujo sanguíneo se reorganiza en respuesta a las necesidades
- Un viaje a través del sistema circulatorio humano
Espaciotiempo
Ya hemos dicho que la teoría de la relatividad especial de Einstein no representó una ruptura traumática con la física clásica, pero que sí acabó con la visión mecánica del mundo introduciendo los campos como entes necesarios. Otra ruptura con la visión mecanicista tiene que ver con los conceptos de espacio y tiempo. La concepción newtoniana del universo considera que el espacio y el tiempo son absolutos, lo que significa que son los mismos para todos los observadores independientemente de su movimiento relativo. Einstein demostró que las mediciones de espacio y tiempo en relatividad especial dependen del movimiento relativo de los observadores. Además, resultó que el espacio y el tiempo están, de hecho, entrelazados.
Una aproximación intuitiva a esta realidad la vimos cuando consideramos el experimento mental en el que hacíamos mediciones de longitud de una plataforma móvil. Los mediciones del metro se deben realizar en los extremos de la plataforma en el mismo instante de tiempo. Debido al postulado de la constancia de la velocidad de la luz, una persona en reposo en la plataforma y una persona que ve la plataforma en movimiento no se pondrán de acuerdo sobre cuándo las mediciones serán simultáneas.
Los sucesos ocurren no solo en el espacio, también en el tiempo. En 1908, el matemático alemán Hermann Minkowski sugirió que en la teoría de la relatividad, el tiempo y el espacio se pueden ver como unificados para formar las cuatro dimensiones de un mundo cuatridimensional llamado espaciotiempo. El espaciotiempo cuatridimensional es universal porque un “intervalo” medido en este mundo resultaría ser el mismo para todos los observadores, independientemente de su movimiento relativo a una velocidad uniforme.
El intervalo de espaciotiempo es una especie de “distancia” entre sucesos. Pero no la distancia que separa a los sucesos en el espacio, ni la distancia que los separa en el tiempo, sino la distancia que los separa usando una medida que incluye tanto al espacio como al tiempo.
Algo más formalmente, en general, el intervalo de espaciotiempo entre dos sucesos en sistemas de coordenadas que están en movimiento relativo uniforme será el mismo. Por lo tanto el intervalo de espacio y el intervalo de tiempo variarán en los distintos sistemas de corrdenadas, pero no así el intervalo de espaiotiempo. Esto no es otra cosa que afirmar que en la teoría de la invariancia el intervalo de espaciotiempo es una propiedad invariante.
En resumen, mientras que para Newton tanto la longitud como el tiempo y la simultaneidad eran invariantes, no lo son para la teoría de la invariancia. En ésta, sin embargo, estas propiedades invariantes se convierten en relativas y lo que era relativo para Newton, la velocidad de la luz (en el vacío), se convierte en una invariante (una constante) y se introduce una nueva propiedad el intervalo de espaciotiempo que también lo es.
La aproximación de Minkowski es una aproximación “geométrica” a la relatividad: se parte de la existencia de un espaciotiempo de cuatro dimensiones y, por lo tanto, de sistemas de coordenadas de cuatro dimensiones también que están en movimiento relativo uniforme, y en el que se pueden emplear las expresiones que hemos visto para la relatividad del tiempo y la longitud, que se conocen habitualmente como transformaciones de Lorentz, para pasar las coordenadas en un sistema a otro.
Esta aproximación geométrica es muy común cuando se estudia la relatividad y se hace la principal cuando se generaliza a sistemas de coordenadas que están en movimiento relativo de cualquier clase, es decir, cuando también existen aceleraciones. Es lo que exploraremos a continuación: las bases de la llamada teoría general de la relatividad.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Espaciotiempo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El principio de relatividad (y 4): la versión de Einstein
- La relatividad de la masa
- La relatividad del tiempo (2)
Tojisha-Kenkyu, la técnica japonesa con la que los pacientes se estudian a sí mismos
Alrededor de los años 70 ocurrió algo en Japón que puso en marcha una cadena de acontecimientos que, a modo de efecto mariposa, está influyendo en cómo hoy se analizan algunas enfermedades discapacitantes, como el autismo. Se trata de una idea llamada Tojisha-Kenkyu, un tipo de autoanálisis en el que son los propios pacientes los que estudian sus síndromes o discapacidades con la colaboración de sus iguales.
Lo que ocurrió, en realidad fue una tragedia. Una madre asesinó a su hija de dos años afectada de parálisis cerebral. Fue condenada por ese asesinato y la noticia fue muy comentada en los medios. El público simpatizaba con la madre, defendiendo que el crimen fue cometido bajo el peso de una responsabilidad que cargaba sola y sin ayudas institucionales de ningún tipo. Se inició un movimiento que pedía una reducción de su condena.
Esto inició a su vez otro movimiento, el de las asociaciones de personas con discapacidad, que protestaban contra la idea de que fuese comprensible que, en determinadas circunstancias, una persona con discapacidad fuese asesinada.
También en 1970 otro acontecimiento vino a sumarse al caldo de cultivo. En 1968 el gobierno municipal de Tokio había puesto en marcha el centro Fuchu, un lugar de internamiento para personas con discapacidades físicas y mentales graves con 400 plazas. El internamiento de estas personas se consideraba algo urgente, una necesidad apremiante. En 1970 muchos internos comenzaron a protestar, denunciando malos tratos y un ambiente opresivo por parte de los responsables del centro público.
Entre ambas cosas, en los años 70 y 80 se formó en Japón un movimiento de personas con discapacidad, muy activa en las protestas de aquellos asuntos que les afectaban directamente, liderado por los afectados por parálisis cerebral. Fueron entre otras cosas muy activos en la protesta contra una enmienda a la Ley de Protección Eugenética que permitiría el aborto intencionado del feto si este presentaba malformaciones o enfermedades discapacitantes de cualquier tipo.
“Sí, me gustaría estudiar”
Aceleramos el paso del tiempo y llegamos a 2001. En la ciudad de Urakawa se encuentra la Casa Bethel, un centro local de actividades para personas con pacientes y expacientes psiquiátricos. Algunos de estos expacientes se reúnen allí para apoyarse mutuamente e incluso se mudan a vivir a la antigua iglesia cercana al centro. Las actividades de la Casa Bethel no se parecen a las de la mayoría de las instituciones mentales japonesas: la estructura es horizontal, con los pacientes y sus cuidadores apoyándose entre sí, algo más parecido a un grupo de autoayuda que a una terapia dirigida por una figura de autoridad.
Entre los pacientes de este centro se encontraba Hiroshi Kawasaki, un paciente que un día perdió los nervios cuando sus padres se negaron a pedir sushi y videojuegos para él. Estaba tan alterado que rompió el teléfono del centro. Su médico, Ikuyoshi Mukaiyachi, sin saber cómo tranquilizarle, le propuso dedicar su tiempo a estudiar. Cuenta Mukaiyachi que la palabra “estudiar” hizo reaccionar la paciente. “Sí, me gustaría estudiar”.
La técnica de estudiarse a uno mismo
Así surgió la idea de Tojisha-Kenkyu, originalmente llamada jiko kenkyu (auto-estudio): los pacientes de Casa Bethel analizaban sus síntomas y sus problemas. Se extendió más allá de sus paredes a otros afectados por enfermedades psiquiátricas, y después también a muchos más con un rango mayor de afecciones mentales: parálisis mental, adicciones, trastornos del desarrollo…

El profesor Kumagaya aplica la técnica Tojisha-Kenkyu al estudio de su discapacidad (Fuente: Centro de Investigación de Tecnología y Ciencia Avanzadas, Universidad de Tokyo).
“En la literatura existen muchos trabajos a través de los cuales uno se pone frente a frente consigo mismo. Las autobiografías o las novelas semiautobiográficas tienen un largo recorrido en la historia. Pero, ¿qué hay de la ciencia? ¿Hay alguna disciplina científica en la que uno pueda concentrarse en sí mismo?”, se pregunta Shin-ichiro Kumagaya, profesor asociado de la Universidad de Tokio, afectado él mismo por una discapacidad física que le impide caminar.
Eso pretende ser esta técnica que mezcla ciencia y autoayuda. “Tojisha-Kenkyu está basado en el hecho de aceptar que no sabemos mucho sobre nosotros mismos. Aquellos que padecen dificultades similares se observan entre sí con cuidado y compasión mientras trabajan para formular hipótesis sobre sí mismos, y luego las ponen a prueba experimentalmente en su día a día”, continúa Kumagaya.
Gracias a este proceso, desarrollan palabras con las que nombrar sus dificultades y necesidades, lógicas que expresen y predigan la regularidad de estos obstáculos, y medidas para compensarlos. “Al trabajar para resolver sus propios desafíos, en vez de confiar ciegamente en un especialista para que lo haga, asumen un papel activo como investigadores y no solo como pacientes, lo que puede ayudar a estos individuos a conseguir una mayor calidad de vida”.
Pero no se trata de que los pacientes se conviertan en investigadores y queden ya limitados a sus propios recursos. En realidad la técnica es una forma de reenfocar la relación entre el tojisha (la persona estudiada) y el especialista, es decir, entre el conocimiento de la experiencia y el conocimiento de la especialización. La idea es que los conceptos y teorías generados mediante Tojisha-Kenkyu se acepten como nuevas hipótesis dentro del conocimiento especializado, y luego sean puestas a prueba siguiendo todos los protocolos científicos experimentales. Mientras, el tojisha aprende del especialista, ya que todo ese conocimiento es una herramienta muy útil para tener en cuenta todos los factores de su afección, especialmente aquellos difíciles de ver a simple vista.
“El respeto mutuo entre el tojisha y el especialista por sus respectivos conocimientos, junto con los esfuerzos colaborativos de ambos lados, ayudará sin duda a restaurar la confianza en el conocimiento académico. Desde mi punto de vista, como paciente receptor de tratamiento médico de niño que luego se convirtió en un investigador médico, Tojisha-Kenkyu tiene un enorme potencial para conectar ambos mundos”, asegura Kumagaya.
El autismo estudiado por una paciente con autismo
Avanzamos de nuevo y llegamos a mayo de 2018. Satsuki Ayaya tiene 43 años y está haciendo un doctorado en historia y filosofía de la ciencia en la Universidad de Kyoto. Uno de los materiales con los que trabaja son sus propios diarios, decenas de cuadernos que llenó de joven cuando, desesperada por entenderse a sí misma durante la adolescencia, comenzó a escribir todo lo que pensaba. “¿Qué me pasa? ¿Quién soy? ¿Qué hay de malo en mí?”. Ayaya, cuenta en este reportaje, siempre había notado que le costaba jugar con otros niños, como si una pantalla invisible la separase de ellos.
Al principio de la treintena, Ayaya fue diagnosticada de autismo y esa sensación de desconexión cobró sentido. Sus cuadernos se convirtieron en una forma de estudiar la enfermedad, que para ella se manifiesta por ejemplo en la desconexión de sus percepciones: siente con infinitos detalles el abanico de sensaciones que llamamos hambre, pero le cuesta un mundo conectarlas: “Me cuesta mucho darme cuenta de que tengo hambre. Me siento irritada, triste, noto que algo va mal… pero todo me llega por separado, no tiene sentido entre sí”, cuenta. Tarda tanto en darse cuenta de que tiene hambre que a menudo llega a sentirse débil y solo come algo después de que otra persona se lo haya sugerido.
También ha podido asociar el origen de algunas de sus dificultades para hablar con normalidad con la diferencia entre cómo escucha su propia voz, y cómo espera escucharla. Es como si justo después de decir algo su voz volviese a ella y pudiese notar la diferencia, como si escuchase un incómodo eco en una conversación telefónica.
¿Cómo decide nuestro cerebro a qué prestar atención?
En un claro ejemplo de Tojisha-Kenkyu, el registro detallado que Ayaya ha hecho durante años de sus experiencias ha servido para proponer una nueva idea sobre el autismo que está relacionada con uno de los mayores desafíos de nuestra forma de percibir las cosas: ¿cómo decide nuestro cerebro a qué debería prestar atención?
En principio, la novedad atrae nuestra atención, pero para decidir qué es una novedad el cerebro necesita tener una expectativa previa que sea alterada de alguna forma. También es necesario alcanzar cierto nivel de confianza en esa expectativa, es decir, tener al menos una seguridad determinada de que eso iba a ser de determinada forma y que luego no lo sea.
De momento, la sugerencia más sólida sobre cómo ocurre esto es que el cerebro sigue un proceso de metaaprendizaje: aprender qué debe aprender y qué no, y según esta teoría, un sesgo en este proceso de metaaprendizaje explicaría lo que consideramos el núcleo del autismo. Es decir, que de acuerdo con esta idea, el autismo es una afección básicamente perceptual y no tanto social: se trataría principalmente de un inusual apego por la rutina como resultado de diferencias en el modo en que el cerebro procesa los estímulos sensoriales.
La sorpresa por encima de los patrones predecibles
Para entenderlo un poco mejor, piensa en lo que ocurre cuando te enfrentas a una situación por primera vez: cada detalle parece significativo, pero a medida que ganas en experiencia, aprendes a distinguir la norma de la excepción, los detalles dejan de llamar tanto la atención y el cerebro pasa a concentrarse en la situación al completo, y así es como logra dominar algo nuevo y pasa a lo siguiente, evitando el aburrimiento y la frustración.
Pues en este panorama, el autismo sería una curva de aprendizaje diferente, una que favorece siempre los detalles (y con ello, la sorpresa) sacrificando para ello el aprendizaje de los patrones generales. En el caso de Ayaya, sus propias sensaciones la sorprenden impidiéndole aprender lo que significan (que tiene hambre), igual que le pilla por sorpresa la diferencia entre las expectativas sobre su voz y su voz en sí misma, dificultándole avanzar en el desarrollo de relaciones sociales normales.
Por ahora se trata de una teoría que resulta demasiado vaga en algunos detalles cruciales, y de hecho hay dudas sobre si un solo modelo puede servir para explicar un trastorno tan heterogéneo como el autismo, pero es precisamente esa diversidad lo que impulsa la búsqueda de un mecanismo básico: si realmente las habilidades de predicción están en la baso de las dificultades que sufren las personas con autismo, una terapia o tratamiento que influya en ese aspecto tendría un gran impacto sobre otras habilidades diferentes.
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo Tojisha-Kenkyu, la técnica japonesa con la que los pacientes se estudian a sí mismos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Programar no es “divertido”, es técnica y éticamente complejo
- Optogenética, la fascinante técnica que apasiona a los neurocientíficos
- #Naukas15 Ficha técnica
¿Cada cuánto tiempo se renuevan las células de nuestro cuerpo?
¿Cuántos años tiene usted? Sea cual sea su edad, no lo es de la mayor parte de las estructuras que conforman su cuerpo. Algunas ni siquiera tienen horas de existencia y solo unas pocas le acompañan desde que nació. Sus tejidos u órganos, así como las células que los forman tienen edades muy diferentes unas de otras. En su gran mayoría las células se van renovando y así lo hacen también los tejidos de los que son sillares.
Las células más efímeras son las que recubren el interior del intestino delgado. El epitelio intestinal es un tejido muy activo, que se ocupa de absorber y digerir infinidad de pequeñas moléculas. Sus células se renuevan entre cada dos y cuatro días. En el aparato digestivo hay otras de vida muy breve: las de las criptas del colon se renuevan cada tres o cuatro días, las del estómago entre cada dos y nueve, y las células de Paneth del intestino delgado –entre cuyas funciones se encuentra la defensa frente a patógenos intestinales- cada veinte.
Perduran mucho más los hepatocitos (células del hígado): entre seis meses y un año. Si bien es parte del aparato digestivo, el hígado es de hecho un órgano diferente y aunque los hepatocitos son las células que producen la bilis (esencial en la digestión intestinal de las grasas), sus principales funciones son metabólicas: tienen su sede en ellas innumerables procesos metabólicos cuyo ámbito de influencia es el conjunto del organismo.
Las células de la sangre tienen tasas de renovación muy diferentes. Las de vida más corta son las del sistema inmunitario: los neutrófilos, que son los leucocitos más abundantes, se renuevan entre cada uno y cinco días, y otros leucocitos, los eosinófilos, entre cada dos y cinco. Las plaquetas, cuya función es facilitar la cicatrización de las heridas, viven unos diez días. Y mucho más longevos son los glóbulos rojos, que se renuevan cada cuatro meses. Las células madre hematopoyéticas, de las que provienen las anteriores, permanecen bajo esa condición durante dos meses antes de convertirse en leucocitos, plaquetas y glóbulos rojos.
Otras células de vida relativamente breve son las del cuello uterino, que duran seis días; de los alveolos pulmonares, ocho días; de la epidermis de la piel, entre diez y treinta días. Más prolongada es la existencia de los osteoclastos, las células que remodelan el hueso: se renuevan cada dos semanas; y más aún la de los osteoblastos, las que lo producen: se recambian cada tres meses. La actividad de esas células da lugar a que un 10% del tejido óseo se renueve cada año. Las células de la tráquea lo hacen cada uno o dos meses. Y los espermatozoides cada dos meses, aunque, por contraste, las mujeres nacen con todos sus óvulos.
Las que menos se renuevan son los adipocitos -células que almacenan reservas de grasa- que lo hacen cada ocho años; las musculares, cada quince; y los cardiomiocitos (células musculares del corazón) experimentan una renovación de entre un 0,5% y un 10% al año. Las neuronas del sistema nervioso central apenas se renuevan; la excepción es el recambio diario de unas setecientas células de un área muy concreta denominada “hipocampo”, lo que implica que esa zona repone un 0,6% de sus neuronas al año. En promedio, el cuerpo se renueva entero cada 15 años.
Si lo pensamos un poco, vivimos en un cierto frenesí de reposición permanente de algunas -casi todas, en realidad- de nuestras estructuras coporales. Podría decirse, incluso, que ya no somos el mismo organismo que éramos hace un par de meses.
—————————————————————–
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 3 de diciembre de 2017.
El artículo ¿Cada cuánto tiempo se renuevan las células de nuestro cuerpo? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Cuántas células hay en el cuerpo humano?
- ¡Sincronicemos relojes! Dentro y fuera de nuestro cuerpo
- Cómo ver todas las células en tejido cerebral vivo
Naukas Bilbao 2017 – Joaquín Sevilla: Los instrumentos del capitán Fitzroy
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
El capitán Fitzroy, famoso por ser el capitán del Beagle durante el viaje en el que Darwin fue el naturalista, era un usuario de instrumentos científicos de primer nivel. Con la predicción meteorológica, sin embargo, fue un paso más allá porque se involucró emocionalmente y cayó en la fascinación de las evoluciones caóticas. Joaquín Sevilla lo expone magistralmente.
Joaquín Sevilla: Los instrumentos del capitán FitzRoyEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Joaquín Sevilla: Los instrumentos del capitán Fitzroy se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan
- Naukas Bilbao 2017 – Álex Méndez: Luz de luna
- Naukas Bilbao 2017 – Guillermo Peris: Los trapecistas del genoma
Cómo ver todas las células en tejido cerebral vivo
Un grupo interdisciplinar de físicos y biólogos que trabajan en la investigación de las células cerebrales ha concebido una nueva y revolucionaria técnica de microscopía que, por primera vez, permite obtener imágenes de todas las células dentro de un área determinada del tejido cerebral vivo. Permite obtener imágenes de todas las células vivas no etiquetadas en un área cerebral determinada, cosa que hasta ahora era imposible. Este avance científico es fruto de la colaboración entre grupos de investigación de la Universidad de Burdeos, la UPV/EHU y el Achucarro Basque Center for Neuroscience . Esta nueva técnica permitirá expandir el conocimiento de la biología del cerebro.

Imagen de la neurona etiquetada en amarillo, rodeada de neuronas no marcadas (aparecen en blanco), utilizando la técnica SUSHI. Sin esta técnica, las neuronas que aparecen en blanco no se verían. © Jan Tønnesen & Valentin Nägerl.
La microscopía es una herramienta básica en la investigación de la biología de cualquier organismo, dado que los elementos que se estudian, las células, tienen un tamaño microscópico y muchas veces, nanoscópico. Hasta el momento, los métodos de microscopía existentes para investigar el tejido cerebral vivo se limitaban a visualizar solo las células previamente marcadas. Sin embargo, por limitaciones técnicas, no todas las células en una región cerebral determinada podían etiquetarse simultáneamente, lo que ha restringido la visión, y por tanto, la comprensión que tenemos sobre cómo las células cerebrales, que están altamente interconectadas, se organizan e interactúan.
El Dr. Jan Tønnesen (Suecia, 1977), investigador del Programa Ramón y Cajal en el Departamento de Neurociencias de la UPV/EHU, y que trabaja en el Achucarro Basque Center for Neuroscience es uno de los autores de un trabajo que acaba de publicar Cell, y en el que describen una nueva técnica de microscopía, denominada “SUSHI”, para mejorar la visualización de las células en tejido cerebral vivo.
La nueva técnica SUSHI (acrónimo de su nombre en inglés “Super-resolution Shadow Imaging”) permite etiquetar de una pasada el minúsculo espacio, lleno de líquido, que rodea las células cerebrales, evitando tener que etiquetar individualmente todas las células que se quieren analizar.
Dado que además esta “etiqueta” permanece fuera de las células, produce una especie de imagen en negativo, que podemos asemejar a la película de las antiguas cámaras de fotos. Así, la imagen negativa contiene la misma información sobre las células cerebrales que la imagen positiva correspondiente, pero gracias a que el procedimiento de etiquetado es más simple, es mucho más fácil de obtener esta imagen y toda la información que contiene.
Según el Dr. Tønnesen “La técnica SUSHI es revolucionaria porque nos permite visualizar simultáneamente todas las células cerebrales en una región determinada del tejido cerebral vivo. Antes encontrábamos espacios en blanco en las imágenes de microscopía, ya que no podíamos etiquetar todas las células al mismo tiempo. Este hecho nos resultaba muy limitante. Desde ahora, con esta técnica podremos ver todas las células del área de estudio que situemos en la lente del microscopio, así como sus interacciones, de manera que podremos avanzar en nuestro conocimiento de las funciones el cerebrales, tanto en el órgano sano, como cuando enferma”.
Referencia:
Tønnesen J, Inavalli VVGK & Nägerl UV (2018) Super-resolution imaging of the extracellular space in living brain tissue Cell doi: 10.1016/j.cell.2018.02.007
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Cómo ver todas las células en tejido cerebral vivo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cómo criopreservar células madre
- El GPS cerebral: cómo nos orientamos en el espacio
- Cómo detectar un defecto en el ADN viendo cómo se retuerce
¿Qué nos puede decir un elefante del cáncer en humanos?

¿Qué nos puede decir un elefante del cáncer en humanos? | imagen Pixabay
A grandes rasgos llamamos cáncer a un amplio abanico de enfermedades provocadas por errores en los mecanismos de replicación celular y cuya característica común es un proceso descontrolado en la división de las células del cuerpo. Todos los seres vivos poseen este mecanismo y por tanto están expuestos al riesgo de padecer cáncer… sin embargo, no todos contraen la enfermedad en iguales proporciones.
Existen factores determinantes, como el tamaño (número de células) o la longevidad, que afectan a la probabilidad de contraer cáncer, sin embargo algo no cuadra en animales como los elefantes. Son grandes, muy grandes, de hecho pueden superar fácilmente los 6000 kilos siendo los mayores mamíferos terrestres del planeta. Son animales longevos, algunas especies como el elefante de selva africano (Loxodonta cyclotis) suelen alcanzar los 70 años, y aún así rara vez contraen cáncer: Solo un 5% de los elefantes fallecen por esta causa.
Para dar respuesta a algunas de estas incógnitas, investigadores de la Universidad de Utah han querido bucear en el genoma de los elefantes, prestando especial atención a esas regiones incomprendidas, que algunos llaman despectivamente “ADN basura” y que para otros, como el genetista Christopher Gregg, responsable del estudio, son más bien “una jungla desconocida que aún hay que explorar”.

P53, mólecula del año para la Revista Science
Pero primero viajemos al año 1979 para hablar un gen, conocido como P53, que tiene mucho que decir en este tema. En ese año, hasta cinco grupos diferentes de investigadores descubrieron simultáneamente esta proteína que cobró protagonismo por sus funciones supresoras de tumores. En 1993 la Revista Science eligió a P53 como “molécula del año” y en su último número ocupaba la portada y el editorial, reuniendo calificativos como “guardián del genoma” o “líder del ejército anti-tumoral”.
En el estudio, publicado hace unos días en Cell, confirman que el genoma del elefante posee hasta veinte copias de P53 que aumentan considerablemente sus defensas frente a procesos tumorales. A esta abundancia de copias de P53 hay que sumar la presencia de otros tres genes reparadores de ADN (llamados ANCL, VRK2 y BCL11A) que se han encontrado tras exponer a las células del elefante a radiación y examinar cómo el ADN respondía al daño.
Todos estos mecanismos de reparación de daño celular se han descubierto en regiones no codificantes del genoma que han tenido una evolución acelerada en elefantes, es decir, partes de su genoma que han evolucionado rápidamente y que les ha llevado a desarrollar rasgos distintos. Explicado metafóricamente, la evolución en el elefante le ha llevado a conseguir de manera natural una efectiva defensa contra los errores celulares que dan lugar al cáncer.

El estudio también estudia el genoma de otros animales como la orca o el murciélago | Gregg et al.
Pero no miren con envidia a los paquidermos, estos descubrimientos en su genoma son buenas noticias también para nosotros porque de hecho el artículo publicado en Cell se titula: “Evolucion acelerada en diferentes especies revela elementos candidatos para relevantes tratamientos clínicos, incluyendo mutación y resistencia al cáncer”. El trabajo ha analizado las mismas regiones del genoma en otros animales como la orca, el murciélago, el delfín, la ardilla y, cómo no, la rata topo) y ha encontrado una gran variedad de rasgos característicos.
Ya hemos visto que el genoma del elefante vinculado a la reparación del ADN podría ayudar en el estudio de la resistencia al cáncer, pero además, el estudio revela que:
- El genoma del murciélago relacionado con el desarrollo del ala podría ayudar en el estudio de las anormalidades en manos y pies.
- Los genomas de delfín y de la orca relacionados con el desarrollo del ojo y podrían ayudar en el estudio del desarrollo de la córnea. También se han detectado elementos relacionados con la adaptación a entornos de alta presión que podrían ayudar a comprender los trastornos de la coagulación sanguínea.
- El genoma de la ardilla terrestre de trece líneas que está relacionado con la coloración y pigmentación podría ser muy útil en el estudio del albinismo y el síndrome de Leopard.
- El genoma de la rata topo desnudo relacionado con el desarrollo del ojo que podría ayudar en el estudio del glaucoma.
Al igual que la ingeniería ha desarrollado trenes más rápidos observando la aerodinámica de pájaros como el martín pescador o mejores adhesivos inspirados en geckos, la medicina también avanza fijándose y aprendiendo de las ideas desarrolladas por la naturaleza. La evolución ha recorrido diferentes caminos en la inmensidad de organismos vivos que existen, es más que probable que otros animales ya hayan conseguido las soluciones a muchos de los problemas a los que nos enfrentamos, ahora solo faltaría descubrir cómo adaptarlas a nosotros.
Este post ha sido realizado por Javier Peláez (@irreductible) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
Referencias científicas y más información:
Elliott Ferris, Lisa M. Abegglen, Joshua D. Schiffman, Christopher Gregg “Accelerated Evolution in Distinctive Species Reveals Candidate Elements for Clinically Relevant Traits, Including Mutation and Cancer Resistance” Cell Reports, DOI: 10.1016/j.celrep.2018.02.008
University of Utah “Mapping the genome jungle: Unique animal traits could offer insight into human disease” Phys.org
El artículo ¿Qué nos puede decir un elefante del cáncer en humanos? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Microbiota y cáncer
- Sobre la predisposición genética a padecer enfermedades
- Todo lo que se puede medir en un río
Cómo destruir un buen sistema de educación. El ejemplo sueco
¿Cómo se tratan algunos de los trastornos cognitivos más frecuentes en las aulas? ¿Son efectivos los programas y herramientas del sistema educativo actual? ¿Carecen de eficacia algunas de las prácticas educativas más populares?
Estas son algunas de las cuestiones que se debatieron en la jornada “Las pruebas de la educación”, que se celebró el pasado 2 de febrero de 2018 en el Bizkaia Aretoa de Bilbao. El evento, en su segunda edición, estuvo organizado por la Cátedra de Cultura Científica de la UPV/EHU y el Consejo Escolar de Euskadi, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT).
Las ponencias de los expertos que expusieron múltiples cuestiones relacionadas con la educación, basándose siempre en las pruebas científicas existentes. Los especialistas hicieron especial hincapié en destacar cuál es la mejor evidencia disponible a día de hoy con el objetivo de abordar las diferentes realidades que coexisten en las aulas y en el sistema educativo en general.
“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde diversos ámbitos de la actividad científica. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.
Inger Enkvist, catedrática de Filología Española de la Universidad de Lund, Suecia, presenta los entresijos del sistema sueco de educación. Entre 1962 y 1985 el país nórdico adoptó una serie de leyes de educación que introdujeron lo que los británicos denominan “comprehensive school”, es decir, una única opción para todos los alumnos desde los 7 hasta los 16 años de edad. No creerás lo que ocurrió.
Cómo destruir un buen sistema de educación. El ejemplo suecoEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Cómo destruir un buen sistema de educación. El ejemplo sueco se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Autismo y educación: problemas y pautas en el aula
- Las ideas erróneas sobre educación entre el profesorado: prevalencia, causas y soluciones
- La evaluación y los deberes escolares
Son mujeres, youtubers, hablan de ciencia y tienen éxito

Ilustración de Nuria Díaz
Llamarse a uno mismo youtuber es jugársela. Es común asociar esta plataforma a contenidos de bajo calado intelectual. Para muchos un youtuber es un bufón. Hay muchos estereotipos sobre los usuarios de esta plataforma. Es una de las redes sociales en las que uno está más expuesto. El formato habitual es el de alguien que habla a cámara. Los vídeos reciben comentarios, a veces anónimos, a veces firmados y con la misma falta de pudor que se estila en cualquier otra red social. Sin embargo, parece que hablar de ciencia mantiene al margen a un gran número de malhumorados agitadores. En cambio, si la youtuber es mujer, aunque hable de ciencia, la cosa cambia. Cuanto mayor es el impacto del canal, más tenemos que lidiar con comentarios machistas y de mal gusto. Esta opinión que puede sonar personalísima es compartida por otras youtubers de ciencia con las que tengo el gusto de relacionarme.
«Frecuentemente recibo mensajes diciendo que soy muy atractiva, les gusto, preguntan si tengo novio y cosas parecidas. Alguien al leer esto dirá que esto es bueno, pero para mí no lo es, no hago contenido para esto» comenta Liliana E. Martínez, estudiante de Física y creadora del canal Conecta Ciencia.
En el Día internacional de la mujer y la niña en la ciencia, varias youtubers de ciencia hicieron un directo que puede verse en el canal de Star Tres, gestionado por Carolina Agurto, Karina Rojas y Javiera Rey, quienes están haciendo el doctorado en astronomía. «Nos llegaron comentarios criticando la causa del 11F, cosas como ‘Ojalá no sea basura feminista’ o ‘¿Brecha de género? No se pongan sexistas, si la mayoría de las mujeres no se quiere convertir en científica, respeten su opinión’ o ‘¿Cuál es el aporte de las famosas leyes de paridad?’».
Inés Laura Dawson es estudiante de doctorado en la Universidad de Oxford e investiga el vuelo de los insectos. Como divulgadora científica colabora con Naukas, entre otros medios, y gestiona los canales de YouTube Draw Curiosity e Inestable. Inés tiene muchos seguidores, los suficientes como para tener que batallar con un buen puñado de comentarios machistas y de explícito contenido sexual. «Hasta han llegado a crear un vídeo sobre mí con la intención de desacreditarme, en el cual se sugería que la única razón por la que he tenido una carrera científica en Oxford y por la que he sido galardonada con varios premios es por ser mujer».
Carolina Jiménez es artista de efectos visuales para cine. Gestiona el canal OK Infografía. Ella también recibe comentarios impertinentes en su canal. «Suelen ser del tipo ‘además de guapa lista’, ‘cásate conmigo’, ‘yo solo he visto tetas’… Los gestiono con paciencia. Procuro borrarlos si son muy evidentes, o ignorarlos».
«A veces recibo comentarios del tipo, ‘qué bien, una mujer guapa, inteligente y que le gusta la ciencia’» comenta Laura M. Parro. Laura es investigadora predoctoral en la Universidad Complutense de Madrid y en concreto investiga el estado térmico y la estructura de la litosfera de Marte, y más generalmente, la geología de los cuerpos rocosos del Sistema Solar. Tiene un blog de divulgación y el canal Viajando por Planetas. Lo que más le molesta a Laura son los comentarios machistas que se permiten en canales de hombres: «me molestan los canales de hombres en los que suelen comentar que no merece la pena colaborar o preocuparse por la ratio de mujeres si a ellas no les interesa la ciencia. Y esos gestores de los canales no les cortan de raíz o les explican cuál es la situación real, ¿para que esforzarse, verdad? Como digo, es una acción de todos que el tema mejore, y quien no vea la desigualdad de género es porque no quiere verla».
Carolina Jiménez opina que para avanzar en la igualdad hay que apostar por la «educación en igualdad tanto en niños como en niñas, eliminación de estereotipos, discriminación positiva, visibilización de referentes femeninos». En esto coincide con la bióloga Sofía M. Villalpando, gestora del canal The Biologist Apprentice, que opina que esto tenemos que resolverlo por medio de la educación. Además, cree que sobre todo los hombres deberían «cuidar los comentarios que hacen con respecto a sus compañeras youtubers, fomentar el respeto y hacer colaboración con más mujeres para que sus seguidoras se sientan representadas».
La mayoría parecen estar de acuerdo en este punto. Si hubiese una intención honesta de luchar contra la desigualdad, los hombres estarían apostando por colaborar con mujeres, por darles visibilidad, por conocer sus trabajos y no solo opinar un par de veces al año. La biotecnóloga biomédica Anna Quirant, gestora del canal Cienciacional, lo tiene muy claro: «Cuando organizan eventos podrían esforzarse en buscar y contactar con divulgadoras. Aunque piensen que no las hay, existen. Tirar de contactos, preguntar a otras mujeres si conocen a más. Que dejen de contar con los cuatro conocidos de siempre y que se quiten de la cabeza típicas frases como ‘No voy a incluir a una mujer por el simple hecho de ser mujer, si no lo hace bien o no conozco como trabaja’, ‘a mí me da igual qué sexo tenga, yo valoro quien lo hace bien’. Si nunca se incluyen mujeres, si no se dan a conocer, si no se les dan más oportunidades, ¿cómo van a contactar con ellas para que asistan a eventos o charlas? Es la pescadilla que se muerde la cola».
Laura M. Parro opina que «algunos hombres youtubers directamente no te dicen que no les gusta que haya mujeres, pero desde luego sí que les molesta. He visto reacciones de todo tipo con tal de no recomendar el contenido de una mujer o no colaborar con ciertas personas.El ‘estatus’ de hombre, divulgador y sabedor de la ciencia, aún está muy arraigado y creo que algunos ningunean a las mujeres y les da pereza colaborar con ellas. Muchos siguen prefiriendo colaborar entre hombres o recomendarse entre ellos, aunque haya mujeres con más formación y prestigio que ellos».
Esta es la tónica habitual. Aunque la edad media de los youtubers de ciencia sea baja, no podemos presuponer que las conductas se hayan adaptado a los tiempos. También hay honrosas excepciones, como el vídeo con el que Aldo Bartra celebró en su canal El robot de Platón el millón de suscriptores y en el que se dedicó a promocionar canales de menor envergadura que el suyo, incluyendo a un buen número de mujeres. Javier Santaolalla, creador de los canales Date un voltio y Date un vlog, apoyó desde el principio a Star Tres con una aparición en su canal y con apariciones de ellas en el suyo. Carolina Jiménez se suma a los agradecimientos a Javier, con quien está preparando alguna colaboración y añade que «la mayoría de los medios que me han entrevistado ha sido por mediación de hombres. Hasta he dado una charla en un colegio a petición del padre de dos niñas que comprendía la necesidad de referentes femeninos para sus hijas. Creo que es fundamental entender que esta lucha no es solo nuestra y que hay muchos hombres concienciados y que nos apoyan». Laura M. Parro añade que puede ser contraproducente centrarse en lo negativo, «sí hay hombres que colaboran con nosotras y que comparten nuestro contenido. En mi caso lo hacen mayoritariamente los latinoamericanos».
Todas estamos de acuerdo en que la tendencia de invisibilizar a las mujeres también existe en Youtube y que hay que seguir dando tirones de oreja cuando toca. Que no se malinterprete: esto no es una lucha contra los hombres, sino contra el machismo. Afortunadamente muchos hombres son nuestros aliados. Con frecuencia resulta fácil distinguir a quien se apunta a la causa por abrillantar su imagen y quien lo hace por convicción. Los que apoyan a las mujeres dan nombres, las mencionan en sus redes sociales, colaboran con ellas, las invitan a participar en proyectos divulgativos, las tratan como a iguales con sinceridad. Los hombres que están convencidos no temen que haya una mujer a su lado que pueda brillar tanto como ellos. Los que no, las tratan con condescendencia, como floreros que dan apariencia de paridad. Las necesitan para dar credibilidad a su farsa, y a la hora de la verdad solo se dedican a darse palmadas en la espalda por lo bien que han quedado el día de turno.
Hay otro fenómeno digno de ser analizado y es que a medida que aumentan los suscriptores de los canales de ciencia, disminuye el porcentaje de mujeres que lo siguen. Los primeros meses de vida de mi canal Deborahciencia me seguían tantas mujeres como hombres, con leves variaciones según la edad. Esto puede verse a través de la herramienta Analytics de Youtube. En la actualidad sólo el 30% de mis seguidores son mujeres. Laura M. Parro ha sufrido esta misma caída en su canal, que ahora ronda el 15% de suscriptoras. Inés Dawson oscila entre el 15 y el 25% de seguidoras, las mujeres de Star Tres tienen un 25%, Anna Quirant tiene un 10% y Carolina Jiménez tiene un 6%. Los canales de ciencia gestionados por hombres tienen unos porcentajes medios igual de bajos.
Inés Dawson tiene una teoría sobre este fenómeno que comparto, y es que el propio algoritmo que utiliza Youtube para recomendar vídeos utiliza el género del usuario para generar propuestas de visionado. Este algoritmo presupone que las mujeres no tienden a ver vídeos de ciencias, a no ser que activamente los hayan buscado antes. «Opino que el origen principal del desequilibrio de género en vídeos educativos procede del propio algoritmo de Youtube. La mayoría de usuarios de Youtube descubren canales y contenidos nuevos mediante las sugerencias de la página principal y en la barra de recomendaciones de Youtube. El objetivo del algoritmo es maximizar el tiempo que un usuario permanece en Youtube consumiendo vídeos. Esto lo consigue categorizando a los vídeos por tipo y distribuyéndolos a las demográficas que asocia como consumidores principales. Desgraciadamente, esto genera un feedback loop en el cual distintas categorías de contenido se viralizan siempre para las mismas demografías. En mi experiencia, la demográfica de los vídeos científicos que se vuelven virales se diferencia bastante de una audiencia orgánica. En mi caso, mi audiencia orgánica es un 15% mujeres, con una distribución normal de edades centrado en 25 años. Los vídeos científicos que se vuelven virales muestran una demográfica muy diferente. Uno de mis vídeos virales sobre pilas fue un vídeo sugerido casi exclusivamente a un público masculino (98%) y mayor de 25 años».
La desigualdad de género esta íntimamente intrincada en prácticamente todo. Hasta en algo en apariencia tan aséptico como el algoritmo de una red social. Si a esto le sumamos las conductas sociales machistas y la estrechez de miras, nos damos cuenta de que el problema que nos traemos entre manos está más enquistado de lo que pudiese parecer. Hace falta educación, por supuesto. Hace falta investigar los orígenes de todo esto para poder plantar cara al problema. Todas las formas de conocimiento pueden ayudar a entenderlo y, en consecuencia, ayudar a proponer soluciones. La sociología, la biología, la psicología, la filosofía, la antropología, la política… todos los saberes son útiles para tratar de desentrañar esta lacra.
En el ámbito profesional que va más allá de Youtube, el problema tiene matices distintos, pero el fondo sigue siendo el mismo. Liliana E. Martínez comenta que «además de mi trabajo en la universidad, cuando llego a casa tengo que cocinar, lavar la vajilla, la ropa y si llega a haber algún problema en casa soy yo quien tiene que quedarse por que los hombres ‘no pueden faltar al trabajo’». Carolina de Star Tres comenta que «como estudiante e investigadora creo que tenemos que empezar desde nuestros grupos de trabajo. Tener representantes de estudiantes es muy importante para hacer notar nuestros problemas y dificultades, así como también comités, donde seamos escuchadas. En Chile ahora se están implementando en las universidades los comités anti-acoso, que son importantísimos al momento de visibilizar y solucionar problemas recurrentes en las universidades que han sido ‘tapados’ durante años. Desde un punto de vista más general, creo que los movimientos de #MeToo y #TimesUp han sido fundamentales para darles a las mujeres esa confianza que se necesita para denunciar tantos casos de acoso». Sofía Villalpando ha sufrido acoso laboral y maltrato psicológico en el trabajo. No es un problema del pasado. Sigue siendo un problema ahora.
Todas las mujeres hemos sufrido algún tipo de abuso sexual a lo largo de nuestras vidas. Absolutamente todas. Algunas son más conscientes de las situaciones de discriminación. Unas han tenido la suerte de vivirlas desde la barrera, otras las han sufrido en sus carnes. Yo misma he sido discriminada en procesos de selección por ser mujer. A todas nos han ‘señoreado’ (también denominado con el anglicismo mansplaining). Carolina Jiménez explica que «en redes sociales compartiendo imágenes o vídeos de diferentes temáticas me han intentado explicar qué es real y qué es digital y por qué no debo creerme todo lo que publico». Recordemos que Carolina es artista de efectos visuales para cine.
Todas hemos tenido la sospecha alguna vez de haber sido invitadas a participar en proyectos divulgativos solo por cubrir un cupo de paridad. Aunque las motivaciones por cubrir un cupo sean buenas (no siempre se trata de una cuestión de imagen) como mujer es duro lidiar con ello cuando estás empezando en esto. Anna Quirant se pregunta a veces si «¿Les gusta lo que hago o estoy aquí para que ellos queden bien? Es muy frustrante tener que plantearte estas preguntas que a un hombre ni se le pasan por la cabeza, sabe que va porque es bueno, gusta y eso le hace tener confianza. Nosotras tenemos que hacer un esfuerzo extra por visibilizarnos, por promulgarnos, para asistir y representarnos como colectivo. ¿En qué momento deberemos dejar de esforzarnos para demostrar que las mujeres también podemos hacer divulgación científica? Creo que ya va siendo hora».
En ocasiones la pretensión de contar con mujeres responde a un deliberado lavado de imagen. Anna Quirant parafrasea los típicos correos que muchas recibimos para participar en proyectos divulgativos:«Llamamiento en especial a las mujeres. Supongo que entienden el motivo, pero espero que haya una buena representación. Es importante que tengan visibilidad. Así que redoblen los esfuerzos para estar». La responsabilidad y la ‘culpa’ de no figurar recae en las mujeres. Estos mensajes caen en la errónea convicción de que el problema es que no nos esforzamos lo suficiente.
Muchas de nosotras pararemos el 8 de marzo, el día de la mujer. Otras no pueden permitírselo y se dedicarán a hacer ruido allí por donde vayan. Anna Quirant explica así sus motivos: «Haré huelga el 8M para exigir que de una vez por todas se nos deje de tratar de forma diferente, de imponer límites, de debilitarnos, de adjudicar qué se nos da bien (cuidar, criar, cocinar) o qué no se nos da bien (el futbol, la política, las ingenierías), de decir que no tenemos humor porque nos molesten comentarios machistas, de creer que tienen el derecho de abusar de nosotras o de inducirnos miedo por volver de noche solas. Quiero demostrar que si nosotras paramos, el mundo se para».
Unas somos más optimistas que otras. Unas hemos tenido más suerte que otras al encontrarnos con personas que animan y apoyan. Otras hemos crecido en un entorno menos machista, en una sociedad más o menos concienciada con el problema. En mayor o menor medida hemos lidiado y seguiremos lidiando con la crudeza de los datos, con la brecha salarial, con la baja representación de mujeres en puestos de mando, con el ninguneo del día a día. Sin embargo, y quizá contra todo pronóstico, a la pregunta ¿Tienes éxito? todas nosotras hemos respondido que sí.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Son mujeres, youtubers, hablan de ciencia y tienen éxito se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Mujeres que hablan de Ciencia, mujeres que hablan de Arte
- Por qué los estudiantes de más éxito no tienen pasión por el colegio
- Sobre la ausencia de mujeres en la ciencia y la divulgación
Vaterita, un nanotransportador de fármacos en las hojas de una planta alpina

“Saxifraga sempervivum”. Foto: Paul Aston
El carbonato cálcico no parece tener nada de extraordinario. Estás presente abundantemente en la corteza terrestre, en foma de rocas calizas, es la sustancia que típicamente da dureza al agua y forma parte de la estructura de muchos seres vivos en forma de conchas, cáscaras de huevos o huesos. Sin embargo, el hallazgo de una forma de carbonato cálcico en una familia de plantas alpinas puede tener un gran impacto en la manera en la que se suministran los fármacos contra el cáncer.
Científicos la Universidad de Cambridge (Reino Unido) han descubierto que la vaterita, una forma de carbonato de calcio, es un componente dominante de la corteza protectora de color blanco plateado que se forma en las hojas de varias plantas alpinas del género Saxifraga.
No todo el carbonato cálcico tiene la misma estructura, por eso se dice que es polimorfo. En las condiciones normales de la corteza terrestre está como calcita y, en determinadas circunstancias, se puede encontrar en otras poliformas, como el aragonito o la vaterita. Estas poliformas son metaestables a temperaturas ordinarias, es decir, que si se encuentran en algún lugar, a poco que cambien las condiciones de temperatura o humedad, se convierten en calcita.
Por esta razón la vaterita de origen natural rara vez se encuentra en la Tierra. Se han encontrado pequeñas cantidades de cristales de vaterita en algunos crustáceos marinos y de agua dulce, en huevos de aves, en los oídos internos del salmón, en meteoritos y en algunas rocas. Esta es la primera vez que se ha encontrado un mineral tan raro e inestable en una cantidad tan grande y también es la primera vez que se encuentra asociado a plantas.
Aparte del interés puramente científico del hallazgo hay una componente utilitaria muy importante. La vaterita es muy atractiva desde el punto de vista farmacológico. De hecho, los químicos hace ya mucho tiempo que trabajan para intentar fabricar vaterita artificialmente con un método que sea económicamente viable.
Por una parte, la vaterita tiene unas propiedades características que la convierten en un nanotransportador de medicamentos casi ideal: la alta capacidad de carga, una alta absorción por parte de las células y su solubilidad le permiten ofrecer una liberación sostenida y específica de fármacos. Por ejemplo, las primeros estudios de nanopartículas de vaterita cargadas con fármacos anticancerosos indican que son capaces de descargar el fármaco lentamente solo en en la zona del cáncer, limitando, por tanto, los efectos secundarios negativos del fármaco. Por otra, la vaterita también parece mejorar los cementos que se emplean en cirugía ortopédica.
Los análisis con técnicas microscópicas pusieron de manifiesto que varias especies de Saxifraga exudan vaterita a través de los hidátodos (lo que en los animales vendrían a ser las glándulas del sudor) que se encuentran en los bordes de las hojas. Varias especies exudan una mezcla de vaterita y calcita; una en concreto, Saxifraga sempervivum, exuda vaterita pura. Es un misterio por qué ocurre esto; podría ser que fuese algo común en especies que han evolucionado en climas extremos, como las cumbres alpinas, y que, debido a la metaestabilidad de la vaterita, ésta se convierta rápidamente a calcita en otras especies.
Paradójicamente este descubrimiento llega cuando el cambio climático está amenazando muy seriamente la supervivencia de estas especies de plantas extremas.
Referencia:
Raymond Wightman, SimonWallis, Paul Aston (2018) Leaf margin organisation and the existence of vaterite-producing hydathodes in the alpine plant Saxifraga scardica Flora doi: 10.1016/j.flora.2018.02.006
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Vaterita, un nanotransportador de fármacos en las hojas de una planta alpina se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La forma de las hojas
- Otra pieza en el puzle de la fotosíntesis
- Un modelo teórico para acelerar el descubrimiento de nuevos fármacos
¿Es normal el número pi?
El número π es una de las constantes matemáticas más importantes que existen, pero además es un número fascinante que goza de una gran popularidad entre el público, matemático y no matemático. Por este motivo, el 14 de marzo, es decir, 3/14 en inglés (o también en euskera), se celebra el internacional Día de pi, debido a la sencilla aproximación a π que nos enseñaron en la escuela, 3,14.
El día de pi se celebra desde el año 1988 a partir de la idea propuesta por el físico Larry Shaw, y apoyado por el hecho de coincidir con la fecha del cumpleaños de Albert Einstein. También es el aniversario del nacimiento de un gran matemático, el polaco Wlaclaw Sierpinski (1882-1969), aunque prácticamente desconocido fuera de las matemáticas, salvo por los fractales que llevan su nombre.

Tetraedro de Sierpinski realizado con bolas de golf por el matemático Dale Seymour. MOMATH, National Museum of Mathematics
Este año la Cátedra de Cultura Científica, junto con BCAM (Basque Center for Applied Mathematics) y Naukas, se han querido sumar a la celebración internacional del Día de Pi, y hemos organizado la jornada BCAM-NAUKAS: Día de Pi. Toda la información sobre la misma la podéis encontrar aquí.
El número π, es decir, la relación entre la longitud de una circunferencia y su diámetro, tiene unos 4.000 años de edad. Desde la antigüedad se han intentado calcular aproximaciones suyas. En la Biblia se le daba el sencillo valor de 3 y en la actualidad, gracias a los ordenadores, se conocen más de 20 billones de sus infinitos decimales.
En uno de los más antiguos textos matemáticos, el Papiro de Rhind (1.700 años antes de nuestra era), el escriba Ahmés incluye la evaluación de un círculo inscrito en un cuadrado, que luego transforma en un octógono. A partir de ahí, el valor que propone para π, hecha la conversión, es (16/9)^2=3,16049…
En el 120 de nuestra era, el matemático chino Chang Hing llegará a la relación 142/45, es decir, 3,1555….
Arquímedes, en el siglo III a. C. se había acercado a la relación entre la circunferencia y el diámetro (π) no a través de una fracción sino como una sucesión de marcos (es decir, de diferentes pares de números cercanos, uno mayor y otro menor), que acotaban el valor de π. La idea era la siguiente… si se consideran las dimensiones de los cuadrados dibujados dentro y fuera del círculo y que tocan a su circunferencia, resulta obvio que πdebe ser mayor que 2 y menor que 4 (que es una aproximación muy burda)… a continuación podemos considerar hexágonos dibujados dentro y fuera del círculo y que tocan a su circunferencia, obteniendo así un nuevo marco para π …podemos seguir con octógonos…y Arquímedes llegó hasta utilizar polígonos de 96 lados, lo cual establecía que π está entre las cantidades 3+10/71 y 3+1/7. Ahora bien 3+1/7 es el famoso 22/7 (=3,1428…), fracción bien conocida en la escuela antes de las calculadoras.
En la India, el matemático Aryabhatta, hacia el 500, propuso 62.832/20.000, que es la aproximación cuyos cuatro primeros decimales son la aproximación más conocida, entre el público general, del número pi, 3,1416….
Como podemos observar todas estas aproximaciones que aparecieron en la historia se produjeron con números racionales, es decir, que son el cociente de dos números enteros, pero ¿es π un número racional?.
Recordemos brevemente el concepto de número racional. Como acabamos de decir, un número racional es aquel que puede expresarse como cociente de dos números enteros. Por ejemplo, 0,5 es un número racional ya que puede expresarse como el cociente 1/2; ó 0,333… es racional ya que puede expresarse como 1/3. Si consideramos la expresión decimal de los números (por ejemplo, 5,235), entonces un número es racional si podemos encontrar un “patrón entre sus decimales”, es decir, si los decimales del número son una cantidad finita (por ejemplo, 1/4=0,25) o si los decimales satisfacen que a partir de uno de los decimales se repite una pauta, un número finito de decimales que se repite de forma infinita, conocida como el período del número racional (por ejemplo, 1/3=0,333…, en el que se repite de forma infinita el 3; o 51/7=7,285714285714285714…, cuyo período es 285714). En la época de los pitagóricos se demostró, no sin cierta crisis existencial, que la raíz de 2 es un número no racional, que no puede expresarse como cociente de dos números enteros.
El número π tampoco es racional. No se puede expresar como cociente de dos números enteros, o lo que es equivalente, su expresión decimal es infinita y no hay un grupo de decimales que se repita de forma periódica generando todos los decimales. La primera demostración de que π es irracional se debe al matemático J. H. Lambert (1761).
De hecho, la búsqueda de los decimales del número π es una investigación activa hoy en día. Se trata de conocer todos los decimales posibles de π (recordemos que todos es imposible, son infinitos y no hay un patrón que se repita). El record de decimales en la actualidad es de … 22.459.157.718.361 dígitos … obtenido por Peter Trueb en 2016. Se tardaron 105 días en calcularlo y 28 horas en verificarlo.

Vista parcial de la instalación “El número pi” (2007), del artista chino-canadiense Ken Lum, en el metro de Viena
El símbolo π viene de la palabra griega “periferia” περιφέρεια y fue utilizado por primera vez por el matemático inglés William Oughtred en 1652.
3,14159265358979323846264338327950288419716939937510582097494459230781640
6286208998628034825342117067982148086513282306647093844609550582231725359
4081284811174502841027019385211055596446229489549303819644288109756659334
4612847564823378678316527120190914564856692346034861045432664821339360726
0249141273724587006606315588174881520920962829254091715364367892590360011
33053054882046652138414695…
Parte de la magia de este número es que aparece en los lugares más insospechados, y tiene infinidad de aplicaciones, aunque como muchas otras constantes matemáticas. En todas las ramas de las matemáticas, desde la geometría hasta la probabilidad, pasando por la teoría de números, en física (en el principio de incertidumbre de Heisenberg, la teoría de la relatividad o la ley de Coulomb de la electricidad), en geología (para estimar la longitud de los ríos, debido a que relaciona dicha longitud con la distancia directa del nacimiento del río a su desembocadura), en bioquímica (en el estudio de la estructura de una molécula de ADN), en astronomía (en la búsqueda de exo-planetas o el estudio de la forma del universo), y muchas aplicaciones más en navegación, análisis de señales, dinámica de poblaciones o ingeniería, incluso en deportes (para calcular las posiciones de salida en las pistas de una carrera de atletismo, como vimos en la entrada Pi atleta).
Debido a la fascinación que existe por el número pi nos lo encontramos ampliamente en la cultura, del cine a la literatura, de la música a las series de animación, de las artes plásticas al humor gráfico, incluso la revista Investigación y Ciencia lo utilizó, este pasado 2017, para una broma del día de los inocentes, Las leyes cuánticas cambian el valor de pi.
El poema Número pi de la Premio Nobel de literatura, la polaca Wislawa Szymborska (1923-2012), empieza así “El número Pi es digno de admiración//tres coma uno cuatro uno//todas sus cifras siguientes también son iniciales//cinco nueve dos, porque nunca se termina.//No permite abarcarlo con la mirada seis cinco tres cinco//con un cálculo ocho nueve//con la imaginación siete nueve//o en broma tres dos tres, es decir, por comparación//cuatro seis con cualquier otra cosa//dos seis cuatro tres en el mundo”.
La cantante inglesa Kate Bush, en su disco Aerial (2005), tiene una canción dedicada al número π. En la película La cortina rasgada de Alfred Hitchcock, el símbolo π era el nombre de una organización secreta de la resistencia en la República Democrática Alemana durante la Guerra Fría. El número πtiene un papel protagonista en la película de Darren Aronofski, Pi, fé en el caos (2000). En la novela, y también en la película, La vida de pi (2001), del escritor Yann Martel, el apodo del protagonista es “Pi” y tiene que ver con nuestro apasionante número.

Cartel de la película “Pi, fe en el caos” (1998), de Darren Aronofsky
En la famosa serie Los Simpson, cuyo contenido matemático en muy conocido (véase el libro Los Simpson y las matemáticas), también se menciona el número π en más de una ocasión. Por ejemplo, uno de los personajes secundarios de la serie, es el tendero hindú Apu, quien tiene una gran capacidad para el cálculo. En un capítulo en el que llevan a juicio a Marge, al olvidarse de pagar una botella en el supermercado, Apu es el principal testigo, y para demostrar su memoria dice que es capaz de recitar 40.000 decimales del número π. Y dice que “el último decimal es el 1”.
De hecho, el record en memorización de los decimales del número pi está en 100.000 decimales, conseguido por el japonés Akira Haraguchi, en 2006. Necesitó 16 horas y 30 minutos para recitar, de memoria, todos estos decimales. El método que utiliza para recordar los decimales es asociar cada cifra, de 0 a 9, con una sílaba. Por ejemplo, el cero se asocia con alguna de las siguientes, ra, ri, ru, re, ro, wo, on or oh, e igual con el resto. Aunque este record no ha sido reconocido oficialmente por el Libro Guinness de los Records. Por lo tanto, el record oficial está en la memorización de 70.000 decimales, conseguido por el indio Rajveer Meena en 2015.
Otra referencia graciosa a π en Los Simpson, es cuando Lisa le habla a su padre del número π y Homer se pone a babear ya que en inglés tarta (pie) y π se pronuncian igual, “pai”.

Imagen reproduciendo la escena de la serie “Los Simpson” con la confusión sobre el número π
En la serie hermana de la anterior, Futurama, también hay varias referencias al número π. Una lata de aceite lubricante -en-1(parodiando la frase 3-en-1), la -th Avenue después de la 3rd Avenue, la marca de muebles y complementos del hogar Kea, o el concurso televisivo “¿Cuál es el último dígito de ?“.
Hay muchísimas referencias a nuestro amado número, pero me gustaría dedicar lo que nos queda de esta entrada para hablar de una propiedad matemática de este número (aunque aún no se ha conseguido demostrar) y la expresión artística de esta propiedad que realiza la artista donostiarra Esther Ferrer.
Como hemos comentado más arriba, el número π no es racional, es decir, su expresión decimal contiene infinitos decimales, pero que no poseen un patrón que se repita (no es un decimal periódico). Aunque podríamos plantearnos cuales de las diez cifras básicas 0, 1, 2, …, 9 aparece con más frecuencia, y cuales, con menos, dentro de la expresión decimal del número π, o si por el contrario todas las cifras aparecen en la misma proporción.
Si miramos a los 100 primeros decimales del número π,
3,1415926535897932384626433832795028841971693993751058209749445923078164062862089986280348253421170679…
observaremos que las diez cifras básicas aparecen en la siguiente proporción:
Si las diez cifras básicas aparecieran en la misma proporción, tendrían que aparecer diez veces cada cifra básica en los 100 primeros números, aunque la verdad es que 100 decimales no son muchos, y necesitaríamos ver más decimales. ¿Qué ocurre para 1.000, 10.000, 100.000, o más, decimales?
Como podemos observar, según va aumentando el número de decimales, la proporción de cada una de las diez cifras básicas dentro de los decimales del número π se van acercando a 1/10, es decir, al 10% de los decimales.
En el artículo Digit Statistics of the First 22.4 Trillion Decimal Digits of Pi, su autor, Peter Trueb, nos confirma este hecho entre los 22.459.157.718.361 decimales que se han calculado del número π. Más aún, si se toman las 100 secuencias de dos dígitos formadas por las diez cifras básicas, del 00 al 99, cada una aparece en una proporción que se va acercando cada vez más a 1/100, es decir, un 1%. Y lo mismo ocurre para las 1.000 secuencias de tres dígitos, de 000 a 999, cada una de las cuales aparece en una proporción que se va aproximando a 1/1.000. Todas las secuencias posibles son igualmente probables.
Todo esto lo que nos está diciendo es que aparentemente el número π podría ser lo que se conoce como un número normal (para la base 10). El concepto de número normal fue introducido por el matemático francés Émile Borel (1871-1956) en 1909. La definición es la siguiente:
Un número real x es normal para la base b (por ejemplo, 2 para los números binarios o 10 para la representación decimal usual) si los infinitos dígitos de la representación del número x en la base b están distribuidos de una forma uniforme, es decir, las b cifras básicas (por ejemplo, 0 y 1 en la representación binaria, o 0, 1, 2, …, 9 en la representación decimal) tienen la misma “densidad natural”, es decir, según vamos aumentando el número de decimales su proporción, para todos la misma, se aproxima a 1/b, todos los posibles pares, b2, de dígitos formados por dos cifras básicas tienen la misma densidad natural 1/b2, todos los triples , b3, de dígitos formados por tres cifras básicas tienen la misma densidad natural 1/b3, etcétera.
Los números racionales (por ejemplo, el número 51/7 = 7,285714285714285714… cuyo período es 285714) son, en general, no normales para la base 10 (o cualquier base), puesto que sus decimales son finitos o una expresión finita que se repite de forma infinita (por ejemplo, las cifras básicas 0, 3, 6 y 9 no aparecen en el desarrollo infinito de 51/7, mientras que las cifras 1, 2, 4, 5, 7 y 8 aparecen con una densidad normal de 1/6). Y podemos generar números irracionales que sean no normales si, por ejemplo, los construimos de forma que en su expresión decimal no haya una cierta cifra básica, por ejemplo, el 3.
El conocido como número de Champernowne, es decir,
0,12345678910111213141516171819202122232425…
es, por construcción, normal en base 10, pero podría no serlo para otras bases. De hecho, un número x se dice que es normal (aunque algunas personas lo denominan absolutamente normal) si x es normal para cualquier base b.
Émile Borel demostró que casi todos (en un sentido matemático que no abordaremos aquí) los números son normales, aunque existen infinitos (no numerables) números no normales.
Pero volviendo a nuestro popular número π, aparentemente, o al menos, así lo da a entender el comportamiento de los 22.459.157.718.361 decimales que se han calculado del número π, este podría ser un número normal para la base 10. Sin embargo, a día de hoy aún no existe una demostración matemática de este hecho.
La artista donostiarra Esther Ferrer, de la que ya hablamos en la entrada Variaciones artísticas del teorema de Napoleón, ilustra esta propiedad en su obra Pi (2009-2010), que pudo verse en la exposición Esther Ferrer. En cuatro movimientos (Artium, 2011-2012).

Sala de Artium, durante la exposición “Esther Ferrer. En cuatro movimientos” (08/10/2011 – 08/01/2012), con los 21 lienzos del número Pi y la proyección de “Los decimales de Pi”
La obra Pi (2009-2010), de Esther Ferrer, consta de 21 lienzos, que podemos ver en la imagen de arriba. En la pared de la derecha hay un lienzo separado del resto, que sería como el lienzo inicial, y luego cada lienzo de la izquierda se corresponde con uno de la derecha, y con una cifra básica, que protagoniza esa pareja de lienzos.
En cada lienzo están representados los primeros decimales del número pi (junto al 3 entero inicial) hasta un cierto número. La artista realiza una cuadrícula muy grande, de 79 × 79 = 6.241 cuadraditos, en los cuales va a representar el número entero 3 inicial y los 6.240 primeros decimales de π. Cada cuadrado va a estar pintado de un color en función de la cifra básica que esté en dicho cuadrado, es decir, a lo largo de todo el lienzo cada cifra básica se corresponde con un color (0 amarillo, 1 azul claro, 2 morado, 3 rojo, 4 verde oscuro, 5 rosa, 6 verde claro, 7 naranja oscuro, 8 azul oscuro, 9 naranja claro). Además, los dígitos del número π se empiezan a pintar en el centro y recorriendo los cuadrados en espiral, 3,141592…
Como cada color está relacionado con una cifra básica, de 0 a 9, entonces la obra Pi (2009-2010) tiene como objetivo transmitir de un vistazo, a través de los colores, cual es la proporción y la distribución (en espiral) de las cifras básicas entre los primeros decimales de π.

Lienzo de la obra “Pi” (2009-2010), de la artista Esther Ferrer, en el cual están pintados todas las cifras salvo la cifra 1, cuyos cuadrados están en blanco
Con el objetivo de visualizar el comportamiento de cada una de las cifras en particular, cada uno de los diez lienzos que estaban en la pared de la izquierda, solamente incluían el color de una cifra básica. El primer lienzo solo los cuadraditos amarillos, en los que se encuentra la cifra 0, en el segundo lienzo solo los cuadraditos de color azul claro que se corresponden con el número 1, y así con el resto. Mientras que, en frente de cada uno de los lienzos, estaba el lienzo complementario, es decir, estaban pintados todos los cuadraditos con su color correspondiente, salvo el de la cifra que le tocaba, así en el primer lienzo todos los colores salvo el amarillo del 0, en el segundo lienzo todos menos el azul claro del 1, y así para el resto.

Lienzo de la obra “Pi” (2009-2010), de la artista Esther Ferrer, en el cual está pintada solamente la cifra 1, cuyos cuadrados están en azul
Precisamente, este lunes 12 de marzo, a las 19:00, en el Biblioteca de Bidebarrieta (Bilbao), tendremos la oportunidad de conversar sobre la utilización de las matemáticas en los procesos creativos de la artista Esther Ferrer y el compositor Tom Johnson, dentro del programa Diálogos en la frontera (de Bidebarrieta Científica).
Bibliografía
1.- Celebra el día de Pi con BCAM Naukas en Bilbao, Cuaderno de Cultura Científica, febrero 2018.
2.- Alfred S. Posamentier, Ingmar Lehmann, La proporción tracendental. La historia de π, el número más misterioso del mundo, Ariel, 2006.
3.- Simon Singh, Los Simpson y las matemáticas, Ariel, 2013.
4.- Peter Trueb, Digit Statistics of the First 22.4 Trillion Decimal Digits of Pi, 2016. Preprint Arxiv 1612.00489
5.- Esther Ferrer, Catálogo de la exposición Esther Ferrer. En cuatro movimientos, Artium. Centro Museo Vasco de Arte Contemporáneo, Acción Cultural Española (AC/E), 2011. Publicación on-line.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo ¿Es normal el número pi? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Regulación de la circulación (1): control del sistema cardiovascular
La circulación está sometida a un estricto control al objeto de cumplir tres tareas prioritarias y cumplirlas por este orden: (1) suministro de un volumen de sangre suficiente al encéfalo y al corazón, (2) suministro de suficiente sangre al resto de órganos y tejidos corporales, y (3) control de la presión hidrostática capilar, de manera que se mantenga dentro de un rango razonable de valores el volumen de los tejidos y la composición del fluido intersticial.
El sistema nervioso recibe señales de diferente naturaleza acerca del estado en que se encuentra el sistema circulatorio, por lo que hay diferentes tipos de receptores sensoriales implicados en esa tarea. Están por un lado los barorreceptores, que informan de la presión de la sangre en determinados enclaves. Otros son quimiorreceptores; codifican y envían información acerca de la concentración del CO2, el O2 y el pH sanguíneos. Las contracciones musculares, así como los cambios en la composición del fluido extracelular de los músculos también dan lugar a señales específicas. Por último, también es relevante la información recogida por varios termorreceptores.
En los mamíferos toda esta información es procesada por un conjunto de neuronas que forman lo que se denomina el centro cardiovascular medular, que se encuentra en la médula oblonga (bulbo raquídeo) y el puente de Varolio, y que también recibe inputs de otras regiones encefálicas, como el centro respiratorio (del que hablamos aquí), el hipotálamo, la amígdala (al que nos referimos aquí) y la corteza cerebral.
El centro cardiovascular medular, por su parte, elabora señales que se dirigen a través de motoneuronas pertenecientes a las divisiones simpática y parasimpática del sistema nervioso autónomo (parte del sistema periférico), que inervan el corazón y la musculatura lisa de arteriolas y venas. La estimulación de los nervios simpáticos provoca una elevación del ritmo cardiaco y de la fuerza de impulsión, y también causa vasoconstricción. En consecuencia, se eleva el gasto cardiaco (Q) y la presión sanguínea. La estimulación parasimpática produce los efectos opuestos: reduce el latido, el gasto cardiaco y la presión arterial.
El centro cardiovascular medular puede dividirse en dos áreas funcionales, cuyos efectos sobre la presión sanguínea son opuestos: los centros presor (o vasoconstrictor) y depresor (vasodilatador). El primero estimula el sistema simpático y provoca una elevación en la presión sanguínea y el segundo estimula el parasimpático y provoca una bajada en la presión.
Hay barorreceptores arteriales por todo el sistema arterial. Unos, desprovistos de vaina mielínica, se han encontrado en anfibios, reptiles y mamíferos, y responden a la subida de la presión arterial elevando la frecuencia a la que envían señales al centro cardiovascular medular. Protegen al organismo de los riesgos inherentes a la hipertensión arterial al desencadenar reflejos cuyas consecuencias consisten, precisamente, en una reducción de la tensión. Esa reducción se produce porque el centro cardiovascular medular reduce la actividad de las motoneuronas simpáticas, provocando un descenso en la frecuencia de latido, la fuerza de impulsión del corazón y la resistencia vascular periférica. Al reducirse la presión arterial, los barorreceptores reducen su actividad, lo que conduce a una corrección de las actuaciones anteriores. Además, cuando se reduce la tensión arterial, también aumenta la concentración circulante de la hormona antidiurética (o vasopresina), lo que ayuda a retener líquidos y llevar la presión a los valores de referencia. Otros barorreceptores (dotados de vaina de mielina), solo hallados en mamíferos, responden a la presión baja y provocan una respuesta contraria a la de los anteriores.
Como vimos aquí, los quimiorreceptores de los cuerpos aórticos y carótidos cumplen un importante papel en el control de la actividad respiratoria, pero también participan en la regulación de la función cardiaca. Cuando esos quimiorreceptores detectan un aumento de la concentración de CO2 o una reducción del pH o de la concentración de O2, responden elevando la frecuencia de emisión de potenciales de acción (señales nerviosas), lo que provoca vasoconstricción periférica y una reducción de la frecuencia cardiaca si el organismo ha dejado de respirar (en una inmersión, por ejemplo); de esa forma se limita la circulación por los tejidos periféricos (músculos, principalmente) y se dirige a los órganos internos y, sobre todo, al encéfalo.
Varias regiones cardiacas cuentan con mecanorreceptores y quimiorreceptores. La información acerca del estado del corazón que recogen estos receptores es enviada a través de la médula espinal al centro cardiaco medular y a otras regiones del encéfalo. Además, la estimulación de ciertos receptores cardiacos provoca la liberación de hormonas, tanto desde el propio corazón, como desde otros órganos endocrinos. La frecuencia cardiaca, el grado de llenado y volumen de las aurículas, y el volumen de sangre que llega desde el sistema venoso son monitorizados de manera permanente por esos mecanorreceptores. Los resultados de esa monitorización se traducen en variaciones en la frecuencia de latido y en la concentración de vasopresina en la sangre, por lo que no solo afecta a la actividad cardiaca, sino también a la renal, ayudando de esa forma a ajustar el volumen de sangre en el organismo en su conjunto.
La pared de la aurícula cuenta con células secretoras que son sensibles al estiramiento. Son células endocrinas que producen el péptido natriurético auricular, y que lo liberan cuando se encuentran estiradas. Su efecto consiste en estimular la excreción de sodio y la producción de orina, de manera que contribuye a reducir tanto el volumen de plasma sanguíneo como el de la presión arterial. Además, reduce la actividad del sistema renina-angiotensina-aldosterona, sistema endocrino que induce una mayor reabsorción renal de Na+ y menor filtración glomerular (menor producción de orina primaria). Inhibe también la liberación de hormona antidiurética.
Además de los receptores auriculares, el corazón también cuenta con receptores ventriculares con funciones mecanorreceptoras y quimiorreceptoras. Las primeras son estimuladas por la interrupción del flujo sanguíneo coronario. Las quimiorreceptoras son sensibles a sustancias químicas que median las respuestas inflamatorias.
Los músculos esqueléticos cuentan con numerosas fibras sensoriales, más incluso que motoras. Algunas registran la tensión muscular y modulan de forma refleja la contracción de los músculos; esas fibras no intervienen en la regulación del sistema cardiovascular. Otras, sin embargo sí lo hacen, y las hay quimiorreceptoras (registran cambios en la composición química del líquido extracelular) y mecanorreceptoras (registran estiramiento y contracción). La estimulación de estas fibras produce cambios en la frecuencia cardiaca y de la presión arterial, en un sentido que depende de las fibras concretas implicadas.
En resumen, la circulación se encuentra sometida a un complejo sistema de control. El centro cardiovascular medular recibe e integra información recogida por los mecanorreceptores, quimiorreceptores y termorreceptores distribuidos en diferentes puntos del sistema vascular, y elabora respuestas que tienden a garantizar el cumplimiento de las funciones del sistema y, ante todo, el suministro de sangre al encéfalo y el corazón.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Regulación de la circulación (1): control del sistema cardiovascular se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un viaje a través del sistema circulatorio humano
- Sistemas nerviosos: el sistema límbico
- La emergencia de un doble sistema circulatorio