Así es la mejor crema antiedad según la ciencia
¿Qué contiene la mejor crema antiedad? ¿Hialurónico, glicólico, retinol, coenzima Q10, vitamina C? La publicidad de los cosméticos antiedad suele centrar la atención en uno o dos de sus componentes, pero la mejor crema antiedad contiene varios principios activos que cuentan con el aval de la ciencia.
Las cremas antiedad combaten varios signos del envejecimiento, no sólo las arrugas. Las manchas en la piel, la falta de luminosidad, la pérdida de elasticidad o los poros abiertos son tanto o más importantes que las dichosas arrugas. Echemos un vistazo a los componentes que encontramos en la mejor crema antiedad y cómo funcionan sobre nuestra piel.
-
Hidroxiácidos
Los más comunes son el ácido glicólico, el salicílico, el mandélico o el láctico. Lo que hacen estos principios activos es debilitar los enlaces entre las células muertas de la piel con el resto de la epidermis, es decir, actúan como exfoliantes. Esto acelera el proceso normal de regeneración de la piel y aportan luminosidad.
En los últimos años se ha descubierto que, por ejemplo, el ácido glicólico incrementa la síntesis de colágeno, con lo que mejora la elasticidad y tersura de la piel. El ácido salicílico ha demostrado ser un principio activo que, además de desobstruir los poros, mitiga las manchas e ilumina la piel.
El inconveniente de estos hidroxiácidos es que su capacidad exfoliante puede producir irritación y además provoca que la piel sea más sensible al sol. Por este motivo los encontramos en cremas antiedad de noche o en cremas de día con un elevado índice de protección solar.
-
Ácido hialurónico
Esta sustancia se encuentra de forma natural en el cuerpo, en las articulaciones, el cartílago y la piel. Cumple una función estructural y, en el caso de la piel, su escasez se percibe como pérdida de firmeza. Con el paso de los años su proporción va disminuyendo. Por eso es importante ayudar a nuestro cuerpo a mantenerlo y a regenerarlo. En contra de la intuición, el ácido hialurónico que aplicamos sobre nuestra piel no penetra y suple las deficiencias, sino que se ha descubierto que funciona de otra manera.
Existen dos tipos de ácido hialurónico, el de alto peso molecular (APM) y el de bajo peso molecular (BPM). El APM está formado por agregados de moléculas de gran tamaño, por lo que no se absorbe, formando una película superficial que retiene el agua. Esta es su propiedad más codiciada, que es capaz de absorber 1.000 veces su peso en agua, lo que se traduce en un increíble poder hidratante. Para prevenir los signos de la edad es fundamental mantener la piel hidratada.
El BPM, también denominado ácido hialurónico fragmentado o hidrolizado, forma agregados moleculares de pequeño tamaño, capaces de penetrar hasta la dermis, captar agua y producir un efecto de relleno que atenúa las arrugas y mantiene la hidratación durante más tiempo. A medio plazo se ha comprobado que estimula la formación de más hialurónico. El BMP es el hialurónico más novedoso y también el más costoso de producir, por eso lo encontramos en productos de gama media-alta, especialmente en formato serum, mientras que el APM suele formar parte de cremas y geles más económicos.
-
Vitaminas
Una de las causas del envejecimiento de la piel es la formación de radicales libres por estrés oxidativo de las células, cosa que se acelera en presencia de radiación solar. Esto hace perder elasticidad porque se destruye la elastina y el colágeno. Para paliar la oxidación, las cremas antiedad contienen antioxidantes como algunas vitaminas. Normalmente estos antioxidantes son derivados de la vitamina C y la vitamina E con capacidad de penetración en la piel, como ascorbatos y acetatos respectivamente.
La vitamina C dinamiza la producción de colágeno y aclara las manchas. La encontramos en fórmulas ligeras, para pieles grasas o con acné. Como este activo se oxida con facilidad, el envase cobra importancia: ha de ser airless en tubo o con dosificador, cosa que encarece el producto final.
Otro antioxidante común es el derivado de la vitamina E, el tocoferol. Lo encontramos en fórmulas más untuosas y es más fácil de conservar. Se suele asociar a la vitamina C para conseguir mayor efecto. Posee acción hidratante, previene la formación de eritemas y quemaduras durante la exposición solar, tiene acción calmante, por lo que se utiliza con frecuencia en productos aftersun.
Otro antioxidante, más asequible que las vitaminas C y E, es el derivado de la coenzima Q10, el ubiquinol. Previene el estrés oxidativo y frena la destrucción del colágeno provocada por la radiación solar.
Otra vitamina común en estas cremas es la niacinamida o vitamina B3, que reduce la formación de manchas porque inhibe la acción de la tirosinasa, la enzima necesaria para la síntesis de la melanina. Si no se metaboliza, no se produce la mancha.
-
Retinoides
Los retinoides son derivados del ácido retinoico o vitamina A. En las cremas los encontramos como retinol y como retinaldehído. Previene el envejecimiento de la piel desde varios frentes. Es, posiblemente, el principio activo más prometedor de las cremas antiedad. A nivel de la epidermis reduce la cohesión de las células muertas, disminuye la actividad de los melanocitos, por lo que reducen las hiperpigmentaciones y estimula la cicatrización al promover el crecimiento de los tejidos y la síntesis de colágeno. A nivel de la dermis estimula la actividad de los fibroblastos, aumentando así la síntesis de colágeno y elastina. El conjunto de estas acciones se traduce en que difumina las líneas de expresión, reduce los poros, incrementa la elasticidad, previene y reduce las manchas y mejora el tono de la piel.
-
Ácidos grasos
Los ácidos grasos como el ácido linoleico tienen actividad antioxidante y contribuyen notablemente a la regeneración celular. Regulan de la permeabilidad de la piel, con lo que favorecen que otros principios activos penetren en ella. Desarrollan un papel importante en la hidratación y el mantenimiento de la integridad de la barrera cutánea.
-
Filtros solares
Los filtros solares son los ingredientes estrella de cualquier producto cosmético antiedad. No pueden faltar. La radiación solar, especialmente la radiación ultravioleta, es el mayor enemigo de nuestra piel. No solo produce quemaduras y aumenta el riesgo de cáncer, sino que además es el principal factor que provoca la aparición de manchas, la destrucción del colágeno y la elastina, la aparición y acentuación de arrugas. Es decir, además del paso del tiempo, la radiación ultravioleta es responsable de todos los signos de la edad. Por este motivo, la mejor crema antiedad es aquella que tenga protección solar, cuanto mayor factor SPF, mejor.
En ellas encontramos tanto filtros físicos como filtros químicos. Los primeros reflejan la radiación ultravioleta, como un espejo, y los segundos transforman la radiación ultravioleta en radiación inocua. Los físicos son menos cosméticos que los químicos, ya que dejan rastro blanco, así que lo habitual es encontrarse filtros químicos en las cremas de gama media-alta o una combinación de ambos.
-
Conclusiones
La mejor crema antiedad es aquella que mantiene la piel hidratada, libre de células muertas y de radicales libres y, sobre todo, protegida de la radiación solar. Eso lo hemos conseguido gracias a la investigación científica. Para lograrlo es necesaria una combinación de diferentes principios activos como hidroxiácidos, vitaminas, hialurónico, retinoides, ácidos grasos y filtros solares.
En la mayoría de los casos los encontramos en diferentes productos cosméticos, y no en uno solo, ya que algunos de estos activos compiten entre sí y no se pueden formular en un único producto. A esto hay que sumarle que las expectativas son diferentes en cada caso. No es lo mismo una piel de 35 años que una de 60. La piel de un hombre que la de una mujer. Una piel que ha sido maltratada por el sol, que otra que no lo ha sido. Una piel con arrugas y manchas ya marcadas o una que sólo las tiene incipientes. Igual que una piel seca que una piel grasa.
Hay que tener en cuenta que los resultados difieren entre unas personas y otras por estos y otros muchos factores, así que hay que mantener unas expectativas realistas. Estos principios activos funcionan difuminando los signos de la edad y, sobre todo y más importante, los previenen. Contra los signos de la edad, mejor prevenir que curar.
Las concentraciones de cada principio activo varían y se combinan en una fórmula que se adapta a diferentes tipos de piel y a diferentes bolsillos. Unos principios activos son más costosos que otros, por sí mismos y por las implicaciones que tienen sobre la fabricación y conservación del producto final. Unos requieren de bases ricas y otros de bases ligeras para ser realmente eficaces.
Hay muchas razones por las que no existe una única mejor crema antiedad, sino que en el mercado existe una gran variedad de mejores cremas antiedad. Eso sí, las mejores se fundamentan en principios activos de probada eficacia.
Es imposible ponerse de acuerdo sobre cuál es la mejor crema antiedad porque no existe la mejor crema antiedad universal, que satisfaga por igual todos los casos posibles. La que para mí es la mejor crema antiedad, por mi tipo de piel y mi estilo de vida, quizá para ti no lo sea, por muchos ingredientes que coincidan con los citados. Para averiguar cuál es tu mejor crema antiedad, acude a tu dermatólogo, a tu farmacéutico o a tu dermoconsejero. Cuanto mejor conozcas tu piel y tus necesidades, mejores opciones van a ofrecerte. Seguro que entre sus ingredientes encuentras algunos de estos seis principios activos que, según la ciencia, funcionan.
Fuentes principales:
Improvement of Naturally Aged Skin With Vitamin A (Retinol). Reza Kafi, MD; Heh Shin R. Kwak, MD; Wendy E. Schumacher, BS; et al Soyun Cho, MD, PhD; Valerie N. Hanft, MD; Ted A. Hamilton, MS; Anya L. King, MS; Jacqueline D. Neal, BSE; James Varani, PhD; Gary J. Fisher, PhD; John J. Voorhees, MD, FRCP; Sewon Kang, MD. Arch Dermatol. 2007;143(5):606-612.
Human skin penetration of hyaluronic acid of different molecular weights as probed by Raman spectroscopy. Essendoubi M , Gobinet C, Reynaud R, Angiboust JF, Manfait M, Piot O. Skin Res Technol. 2016 Feb;22(1):55-62
A Multicenter, Single-Blind Randomized, Controlled Study of a Volumizing Hyaluronic Acid Filler for Midface Volume Deficit: Patient-Reported Outcomes at 2 Years. Pocos J, Cox SE, Paradkar-Mitragotri D, Murphy DK. Aesthet Surg J. 2015 Jul;35(5):589-99
Glycolic acid treatment increases type I collagen mRNA and hyaluronic acid content of human skin. Bernstein EF1, Lee J, Brown DB, Yu R, Van Scott E. Dermatol Surg. 2001 May;27(5):429-33.
Topical ascorbic acid on photoaged skin. Clinical, topographical and ultrastructural evaluation: double-blind study vs. placebo. Philippe G. Humbert, Marek Haftek, Pierre Creidi, Charles Lapière, Betty Nusgens, Alain Richard, Daniel Schmitt, André Rougier, Hassan Zahouani. Experimental Dermatology. Volume 12, Issue 3. June 2003. Pages 237–244
Efecto de los alfahidroxiácidos en la permeabilidad de la epidermis humana in vitro. Octavio Díez Sales, Alfonso Copoví y Marina Herráez. Dep. de Farmacia y Tecnología Farmacéutica. Universidad de Valencia.
Coenzyme Q 10, a cutaneous antioxidant and Energizer. Hoppe, U.; Bergemann, J. Diembeck, W. Ennen, J. Gohla, S. Harris, I. Jacob, J. Kielholz, J. Mei, W. Pollet, D. Schachtschabel, D. Sauermann, G. Schreiner, V. Stäb, F. Steckel, F. Journal Biofactors, vol. 9, no. 2‐4, pp. 371-378, 1999
¿Cómo funciona tu crema solar? Dimetilsulfuro.es, 2015
Use of salicylic derivatives for the treatment of skin aging. Jean L. Leveque, Didier Saint Leger. Patent US 5262407 A, 1993.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Así es la mejor crema antiedad según la ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El mejor lacón con grelos tiene su ciencia
- Azúcar moreno, ¿mejor que el azúcar blanco?
- Estimada OCU: recuerda que NO se pueden utilizar las cremas solares del año pasado
La materia oscura auto-interactuante y las curvas de rotación de las galaxias

La galaxia NGC 7479. Foto: Daniel López/IAC
La naturaleza de la materia oscura sigue siendo uno de los grandes misterios de la ciencia. Tanto es así que hay científicos que consiguen gran eco mediático simplemente proponiendo teorías en las que la materia oscura no aparece. Pero ninguna de estas teorías termina de explicar las cosas tan bien como lo hace la materia oscura. O las materias oscuras, porque sabemos tan poco de ella que no sabemos con seguridad si es caliente, fría, tibia o si interactúa consigo misma.
La materia oscura auto-interactuante -una forma hipotética de materia oscura hecha de partículas que interactúan entre sí- es un recurso que soluciona problemas en cosmología. A escalas galácticas o menores, puede corregir discrepancias entre las observaciones y las predicciones del modelo cosmológico estándar, que en su lugar considera una materia oscura “fría” que no interactúa consigo misma. Y esto lo hace dejando intacto el éxito del modelo estándar a escalas más grandes.
Ahora, Ayuki Kamada, de la Universidad de California en Irvine, y sus colegas demuestran que la materia oscura auto-interactuante también puede explicar la diversidad de curvas de rotación de las galaxias, para entendernos, las gráficas que resultan de representar las velocidades de las estrellas en una galaxia frente a su distancia al centro de la misma.
Las estrellas y el gas en las galaxias suelen girar a una velocidad constante más allá de una cierta distancia del centro de la galaxia: las curvas de rotación son esencialmente planas, sin importar lo masivos que sean los “halos” de materia oscura en los que están sumergidos. Pero las galaxias con halos de materia oscura de masa similar pueden tener curvas muy diferentes por debajo de esa distancia: algunas curvas suben abruptamente hacia la meseta y otras gradualmente. Esta diversidad es difícil de explicar en el marco del modelo de materia oscura fría estándar.
Los investigadores analizaron las curvas de rotación de 30 galaxias que representan esta diversidad y compararon las curvas con las que se derivan de un modelo galáctico que habían desarrollado. Este modelo incluye un halo de materia oscura que interactúa consigo mismo en la región interior, y tiene en cuenta la distribución de la materia visible en el halo, así como la historia de la formación del halo. Los investigadores encontraron que el modelo proporciona un ajuste excelente a los datos, dando apoyo a la hipótesis de que la materia oscura es auto-interactuante.
Con todo, este es solo un dato más entre los muchos que habrá que generar para algún día poder resolver uno de los grandes misterios de la ciencia de hoy, a saber, qué es la materia oscura.
Referencia:
Ayuki Kamada, Manoj Kaplinghat, Andrew B. Pace, and Hai-Bo Yu (2017) Self-Interacting Dark Matter Can Explain Diverse Galactic Rotation Curves Phys Rev. Lett. doi: 10.1103/PhysRevLett.119.111102
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La materia oscura auto-interactuante y las curvas de rotación de las galaxias se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un 5 % de materia oscura menos
- ¿Y si lo que detectó LIGO fue materia oscura?
- El análisis del supercúmulo “El Gordo” limita qué puede ser la materia oscura
El problema matemático de las cartas extraviadas
Para empezar esta entrada del Cuaderno de Cultura Científica os voy a proponer un juego. A continuación, vamos a mostrar dos listas. La primera lista, la situada a la izquierda, está formada por los nombres de cinco grandes artistas del siglo XX (Sonia Delaunay, Maruja Mallo, Lee Krasner, Georgia O’Keefe y Loïs Mailou Jones) y la lista de la derecha contiene los títulos de cinco obras de arte, una de cada una de las artistas de la primera lista. El juego consiste en unir cada una de las artistas de la fila de la izquierda con su correspondiente cuadro en la lista de la derecha.
A continuación, podéis ver las obras mencionadas. Y mientras vais viendo cada una de las pinturas podéis intentar asociarla con la artista que la pintó, cuyo nombre es uno de los de la lista de arriba.

1. Criaturas de la noche (1965)

2. Prismas eléctricos (1914)

3. Formas y colores (1958)

4. Amapolas orientales (1928)

5. Canto de espigas (1929)
Si ya habéis dado una respuesta al juego, podéis seguir adelante con la lectura de esta entrada, aunque si aún no habéis asociado cada artista con una obra podéis volver a mirarlas y haced vuestra elección.
La respuesta correcta a este juego relacionado con el arte es: (A, 2), (B, 5), (C, 1), (D, 4) y (E, 3).
Pero pensemos un poco en el juego y en las diferentes elecciones que se podrían haber hecho. Para empezar, ¿cuántas formas existen de unir los cinco nombres de artistas con los cinco títulos de cuadros, es decir, cuántas posibles respuestas, aunque sean erróneas, tiene el juego?
La solución a esta cuestión seguro que ya la conocéis. Es el número de aplicaciones biyectivas del primer conjunto {A, B, C, D, E} en el segundo {1, 2, 3, 4, 5} o, equivalentemente, de permutaciones de cinco elementos. Si pensamos en que tenemos que asociar a cada una de las letras A, B, C, D y E (que son las artistas), uno de los números 1, 2, 3, 4 y 5 (que son los cuadros), cada posible respuesta al juego es una permutación de los números {1, 2, 3, 4, 5}. Así, la respuesta correcta era la permutación {2, 5, 1, 4, 3}. El número de permutaciones de 5 elementos, o lo que es lo mismo, respuestas al juego de los cuadros, correctas o no, es el factorial de 5, 5! = 5 × 4 × 3 × 2 × 1 = 120. Esto se debe a que, si empezamos por orden, a la artista A la podemos asociar con cada uno de los 5 números {1, 2, 3, 4, 5}, pero una vez realizada una elección para A, y para cada una de ellas, hay 4 posibles elecciones para B. En resumen, para A y B hay en total 5 × 4 = 20 posibles asociaciones de números. Seguimos. Fijadas A y B, y para cada una de las 20 elecciones posibles de ellas, quedarán 3 números libres para poder asociar a C, dos para D, elegida también la opción para C, y finalmente, fijadas las anteriores, solo habrá 1 posibilidad para E. Es decir, las posibles respuestas son 5 × 4 × 3 × 2 × 1 = 120.
Más aún, de esas 5! = 120 posibles respuestas al juego, solo una de ellas es la correcta, como sabemos (A, 2), (B, 5), (C, 1), (D, 4) y (E, 3), pero ¿para cuántas respuestas no habríamos acertado ninguno de los cuadros de las cinco artistas? ¿O un cierto número dado de cuadros, por ejemplo, solo uno? De estas cuestiones vamos a hablar en esta entrada del Cuaderno de Cultura Científica.
Este problema se conoce con el nombre de problema de las cartas extraviadas, o mal dirigidas, aunque también se conoce con otros muchos nombres, entre ellos, el problema de la encargada del guardarropa, el problema de los sombreros, el problema de las coincidencias, el problema de los desarreglos o el problema de Bernoulli-Euler.
El problema dice así:
Determinar el número de permutaciones de n elementos (por ejemplo, los n primeros números {1, 2, …, n}) en las que ningún elemento ocupa su posición natural.
Aunque normalmente el problema se expresa de una forma más divulgativa, cercana al juego que hemos planteado al principio de esta entrada, y que es el motivo por el que recibe el nombre de problema de las cartas extraviadas:
Una persona ha escrito n cartas a n personas distintas (por ejemplo, n amigas suyas) y escribe las direcciones de estas en n sobres. ¿De cuántas formas puede colocar las n cartas en los n sobres de forma que todas las cartas estén en sobres “incorrectos”, es decir, que no lleven la dirección que le corresponde a la carta que contienen?

Casillas antiguas de apartados de correos
El problema fue propuesto originalmente por el matemático francés Pierre Rémond de Montmort (1678-1719) en su libro sobre probabilidad y juegos de azar Essay d’analyse sur les jeux de hazard (Análisis de los juegos de azar), de 1708. De Montmort había introducido en su libro un juego de cartas llamado Treize (trece), que es como el juego la ratonera de Arthur Cayley, pero con 4 tacos de 13 cartas (precisamente una baraja francesa de póquer, tiene 52 cartas, con cuatro palos –corazones, diamantes, tréboles y picas– y cada palo con 13 cartas, que podemos considerar numeradas del 1 al 13).

Página del libro “Essay d’analyse sur les jeux de hazard”-Análisis de los juegos de azar- (1708), de Pierre Rémond de Montmort
De Montmort se propuso el análisis del juego del Treize, así como algunos problemas más sencillos relacionados con el mismo, entre los que estaba el que denominó el “problema del reencuentro”, que no es otro que el enunciado arriba (problema de las cartas extraviadas).
De Montmort discutió ampliamente este problema con su amigo el matemático Nicolas Bernoulli (1687-1759) en la extensa correspondencia que mantuvieron entre ambos, así como con Johann Bernoulli (1667-1748).
En la segunda edición de su libro Essay d’analyse sur les jeux de hazard, de 1813, de Montmort publica la solución del problema del reencuentro (problema de las cartas extraviadas), así mismo la solución de Nicolas Bernoulli aparece en la correspondencia con de Montmort, la cual es incluida por el francés en esa segunda edición. Otros grandes matemáticos analizaron el problema, como Leonhard Euler (1707-1783) en Calcul de la probabilité dans le jeu de rencontre (1743), Abraham de Moivre (1667-1754) en The Doctrine of Chances (1756), Johann H. Lambert (1728-1777) en Examen d’une espèce de superstition ramenée au calcul des probabilités (1773) o Pierre-Simon Laplace (1749-1827) en Théorie Analytique des Probabilités (1812).

Primer página del libro “The Doctrine of Chances” (1756) de Abraham de Moivre
Pero vayamos con la demostración del problema de las cartas extraviadas. La demostración que vamos a mostrar aquí es la realizada por Leonhard Euler, y aparece recogida en el libro 100 Great Problems of Elementary Mathematics: Their History and Solutions.
Vamos a denotar por c1, c2, …, cn los objetos (por ejemplo, las cartas), por S1, S2, …, Sn las posibles posiciones (en la versión de las cartas serían los sobres) y por D(n) el número de permutaciones de n objetos en las cuales ninguno queda en su posición original, es decir, ninguna carta está en el sobre que le corresponde.
Se consideran dos casos:
Caso 1. Las permutaciones de los objetos, esto es, las formas de meter las cartas en los sobres, de manera que la carta c1 está en el sobre S2 (en general, sería cuando el objeto c1 está en la posición S2) y la carta c2 está en el sobre S1.
En este caso, las demás cartas c3, c4, …, cn van a estar en los sobres S3, S4, …, Sn, pero cada una de esas n – 2 cartas ci no está en el sobre correcto Si (i = 3, 4, …, n). Por lo tanto, el número de estas permutaciones es D(n – 2), es decir, el número de permutaciones de n – 2 objetos de forma que ninguno esté en su posición original.
Caso 2. Las permutaciones para las cuales la carta c1 está en el sobre S2, pero la carta c2 no está en el sobre S1.
En estas permutaciones la carta c1 está en el sobre S2, y hay que distribuir las cartas c2, c3, …, cn en los sobres S1, S3, …, Sn, de forma que c2 no esté en S1, c3 no esté en S3, c4 no esté en S4, así hasta la carta cn que no puede estar en Sn. Es decir, si pensamos que al no poder estar la carta c2 en el sobre S1, podemos “asociar” c2 y S1, entonces el número de formas de realizar dicho reparto (la carta c1 está en el sobre S2, pero la carta c2 no está en el sobre S1) es D(n – 1).
En resumen, estos dos casos me muestran que el número de permutaciones de n objetos en las que ningún objeto está en su posición original, pero además c1 está en S2, es igual a
D(n – 2) + D(n – 1).
Y como un argumento similar se puede aplicar a los casos en los que c1 está en S3, S4, …, Sn, se ha demostrado que el número de permutaciones de n objetos en las que ningún objeto está en su posición original es
D(n) = (n – 1) · [D(n – 2) + D(n – 1)]. (fórmula 1)

Fragmento del artículo “Solutio quaestionis curiosae ex doctrina combinationum” (1811), de Leonhard Euler en la que aparece la fórmula recursiva anterior. La notación de Euler para D(n) es Π:n
La fórmula (recursiva) 1 anterior puede reescribirse de la siguiente forma
D(n) – n · D(n – 1) = – [D(n – 1) – (n – 1) · D(n – 2)].
De donde se deduce por recursión y teniendo en cuenta que D(1) = 0 (no hay forma de meter 1 carta en 1 sobre sin acertar), D(2) = 1 (solo hay una forma de meter 2 cartas en 2 sobres de forma incorrecta, cada carta en el sobre que no es) y (–1)n-2 = (–1)n,
D(n) – n · D(n – 1) = (–1)n, (fórmula 2)
puesto que
D(n) – n · D(n – 1) = – [D(n – 1) – (n – 1) · D(n – 2)]
= (–1)2 [D(n – 2) – (n – 2) · D(n – 3)]
= (–1)3 [D(n – 3) – (n – 3) · D(n – 4)]
= … = (–1)n-2 [D(2) – 2 · D(1)].

Fragmento del artículo “Solutio quaestionis curiosae ex doctrina combinationum” (1811), de Leonhard Euler en la que aparece la fórmula recursiva 2. La notación de Euler para D(n) es Π:n
Si consideramos la fórmula (recursiva) 2 anterior y la dividimos por n!, se obtiene
D(n) / n! –D(n – 1) / (n – 1)! = (–1)n / n!.
De nuevo un argumento recursivo nos lleva a la fórmula
D(n) / n! = (–1)2 / 2! + (–1)3 / 3! + … + (–1)n / n!.
O equivalentemente,
Así, para un número n pequeño de objetos (respectivamente, de cartas) podemos calcular el número D(n) de las permutaciones de esos n objetos en las cuales ninguno queda en su posición original. En concreto, D(3) = 2, D(4) = 9, D(5) = 44, D(6) = 265 y D(7) = 1854. A estos números se les suele conocer con el nombre de números de Montmort o números de desarreglos, y en la Enciclodepia on-line de sucesiones de enteros (OEIS) es la sucesión de números A000166.

Fragmento del artículo “Solutio quaestionis curiosae ex doctrina combinationum” (1811), de Leonhard Euler en el que Euler calcula, utilizando la fórmula recursiva 1, el valor de D(n), que él denota Π:n, para valores de n entre 1 y 10
Si tenemos en cuenta que en el juego del inicio de esta entrada teníamos cinco artistas, es decir, n es 5, sabemos que el número de soluciones del juego para las cuales no se acierta ni uno solo de los cuadros es D(5) = 44, del total de 120 posibles.
La fórmula obtenida para D(n) se puede demostrar también utilizando el principio de inclusión-exclusión, que es como lo realizó Abraham de Moivre, y quien esté interesado en la misma la puede encontrar por ejemplo en el libro How to count, an introduction to combinatorics.
Pero el problema de las cartas extraviadas, o de los desarreglos, que aquí hemos presentado en su versión combinatoria, suele presentarse también en su versión probabilística.
Problema: Una persona ha escrito n cartas a n personas distintas, escribe las direcciones de estas en n sobres y mete “sin mirar” (al azar) las n cartas en los n sobres. ¿Cuál es la probabilidad de que ninguna de las cartas acabe en el sobre correcto, es decir, con la dirección que le corresponde?
Teniendo en cuenta que la probabilidad de un evento, en este caso que todas las cartas acaben en sobres incorrectos, es igual al número de casos favorables, que es D(n) y acabamos de calcularlo, dividido entre el número de casos posibles, que es n!, entonces dicha probabilidad P(n) es
Ahora si tenemos en cuenta la serie de la función exponencial ex:
para x = – 1, se tiene que la probabilidad P(n) de que ninguna de las cartas acabe en el sobre correcto se va acercando a 1/e, que es aproximadamente 0,36788 (36,788%), a medida que n va siendo cada vez mayor,
Además, dicha convergencia es muy rápida, como podemos observar en la siguiente tabla.
Si volvemos al juego del inicio de esta entrada, observamos que si hemos contestado al azar, la probabilidad de no acertar ni uno solo de los cuadros es del 36,67%, que es bastante alta.
Por otra parte, el problema probabilístico de las cartas extraviadas se puede extender al problema general de que haya un cierto número dado de cartas que sí están en el sobre correcto.
Problema: Una persona ha escrito n cartas a n personas distintas, escribe las direcciones de estas en n sobres y mete “sin mirar” (al azar) las n cartas en los n sobres. ¿Cuál es la probabilidad de que exactamente k de las n cartas acabe en el sobre correcto, es decir, con la dirección que le corresponde?
La respuesta es
Como curiosidad, si deseamos saber la probabilidad de que solamente una carta de las n posibles acabe en el sobre correcto, observamos que es P(n,1) = P(n – 1). Es decir, para valores grandes de n, esa cantidad se aproxima, de nuevo, a 0,36788 (36,788%).
Vamos a terminar esta entrada del Cuaderno de Cultura Científica recordando un episodio lamentable, el del accidente del Yak-42 en Turquía, en el que el problema de las cartas extraviadas, aunque en esa ocasión se mencionó como el problema de los sombreros, apareció citado en un medio de comunicación.

Noticia del 2 de septiembre de 2004, de El País
En el accidente del avión Yak-42 del 26 de mayo de 2006 (para quien desee más información sobre el tema puede consultar aquí ), murieron 62 militares españoles. De los 30 cadáveres que tenían que identificar las autoridades españolas (los otros 32 fueron identificados correctamente por las autoridades turcas), no acertaron ni uno solo, como se menciona en el titular de la siguiente noticia de El País “Defensa no acertó a identificar ni una sola de las víctimas del Yak-42”.
Parecía sorprendente que de las 30 identificaciones, que obviamente habían sido realizadas al azar, no se hubiese acertado ni siquiera una. Como hemos explicado a lo largo de esta entrada, y como se explicó en el recuadro “El problema de los sombreros” de la mencionada noticia de El País, la probabilidad de no acertar en ninguna de las identificaciones (habiendo sido realizadas estas al azar) era del 36,79%, muy alta, luego era bastante probable. Pero si además tenemos en cuenta que, como hemos mencionado también, la probabilidad de que solamente acertaran una identificación también era del 36,79%, entonces la probabilidad de que no acertaran ninguna, o solamente una, identificación era del 73,58%. Muy, muy alta.
Bibliografía
1.- Miodrag S. Petkovic, Famous puzzles of Great Mathematicians, AMS, 2009.
2.- Heinrich Dorrie, 100 Great Problems of Elementary Mathematics: Their History and Solutions, Dover, 1965.
3.- R. B. J. T. Allenby, Alan Slomson, How to count, an introduction to combinatorics, CRC Press, 2011.
4.- Montmort’s Problême du Treize, MacTutor History
of Mathematics archive, 2015.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El problema matemático de las cartas extraviadas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Matemáticas en el juego de cartas SET (1)
- Matemáticas en el juego de cartas SET (2)
- Un convite matemático ‘de altura’
Sistemas nerviosos: evolución de la estructura encefálica
J. B. Johnston, uno de los fundadores de la neurobiología evolutiva, afirmó en 1923, refiriéndose a diferentes grupos de vertebrados, que “new structures have not appeared” (no han aparecido nuevas estructuras). Y sin embargo, tal y como hemos visto en las anotaciones anteriores, los encéfalos de unas especies carecen de estructuras que sí aparecen en otras. Es más, el uso del prefijo “neo” en neuroanatomía es muy común.
Ludwig Edinger, otro de los precursores, había propuesto en 1908 que en el curso de la evolución del encéfalo de vertebrados se añadió un “neencephalon” al “palaeencephalon” preexistente. Esa idea tuvo amplia aceptación en la primera mitad del siglo XX y dio lugar a la visión más general de que los encéfalos han evolucionado por la acumulación de partes nuevas. La idea tiene el atractivo de que implica un aumento de la complejidad: como se añaden partes nuevas, el número de regiones aumenta, luego la complejidad es mayor. Sin embargo, Johnston había comprobado por sí mismo y a partir de trabajos de otros investigadores que las consideradas nuevas tenían estructuras homólogas1 en los vertebrados “inferiores”. Por ejemplo, el pallium de peces y reptiles, aunque de aspecto muy diferente, es homólogo al neocortex de mamíferos y por lo tanto, éste no se puede considerar propiamente “nuevo”. En la actualidad se acepta que en el curso de la evolución de vertebrados no han aparecido estructuras nuevas, entendiendo nuevas como no homólogas a estructuras precursoras, pero lo que es claro es que, en general, conforme han ido surgiendo nuevos grupos, sus encéfalos han ido siendo cada vez más complejos, porque el número de regiones encefálicas o agrupamientos celulares ha aumentado. De hecho, una somera comparación de su número sugiere que la complejidad ha aumentado y disminuido en la evolución de los vertebrados en varias ocasiones.
Número de áreas encefálicas diferenciables (la secuencia sigue un orden de diferenciación en el curso de la evolución): mixinos (peces brujas): 36; lampreas: 25; tiburones: 46; rayas: 45; bichires de Cuvier (osteíctio actinopterigio): 46; teleósteos: 71; peces pulmonados: 29; salamandras: 31; ranas: 50; reptiles: 85; aves: 87; mamíferos: 257.
A la vista de esos datos parece que la complejidad encefálica aumentó en los peces teleósteos, más adelante en el origen de los amniotas y después con los mamíferos. Y descendió con los peces pulmonados y las salamandras. Así pues, los encéfalos han variado en su número de estructuras y, en general, la tendencia ha sido de aumento.
Hay varios mecanismos que pueden explicar el aumento de regiones encefálicas sin que se hayan generado (filogenéticamente) nuevas estructuras. Pueden haber aparecido por conversión filogenética (cuando una estructura se transforma en otra) o proliferación filogenética, y dentro de esta, segregación (cuando una estructura da lugar a dos o más) y adición (cuando una estructura surge ex novo).
La aparición de estructuras en láminas a partir de una anterior homóloga pero no laminar es un caso paradigmático de conversión filogenética. Tienen estructuras laminares el lóbulo vagal de los teleósteos ciprínidos, el torus semicircularis de los peces eléctricos Gymnotidae, y el núcleo geniculado lateral dorsal de los mamíferos; todas estas estructuras son homólogas a otras no laminadas que existen en grupos relacionados. Una clara ventaja de la estructura laminar es que minimiza las longitudes de conexión neuronal y, por lo tanto, permite ahorros en energía, espacio y tiempos de conducción. También facilita la emergencia de funciones más complejas que los reflejos. La estructura laminar se desarrolla con facilidad y es funcionalmente ventajosa porque las neuronas en láminas diferentes pueden conectarse con mínimo cableado (dendritas y axones).
El término segregación filogenética se acuñó para denominar la diferenciación de ganglios (núcleos) a partir de un tejido poco diferenciado del tallo encefálico, y se puede aplicar, en general, a aquellos casos en los que regiones encefálicas homogéneas dan lugar a varias regiones diferentes, ninguna de las cuales es homóloga (una a una) a la antigua. Un ejemplo es el tálamo dorsal, que contiene bastantes más núcleos en amniotas que en anamniotas. Otro es el del complejo preglomerular de los peces (osteíctios) actinopterigios, con un número de núcleos muy diferente en unas especies y otras. El número de núcleos es mayor cuanto más recientemente han evolucionado las especies. El aumento en el número de núcleos se atribuye a un proceso de proliferación filogenética, que muy probablemente ha ocurrido por segregación.
Los casos mejor conocidos de adición son el lóbulo de la línea lateral electrosensorial de peces eléctricos, la válvula cerebelar, que solo aparece en teleósteos, la porción electrosensorial del torus semicircularis del encéfalo medio de los Gymnotidae y los siluros; o el torus longitudinalis del techo óptico de todos los (osteíctios) actinopterigios. Las adiciones pueden producirse mediante desarrollo de nuevas estructuras a partir de tejido embrionario. Ese tejido precursor, que en estadios evolutivos anteriores daba lugar a una estructura determinada en el encéfalo adulto, puede –además de conservar la anterior- generar nuevas estructuras en fases evolutivas posteriores. Lo puede hacer, además, mediante dos posibles vías. Una consistiría en una nueva forma de expresión génica en una zona de ese tejido precursor. Y la otra se puede producir si el tejido en cuestión alcanza un tamaño mayor y parte de la estructura se ve expuesta a estímulos ontogenéticos diferentes, de manera que su desarrollo cursa de forma distinta, dando lugar a una estructura nueva.
Un aspecto de especial interés es el modo en que se han desarrollado las diferentes áreas corticales. Se ha constatado que mamíferos de muy diferentes grupos tienen las mismas áreas sensoriales primarias y secundarias bien diferenciadas. Y algo similar cabe decir de las áreas motoras en placentarios. Lo más probable es, por lo tanto, que las áreas sensoriales y motoras de niveles básicos de la corteza surgieran ya en los primeros mamíferos, lo que no parece ser el caso de las áreas corticales de niveles superiores. ¿Cómo surgieron, entonces, esas áreas de orden superior? Al respecto se han formulado diferentes hipótesis, como la de la posibilidad de una agregación selectiva de heterogeneidades modulares preexistentes en las áreas antigua, o la duplicación de áreas preexistentes y posterior diferenciación funcional, entre otras. No obstante, hay aspectos sustanciales de la arquitectura encefálica y de la diversificación de áreas que no son explicadas de forma satisfactoria por ninguna de las hipótesis formuladas.
Para concluir, remarcaremos la idea de que sean cuales sean los mecanismos implicados en la aparición de nuevas áreas o regiones en el encéfalo de los vertebrados, parece claro que un mayor número de áreas es ventajoso desde el punto de vista funcional, porque de esa forma pueden especializarse en tareas diferentes. La división del trabajo redunda en una mayor eficiencia aunque también reduce la flexibilidad del sistema. No obstante, en el curso de la evolución de las especies de vertebrados parece haberse favorecido la eficiencia en perjuicio de la flexibilidad. De esa forma se han alcanzado encéfalos de gran tamaño, lo que no hubiera sido posible con bajos niveles de diferenciación. En síntesis, a lo largo de la evolución se han ido desarrollando encéfalos más complejos porque son funcionalmente útiles y han sido la única forma de tener grandes números de neuronas sin sacrificar su funcionalidad.
Fuentes:
Eric R, Kandel, James H. Schwartz, Thomas M. Jessell, Steven a. Siegelbaum & A. J. Hudspeth (2013): Principles of Neural Science 5th ed., Mc Graw Hill, New York
Georg F. Striedter (2005): Principles of Brain Evolution, Sinauer & Co, Sunderland USA
Nota:
1Homólogo es un rasgo que tiene origen común, o sea que evolucionó una vez.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas nerviosos: evolución de la estructura encefálica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Sistemas nerviosos: evolución del tamaño de las regiones encefálicas
- Sistemas nerviosos: evolución del tamaño encefálico
- Sistemas nerviosos: la médula espinal
El tamaño de las moléculas
Hasta que llegó la prueba de que las ideas de Maxwell sobre la distribución de las velocidades de las moléculas eran correctas aparecieron no pocas cuestiones, muchas muy razonables, a las que se tuvo que enfrentar la hipótesis cinética. Una no menor fue la siguiente: si es razonable suponer que los gases están compuestos de moléculas que se mueven a velocidades que pueden alcanzar varios centenares de metros por segundo a temperatura ambiente, entonces los gases deberían mezclarse de forma muy rápida, casi instantánea en una habitación de tamaño normal. Pero cualquiera que haya estudiado rudimentos de química o, simplemente, haya visto desplazarse al gas que desprende el hielo seco (en la imagen) sabe que eso no es cierto.
Supongamos que alguien abre una botella de perfume o una botella que contiene amoniaco en un rincón de la habitación. Si la habitación es grande, pueden pasar varios minutos antes de que el olor se note en el otro extremo. Pero según la distribución de velocidades de Maxwell, cada una de las moléculas de gas debería haber cruzado la sala cientos de veces para entonces. Por lo tanto, algo debía estar mal con el modelo gas que había empleado Maxwell [1].
Rudolf Clausius reconoció que esta era una objeción válida a su propia versión de la teoría cinética. Su artículo de 1857 había supuesto que las partículas eran tan pequeñas que pueden ser tratadas como puntos matemáticos. Si esto fuera cierto, las partículas casi nunca chocarían unas con otras. Sin embargo, la lentitud observada de difusión y mezcla convenció a Clausius para cambiar su modelo. Pensó que era probable que las moléculas de un gas no fueran infinitesimalmente pequeñas, sino de un tamaño finito. Las partículas de tamaño finito moviéndose muy rápidamente chocarían a menudo unas con otras. Una molécula individual puede tener una velocidad instantánea de varios cientos de metros por segundo, pero cambia la dirección de su movimiento cada vez que choca con otra molécula. Cuanto más a menudo choca con otras moléculas, menos probable es que se desplace muy lejos en cualquier dirección. La frecuencia con la que ocurren las colisiones depende de su tamaño y de lo agrupadas que estén las moléculas. En general podemos considerar que las moléculas están relativamente alejadas entre sí y que son muy pequeñas, pero que son lo suficientemente grandes y están lo suficientemente cerca unas de otras como para que se crucen sus caminos. Al darse cuenta de esto, Clausius fue capaz de modificar su modelo para explicar por qué los gases se mezclan tan lentamente, un proceso conocido como difusión.
En este punto Clausius se enfrentaba a un problema que afecta a todo físico teórico en algún momento. Si se modifica un modelo simple para explicar mejor las propiedades observadas, se vuelve más complicado. Puede ser necesario algún ajuste plausible o una aproximación para hacer cualquier predicción usando el modelo. Si las predicciones no están de acuerdo con los datos experimentales, ¿es esto debido a un fallo en el modelo o un error de cálculo introducido por las aproximaciones? El desarrollo de una teoría a menudo implica un compromiso entre la explicación adecuada de los datos y la conveniencia matemática [2].
Sin embargo, pronto se hizo evidente que el nuevo modelo era una gran mejora con respecto al anterior. Y ello porque ciertas otras propiedades de los gases también dependen del tamaño de las moléculas. Mediante la combinación de datos de varias de estas propiedades, fue posible realizar una especie de ingeniería inversa y encontrar valores bastante fiables para los tamaños moleculares. No vamos a entrar aquí en cómo se realizaron estos cálculos y nos limitaremos a dar el resultado. El diámetro de las moléculas de gas resultó ser del orden de 10-10 a 10-9 m. Un valor que no está lejos de los valores modernos, un resultado increíblemente bueno.
La obtención de estos valores finitos y razonables resultó muy bienvenida. Lord Kelvin había comentado previamente:
La idea de átomo ha estado tan constantemente asociada a asunciones increíbles de fuerza infinita, rigidez absoluta, acciones místicas a distancia e indivisibilidad, que los químicos y muchos otros naturalistas razonables de los tiempos modernos, perdiendo toda su paciencia, la han enviado a los reinos de la metafísica, y lo hicieron más pequeño que “todo lo que podemos concebir”.
Kelvin showed that other methods could also be used to estimate the size of atoms and molecules. None of these methods gave results as reliable as did the kinetic theory. But it was encouraging that they all led to the same order of magnitude (power of ten).
El propio Kelvin demostraría que se pueden emplear otros métodos alternativos para estimar el tamaño de átomos y moléculas. Sin embargo, ninguno de estos métodos era capaz de proporcionar resultados tan fiables como los de la teoría cinética. Pero era alentador que todos llevaran al mismo orden de magnitud (poder de diez).
Nota:
[1] Hemos de aclarar que nuestro modelo simple de gas incluye, en su sencillez, las correcciones necesarias.
[2] Y el uso de hipótesis auxiliares. Pero de esto hemos hablado más extensamente aquí.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El tamaño de las moléculas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un modelo simple de gas
- La distribución de velocidades moleculares de Maxwell
- Los antecedentes de la teoría cinética
Cuestión de contrastes
Richard Russell ha creado la ilusión óptica que puede verse en estas fotografías:

Credit: Richard Russell (2009) A Sex Difference in Facial Contrast and its Exaggeration by Cosmetics – Perception doi: 10.1068/p6331
En la primera percibimos una cara femenina y en la otra, una masculina. Pero es la misma cara, y la misma fotografía. La ilusión se basa en el hecho de que la cara masculina se caracteriza por tener menos contrastes de luminosidad que la femenina. Aunque no lo parezca, los ojos y los labios son idénticos en las dos imágenes. La única diferencia es que las fotos han sido retocadas para que en una de las dos caras haya más luminosidad.
La ilusión obtuvo el tercer puesto en Best Illusion of the Year Contest, de donde se ha tomado la imagen.
El trabajo original puede consultarse aquí.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Cuestión de contrastes se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El apocalipsis zombi es cuestión de decimales
- Una cuestión de movimiento
- #Naukas14: Magia y neurociencia
Un aerogel metal-orgánico cataliza una nueva empresa

El aerogel metal-orgánico es tan ligero que se puede posar sobre una flor
Daniel Vallejo, Garikoitz Beobide y Oscar Castillo, investigadores del Departamento de Química Inorgánica de la Facultad de Ciencia y Tecnología de la UPV/EHU, en conjunción con del fondo de capital riesgo especializado BeAble Innvierte Kets Fund (BIKF), han constituido la startup Poretune para desarrollar las aplicaciones de un nuevo material metal-orgánico, poroso, nano-estructurado, ultraligero, semiconductor, con elevada estabilidad química y amplias capacidades catalíticas para su aplicación en campos relacionados con la industria de la automoción, el medioambiente y la energía.
La tecnología que desarrolla la startup se apoya en una patente recientemente publicada por los promotores de PoreTune, Daniel Vallejo y los profesores Garikoitz Beobide y Oscar Castillo. Una patente además que germina de la tesis ‘Coordination compounds of organosulfur ligands as precursors of nanoestructured materials’ (Compuestos de coordinación con ligandos organoazufrados como precursores de materiales nanoestructurados) del propio Daniel Vallejo.
“En este punto, resulta crucial el apoyo de BIKF accionista de referencia que financia el desarrollo del proyecto de Poretune y que además toma un papel activo en la gestión del proyecto. El objetivo de BIKF consiste en transformar desarrollos tecnológicos en realidades empresariales industriales a través del aporte de capital, de capacidad de gestión de la transferencia tecnológica y de aspectos financieros, empresariales y estratégicos”, explica Garikoitz Beobide, profesor de la Facultad de Ciencia y Tecnología de la UPV/EHU.
El material patentado es un ‘aerogel metalorgánico’ que combina diferentes propiedades que no suelen aparecer de forma simultánea en este tipo de materiales, tales como su carácter poroso, extraordinaria ligereza, estabilidad térmica y mecánica, comportamiento plástico, gran capacidad de captura, tanto de diferentes moléculas orgánicas como de metales pesados y carácter semiconductor, por ejemplo. “El amplio abanico de posibles aplicaciones convierte a este material en una prometedora plataforma tecnológica. Sin embargo, en la fase inicial de esta iniciativa nos limitamos a los ámbitos de aplicación donde el impacto económico pueda ser mayor: automoción y energía”, expone Oscar Castillo, codirector de la tesis de Daniel Vallejo y cofundador de Poretune.
Los aerogeles están basados en geles que son sistemas coloidales que son capaces de mantener su forma, a semejanza de los sólidos, pero con densidades análogas a las de los líquidos (es decir, similares a las gelatinas alimenticias). Suelen estar formados por partículas muy pequeñas que se entrecruzan aleatoriamente entre sí para formar un esqueleto tridimensional donde queda atrapado el disolvente con el que se preparan los materiales y que suele constituir más del 95% del volumen total.
“El secado al aire o a vacío de un gel hace que la matriz sólida se contraiga y genere un material denso, a menudo, de escaso interés. Sin embargo, aplicando ciertos procesos, es posible eliminar el disolvente sin que tenga lugar dicha contracción. De esta manera, se obtiene el aerogel que es un sólido extremadamente ligero (entre 50-100 veces más ligeros que el agua) y muy poroso (del 90-99% de volumen total se encuentra vacío). En nuestro caso concreto, el aerogel, que presenta inusuales propiedades tales como la estabilidad química y conductividad eléctrica, está constituido por fibras 10.000 veces más finas que un cabello humano que se entrecruzan para tejer la red tridimensional que configura este material”, señala Daniel Vallejo, autor de la tesis y cofundador de Poretune.
“Ha de destacarse que esta iniciativa, junto a muchas otras, pone de relieve la intensa labor que llevan a cabo los investigadores de nuestra universidad y la gran relevancia que los estudiantes de doctorado y master aportan al desarrollo de ideas innovadoras y disruptivas. Asimismo, reafirma la importancia de involucrar a inversores especializados como BeAble Capital a la universidad para que se promueva la generación de nuevas empresas con base tecnológica”, afirma Vallejo.
Referencia:
Daniel Vallejo-Sánchet et al (2017) Chemically Resistant, Shapeable, and Conducting Metal-Organic Gels and Aerogels Built from Dithiooxamidato Ligand Advanced Functional Materials doi: 10.1002/adfm.201605448
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Un aerogel metal-orgánico cataliza una nueva empresa se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Una nueva diana terapéutica para el neuroblastoma
- Todo lo que se puede medir en un río
- Cómo regular la velocidad de disolución de los biometales de las prótesis
Los planetas solares
Mercurio no solo es el planeta más cercano al Sol, también es el de menor tamaño: tiene una masa que equivale a 0,055 veces la de la Tierra y un diámetro de 4.900 km; no tiene satélites naturales. El segundo más cercano al Sol pero tercero en orden creciente de tamaños es Venus. Tiene 12.100 km de diámetro y una masa muy parecida a la terrestre: 0,815 veces la de nuestro planeta; tampoco tiene lunas. Luego viene la Tierra, con 12.700 km de diámetro y un satélite natural. Marte es el segundo más pequeño; su diámetro es de 6.800 km y su masa equivale a 0,11 veces la de nuestro planeta; tiene dos pequeñas lunas. Hasta aquí los planetas interiores, los cuatro de roca y metal.
Los exteriores son de mayor tamaño y gaseosos en su mayor parte. Júpiter, el más grande (143.000 km de diámetro y una masa como la de 318 tierras), tiene 69 lunas. Y Saturno, el planeta de los anillos es el segundo más masivo (116.000 km de diámetro y una masa equivalente a 14,5 tierras); tiene 62 satélites naturales. Le siguen Urano, con 51.000 km de diámetro y una masa que es 14,5 veces la de la Tierra, y Neptuno, con un diámetro de 49.000 km y una masa equivalente a 17 tierras. Urano tiene 27 lunas y Neptuno, 14. Neptuno es algo más pequeño que Urano, pero un poco más masivo porque es más denso. Es, hasta ahora, el único planeta cuya existencia se predijo antes de ser observado, a partir de la detección de perturbaciones en la órbita de Urano provocadas por los efectos gravitatorios de un planeta desconocido.
Los planetas orbitan el Sol a velocidades vertiginosas para nuestras referencias habituales. El más lento es Neptuno, que se desplaza a 5,4 km/s (kilómetros por segundo). Cuanto más cerca están los planetas del Sol esa velocidad es mayor, con la excepción de Mercurio, que se desplaza a 28 km/s. El más rápido es Venus, a 35 km/s. La Tierra lo hace a 30 km/s. El tiempo en dar una vuelta completa alrededor del Sol depende, lógicamente, de la velocidad de traslación y de las dimensiones de la órbita. El que menos tiempo necesita es Mercurio, que tarda 88 días terrestres, y conforme los planetas van estando más lejos del Sol, ese tiempo se prolonga porque las órbitas son mayores y sus velocidades, menores. Neptuno necesita 165 años (más de 60.000 días) terrestres para describir una órbita completa.
Los planetas también se diferencian por su rotación. En general, cuanto más masivos son, más cortos son sus tiempos de rotación. Júpiter gira sobre sí mismo en unas 10 horas, mientras que Mercurio lo hace en 59 días. No obstante, Venus rompe esa tendencia, porque necesita la friolera de 243 días. Es más, tarda más tiempo en rotar sobre sí mismo que en completar una órbita alrededor del Sol. Y esa no es la única rareza venusiana: tiene giro dextrógiro o retrógrado; o sea, rota al revés que la Tierra: el Sol sale en Venus por el Oeste y se pone por el Este. En resumidas cuentas, amanece por el otro lado. Aunque Urano no le anda a la zaga en rareza: además de girar al revés, lo hace con una inclinación sobre el plano de traslación –la eclíptica- de 97,8º. Por esa razón, cada polo y gran parte de su correspondiente hemisferio experimenta de forma ininterrumpida 42 años de exposición al sol y otros 42 de oscuridad, aproximadamente. En otras palabras, amanece una vez cada 84 años, pero amanece, que no es poco.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia 10 de septiembre de 2017.
El artículo Los planetas solares se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El valle de la evaporación de planetas
- Escaneando la Tierra con neutrinos solares
- 25 años de planetas extrasolares
Naukas Bilbao 2017, en directo
Viernes 15 Sept. – NAUKAS BILBAO 2017
SESIÓN DE MAÑANA en el Palacio Euskalduna
10:00 a 10:10 – Presentación del acto: Naukas + Juan Ignacio Pérez
10:10 a 10:20 – Dani Torregrosa: ¡Estamos rodeados!
10:20 a 10:30 – Guillermo Peris: Los trapecistas del genoma
10:30 a 10:40 – Diana González (Pamplonetario): Identidad digital y robots
10:40 a 10:50 – Daniel Marín: Algo se muere en el alma cuando una sonda se va
10:50 a 11:00 – Teresa Valdés-Solís: Limpia, fija y da esplendor
11:00 a 11:10 – Mónica Lalanda: Una muerte de comic
11:10 a 11:20 – Francis Villatoro: El espín para irreductibles
11:20 a 11:30 – María José Calderón y Belén Valenzuela: Esta física es la leche
11:30 a 11:40 – José Miguel Viñas: Me río yo del cambio climático
11:40 a 12:00 – Descanso de 20 minutos
12:00 a 12:10 – Raúl Gay: Todo sobre mi órtesis
12:10 a 12:20 – Alex Méndez: Luz de Luna
12:20 a 12:30 – Laura Morrón: La gran divulgadora
12:30 a 12:40 – Ignacio López-Goñi: Las bacterias también se vacunan
12:40 a 12:50 – Joaquín Sevilla: Los instrumentos del capitán FitzRoy
12:50 a 13:00 – Ricardo Oltra: Que inventen ellos
13:00 a 13:10 – Deborah García: Saboer
13:10 a 13:20 – Carolina Jiménez: Ciencia y cine, avanzando de la mano
13:20 a 13:30 – Aitor Sánchez: Si Donald Trump fuese nutricionista
SESIÓN DE TARDE en el Palacio Euskalduna
17:00 a 17:10 – Pepe Cervera: Despegue: cuando la Inteligencia Artificial supera a la humana
17:10 a 17:30 – Clara Grima y Enrique Borja: Matemáticas, epidemias y vacunas (20 minutos)
17:30 a 17:40 – Sergio L. Palacios: Precausión, amigo conduztó
17:40 a 17:50 – Carmen Agustín: La hormona del amor no existe
17:50 a 18:00 – Javier de la Cueva: Proyecto Richfields: Un ejemplo de Horizon 2020
18:00 a 18:10 – Ángel Gómez Roldán: Tras la sombra de la Luna
18:10 a 18:20 – José M. López Nicolás: Murcia, qué bella eres
18:20 a 18:40 – ENTREVISTA a JM Bermúdez de Castro y María Martinón
18:40 a 19:00 Descanso (20 minutos)
19:00 a 19:20 – MAGICAMENTE espectáculo de Magia y Ciencia (20 minutos)
19:20 a 19:30 – Javier Fdez Panadero: Si tú supieras
19:30 a 19:40 – Antonio J. Osuna (biotay): Antropomorfismo
19:40 a 19:50 – Fernando Frías: La cara oscura del Cervino
19:50 a 20:00 – Monólogo del ganador del concurso Ciencia Show
20:00 a 20:20 – Natalia Ruiz Zelmanovitch, JA Vaquerizo, Manolux: He creado un monstruo
Sábado 16 Sept. – NAUKAS BILBAO 2017
SESIÓN DE MAÑANA en el Palacio Euskalduna
10:00 a 10:10 – Susana Escudero y Emilio García: El Radioscopio en directo
10:10 a 10:20 – José Ramón Alonso: 55b
10:20 a 10:30 – José Antonio Prado: Pelotas
10:30 a 10:40 – Beatriz Sevilla: Colega, ¿dónde está mi Nobel?
10:40 a 10:50 – Juan Revenga: Con estos mimbres no se puede hacer más que este cesto
10:50 a 11:00 – Laura Morán: Preliminares, priliminiris
11:00 a 11:10 – Helena Nadal: Investigación de frontera: ¿Hypotheses non fingo?
11:10 a 11:20 – Eparquio Delgado + José A. Pérez Ledo: Eso me suena raro
11:20 a 11:40 – ENTREVISTA a Natacha Aguilar
11:40 a 12:00 Descanso de 20 minutos
12:00 a 12:30 – Almudena M. Castro e Iñaki Úcar: El sonido del viento
12:30 a 12:40 – Ana Payo: Winter is not comming
12:40 a 12:50 – Eva Poveda: Infección por VIH: situación y retos actuales
12:50 a 13:00 – Arturo Quirantes: Aventuras del mecánico cuántico
13:00 a 13:10 – Pablo José Barrecheguren: Por favor, otro café
13:10 a 13:20 – Iván Rivera: La hiperestafa del hiperbucle
13:20 a 13:30 – Álvaro Bayón (Vary Ingweion): Escaneando el horizonte
SESIÓN DE TARDE en el Palacio Euskalduna
17:00 a 17:10 – Carlos Lobato: Pokemon Bio!
17:10 a 17:20 – Mariajo Moreno: Por qué todos queréis ser murcianos
17:20 a 17:30 – Manu Arregi: Aprendiendo astronomía a base de fakes
17:30 a 17:40 – Luis Jiménez: Mi profe me tiene manía y la Milá también
17:40 a 17:50 – Alfred López: ¡Alerta! Este lugar está en cuarentena, ya podéis ir rezando
17:50 a 18:00 – Ambrosio Liceaga: ¿Qué tienen las Azores que tanto gustan a los anticiclones?
18:00 a 18:10 – Carla Sanchis: Diferencias cerebrales entre hombres y mujeres
18:10 a 18:20 – Pablo Rodríguez: Cómo cabrear a un matemático
18:20 a 18:40 – ENTREVISTA a Pedro Miguel Etxenique
18:40 a 19:00 Descanso (20 minutos)
19:00 a 19:10 – Lobo Rayado (teleconferencia): Un cordobés controlando el mayor telescopio óptico de Australia
19:10 a 19:20 – Inés Laura Dawson: Pero, ¿Cómo vuelan realmente los insectos?
19:20 a 19:30 – Mario Herrero: El verdadero origen del Universo o cómo una mariposa dibujó el firmamento
19:30 a 19:40 – Juan Ignacio Pérez: En el techo del mundo
19:40 a 19:50 – Marián García (Boticaria): ¿Por qué lo llaman Viagra cuando quieren decir sildenafilo?
19:50 a 20:00 – Lucas Sánchez: Hackeando la vida
20:00 a 20:10 – Sergio Pérez Acebrón: Todos tenemos cáncer
20.10 a 20.30 – Entrega Premios Ciencia Clip + Premios Tesla + Despedida y cierre
El artículo Naukas Bilbao 2017, en directo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Pro, en directo
- Un nuevo evento Naukas en Bilbao: El Universo en un día
- Naukas Bilbao está en marcha
Naukas Pro, en directo
Primera edición de este nuevo evento Naukas en el que Centros de Investigación, Laboratorios, científicos de renombre o equipos de trabajo contarán con 20 minutos para explicar a un público general en qué consiste su trabajo.
Ver en directo a pantalla completa
Programa
17:00 – 17:10: Presentación del acto Naukas y la Cátedra de Cultura Científica UPV/EHU
17:10 – 17:30: Carlos Briones del Centro de Astrobiología (CAB-INTA/CSIC)
17:30 – 17:50: Leni Bascones del Instituto de Ciencia de Materiales de Madrid (CSIC)
17:50 – 18:10: Javier Burgos Director Gerente de la Fundación de Investigación Biomédica de Andalucía Oriental (FIBAO)
18:10 – 18:30: Julián Estevez del Grupo de inteligencia computacional de la UPV/EHU
18:30 – 18:50: 20 minutos de descanso
18:50 – 19:10: Manuel Collado del Laboratorio de Células Madre en Cáncer y Envejecimiento (IDIS-CHUS)
19:10 – 19:30: Inma Estévez, Investigadora Ikerbasque, Neiker Tecnalia
19:30 – 19:50: Lluis Montoliu del Centro Nacional de Biotecnología (CNB-CSIC)
19:50 – 20:10: Lourdes Basabe Desmonts, Investigadora Ikerbasque. Cluster de Microfluidica UPV/EHU, Centro de Investigación Lascaray, Vitoria-Gasteiz
20:10 – 20:30: Amaia Zurutuza de Graphenea.
20:30 – Clausura del acto.
El artículo Naukas Pro, en directo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas 2013, próximamente
- Un nuevo evento Naukas en Bilbao: El Universo en un día
- Naukas Bilbao está en marcha
El peligro de saber sólo un poco
En el mundo actual abunda la desconfianza respecto a la ciencia. Charlatanes de toda condición utilizan esta desconfianza para vender sus productos, desde curas milagrosas a terribles enfermedades a esotéricas explicaciones de fenómenos más o menos perceptibles; desde presuntas antiguas terapias hasta radicales ideas sobre el funcionamiento del universo. Incluso teorías tan carentes de respaldo y tan retorcidas de defender como la Tierra Plana han resucitado de entre los muertos intelectuales y tienen nuevos adeptos que las defienden con ruido y pasión. Y si uno se molesta en intentan descubrir las razones profundas del fenómeno una destaca y es común a casi todas estas peculiares ideas y teorías: la desconfianza y rechazo hacia lo que llaman ciencia o medicina oficial, una convicción intensa y bastante difícil de eliminar en que científicos, médicos y tecnólogos forman parte de una élite que conspira para ocultar la verdad al común de los mortales. Lo mejor es que para ello se basan en una suerte de parodia del método científico consistente en escoger y defender un selecto puñado de datos y hechos a partir de los cuales construyen una explicación paralela y opuesta a la ‘oficial’. Lo cual demuestra que lo más peligroso no es la ignorancia, sino el conocimiento parcial y escaso.
Así los defensores de los ‘chemtrails’ se empeñan en afirmar que las estelas de condensación sólo duran unos minutos, que el aire está repleto de sustancias extrañas y que la aparición de estos fenómenos es reciente, y se olvidan del resto de la ciencia meteorológica, de las fotografías que muestran aviones de la Segunda Guerra Mundial dejando estelas o de preguntar qué laboratorio y con qué método analizó esos presuntos contaminantes. O los creyentes en la Tierra Plana reconstruyen los postulados básicos de la fuerza gravitatoria (que es, según ellos, imaginaria) para que su retorcido modelo de universo produzca los mismos resultados observables que el convencional, aunque de un modo mucho más complejo. O los partidarios de la homeopatía se ven obligados a inventar nuevas formas de comportamiento de líquidos comunes como el agua para poder explicar sus presuntas técnicas terapéuticas. En todos los casos un reducido número de datos son seleccionados, despreciando todos los demás; y a partir de ellos se construyen elaboradas hipótesis y teorías con lo que explicar lo que es inexplicable. No sólo se hace una selección sesgada de los hechos iniciales, sino que las teorías para relacionarlos se alejan mucho de la Navaja de Ockham y su simplicidad teórica.
Pero lo más grave es el simple desconocimiento que revelan todas estas explicaciones barrocas y parciales de la realidad interconectada de la ciencia y el Universo. Para que las estelas se comporten como necesitan los fans de los chemtrails que se comportan no sólo hay que reescribir la meteorología que conocemos: también la química de la atmósfera y la física de las gotas de agua. Para explicar los fenómenos que presenciamos todos los días los terraplanistas no sólo necesitan invocar una conspiración de milenios y millones de personas, sino leyes básicas del universo diferentes a las que conocemos. Si el agua tuviese memoria, como piensan los usuarios de la homeopatía, las consecuencias se reflejarían en todos los fenómenos, desde la lluvia a los mares y las masas de hielo de la Antártida o los anillos de Saturno. Es muy fácil postular condiciones especiales para validar nuestra teoría favorita y después olvidarse del resto de la ciencia.
Pero la ciencia no consiste en inventar teorías que expliquen los fenómenos naturales, sino en hacerlo de un modo coherente e interconectado. No basta con estudiar el comportamiento del agua en medicina: la explicación creada para este caso debe ser compatible con el comportamiento del agua en el laboratorio de química, y también en el mar y en el espacio. Crear una explicación ‘ad hoc’ para una observación concreta es sencillo: lo complicado es ser consciente de todas las repercusiones y crear una hipótesis que permita entender el fenómeno en cuestión y que sea compatible con los demás aspectos que participan. La interconexión entre explicaciones, fenómenos, comportamientos y escalas es tan importante que una de las señales obvias de que se avecina un cambio de paradigma en una ciencia es la proliferación de ‘ad hocs’, explicaciones a medida para hechos concretos que no encajan en el marco general aceptado. Las ideas y teorías de los ‘alternativos’ no son más que una montaña de ‘ad hocs’ sin conexión.
Claro que eso es mucho más sencillo que hacer ciencia de verdad, porque permite ignorar los hechos inconvenientes y obviar el aprendizaje de las áreas de solapamiento entre disciplinas. Uno puede explicar de modo mucho más fácil el comportamiento de las estelas de condensación si se olvida de tener en cuenta la geometría de los cristales de hielo o las complejidades de las capas atmosféricas. Pensar que el agua recuerda es mucho más fácil si no se exploran las consecuencias que se derivarían de hecho de que la tuviese. Creer en la Tierra Plana es más sencillo si se ahorra uno la molesta y engorrosa tarea de estudiar la física de los campos gravitatorios. En todos estos casos se vive mucho más tranquilo y mejor si se seleccionan sólo unos pocos hechos e ideas y se desprecian u obvian todos los demás: si se concentra uno en un poquito de conocimiento y se rechaza el resto. Los datos, parciales, y las teorías, paranoicas, empleadas sólo como arma contra los adversarios y no como genuino intento de encontrar una explicación coherente del universo. Es por eso que un poco de conocimiento es peor que la ignorancia: al menos quien no sabe es consciente de ello, pero el que sabe poco y mal cree que sabe, estando equivocado.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo El peligro de saber sólo un poco se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La pantalla de tu móvil solo tiene tres colores
- Abraham Flexner y el saber por el saber
- Saber que tú no sabes me permite saber
Las fluctuaciones del núcleo celular son un reloj

Núcleos de células humanas con marcadores fluorescentes para la cromatina (violeta) y y la membrana nuclear (verde). Imagen cortesía de Fang-Yi Chu y Alexandra Zidovska, Departamento de Física, Universidad de Nueva York.
Un equipo de investigadores biofísicos de la Universidad de Nueva York (EE.UU.) ha puesto de manifiesto la existencia de un marcador del ciclo de vida (lo que llamaríamos un reloj) de las células humanas vivas. Este descubrimiento aporta un nuevo elemento en el estudio de las células vivas que puede ser muy relevante en la comprensión de los componentes básicos de la vida así como en la de la aparición de enfermedades.
Hasta ahora la determinación del punto del ciclo en el que se encontraba la célula se podía realizar solo si la célula estaba muerta, en una especie de autopsia celular. Con este hallazgo, en el que se comprueba que el núcleo tiene fluctuaciones rápidas que disminuyen en amplitud conforme la célula envejece, se puede mejorar mucho nuestro conocimiento de las células tanto sanas como enfermas.
Se sabe desde hace mucho tiempo que la forma y el tamaño del núcleo de la célula cambian de forma sustancial durante la vida de una célula. Lo que no se sabía, sin embargo, era si el núcleo cambia su forma durante períodos de tiempo cortos . Este desconocimiento se debía en gran parte a las limitaciones técnicas de llevar a cabo las mediciones necesarias en células vivas.
Los investigadores, con el objeto de estudiar la dinámica del núcleo, utilizaron un microscopio de fluorescencia de última generación que les permite ver cambios de forma extremadamente pequeños y muy rápidos del núcleo en las células vivas. Para ello hicironn fluorescentes tanto la cromatina contenida en el núcleo con un color (violeta) y la membrana nuclear con otro (verde).
Los investigadores descubrieron que el núcleo de la célula humana tiene un tipo de movimiento previamente no detectado: su envolvente nuclear parpadea, o fluctúa, durante un período de unos segundos. En concreto, la amplitud de estos cambios en la forma disminuye con el tiempo durante el ciclo celular. Este movimiento es la primera característica física conocida que cambia sistemáticamente con el ciclo celular.
Por tanto, este proceso puede servir como un reloj interno de la célula, ya que señala la “edad” de la célula, esto es, en qué momento de su ciclo vital se encuentra.
Como los errores estructurales y funcionales de la envoltura nuclear conducen a un gran número de trastornos del desarrollo y hereditarios, como la cardiomiopatía, la distrofia muscular y el cáncer, el conocimiento de la mecánica de las fluctuaciones de la forma del núcleo celular podría, además, contribuir a comprender mejor el envoltorio nuclear en la salud y en la enfermedad.
Referencia:
Fang-Yi Chu el al. (2017) “On the origin of shape fluctuations of the cell nucleus,” PNAS doi: 10.1073/pnas.1702226114
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Las fluctuaciones del núcleo celular son un reloj se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La suave piel del núcleo
- La secuencia de estructuras intermedias durante la división de la membrana celular
- Fluctuaciones cuánticas y aspirinas
Visualizando la hiperesfera a través de la fibración de Hopf
La hiperesfera, 3-esfera o esfera de dimensión 3, S3, es el análogo en dimensión cuatro de la esfera S2; es decir, la 3-esfera es el conjunto de puntos del espacio real de dimensión 4, R4, que equidistan de un punto fijo, llamado centro.
No es fácil imaginarla, porque no es fácil percibir el espacio de dimensión 4. La fibración de Hopf es precisamente una manera de describir la 3-esfera mediante circunferencias y una esfera.

Fibración de Hopf. Fuente: Wikimedia Commons
Si pensamos en la ‘identificación’ entre el espacio real de dimensión 2, R2, y el conjunto de los números complejos, C, una manera alternativa de definir la 3-esfera es la siguiente: la esfera (unidad) de dimensión 3 es el subespacio de C2 (pares de números complejos) formado por aquellos puntos cuya suma de módulos es 1:
En topología, se usa una descripción alternativa; suele pensarse en la 3-esfera como el resultado de pegar dos toros sólidos (producto de un disco y una circunferencia). En efecto, consideremos los dos toros sólidos de ecuaciones:
y
Claramente, se verifica que:
¿Por qué los anteriores son toros sólidos? Porque la siguiente función es un homeomorfismo (puede probarse lo análogo con T2):
es decir, T1 es (homeomorfo a) el producto de una circunferencia y un disco de radio 1/2 (puntos del plano real que distan del centro menos o igual que 1/2), o lo que es lo mismo, un toro sólido.
Observar que estos dos toros sólidos tienen como frontera común un toro; en efecto:
que es homeomorfo al producto de dos circunferencias, es decir, un toro.
Esta descripción permite considerar la esfera de dimensión 3 como el espacio de adjunción de dos toros sólidos a través de su frontera común: esta identificación, este pegado, se realiza a través de la aplicación que identifica meridianos con paralelos y paralelos con meridianos:
De otra manera, hemos pegado T1 y T2 (homeomorfos a toros sólidos) a través del toro (producto de dos circunferencias)que tienen como frontera común. Por cierto, si la función que identifica los toros frontera hubiera sido la aplicación identidad (que identifica meridianos con meridianos y paralelos con paralelos),
el espacio resultante habría sido el producto de una circunferencia (una 1-esfera) por una 2-esfera, S1xS2,en vez de la 3-esfera.
El matemático Heinz Hopf (1894-1971) descubrió la fibración que lleva su nombre en 1931: encontró, de hecho, una función continua de la 3-esfera en la esfera, en la que cada punto de la 2-esfera proviene de una circunferencia embebida en la 3-esfera. En matemáticas se suele decir que la 3-esfera es un fibrado (no trivial) sobre la 2-esfera, con fibra una circunferencia. Es decir, de manera intuitiva, se puede ver la 3-esfera (la que vive en un espacio real de dimensión 4) como una 2-esfera que en cada uno de sus puntos lleva pegada una 1-esfera.
No es fácil visualizar lo que estamos diciendo, porque estamos trabajando en dimensión 4… pero estos dos videos de la magnífica serie Dimensiones pueden aclarar un poco la anterior construcción:
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Visualizando la hiperesfera a través de la fibración de Hopf se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Hipercubo, visualizando la cuarta dimensión
- Hipercubo, visualizando la cuarta dimensión (y 2)
- Plattner y la cuarta dimensión
Sistemas nerviosos: la médula espinal
La médula espinal es un cordón cilíndrico de tejido nervioso que se extiende desde el tallo encefálico hacia la parte posterior o inferior del cuerpo a lo largo (en humanos) de unos 45 cm. Es la parte del sistema nervioso que retiene la organización segmentada propia de varios grupos de invertebrados. Sale del cráneo a través de un orificio en el cráneo relativamente amplio y se encuentra protegido en el interior de una columna vertebral. A lo largo de su recorrido salen de la médula varios pares de nervios, llamados espinales, cuyo su número varía entre especies.
Como en la corteza cerebral, también en la médula se distinguen materia blanca y materia gris. En la médula la materia gris se dispone en el interior, adoptando un perfil semejante a una mariposa; está constituida por cuerpos neuronales sin vaina de mielina con sus dendritas, algunas pequeñas interneuronas y células de glía. La materia blanca está organizada en tractos, que son fascículos de fibras nerviosas mielinadas consistentes en axones de interneuronas de gran longitud. Los fascículos están organizados en columnas que se extienden a lo largo de toda la médula. Cada uno de esos tractos comienza o termina en un punto particular del encéfalo, y cada uno es específico del tipo de información que transmite. Unos ascienden hasta el encéfalo; son fibras aferentes que conducen señales sensoriales. Otros descienden; son fibras eferentes y conducen señales hacia músculos u otros órganos efectores.
Los nervios espinales (fascículos de axones) conectan con cada lado de la médula mediante una raíz dorsal y una raíz ventral. Las fibras aferentes entran por la raíz dorsal, mientras las eferentes salen por la ventral. Los cuerpos celulares de las neuronas aferentes se concentran en un ganglio de la raíz dorsal; los de las neuronas eferentes, sin embargo, se encuentran en la propia médula, en la materia gris, y envían axones a través de la raíz dorsal. Ambas raíces se unen en único nervio al salir de la médula, un nervio que, por lo tanto, transmite información en las dos direcciones de manera independiente. Estos nervios espinales, junto con los craneales, forman parte de lo que se conoce como sistema nervioso periférico, al que ya nos referimos aquí. Una vez salen de la médula, los nervios espinales se van ramificando, formando una amplia red nerviosa que sirve a los tejidos, tanto para recibir información de ellos o del entorno, como para enviar señales que den lugar a actuaciones.
La médula espinal cumple dos funciones. (1) Por un lado, es el canal por el que se transmite información entre el encéfalo y las diferentes partes del cuerpo (órganos receptores y efectores). (2) Y por el otro, integra actividad entre inputs aferentes (señales sensoriales) y outputs aferentes (señales motoras), sin que tenga que intervenir el encéfalo. La ruta que se establece entre esas neuronas aferentes y eferentes, con el concurso de una pequeña interneurona es un arco reflejo. Y a esos reflejos se les denomina espinales. En ocasiones la médula espinal es el origen de determinados movimientos repetitivos, como ocurre en aves (los pollos pueden andar sin que el encéfalo intervenga) y en peces (pueden nadar y mantener funciones viscerales sin control encefálico).
Por último, las fibras preganglionares del sistema nervioso simpático (que es parte del sistema periférico autónomo) parten de la región torácico-lumbar de la médula espinal. Cada una de ellas establece sinapsis, a su vez, con una fibra (postganglionar) en el correspondiente ganglio. Igualmente, las tres fibras espinales del sistema parasimpático también parten de la médula y establecen conexiones sinápticas con ganglios terminales que se encuentran en los órganos diana o su proximidad inmediata. Estas son las vías mediante las cuales el sistema nervioso central controla la actividad del sistema autónomo.
Fuentes:
David Randall, Warren Burggren & Kathleen French (2002): Eckert Animal Physiology: Mechanisms and Adaptations 5th ed.; Freeman & Co, New York
Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas nerviosos: la médula espinal se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Sistemas nerviosos: el sistema periférico de vertebrados
- Sistemas nerviosos: el sistema central de vertebrados
- Sistemas nerviosos: el tronco encefálico y el cerebelo
La distribución de velocidades moleculares de Maxwell
Armados con nuestro modelo simple y las ideas de Clausius, hay que empezar por el principio, esto es, por las volocidades que tendrán las moléculas y que determinarán su energía cinética.
No parece razonable que en un momento dado todas las moléculas en un gas tengan la misma velocidad. En 1859, Maxwell aplicó las matemáticas de la probabilidad a este problema. Propuso que las velocidades de las moléculas en un gas se distribuyen sobre todos los valores posibles. Eso sí, la mayoría de las moléculas tienen velocidades no muy alejadas de la velocidad media. Algunas tendrán velocidades mucho más bajas y otras pocas velocidades mucho más altas que la media.

Resultados del experimento del tiro al blanco con unas decenas de flechas (a,b) y con un número mucho mayor (c).
Un ejemplo simple ayudar a entender por qué la distribución de Maxwell de las velocidades moleculares se representa por curvas continuas, lo que es equivalente a explicar por qué Maxweel afirma que las velocidades se distribuyen en todas las velocidades posibles. Supongamos que una persona dispara flechas a una diana en un campo de tiro. Algunas flechas probablemente alcanzarán el centro de la diana, el blanco. Otras flechas darán en puntos más o menos alejados del blanco, como vemos en (a) en la figura de arriba. Si contamos el número de flechas diseminadas a diferentes distancias del blanco podemos construir un gráfico muy sencillo como el que se presenta en (b). Este gráfico muestra la distribución de los agujeros hechos por los impactos de las flechas en función de la distancia al blanco para un conjunto de unas pocas decenas de disparos. Si repetimos el experimento para un número mucho mayor de disparos, obtendremos una distribución como la de (c). Si el número de disparos fuese incluso mucho mayor la diferencia en la distancia al blanco que podríamos considerar con un número significativo de impactos sería mucho menor. En el límite, para un número extremadamente grande de disparos habría un número significativo de los mismos prácticamente para cualquier distancia que pudiésemos medir. Por analogía, al ser el número de moléculas en un gas, de hecho, realmente enorme, el gráfico que muestra la distribución de las velocidades moleculares es continuo a cualquier escala que se pueda dibujar.
La forma exacta que toma la curva que se forma cuando la distribución (c) se lleva a valores muy altos viene determinada por muchas cosas que tienen que ver con el arco (dimensiones, materiales, estado), las flechas (materiales, dimensiones), la persona (pericia, fortaleza, estado de salud), y así sucesivamente. Otros procesos dan lugar a otras formas de curvas. Las velocidades de las moléculas en un gas están determinadas por las colisiones que tienen entre sí. Maxwell utilizó un inteligente argumento matemático para deducir cuál debería ser la distribución de las velocidades moleculares y que da lugar a curvas para un gas concreto en función de la temperatura como vemos en la imagen siguiente.

Distribución de las velocidades moleculares para un gas dado en función de tres temperaturas diferentes.
Para un gas a cualquier temperatura dada, la “cola” de cada curva es mucho más larga a la derecha (alta velocidad) que a la izquierda (velocidades bajas). A medida que la temperatura aumenta, el pico de la curva se desplaza a velocidades más altas y la distribución de la velocidad se vuelve más amplia.
Todo esto está muy bien, pero tenía que demostrarse experimentalmente que era correcto para que fuese de alguna utilidad. Hubo que esperar más de 60 años para que pudieran realizarse mediciones directas en los años veinte del siglo pasado. Otto Stern diseñó un método realmente ingenioso para medir las velocidades de un haz de moléculas. Los experimentos de Stern* y otros investigadores demostraron que las velocidades moleculares se distribuyen según calculó Maxwell.
Nota:
*Este resultado hubiese sido la confirmación de la teoria cinética y de la existencia de las moléculas si la teoría sobre el movimiento browniano de Einstein no hubiese sido probada experimentalmente por Perrin en 1908.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La distribución de velocidades moleculares de Maxwell se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un modelo simple de gas
- Las máquinas moleculares que han ganado un Nobel
- Los antecedentes de la teoría cinética
Desmitificando: Alguien me está mirando…
El hombre me interesa como estudio psicológico. En el desayuno de esta mañana de repente tuve esa sensación vaga de desasosiego que se apodera de algunas personas cuando alguien las mira atentamente, y, mirando rápidamente alrededor, me encontré con sus ojos clavados en mí con una intensidad que llegaba a la ferocidad, aunque se suavizó de forma instantánea mientras hacía una observación trivial sobre el tiempo. Curiosamente, Harton dice que tuvo una experiencia similar en cubierta ayer.
Sir Arthur Conan Doyle, en “La relación de J. Hababuk Jephson”, 1884.
Era, según como se anunciaba, el hombre que tenía Rayos X en los ojos. Así conseguía ver a través de las paredes o el mundo en colores pues veía otras longitudes de ondas, además de las habituales. Y no piensen que veía a las señoras sin ropa, en realidad, lo que veía eran sus huesos. Era una película así titulada, “El hombre con Rayos X en los ojos”, dirigida por Roger Corman y estrenada en 1963. La traducción del título, desde el original, que era una simple “X”, era engañosa. El protagonista no tiene Rayos X en los ojos, es decir, no emite Rayos X con los ojos, sino que aumenta el espectro de longitudes de onda que capta con sus fotorreceptores e incluye los Rayos X. Y el título traducido más bien sugiere que emite Rayos X con los ojos. Lo cual me lleva a la creencia tan extendida de que vemos porque emitimos rayos de visión con los ojos y no porque detectamos los rayos de luz que vienen del exterior.
Mucha personas aceptan que emitimos rayos por los ojos, incluso, como veremos, hasta un tercio de estudiantes universitarios. Como es posible que se mantenga esta creencia durante tantos años en esta era de la ciencia y, se supone, de la buena educación científica y tecnológica, es sorprendente. Aunque ya conocemos que ocurre con muchas otras ocurrencias como esta. Christian Jarrett, del blog BPS Research Digest, escribe que esta creencia se apoya en otros mitos como, por ejemplo, la idea, tan extendida igualmente, de “sentir” que alguien a nuestra espalda nos está mirando. Es la llamada escopestesia, y esa sensación solo puede deberse a que los rayos que emiten sus ojos están impactando en nuestra nuca.
Y todo esto a pesar de que, en experimentos controlados, los voluntarios no puedan detectar si hay o no alguien a su espalda. En encuestas de finales de los noventa e inicios de los dos mil en Estados Unidos, entre el 13% y el 67% de los encuestados eligen como sistema de visión en nuestra especie la emisión de rayos desde los ojos. Como resumen, Gerald Winer y su grupo, de la Universidad Estatal de Ohio, concluyen que más del 50% de los adultos aceptan que vemos porque emitimos rayos por los ojos.
En alguna de las encuestas de este grupo, presentan a los voluntarios un dibujo esquemático con una persona y un balón unidos por unas líneas rectas y les piden que dibujen puntas de flecha en las líneas para indicar la dirección de los rayos que permiten la visión. El 86% dibujan que los rayos salen de los ojos hacia el balón y, si los investigadores insisten para que precisen su concepto de visión, algunos se lo piensan y el porcentaje desciende al 69%.
Ni siquiera con una mejor educación, en concreto, con charlas previas a las encuestas se atenúa la creencia en los rayos emitidos por los ojos. Siempre queda un 30%, más o menos, que lo sigue aceptando. Hay autores que lo relacionan con las conductas de nuestra especie, no al ver, sino al mirar. Dirigimos los ojos en una dirección determinada, lo que parece apoyar la emisión de rayos aunque, en realidad, sirve para captar la luz que llega a nuestros ojos. Es lo que se denomina un error primitivo basado en un fenómeno, en una conducta.
Volvamos a la extendida, y desasosegante, sensación de que alguien nos mira por la espalda, quien sabe con qué intenciones.
El primer estudio científico sobre la sensación de que alguien nos mira lo publicó, en Science y en 1898, E.B. Titchener, de la Universidad Cornell. Decía que
“cada año encuentro un cierto porcentaje de mis alumnos que están firmemente convencidos de que pueden sentir que alguien les mira por detrás, y un pequeño número de ellos cree que, con una mirada persistente a la nuca de alguien, tienen el poder de conseguir que la persona que está sentada se vuelva y les mire a la cara.”
Unos años después, en 1013, J.E. Coover, de la Universidad Leland Stanford, Jr., publicó los primeros resultados cuantitativos sobre la sensación de ser mirado por detrás. En primer lugar, del 68% al 86% de los grupos de voluntarios que entrevista creen sentir cuando alguien les mira. De los 1000 voluntarios que participan, el 50.2% acierta en el experimento de Coover, pero es el 47.3% los que aciertan que no les mira nadie y el 53.3% aciertan cuando alguien les mira. Un porcentaje asombrosamente cercano al 50% que significaría que se acierta por azar.
Y en un asunto como este no podía faltar Rupert Sheldrake, el conocido escritor, biólogo y pseudocientífico británico. Ha publicado los resultados de sus experimentos e, incluso, un libro de gran éxito sobre la sensación de ser mirado.
Algunos de sus resultados son curiosos. En general, hay personas con una capacidad débil para detectar que le miran por detrás pero no aciertan a saber cuando no las miran. Dos de sus voluntarios consiguen un acierto porcentaje de acierto del 53.1%.
De nuevo es un porcentaje de acierto cercano al 50%, o sea, al azar, como ya encontraba Coover en 1913.
Sheldrake escribe que, en Europa y Norteamérica, entre el 70% y el 97% de los encuestados afirma que ha tenido experiencias personales de la sensación de que alguien te mira. Ocurre más en las mujeres, con el 81%, que en los hombres, con el 74%. Es más habitual en los extranjeros cuando se encuentran en lugares públicos como calles o bares. Además, el 88% de las mujeres y el 71% de los hombres aseguran que pueden mirar a otras personas por la espalda y conseguir que se vuelvan hacia ellos.
Por otra parte, Sheldrake asegura que esta habilidad de detectar que te miran por la espalda es valiosa para muchos profesionales como, por ejemplo, expertos en supervivencia o seguridad, militares, paparazzis, practicantes de artes marciales y cazadores.
Sin entrar en detalles, pues está publicado, varios autores han mencionado fallos metodológicos y de interpretación de resultados en los estudios de Sheldrake.
Para terminar, es interesante el estudio del grupo de Isabelle Mareschal, del Centro de Visión de la Universidad de Sydney, en Australia. Los encuestados en este trabajo tienden a aceptar que tienen la sensación de que miran por detrás, aunque no ocurra, como una ventaja evolutiva seleccionada, en nuestra especie, como defensa ante posibles riesgos y, sobre todo, ante ataques de depredadores. Incluso declaran que sienten que alguien les mira aunque no le vean, porque es de noche o porque el observador se tapa los ojos con unas gafas oscuras.
En conclusión, la especie humana tiene, como una expectativa importante y primitiva, sentir que le miran, incluso cuando no puede ver si alguien lo hace. Solo hay que recordar el miedo que provoca en el espectador de cine la escena, tan utilizada por los directores de películas de suspense y terror, del protagonista andando delante de la cámara y dando la espalda al espectador. Todos sentimos que alguien le mira por detrás y, antes o después, le va a atacar.
Referencias:
Coover, J.E. 1913. “The feeling of being stared at” – Experimental. Journal of Psychology 24: 570-575.
Gross, C.G. 1999. The fire that comes from the eye. The Neuroscientist 5: 58-64.
Jarrett, C. 2016. 10 of the most widely believed myths in physiology. BPS Research Digest. July 29.
Mareschal, I. et al. 2013. Humans have an expectation that gaze is directed toward them. Current Biology 23: 717-721.
Sheldrake, R. 1995. Siete experimentos que pueden cambiar el mundo. Una guía para revolucionar la ciencia. Ed. Paidós. Barcelona. 274 pp.
Sheldrake, R. 2005. The sense of being stared at. Part 1: Is it real or illusory. Journal of Consciousness 12: 10-31.
Titchener, E.B. 1898. The “feeling of being stared at”. Science 8: 895-897.
Wikipedia. 2017. Psychic staring effect. 26 June.
Winer, G.A. et al. 2002. Fundamentally misunderstanding visual perception. Adults’ belief in visual emissions. American Psychologists 57: 417-424.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Desmitificando: Alguien me está mirando… se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Por qué los antipsicóticos atípicos causan deterioro cognitivo
Investigadores del Centro de Investigación Biomédica en Red Salud Mental (CIBERSAM), pertenecientes al grupo de Neuropsicofarmacología de la Universidad del País Vasco (UPV/EHU), junto a otros grupos internacionales, han desentrañado los mecanismos celulares que explicarían el deterioro cognitivo tras el uso continuado, especialmente a dosis elevadas, de antipsicóticos atípicos en personas con esquizofrenia.
En el estudio se demuestra que el bloqueo del receptor de serotonina 5HT2A provocado por los fármacos antipsicóticos activa una importante vía inflamatoria en el cerebro alterando la morfología y función de las sinapsis encargadas de mantener una actividad cognitiva dinámica, fenómeno conocido como plasticidad sináptica.
Mediante ensayos realizados en modelos celulares, tejido cerebral de fallecidos con esquizofrenia y animales modificados genéticamente y sometidos a tratamientos con fármacos, se han detectado anomalías sinápticas que inducen alteraciones de tipo cognitivo tales como dificultades en la memoria de trabajo y capacidad para distinguir entre objetos conocidos y novedosos.
El estudio, además, ha evidenciado que estos déficits cognitivos se deben a una remodelación de la expresión cerebral de diferentes genes motivada por cambios en la actividad de las proteínas HDAC2, represoras de la expresión del ADN. Según explica el investigador de la UPV/EHU Javier Meana, “este hallazgo nos abre el camino para avanzar en el diseño de fármacos, aún en fase experimental, que logren inhibir a estas proteínas y bloquear de esta manera los daños cognitivos provocados por los tratamientos antipsicóticos”.
Un consorcio formado por investigadores de diferentes centros internacionales, entre los que figuran el CIBERSAM y la UPV/EHU, han desentrañado de esta manera los mecanismos celulares asociados a los efectos adversos del tratamiento con fármacos antipsicóticos atípicos, especialmente cuando se administran en dosis elevadas. Entre los problemas cognitivos asociados a los tratamientos para la esquizofrenia, y que podrían contribuir a la cronificación de la esquizofrenia, figurarían los problemas de atención sostenida, la falta de flexibilidad mental en la realización de tareas y las dificultades para planificar tareas futuras.
El tratamiento con fármacos antipsicóticos atípicos, más modernos que los denominados típicos, ha supuesto la desaparición de problemas en la actividad locomotriz de los enfermos, pero también parecen generar, además de problemas cognitivos, un mayor riesgo de enfermedades metabólicas como la obesidad y diabetes tipo 2, incrementando así el riesgo cardiovascular. Sin embargo, explica Javier Meana, “estos tratamientos no pueden ser retirados precozmente porque facilitan la reaparición de alucinaciones y delirios. El reto es evitar los efectos adversos manteniendo la importante eficacia antipsicótica que presentan”.
Referencia:
Daisuke Ibi et al (2017) Antipsychotic-induced Hdac2 transcription via NF-κB leads to synaptic and cognitive side effects. Nature Neuroscience. doi: 10.1038/nn.4616
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Por qué los antipsicóticos atípicos causan deterioro cognitivo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un simple análisis de sangre permite detectar el deterioro cognitivo tras un ictus
- Un nuevo fármaco revierte el déficit cognitivo asociado a esquizofrenia
- El deterioro de la memoria con la edad es selectivo
Temas emergentes: Nosotros y la caca de perro
Vamos a tratar uno de los temas que se han calificado como tema emergente en sociología ambiental. Así lo ha llamado Stewart Locke, de la Universidad James Cook de Townsville, en Australia, y editor de la revista Environmental Sociology. Escribe que
“es sorprendente cuantos artículos han abordado experiencias personales de interacción con nuestro ambiente más cercano y, en concreto, con el entorno urbano, el clima cambiante y caprichoso, los insectos y las mascotas.”
Pero añade, para terminar su exposición, que
“¿Podríamos estar viendo una mayor atención de los sociólogos ambientales a las interacciones a una escala mínima y a su dimensión afectiva, profundamente sentida y emocional, de la experiencia humana? Tal vez. Por supuesto, es demasiado pronto para decirlo.”
Ahora vamos al estudio que cita Lockey, y espero que al final de este texto, lo tengan en cuenta como uno de los “temas emergentes” en sociología ambiental.
El autor se llama Matthias Gross, trabaja en el Centro Helmholtz de Investigación Ambiental de Leipzig y en la Universidad de Jena, en Alemania, y lleva 10 años, desde 2003, observando por parques y jardines lo que los dueños hacen con la caca de sus perros. Para Gross, la humanidad se divide entre quienes tienen perro y quienes no lo tienen. Y los que tienen perro entre los que recogen sus cacas y los que no lo hacen. Acaba de publicar un artículo con el resumen de sus observaciones. Veamos de qué va; cuidado, solo ver, ni oler, ni pisar.
Hace unos siglos, defecar no era un acto estrictamente privado como ahora lo conocemos. Ni siquiera había un lugar especial para hacerlo; la necesidad se aliviaba allí mismo donde aparecía. Pero ahora, y sobre todo en urbanitas, lo hacemos en privado, por cultura y por higiene, y nos retiramos todo lo que podemos de la vista de los otros y de sus olores. Para nosotros, los productos de la defecación casi ni existen para los otros; es un acto muy privado. Excepto para los perros y, en parte, para las aves. Así, los perros son los únicos defecadores públicos de nuestras ciudades. Casi se puede afirmar que las heces de los perros, junto a las de algunas aves, son las únicas visibles en nuestras muy limpias y “sanitarias” ciudades. Es más, para hacerlo, los perros, son mucho más libres que nosotros que, estrictamente hablando, lo tenemos prohibido a pesar de que somos sus dueños.
Y es un problema de peso, olor y suciedad pues, veamos algunas cifras. Por ejemplo, en Berlín los perros producen unas 55 toneladas de caca al día, o, en Estados Unidos, 10 millones de toneladas al año. En París y en el año 2000, limpiar la caca de perro suponía cerca de 6 millones de dólares al presupuesto municipal de mantenimiento de parques y jardines. En Estados Unidos hay un perro por cada tres habitantes, en Alemania uno por cada diez hogares, en Francia casi uno en cada dos hogares, y en Holanda hay millón y medio de perros. Los países del mundo con más perros son Estados Unidos, Brasil y China. En España y en 2015, había unos cinco millones de perros y casi cuatro millones de hogares con perro. Y así podría seguir, cifra tras cifra, pues, para nuestra especie, los perros son importantes y, en consecuencia, muy numerosos.
Hasta hace unos años ni se recogía su caca de allí donde la dejaba el can. Y no era raro ver a alguien jurando y frotando la suela de su zapato en la acera por haber pisado caca de perro. Ahora se recoge en bolsitas de plástico ad hoc y se tira a la papelera. Esta cívica conducta es la que ha estudiado con detalle Matthias Gross durante 10 años.
Ya he contado que sus observaciones comenzaron en 2003 cuando, al atardecer, paseaba a sus tres hijos, por el parque cercano a su casa, antes de cenar e ir a la cama. También, durante seis meses salía de casa 15 minutos antes de lo necesario para coger el tren e ir al trabajo. Aprovechaba ese cuarto de hora para pasear por el parque tomando notas de la conducta de amos y perros. Y repetía a la tarde, a la vuelta del trabajo. Además, reunía la escasa bibliografía publicada sobre este asunto.
Así se enteró de que había zonas de la antigua Alemania Oriental y de Polonia en las que daban a los niños banderitas del país para que las plantaran en las cacas de los perros y evitar que los paseantes las pisaran. Junto a sus propias observaciones, detectó que la invención de las bolsitas para la caca del perro había cambiado la conducta de sus amos, aunque no la de los perros que siguen haciendo sus cosas donde se les ocurre, con total libertad, mientras no sea en la casa del dueño. Y que hay dueños que, hartos de buscar una papelera que no encuentran para tirar la bolsita, acaban pinchándola en lo alto de la verja del parque por el que pasean.
En fin, y como resumen de sus observaciones, Gross propone tres estrategias de los dueños en relación con la defecación de sus perros. Son, las llama así, la tradicional, la responsable y la furtiva. La tradicional implica conocer el camino hasta el parque, llevar al perro y que este lo haga donde quiera y allí se queda. La responsable es lo mismo pero, además, el dueño recoge la caca con la bolsita y la deposita en una papelera. Y la furtiva es igual que la responsable, mientras haya testigos, y, cuando no los hay, el dueño busca la protección de un árbol, vacía la bolsa y se la guarda, quizá para reutilizarla. A estos árboles donde se vacían las bolsitas Gross los llama “árboles de mierda”.
Para Gross casi todos los dueños eran tradicionales hasta que apareció la bolsita y, entonces, casi todos son responsables y nos queda un raro 10% para los furtivos con su extraña conducta. Además, Gross añade que los dueños utilizan más la bolsa en los paseos por la tarde, cuando hay más testigos, que por la mañana, con menos gente paseado al perro. Así, hay dueños que limpian por la tarde pero no lo hacen por la mañana.
Para terminar con el “tema emergente”, hemos visto el problema para nuestras ciudades que supone la caca de perro, y hemos visto las cifras del número de perros y de la cantidad ingente de caca que producen. Es un factor a tener en cuenta para la planificación y uso futuro de los espacios públicos de nuestras ciudades.
Referencias:
Gross, M. 2015. Natural waste: canine companions and the lure of inattentively pooping in public. Environmental Sociology 1: 38-47.
Locke, S. 2015. Emergent themes? A year in the life of Environmental Sociology. Environmental Sociology 1: 237-240.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Temas emergentes: Nosotros y la caca de perro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Las drogas, el café, y el perro de Pavlov
- #Naukas14: Knockouts entre nosotros
- Reduccionismo vs. emergencia (II): las propiedades emergentes
Ciencia a presión: Ciencia abierta vs. ciencia cerrada
La expresión publish or perish (publica o perece) es de sobra conocida en el ámbito científico. Quiere expresar la importancia que tienen las publicaciones en los currículos del personal investigador. En ciencia no basta con hacer observaciones, obtener unos resultados y derivar conclusiones. Hay, además, que hacerlo público y, a poder ser, en medios de la máxima difusión internacional. La ciencia que no se da a conocer, que no se publica, no existe. El problema es que de eso, precisamente, depende el éxito profesional de los investigadores, sus posibilidades de estabilización y de promoción. De ahí la conocida expresión del principio.
El mundo de la comunicación tiene también sus normas. En comunicación se trata de que lo que se publica sea consumido. De la misma forma que la ciencia que no se publica no existe, en comunicación tampoco existen los contenidos que no se consumen: o sea, no existen los artículos que no se leen, los programas de radio que no se oyen, los de televisión que no se ven o los sitios web que no se visitan. En comunicación valdría decir “sé visto, oído o leído, o perece”.
Ambas esferas tienen ahí un interesante punto en común. Y por supuesto, en comunicación o difusión científica el ámbito de confluencia se aprecia en mayor medida aún. Confluyen aquí ambas necesidades, la de hacer públicos los resultados de investigación y, además, conseguir que lleguen a cuantas más personas mejor.
El problema es que la presión por publicar y por tener impacto comunicativo puede conducir tanto a unos como a otros profesionales, a adoptar comportamientos deshonestos, contrarios a la ética profesional e, incluso, a desvirtuar completamente el fin de la ciencia y de su traslación al conjunto del cuerpo social. Y también puede conducir, y de hecho ha conducido, a que se haya configurado un sistema de publicaciones científicas con patologías.
De todo esto se trató el pasado 31 de marzo en “Producir o perecer: ciencia a presión”, el seminario que organizarono conjuntamente la Asociación Española de Comunicación Científica y la Cátedra de Cultura Científica de la UPV/EHU.
4ª Conferencia:
Eva Méndez, profesora de la Universidad Carlos III: Ciencia abierta vs. ciencia cerrada
Ciencia abierta vs. Ciencia cerradaEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Ciencia a presión: Ciencia abierta vs. ciencia cerrada se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Ciencia a presión: Ciencia patológica y patología editorial
- Ciencia a presión: Científicos que avalan patrañas
- Ciencia a presión: Periodistas que avalan patrañas
Kim Jong-un, Donald Trump y la geología de la aniquilación
Es posible que nunca en la historia hayan existido dos mandatarios más antagónicos pero a la vez tan complementarios como son Donald Trump y Kim Jong-un. Y es que mientras uno fabrica sus primeras armas nucleares para decirle al mundo “aquí estoy”, el otro se toma cual chirigota las pruebas del avance inexorable del cambio climático. En cualquier caso, parece que los dos estén dándole cuerda al reloj del apocalipsis y que, en ese sentido, tengan muy buena sintonía.
Dejando los chascarrillos aparte, es cierto que estando tan cerca de Japón, muchas personas se hayan preguntado por la posibilidad de que Corea del Norte llegase a detonar un artefacto de estas características en algún volcán del archipiélago japonés y por los posibles efectos que esto podría tener.

Así escuchan los sismógrafos las pruebas nucleares de Corea del Norte.
En realidad, la idea de usar una explosión para dar el pistoletazo de salida a una erupción volcánica no es para nada innovadora. En 2015, el presidente de la Academia de Problemas Geopolíticos de Rusia, Konstantin Sivkov mencionó la posibilidad de usar armas de varios megatones sobre el “supervolcán” de Yellowstone para adelantar una erupción volcánica y hacer desaparecer a los Estados Unidos.
Pero pongámonos por una vez en el lado del mal y pensemos, ¿Dónde tendría mayor efectividad el lanzamiento de un arma nuclear sobre un volcán? Empecemos por el caso fácil. Imaginemos que somos capaces de lanzar y dirigir un cohete con cabeza nuclear hacia un volcán. Vamos a elegir uno que está cerca de Pyongang y que además sea un icono: El monte Fuji.
Una vez que la dejásemos caer sobre la cima, solo tendríamos una posibilidad de desencadenar la erupción: Si el magma estuviese ya muy cerca del cráter del volcán, cosa que ocurre justo antes de una erupción natural.
Los científicos ya sabrían que hay una erupción inminente, puesto que los volcanes emiten señales de alerta cuando el magma, los fluidos y los gases comienzan a moverse por sus conductos, a ascender por la corteza y a fracturar las rocas a su paso. El mayor efecto de la explosión sería “cosmético”, que podría llegar a reducir varios cientos de metros la estatura del volcán, y provocar deslizamientos que cambiasen su forma.

Imagen del monte Fuji tomada desde la Estación Espacial Internacional. Su figura ha sido un icono a lo largo de la historia. NASA.
Pero, ¿Y si a alguien se le ocurriese desencadenar una erupción en Yellowstone?. Seguramente, lanzando una bomba sobre algún lugar del parque, la cámara magmática (estas son grandes reservas de magma que existen bajo la superficie de la Tierra) del supervolcán de Yellowstone que mide en la horizontal más de 100 kilómetros ni se enteraría y solo conseguiríamos formar un bonito cráter, ya que actualmente Yellowstone no muestra signos de una erupción inminente.
Cosa muy diferente ocurría si fuésemos capaces de transportar mágicamente un dispositivo nuclear de varios megatones al interior de las cámaras magmáticas que alimentan el volcán (y otros fenómenos como los géiseres o los lagos de aguas termales) de Yellowstone. Para hacernos una idea del tamaño del sistema de cámaras magmáticas, estas albergan aproximadamente 50.000 kilómetros cúbicos de roca fundida.
He dicho mágicamente porque los problemas logísticos de transportar un arma nuclear no solo a otro país, sino a introducirla en un lugar donde las presiones y las temperaturas son altísimas sin que ocurra un accidente o te pillen por el camino es ahora mismo una idea muy, pero que muy complicada.
Una vez conseguida la misión de colocar y hacer explotar esta arma en el interior de la cámara magmática, pensemos en los efectos: Si a la temperatura del magma le añadimos la que provoca la propia explosión, generaríamos en el interior un gran aumento de presión al convertir el magma en vapor de roca, probablemente haciendo saltar la cámara magmática por los aires, provocando una lluvia de lava incandescente a varios kilómetros a la redonda.
Pero en este caso, la lava no sería nuestro mayor problema si no estamos muy cerca, aunque si sería muy radioactiva. El problema es brutal cantidad de ceniza que se generaría en la explosión y que también tendría una radioactividad muy alta. Si pensamos en erupciones como la del Eyjafjalla, un volcán relativamente modesto, que fue capaz de poner en jaque a toda la aviación europea por la ceniza lanzada a la atmósfera, imaginemos una erupción capaz de generar varios ordenes de magnitud más ceniza, y además radioactiva. Todo un episodio apocalíptico que tendría repercusiones globales y probablemente muy duraderas gracias al eficiente transporte de esta que es capaz de realizar nuestra atmósfera.

Imagen tomada por el satélite Aqua donde se ve la columna de cenizas que lanzó el Eyjafjalla el día 17 de Abril de 2010. Una erupción de Yellowstone llegaría a cubrir 2/3 partes del Estados Unidos Continental con varios centímetros de ceniza. En un radio de 500 kilómetros, la ceniza podría cubrir hasta un metro de altura. Nada que ver con lo que hayamos conocido hasta ahora. NASA.
Como hemos visto, provocar una erupción volcánica así no es tarea fácil… ¿Pero y si pudiéramos hacerlo entrar en erupción de una manera más discreta perforando hacia la cámara magmática como quien no quiere la cosa y dejando que el magma saliese violentamente a la superficie por un agujero hecho a conveniencia?
En los últimos años se han realizado distintas perforaciones hacia las cámaras magmáticas de distintos volcanes para poder conocer mejor estos sistemas y ayudarnos a predecir futuras erupciones, aunque también se hacen de una manera más o menos rutinaria para la extracción de energía geotérmica. Si bien puede resultar peligroso porque perforando podemos encontrar bolsas que contengan vapor y gases a alta presión y temperatura que puedan provocar explosiones al pincharlas como ha ocurrido en ocasiones, llegar hasta la cámara magmática no tiene ningún efecto. Es como si una pulga intentara pinchar un globo aerostático.
Y aunque la cámara magmática se encuentre en ese momento próxima a una erupción, al perforarla ocurriría lo siguiente: El agujero es tan pequeño que el magma comenzaría a ascender a través de él, enfriándose rápidamente y cerrando de nuevo el agujero como un tapón. Esto no es un caso hipotético, y ha ocurrido en países como Islandia o Japón durante distintas campañas de sondeo, con la consiguiente pérdida de parte del material usado en la perforación.
Pero siempre hay una excepción, y es cuando las cosas salen mal, realmente mal. Volvamos a Yellowstone. Este gigantesco sistema volcánico volverá a entrar en erupción en algún momento del futuro, provocando de manera natural consecuencias a escala planetaria, como un descenso brusco en la temperatura planetaria por efecto de la ceniza expulsada a la atmósfera y que probablemente dure varios años.
A finales de Agosto, salió a la palestra un antiguo miembro del Consejo Asesor de Defensa Planetaria de la NASA presentando un plan precisamente para evitar una erupción natural: Inyectar a través de una pequeña perforación agua para ir enfriando el magma que hay bajo Yellowstone, al mismo tiempo que recuperamos el vapor para generar energía eléctrica en turbinas… ¡Un plan redondo!
Pero esta idea tiene un fallo. Imaginemos por un momento que parte del vapor no consigue escapar y se comienza a acumuar en las rocas que rodean la cámara magmática, creando un aumento de la presión, convirtiendo el sistema volcánico en una gigantesca olla a presión, que superada la resistencia de las rocas que lo contienen, acabe saltando por los aires, en un fenómeno muy parecido al que pudo ocurrir en la erupción del Karakatoa de 1883 y que hizo desaparecer prácticamente la totalidad de esta isla. Es decir, que intentando evitar una erupción en realidad podemos provocar una mucho mayor y más devastadora.
Pero el bonus track, y el verdadero gordo de esta lista de maldades se lo lleva Donald Trump quién podría estar provocando, sin saberlo, un cambio en la actividad volcánica de nuestro planeta. En un acto de “soberanía nacional”, el actual presidente de los Estados Unidos sacó a su país del Acuerdo de París para luchar contra el calentamiento global. Si, el calentamiento global es un problema más poliédrico de lo que habíamos imaginado.

Un tweet maravilloso de Donald Trump donde nos deja claro que si hace frío en Nueva York, es que no hay cambio climático.
Bueno, si la lava de los volcanes ya está caliente, ¿Qué puede ir a peor con el calentamiento global?. Pues un estudio publicado en 2015 afirma que el deshielo de los casquetes de hielo y glaciares que cubren Islandia están provocando que la isla se eleve en algunas zonas hasta 3.5 centímetros al año por la descarga del peso de este hielo que cubría antes distintas partes de la isla.
Esto significa que los volcanes islandeses están sufriendo una gran disminución de presión sobre ellos que antes ayudaba a mantener confinadas las cámaras magmáticas, lo que podría incrementar el ritmo de las erupciones en esta isla. En el último periodo interglacial, hace unos 12000 años, la actividad volcánica de Islandia se multiplicó por 30, muy probablemente debido a la descarga del peso del hielo que había sobre los volcanes.
Pero esto no es todo, y es que este año se han descubierto 91 nuevos volcanes bajo el hielo de la Antártida. Si comenzara a sufrir un deshielo en cantidades importantes podría suponer un problema mucho más importante del que imaginábamos solo con el deshielo ya que tendríamos un caso parecido al de Islandia, pero agravando la cuestión, porque estas erupciones subglaciales podrían desestabilizar todavía más el casquete Antártico y acelerar su pérdida. Un ciclo que se retroalimenta (y no hablamos de las emisiones de gases de efecto invernadero, ni tampoco de la pérdida de la capa de ozono que esto podría significar) y que podría ser catastrófico para la humanidad.
Como habéis podido comprobar, hacer entrar en erupción un volcán no es tarea sencilla, y que a veces lo más efectivo para hacer el mal es simplemente no hacer nada.
Este artículo lo ha escrito Nahum Méndez Chazarra y es una colaboración deNaukas.com con la Cátedra de Cultura Científica de la UPV/EHU
Referencias científicas y más información:
Russian analyst urges nuclear attack on Yellowstone National Park and San Andreas fault line
NASA wants to prevent the Yellowstone super volcano from destroying the US
Kim Jong-un’s North Korea nuclear test mountain may collapse, let out ‘many bad things’
NASA’s ambitious plan to save Earth from a supervolcano
Scientists discover 91 volcanoes below Antarctic ice sheet
El artículo Kim Jong-un, Donald Trump y la geología de la aniquilación se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Las cartas de Darwin: ¡La geología por encima de todo!
- ¿Demuestran el Brexit y Trump que vivimos en una simulación por ordenador?
- Zientziateka: “Una visión del ‘fracking’ desde la geología”