Catástrofe Ultravioleta #28 ANTROPOCENO

«Estamos asistiendo al registro geológico de nuestro tiempo»
En pleno debate sobre la pertinencia del término Antropoceno, los científicos siguen identificando lugares y depósitos que delatarán nuestro paso por el planeta mucho tiempo después de que hayamos desaparecido. “Estamos asistiendo al registro geológico de nuestro tiempo, donde nos podemos ver reflejados en las rocas, como si hiciéramos un viaje en el tiempo”, dice Alejandro Cearreta. Con su ayuda, la de Asier Hilario y Ana María Alonso, viajaremos del pasado al futuro y veremos cuál será nuestra huella cuando hayamos desaparecido.
Escúchanos aquí:
Agradecimientos: Alejandro Cearreta, Asier Hilario, Ana María Alonso. Y a Charlton Heston un poco también, claro.
** Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.
El artículo Catástrofe Ultravioleta #28 ANTROPOCENO se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Preparados para una Catástrofe Ultravioleta
- Catástrofe Ultravioleta #14 VULCANO
- Catástrofe Ultravioleta #03 Interferencias
Una molécula fluorescente para explicar la asimetría materia-antimateria en el universo
¿Por qué nuestro Universo está hecho de materia? ¿Por qué existe todo tal y como lo conocemos? Estas preguntas están relacionadas con uno de los problemas más importantes sin resolver en física de partículas, el de la naturaleza del neutrino, que podría ser su propia antipartícula, tal como aventuró el malogrado genio italiano Ettore Majorana hace casi un siglo. Si ello fuera así, podría explicarse la misteriosa asimetría entre materia y antimateria.
Sabemos que el Universo está hecho casi exclusivamente de materia. Sin embargo, la teoría del Big Bang predice que el Universo primigenio contenía la misma cantidad de partículas de materia y antimateria. Esta predicción es consistente con los “pequeños Big Bang” que se forman en las colisiones de protones en el gigantesco acelerador LHC del CERN, donde siempre se observa una producción simétrica de partículas y antipartículas. ¿Dónde fue, entonces, a parar la antimateria del Universo temprano? Un posible mecanismo que daría una respuesta a esta pregunta apunta a la existencia de neutrinos pesados que serían su propia antipartícula y por lo tanto podrían desintegrarse tanto a materia como a antimateria. Si se da un segundo fenómeno, denominado violación de carga y paridad (esto es, si el neutrino favorece ligeramente en sus desintegraciones la producción de materia sobre la de antimateria), entonces este proceso habría podido inyectar un exceso de la primera sobre la segunda. Después de que toda la materia y la antimateria del universo se aniquilaran (con la excepción de este pequeño exceso), el resultado sería un cosmos hecho sólo de materia, de las sobras del Big Bang. Podríamos decir que nuestro Universo son los restos de un naufragio.
Es posible demostrar que el neutrino es su propia antipartícula observando un raro tipo de proceso nuclear llamado desintegración doble beta sin neutrinos, en el que simultáneamente dos neutrones (n) del núcleo se convierten en protones (p) y se emiten además dos electrones (e) que escapan fuera del átomo. Este proceso puede darse en algunos isótopos raros, como el Xenón-136, que tiene en su núcleo 54 p y 82 n, además de 54 e en su forma neutra. El experimento NEXT (dirigido por J.J. Gómez-Cadenas, del DIPC e IKerbasque y D. Nygren, de la Universidad de Texas en Arlington), sito en el laboratorio subterráneo de Canfranc (LSC), busca estas desintegraciones utilizando cámaras de gas a alta presión.
Cuando un átomo de Xe-136 sufre una desintegración espontánea doble beta sin neutrinos, el resultado del proceso es la producción de un ion de Bario-136 (Ba2+), con 54 e y un núcleo formado por 56 p y 80 n, y dos electrones (Xe → Ba2+ + 2e).
El experimento NEXT se ha centrado hasta el momento en observar estos dos electrones, cuya señal es muy característica del proceso. No obstante, la desintegración doble beta sin neutrinos es extremadamente rara, del orden de una por tonelada de gas y año de exposición. Esta señal tan débil puede quedar completamente enmascarada por el ruido de fondo debido a la omnipresente radioactividad natural. Sin embargo, si además de observarse los dos electrones se detectase el átomo ionizado de bario, el ruido de fondo puede reducirse a cero, ya que la radioactividad natural no produce este ion. Observar un solo ion de Ba2+ en un gran detector de desintegración doble beta sin neutrinos es tan extremadamente difícil que hasta hace poco se consideraba impracticable. Pero una serie de trabajos recientes, entre los que destaca este que nos ocupa, demuestra que la hazaña podría conseguirse en un plazo de tiempo razonable.
El estudio parte de una idea propuesta por uno de los autores del artículo, D. Nygren (Universidad de Texas en Arlington), inventor de la tecnología de cámaras de proyección temporal (TPCs) en las que se basan numerosos experimentos de física de partículas (entre ellos NEXT). En 2016 Nygren propuso la posibilidad de capturar el Ba2+ con una molécula capaz de formar un complejo supramolecular con este y de proporcionar una señal característica cuando esto ocurre, a modo de indicador molecular. En trabajos posteriores, Nygren y su grupo han diseñado un tipo de indicadores llamados “interruptores” capaces de brillar más intensamente cuando capturan un ion Ba2+. El grupo de Fernando Cossío, catedrático de química orgánica de la UPV/EHU y director científico de Ikerbasque, y Gómez-Cadenas ha seguido una estrategia diferente, diseñando un indicador capaz de capturar selectivamente el Ba2+ y que no sólo brilla más intensamente al atrapar el ion, sino que cambia de color, contribuyendo así a una clarísima observación de la señal sobre el ruido de fondo.
La síntesis de este indicador molecular bicolor, denominado FBI (las siglas en inglés de Fluorescent Bicolour Indicator), se ha realizado bajo el liderazgo del investigador I. Rivilla del DIPC. Si se ilumina con luz ultravioleta una molécula FBI sin bario, esta emite fluorescencia en el rango de la luz verde, con un espectro de emisión estrecho de alrededor de 550 nm. En cambio, cuando esta molécula captura Ba2+, su espectro de emisión se desplaza hacia el azul (420 nm). Esto hace posible identificar la presencia de Ba2+ a partir de la observación de una molécula FBI azul. Los sistemas experimentales de microscopía multifotónica desarrollados en el Laboratorio de Óptica de la Universidad de Murcia por el grupo de Pablo Artal para la detección de esta diferencia espectral verde/azul se basan en los diseñados previamente para obtener imágenes de la córnea del ojo humano en vivo.
Tal y como ha explicado Cossío, “lo más complicado de la parte química del trabajo fue diseñar una nueva molécula que cumpliera los estrictos (casi imposibles) requisitos impuestos por el experimento NEXT. Esta molécula debía brillar mucho, capturar bario con extrema eficacia (el desintegración doble beta sin neutrinos es un evento rarísimo y ningún catión podía desperdiciarse) y emitir una señal específica que permitiera detectar la captura sin ruido de fondo. Además, la síntesis química del nuevo sensor FBI debía ser eficiente para poder tener muestras ultrapuras en cantidad suficiente para su instalación en el detector. La parte más gratificante fue comprobar que, tras muchos esfuerzos por parte de este equipo multidisciplinar, efectivamente, nuestro sensor FBI específico y ultrasensible funcionaba tal y como estaba previsto”.
Además del diseño y caracterización de FBI, el trabajo ofrece la primera demostración de la formación de complejos supramoleculares en medio seco. Este hito se ha conseguido preparando una capa de moléculas FBI sobre una pastilla comprimida de sílice y evaporando sobre esta capa una sal de perclorato de bario.
El siguiente paso de este proyecto será construir un detector basado en FBI para la detección de la desintegración doble beta sin neutrinos, para la que ya se está desarrollando la propuesta conceptual.
Referencia:
I. Rivilla, B. Aparicio, J.M. Bueno, D. Casanova, C. Tonnelé, Z. Freixa, P. Herrero, C. Rogero, J.I. Miranda, R.M. Martínez-Ojeda, F. Monrabal, B. Olave, T. Schäfer, P. Artal, D. Nygren, F.P. Cossío, and J.J. Gómez-Cadenas (2020) Fluorescent bicolor sensor for low-background neutrinoless double beta decay experiment Nature doi: 10.1038/s41586-020-2431-5
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Una molécula fluorescente para explicar la asimetría materia-antimateria en el universo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cómo fabricar hielo extraterrestre y verlo molécula a molécula
- Tipos de materia sólida
- Magnetosomas para el tratamiento del cáncer
El cerebro también se puede donar (y no es necesario estar sano)
M. Javier Herrero Turrión

La donación de órganos para trasplante está ampliamente consolidada. De hecho, nuestro país encabeza el ránking mundial del número de trasplantes. Por desgracia, es poco conocida la posibilidad de “donar nuestro cerebro hoy para curar mañana”, como reza el lema del Banco de Tejidos Neurológicos – INCYL.

Bancos de cerebros
Los bancos de tejidos neurológicos, coloquialmente denominados “bancos de cerebros”, son organizaciones sin ánimo de lucro que prestan servicio a toda la sociedad para poner en valor muestras de tejido cerebral humano esenciales en las investigaciones de las enfermedades neurológicas. Además, entre sus objetivos está ayudar a sensibilizar y visibilizar el acto de enorme generosidad que supone esta donación.
Estos bancos se ocupan de recoger, procesar y almacenar tejido nervioso donado para realizar un estudio post mortem que permita ofrecer un diagnóstico. A partir de ahí ponen a disposición de los investigadores muestras de este tipo de tejido que permiten avanzar en el conocimiento de las enfermedades neurológicas como el alzhéimer u otros tipos de demencia, el párkinson, la esclerosis lateral amiotrófica, la esclerosis múltiple, las ataxias, la enfermedad de Huntington y una gran variedad de patologías psiquiátricas y enfermedades raras.
Motivos para donar nuestro cerebro
¿Por qué es importante ser donante de tejido nervioso? Una pregunta tan “sencilla” bien puede tener una respuesta similar: porque debemos avanzar entre todos en el conocimiento de las enfermedades neurológicas. En primer lugar, impresiona conocer el porcentaje de población afectada a nivel mundial por las tres principales enfermedades neurodegenerativas: alzhéimer, párkinson y esclerosis múltiple. Casi 40, 25 y más de 2,5 millones, respectivamente. Para colmo, se estima que estas cifras se duplicarán para el año 2050.
Por si fuera poco, en 2016 se publicó en España un estudio que ponía en relieve datos tan impactantes como que casi un millón de personas padece algún tipo de enfermedad neurodegenerativa.
De éstos, el 69% es mayor de 65 años, el 40% deja de trabajar por la enfermedad y el 53% sufre dificultades económicas a causa de su afectación. En concreto, se estima que tanto el paciente como su entorno familiar suelen asumir un sobrecoste de más de 23.000 € de media al año, según el nivel de dependencia.
Por lo tanto, las consecuencias dramáticas no son “únicamente” las propias de la enfermedad en sí, sino que también tienen un alto coste económico, difícilmente asumible para una gran mayoría.
¿Qué aportan los biobancos de tejidos neurológicos?
El tejido cerebral humano es una herramienta insustituible para el avance en el conocimiento de las enfermedades neurológicas humanas, ya que los modelos de animales experimentales no reproducen completamente su conjunto de características.
Que los biobancos de cerebros realicen el diagnóstico definitivo de la enfermedad (neurológica) que padecen los donantes no es un hecho baladí. En vida, el diagnóstico clínico no tiene una certeza absoluta. Solo con una biopsia profunda del cerebro se consigue un diagnóstico completo. Una opción tan agresiva que casi nunca se baraja en vida. En lugar de eso, los médicos utilizan una combinación de los signos y síntomas clínicos, técnicas de neuroimagen y pruebas invasivas, como la punción lumbar, junto con diversos estudios de laboratorio. Y se quedan “cojos” en información.
¿Quién puede ser donante de tejido nervioso?
A diferencia de la donación de órganos para trasplantes, en el caso de las donaciones de cerebros son válidos todo tipo de donantes, desde el teóricamente sano (sin patología neurológica y/o cognitiva aparente) hasta el enfermo. Además, también el rango de edad abarca toda la vida, desde el recién nacido hasta el anciano.
La decisión de ser donante puede realizarse en vida, que es la forma más frecuente. O en el mismo momento del fallecimiento. Normalmente el mismo donante toma la decisión. O, en caso de incapacidad cognitiva, es el tutor o algún familiar en su nombre quien dona sabiendo que “la persona enferma no era contraria a esta práctica”.
Por otra parte, es preciso cumplimentar una serie de documentos para poder proceder a la donación. El principal de ellos, el consentimiento informado por el que el donante, un familiar en su nombre o tutor legal autoriza la donación del tejido nervioso tras su fallecimiento.
Los bancos de cerebro en España
En nuestro país actualmente existen 15 biobancos de cerebros, entre ellos, el Banco de Tejidos Neurológicos del Instituto de Neurociencias de Castilla de León (BTN-INCYL), al cual pertenezco. Todos trabajamos en red bajo el amparo de la Red Nacional de Biobancos (RNBB) para lograr una cada vez mayor visibilidad de nuestra labor y garantizando la más alta calidad en nuestros servicios.

Los que trabajamos al frente de este tipo de centros tenemos claro que la donación del cerebro es un acto de enorme generosidad y solidaridad. Los donantes ayudan a que acabemos cuanto antes con la verdadera pandemia del siglo XXI: las enfermedades neurodegenerativas. Unas patologías que no sólo incapacitan física y cognitivamente, sino que también tienen un alto coste emocional y económico para las familias de quienes las padecen.
Sobre el autor: M. Javier Herrero Turrión, es director científico del Banco de Tejidos Neurológicos del Instituto de Neurociencias de Castilla y León (BTN-INCYL), Universidad de Salamanca
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo El cerebro también se puede donar (y no es necesario estar sano) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Nuevas tecnologías para el estudio del cerebro: Desde Cajal a nuestros días
- «Si todos tus amigos se tiran por un puente, ¿tú también te tiras?»: los adolescentes, los amigos y los riesgos
- ¿Que puede aportar (y qué no) la neurociencia a la educación?
¿Quién se queda sin merendar?

Solo queda un plátano en el frutero. En vez de repartirlo, Pablo y Santiago deciden jugar para ver quién se lo merienda. Pablo propone a Santiago un juego con las siguientes reglas:
Tirarán cada uno de ellos un dado. Si el mayor número que aparece en los dos dados es 1, 2, 3 o 4, ganará el jugador 1. Si el mayor número que aparece en las dos caras que quedan arriba es 5 o 6, ganará el jugador 2.
Como Pablo ha formulado las reglas del juego, invita a Santiago a elegir si desea ser el jugador 1 o el jugador 2. Santiago acepta el reto y elige ser el jugador 1 pensando que con esta opción tiene una clara ventaja sobre Pablo.
¿Ha elegido bien Santiago? Se trata de un juego de azar, con lo que puede pasar, a priori, cualquier cosa. Pero pensemos por un momento en la probabilidad de que cada uno de ellos gane este juego. Una manera sencilla de calcularla es elaborar una tabla con todas las posibles combinaciones que se pueden obtener al tirar dos dados. En la siguiente tabla se representa a Santiago con un emoticono rojo –piensa que ha sido realmente hábil al elegir esta opción– y a Pablo con uno amarillo –aunque no es tan inocente como parece–. Hay 36 posibles combinaciones de números al tirar dos dados, y en cada casilla colocamos la imagen del ganador con cada posible tirada.
Observamos que Santiago gana en 16 de las 36 posibles tiradas, mientras que Pablo ¡lo hace en 20! Parece contraintuitivo, pero no hay duda alguna, Pablo tiene más probabilidades de ganar.
Otra manera de comprobar que la elección de Santiago no era la adecuada es pensar en la probabilidad de que cada número del 1 al 6 sea el más alto al lanzar los dados. Es sencillo de entender que la probabilidad de que el 1 sea el número más alto es de 1/36 (los dos dados deben mostrar el 1), la de que sea el 2 es de 3/36 (se obtiene con las tiradas 1-2, 2-2, 2-1), la de que sea el 3 es de 5/36 (sale con las tiradas 1-3, 2-3, 3-3, 3-2, 3-1), la de que sea el 4 es de 7/36 (resulta con las tiradas 1-4, 2-4, 3-4, 4-4, 4-3, 4-2 y 4-1), la de que sea el 5 es de 9/36 (se logra con las tiradas 1-5, 2-5, 3-5, 4-5, 5-5, 5-4, 5-3, 5-2 y 5-1) y la de que sea el 6 es de 11/36 (se consigue con las tiradas 1-6, 2-6, 3-6, 4-6, 5-6, 6-6, 6-5, 6-4, 6-3, 6-2 y 6-1). Es decir, gana el jugador 1 en 1 + 3 + 5 + 7 = 16 de las posibles tiradas, frente a las 9 + 11 = 20 en el caso del jugador 2. Recuperamos mediante este argumento el cálculo que habíamos obtenido en la tabla. Dicho de otra manera, Santiago tiene un 44,5 % de probabilidades de ganar, mientras que Pablo se come el plátano con una probabilidad del 55,5 %.
Recordemos que los 36 posibles resultados al lanzar los dos dados son equiprobables: cada uno de ellos tiene una probabilidad de 1/36 de salir. Además, las tiradas realizadas por cada dado son sucesos independientes. Por ello, la probabilidad de obtener 1, 2, 3 o 4 en ambos dados –de este modo ganaría Santiago el juego– es el producto de 4/6 por 4/6, es decir, 16/36. De nuevo, hemos confirmado la conclusión que ya se había visto al principio.
Otro concepto que puede usarse para estudiar el juego es el de esperanza matemática. Vamos a llamar M al máximo número obtenido al lanzar dos dados. Denotamos por P(M=m) a la probabilidad de que M sea m. Entonces:
E(M) = 1.P(M=1) + 2.P(M=2) + 3.P(M=3) + 4.P(M=4) + 5.P(M=5) + 6.P(M=6) =
1/36 + 2. 3/36 + 3. 5/36 + 4. 7/36 + 5. 9/36 + 6. 11/36 =
1/36 + 6/36 + 15/36 + 28/36 + 45/36 + 66/36 = 161/36 = 4,47,
que representa el valor medio obtenido en el suceso aleatorio descrito en el juego de Pablo y Santiago. De nuevo, se confirma la teórica ventaja de Pablo… aunque es posible que al lanzar los dados el resultado haga que Santiago consiga quedarse con la merienda, Pablo tiene más probabilidades de hacerlo.
En este video de Leonardo Barichello se explica de manera inspiradora este juego.
Referencias
-
The Last Banana, Futility Closet, 27 marzo 2020
-
Leonardo Barichello, The last banana: A thought experiment in probability, TED-Ed,
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo ¿Quién se queda sin merendar? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La ‘reverosis’ de Pablo
- Un juego de mesa para entender la irreversibilidad
- El problema matemático de las cartas extraviadas
El núcleo atómico

En nuestra introducción a los átomos vimos que los experimentos indicaban que el átomo consiste en un núcleo diminuto, cargado positivamente, rodeado de electrones cargados negativamente. Los experimentos sobre la dispersión de partículas pusieron de manifiesto que el núcleo tiene dimensiones del orden de 10-14 m. Dado que el diámetro de un átomo es del orden de 10-10 m, el núcleo ocupa solo una fracción muy pequeña del volumen de un átomo. Sin embargo, el núcleo contiene casi toda la masa del átomo, como también demostraron los experimentos de dispersión.
La existencia del núcleo atómico [1] y sus propiedades plantearon muchas preguntas similares a las surgieron al estudiar el átomo. ¿Está el propio núcleo formado por unidades aún más pequeñas? Si es así, ¿cuáles son estas unidades y cómo se organizan en el núcleo? ¿Qué métodos se pueden usar para obtener respuestas a estas preguntas? ¿Qué pruebas experimentales se pueden usar como guía?
El estudio de las propiedades y la estructura de los átomos necesitaba de nuevos métodos físicos. Los métodos que podían usarse para estudiar las propiedades de los cuerpos de tamaño ordinario, es decir, aquellos con dimensiones del orden de centímetros o metros, no podían proporcionar información sobre la estructura de los átomos. Es razonable esperar, por tanto, que aún sea más difícil obtener información sobre lo que sucede dentro del núcleo, que es una parte tan pequeña del átomo. Necesitaremos nuevos tipos de datos experimentales. Pero, previamente tendremos que saber qué datos buscar y cómo obtenerlos, por lo tanto, deben crearse nuevos modelos teóricos para ayudar a correlacionar y explicar los datos. En este sentido, el estudio del núcleo es otro paso más en el largo camino de lo muy grande a lo muy pequeño que corre paralelo al desarrollo histórico de las ciencias físicas.
Una de las primeras y más importantes pistas para comprender el núcleo ocurrió con el descubrimiento del fenómeno más tarde conocido como radiactividad a principios de 1896 por el físico francés Henri Becquerel. Fue otro de esos «accidentes» que ilustran cómo la mente entrenada y preparada puede responder a una observación inesperada. Solo 2 meses antes, en noviembre de 1895, Rontgen había descubierto rayos X. Al hacerlo, sin darse cuenta, había preparado el escenario para el descubrimiento de la radiactividad.
En este punto de partida comienza nuestro viaje al interior del núcleo, que concluirá con una comprensión de lo que son los isótopos, tan importantes en la ciencia, la tecnología y la medicina actuales, y las aplicaciones tecnológicas de nuestro conocimiento del núcleo atómico.
Se suele decir que el siglo XX fue el siglo del átomo, y es incorrecto. Todo el siglo XIX, que comienza con la propuesta atómica de Dalton, fue una búsqueda de la confirmación de la existencia de los átomos, una hipótesis que demostró su fortaleza en la química a partir de mediados del siglo. No, el siglo XX no fue el siglo del átomo, fue el siglo del núcleo.
Notas:
[1] El núcleo recibe este nombre por analogía con el núcleo de una célula viva.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El núcleo atómico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La carga del núcleo y el sistema de periodos
- El modelo atómico de Rutherford
- Rutherford: la radiactividad y el descubrimiento del núcleo atómico, por El zombi de Schrödinger
Plancton en la ría de Bilbao
El plancton es el conjunto de organismos microscópicos en suspensión y con poca capacidad de movimiento que habita en el agua. El plancton es un componente estructurante y funcional fundamental de los ecosistemas acuáticos, dada su diversidad funcional.
Y es que, el fitoplancton, que se compone de seres unicelulares fotosintéticos, se sirve de la energía lumínica y de nutrientes inorgánicos para producir biomasa, con lo que se convierte en la principal fuente de alimento para los consumidores de dicho ecosistema.
El zooplancton, que se compone de diversos protozoos y animales, es un intermediario imprescindible para hacer llegar a los consumidores superiores la energía disponible almacenada por el fitoplancton. Y es que el zooplancton es el alimento básico de toda larva de pez y de varias especies pelágicas. Así mismo, sirve de alimento a los animales filtradores, que son elementos importantes en las comunidades de bentos.
Existe también el plancton mixótrofo, que se compone de seres unicelulares con capacidad de fotosíntesis y de alimentarse de materia orgánica. Por último, el bacterioplancton heterótrofo cumple una función esencial, al descomponer la materia orgánica disuelta y particulada inerte que produce todo organismo, cerrando así el ciclo de dicha materia.

Aparte de la clasificación según la función (autótrofa, mixótrofa, heterótrofa), también es importante la clasificación según el tamaño, dado que la relación presa-depredador en la cadena trófica pelágica se basa en el tamaño de los organismos.
Y es que los productores planctónicos primarios son demasiado pequeños y su biomasa se halla demasiado dispersa en el medio como para ser alimento útil para consumidores de gran tamaño. Así, los protozoos flagelados nanoplanctónicos de entre 2 y 20 µm se alimentan sobre todo de bacterias de tamaño inferior a 2 µm (picoplancton). A su vez, algas, hongos y protozoos nanoplanctónicos son el alimento principal de los protozoos ciliados y de los diminutos metazoos del microplancton (20-200 µm). Subiendo en la cadena trófica, tanto los organismos fotosintéticos como los consumidores del nanoplancton y del microplancton, son el alimento de muchos grupos de animales del mesozooplancton (0,2-20 mm), y estos últimos, de las larvas de peces y de las medusas macro y megaplanctónicas (>2 y 20 cm, respectivamente).
Entre las microalgas que componen el fitoplancton se diferencian diversos filos y clases. Gracias a dicha diversidad filogenética, observamos microalgas de diferente composición pigmentaria y, por tanto, color. El fitoplancton de mayor tamaño es del rango del microplancton (20-200 µm), y dentro del estuario de Bilbao, abunda sobre todo en el Abra. Se compone de diatomeas (pardo-doradas) y de dinoflagelados (pardo-rojizos), siendo las primeras las más numerosas. Las diatomeas tienen paredes celulares rígidas compuestas de un material parecido al vidrio, y carecen de flagelos, por lo que tienden a hundirse. Los dinoflagelados, en cambio, son buenos nadadores y pueden moverse hacia la superficie en busca de luz.

En el centro del estuario y en zonas interiores, hay sobre todo fitoplancton pequeño, es decir, nanoplancton. Ahí también abundan las diatomeas, pero suelen ser minúsculas y de paredes celulares muy finas, porque en aguas turbias la luz suficiente para la fotosíntesis únicamente se recibe en la superficie; unas paredes celulares sobrepesadas las empujarían hacia el fondo. Además de las diatomeas, en ese entorno pueden abundar diferentes grupos: criptófitos (rojizos y verde-azulados), clorófitos (verdes; algas emparentadas con plantas terrestres), haptófitos (amarillo-dorados) y rafidoficeas, entre otros.
El protozooplancton más abundante son los nanoflagelados y los cilaidos tintínidos. En lo que al metazooplancton de estuario se refiere, dominan los crustáceos copépodos, pero en la salida hacia el mar la diversidad aumenta; apareciendo también en abundancia crustáceos cladóceros, tunicados apendiculariáceos y doliólidos, cnidarios sifonóforos y quetognados. Todos ellos son habitantes perennes del plancton, por lo que pertenecen a la categoría de holoplancton.
Pero también abundan en el plancton de estuario las larvas y algunos estadios reproductores (hidromedusas, por ejemplo) de organismos del bentos que pueblan temporalmente el medio pelágico. Todos ellos constituyen la categoría de meroplancton. En el estuario de Bilbao, las larvas meroplanctónicas más abundantes son las larvas nauplius y cipris de crustáceos cirrípedos, así como las larvas veliger de moluscos bivalvos y gastrópodos, y las larvas trocófora y nectoqueta de poliquetos. También se encuentran a menudo larvas cifonauta de briozoo y larvas ofiopluteus y equinopluteus de equinodermo.

El plancton del estuario de Bilbao ha sufrido daños y desequilibrios funcionales a causa de la acción humana. En la década de 1980, cuando se hicieron las primeras investigaciones acerca del plancton, el sistema estaba contaminado por aguas residuales y vertidos de actividades industriales, presentando un aspecto turbio e insalubre. La sobrecarga de nutrientes de las aguas residuales produce un aumento del fitoplancton, que incrementa la sobrecarga orgánica en un proceso de degradación ambiental conocido como eutrofización. Las necesidades de oxígeno para la descomposición microbiana de dicha materia orgánica hacen que las aguas se vuelvan anóxicas e hipóxicas y, por tanto, desfavorables para la fauna acuática.
La decadencia industrial posterior y el plan de saneamiento puesto en marcha por el Consorcio de Aguas de Bilbao Bizkaia redundaron en una mejora de la calidad del agua, y por tanto en una recomposición y reorganización de la comunidad planctónica. Antes de dicha restauración, la contaminación causó la desaparición de los animales zooplanctónicos en casi todo el estuario hasta El Abra.
Hoy en día, gracias a la depuración de aguas residuales, la carga de materia orgánica que entra en el sistema se ha reducido considerablemente y la comunidad de zooplancton de aguas salobres desaparecida por la falta de oxígeno ha vuelto al interior del estuario, aunque predominan las especies no autóctonas, lo cual es reflejo de la contaminación biótica. Así, el zooplancton del interior del estuario está compuesto mayoritariamente de dos especies de copépodos de origen indo-pacífico: Acartia tonsa y Oithona davisae. Seguramente, a causa del transporte marítimo, ambas llegaron en aguas de lastre de barcos, colonizando desde 2003 con éxito el hábitat salobre que se hallaba despoblado.
Así y todo, desde 2010 también se han establecido especies autóctonas propias de ambientes salobres, como por ejemplo Acartia bifilosa y Calanipeda aquaedulcis, aumentando la diversidad de la comunidad. Además de la disminución de la carga de materia orgánica y nutrientes, también ha aumentado la transparencia de las aguas, y por tanto la disponibilidad de luz para el crecimiento del fitoplancton.
Por ello, todavía es habitual que las aguas adquieran color a causa del crecimiento desmesurado de microalgas; son las denominadas mareas rojas. Ejemplo de ellas son las causadas por la diatomea Conticribra weissflogii o por el nuevo género y la especie de criptófito descrito en el mismo Bilbao Urgorri complanatus.
Sobre los autores: Fernando Villate-Guinea y Aitor Laza-Martínez son profesores de la Facultad de Ciencia y Tecnología de la UPV/EHU e investigadores del Departamento de Biología Vegetal y Ecología
El proyecto «Ibaizabal Itsasadarra zientziak eta teknologiak ikusita / La Ría del Nervión a vista de ciencia y tecnología» comenzó con una serie de infografías que presentan la Ría del Nervión y su entorno metropolitano vistos con los ojos de la ciencia y la tecnología. De ese proyecto han surgido una serie de vídeos y artículos con el objetivo no solo de conocer cosas interesantes sobre la ría de Bilbao y su entorno, sino también de ilustrar como la cultura científica permite alcanzar una comprensión más completa del entorno.
El artículo Plancton en la ría de Bilbao se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La recuperación de la fauna en la ría de Bilbao
- 40 años del Plan Integral de Saneamiento del Bilbao Metropolitano
- La recuperación de la vida marina en el Abra de Bilbao
Límite energético a la actividad humana

La intensidad del esfuerzo que puede hacer una persona depende de su duración. Cuanto más se prolongue, menor será su intensidad. Una forma útil de expresar el esfuerzo que se puede desarrollar haciendo algo es mediante el denominado “alcance metabólico”, que es el cociente entre el gasto que se produce al realizar una determinada actividad y el gasto metabólico en reposo.
El equipo de Herman Pontzer, de la Universidad de Duke (EE. UU.) ha recopilado datos procedentes de numerosas pruebas deportivas en los que se ha medido el gasto metabólico de sus participantes. Han incluido carreras de fondo, maratones, ultramaratones de un día, pruebas ciclistas de tres semanas o travesías polares de tres meses. Y para complementar esos datos, midieron el nivel de gasto metabólico de los participantes en la Carrera a Través de los Estados Unidos (Race Across USA) de 140 días de duración.
El alcance metabólico que corresponde a una ultramaratón de 25 h es 9; o sea, en una de esas carreras se gasta una cantidad de energía que es nueve veces la que gasta un corredor en reposo. En una de 10 días de duración, es 6 o 7. El alcance metabólico del tour de Francia o cualquier otra vuelta ciclista de tres semanas es 5 o algo menor. En una travesía antártica de 3 meses, aproximadamente, se gasta 3,5 veces la energía que se utiliza en reposo. Y en la Carrera a Través de los EE. UU., ese valor se reduce a casi 3.
Bajo condiciones de actividad normal (de acuerdo con estándares occidentales actuales), nos movemos en unos niveles de gasto que se encuentran entre el mínimo, que corresponde al estado de reposo, y el doble del mínimo. En otras palabras, considerando el conjunto de actividades que desarrollamos en nuestra vida normal, no gastamos más del doble de la energía que nuestro organismo utiliza en reposo.
Por otro lado, el alcance metabólico que corresponde a tiempos indefinidamente largos es 2’5, con independencia del tipo de actividad de que se trate. Ese límite no depende del tipo de musculatura y tejidos implicados, ni de su capacidad para utilizar la energía. Tampoco depende de la temperatura, por lo que no parece estar condicionado por la capacidad para disipar el calor de origen metabólico. Al parecer, el límite lo impone la capacidad para ingerir, digerir y asimilar alimento; es decir, la razón por la que un organismo humano no puede sostener de manera indefinida un nivel de actividad que genere un gasto superior a 2’5 veces el de reposo, es la incapacidad del sistema alimentario y digestivo para adquirir la energía que necesitaría para ello.
La especie humana es el primate mejor dotado anatómica y fisiológicamente para desarrollar una actividad intensa durante largos periodos de tiempo. Por comparación con los demás homínidos, somos diligentes y trabajadores. Lo somos hasta tal punto, que los límites a la actividad los impone el sistema de adquisición de energía con que contamos, que no daría más de sí. Y esa limitación tiene una consecuencia quizás no tan inesperada (para las madres): desde el punto de vista energético, una mujer embarazada y el feto viven al límite de lo que el sistema digestivo puede proporcionar. Eso es así porque el alcance metabólico de una mujer embarazada es de aproximadamente 2, solo 0’5 inferior al máximo para actividades muy prolongadas en el tiempo. Pues bien, esa diferencia de 0’5 es la que permite que quede un excedente energético con el que nutrir al feto en desarrollo. Nacimos en el límite y así vivimos, hasta el final de nuestros días.
Fuente: Thurber C. et al (2019): Extreme events reveal an alimentary limit on sustained maximal human energy expenditure. Science Advances 5 (6) eaaw0341
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Límite energético a la actividad humana se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El impacto de la actividad humana sobre los ecosistemas fluviales
- El balance energético animal
- El organismo humano es una estufa de unos pocos vatios
Animales urbanitas
Nos hemos acostumbrado a pensar en las ciudades como espacios reservados para los seres humanos, sus mascotas y algunas especies detritívoras. Por otro lado, nos observamos conviviendo además con animales como ratas o palomas, con larga tradición de convivencia con la nuestra. Sin embargo, la ciudad alberga una fauna mucho más rica que la que se reduce a los animales citados. Y, además, en las últimas décadas asistimos a la colonización de especies de mamíferos verdaderamente insospechadas, así como la de aves antes ajenas a nuestro entorno.
Juan Ignacio Pérez Iglesias conversó el pasado 11 de junio, en el marco del ciclo Bidebarrieta Científica, sobre los animales que conviven en las ciudades junto a nosotros y, especialmente, de las últimas especies recién llegadas a ellas en evento online titulado Animales urbanitas.
Juan Ignacio Pérez es doctor en Biología y catedrático de Fisiología en la Universidad del País Vasco (UPV/EHU), donde imparte docencia en la Facultad de Ciencia y Tecnología. Dirige la Cátedra de Cultura Científica de esta misma universidad. Es miembro de Jakiunde, la Academia de las Ciencias, las Artes y las Letras vascas, del Consejo Científico y Tecnológico de la Fundación Española para la Ciencia y Tecnología, y de los patronatos de Ikerbasque, Fundación Vasca para la Ciencia, y de la Fundación Cursos de Verano de la UPV/EHU.
Edición realizada por César ToméLópez
El artículo Animales urbanitas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Relación entre genoma y las formas graves de COVID-19
Investigadores del Área de Enfermedades Hepáticas y Gastrointestinales del Instituto de Investigación Biodonostia- OSI Donostialdea liderados por Luis Bujanda y Jesús Bañales, han participado en un estudio colaborativo internacional en el que se describe, por primera vez, que la vulnerabilidad de ciertas personas al desarrollo de formas clínicas graves en la infección por el virus SARS-CoV-2 puede estar influenciada por sus características genéticas.

Los investigadores han intentado responder a la pregunta de por qué algunas personas son asintomáticas o presentan cuadros leves mientras otras desarrollan cuadros de gravedad al ser infectadas por el virus SARS-CoV-2. Según explican los directores de los grupos participantes, “hemos buscando la respuesta en los genes y hemos encontrado una fuerte asociación entre ciertas variantes genéticas en los cromosomas 3 y 9 y la gravedad de la enfermedad causada por el coronavirus”.
En este estudio internacional han participado científicos de diferentes hospitales y centros del estado (Euskadi, Cataluña, Madrid y Andalucía) y de Lombardía (epicentro de la pandemia en Italia), y ha contado con la coordinación nacional de Jesús Bañales y la internacional de genetistas de Noruega y Alemania.
Tras la aprobación del proyecto por los comités éticos de las instituciones españolas e italianas participantes, se recogieron muestras de sangre de 1.610 pacientes con COVID-19 que necesitaban apoyo respiratorio (oxigeno o ventilación mecánica); de ellas 338 fueron recogidas en el Hospital Univesitario Donostia a través del Laboratoriao de Bioquímica por Adolfo Garrido y Beatriz Nafría, y con el apoyo técnico y logístico de Laura Izquierdo y el Pedro Rodrigues (Biodonostia). Se extrajo ADN de las muestras de sangre para estudiar en el laboratorio de Kiel (Alemania) cerca de 9 millones de variantes genéticas. Para ello se contó con expertos genetistas y bioinformáticos, entre ellos el Dr. Garcia-Etxebarria (responsable del Grupo de Genética Gastrointestinal del IIS Biodonostia) y el Dr. D’Amato (Investigador Ikerbasque y colaborador del mismo grupo), así como con la rápida donación económica de filántropos noruegos. Las variantes de los pacientes infectados por COVID fueron comparadas con las de 2.205 controles sanos, 950 de ellos del Grupo de Genética Gastrointestinal del IIS Biodonostia obtenidas a través del Biobanco Vasco y analizadas por medio de fondos económicos aportados por los grupos de Bujanda, Bañales y D’Amato.
Los investigadores han descubierto que variantes de dos regiones del genoma humano se asocian con un mayor riesgo de desarrollar fallo respiratorio en pacientes con infección por SARS-CoV-2. Una de ellas se localiza en el cromosoma 3 y puede afectar a la expresión de genes que favorecerían la entrada del virus, así como la generación de la “tormenta de citoquinas”. La segunda región se localiza en el cromosoma 9, en concreto en el gen que determina el grupo sanguíneo del sistema ABO. En este sentido, los datos mostraron que tener el grupo sanguíneo A se asocia con un 50% más de riesgo de necesidad de apoyo respiratorio en caso de infección por el coronavirus. Por el contrario, poseer el grupo sanguíneo O confiere un efecto protector frente al desarrollo de insuficiencia respiratoria (35% menos de riesgo).
Merece la pena resaltar también que la variante genética identificada en el cromosoma 3 era más frecuente en personas más jóvenes (media de 59 años), lo que podría explicar, al menos en parte, la gravedad de ciertos casos en este grupo de edad.
En el estudio se observó la asociación significativa de las variantes genéticas localizadas en los cromosomas 3 y 9 con la necesidad de apoyo respiratorio. Así, la frecuencia de ambas variantes genéticas en los cromosomas 3 y 9 es significativamente mayor en los pacientes que necesitaron ventilación mecánica frente a aquellos en los que únicamente se administró oxígeno, asociación que fue independiente de la edad y sexo de los pacientes. Por lo tanto, la presencia de estas variantes genéticas predispone al desarrollo de formas graves de insuficiencia respiratoria durante la infección por SARS-CoV-2.
Investigaciones previas habían indicado que factores como la edad y enfermedades crónicas como la diabetes e hipertensión, así como la obesidad, aumentan el riesgo a desarrollar casos graves de COVID-19. Sin embargo, este estudio demuestra la posibilidad de identificar personas más vulnerables al desarrollo de enfermedad grave con insuficiencia pulmonar por el coronovirus según sus características genéticas, lo que posibilita identificar grupos de riesgo que necesiten una protección especial y diseñar tratamientos personalizados.
Referencia:
The Severe Covid-19 GWAS Group (2020) Genomewide Association Study of Severe Covid-19 with Respiratory Failure The New England Journal of Medicine doi: 10.1056/NEJMoa2020283
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Relación entre genoma y las formas graves de COVID-19 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Lado oscuro del genoma y leucemia: aspectos éticos y legales de una investigación
- Un predictor de la evolución a metástasis del melanoma
- Una nueva diana terapéutica para el neuroblastoma
La espiral maravillosa

Un amigo arquitecto me confesó una vez que su mayor limitación a la hora de construir viviendas es que la vida de las personas crece. Las casas, no. Por eso, los humanos tendemos a mudar la casa de cuando en cuando, para poder acoger nuevos muebles, cientos de libros, más y más recuerdos. Las caracolas no tienen esta opción. Ellas cargan de por vida con el mismo habitáculo que las vio nacer y solo con esfuerzo y saliva (baba de caracola, en este caso) consiguen ir ampliándola poco.
Lo curioso es que, en el proceso, su casa no cambia de forma. Da igual a qué distancia se mire, o bajo qué escala. La caracola siempre se parece a sí misma, con un poco más o menos de zoom. Este tipo de estructura es lo que se conoce como espiral logarítmica y obedece un patrón particularmente sencillo de crecimiento, a saber: “añade un poco más de baba, siempre en la misma dirección, mientras vas girando”. El resultado es sin duda elegante. Cada espira encaja en la anterior de acuerdo con una proporción fija. Cada fragmento de línea contiene el plan de su trazo entero, como un patinador que sólo necesitase fijar la posición de la cuchilla para dibujar la pirueta perfecta.
Jacob Bernoulli (1654-1705) llamó spira mirabilis (espiral maravillosa) a este tipo de curvas y les dedicó un tratado entero con el mismo título. Aunque las espirales logarítmicas ya habían sido descritas por Descartes, Bernoulli profundizó en su estudio y describió con gran detalle sus propiedades matemáticas. Quedó tan fascinado que pidió que grabasen una espiral maravillosa en la lápida de su tumba, acompañada por la frase latina “eadem mutato resurgo”: aunque transformado, resurjo igual. Antes de estas últimas palabras, el matemático suizo le había dedicado muchas otras a la espiral de la caracola y su característica autosemejanza. Para él, podía “ser usada como un símbolo, ya sea de fortaleza y constancia ante la adversidad, o como símbolo de la constancia del cuerpo humano, el cual después de todos sus cambios, aún después de la muerte, será restaurado a su exacta y perfecta esencia”. Jacob fue, sin duda, el mayor fan de la espiral logarítmica que ha existido jamás.
A pesar de esta especie de recursividad infinita, la longitud de una espiral logarítmica está perfectamente acotada. Gracias a la proporción fija que dicta la relación entre sus sucesivas espiras, estas forman una serie geométrica convergente. No existen las caracolas interminables. Incluso podemos calcular su longitud a partir de una simple foto de perfil, midiendo únicamente sus ángulos y su altura, como explico al final de este artículo.
Imagen: GIPHY
Por lo demás, la autosemejanza es, probablemente, la propiedad más llamativa de esta curva marina y matemática. Es la que la distingue, principalmente, de otra espiral igualmente común que hoy conocemos por el nombre de Arquímedes. El físico griego la describió extensamente en su libro Sobre las espirales del siglo III a. C. Es la figura que forman los muelles espirales, o los caminos pedregosos de los discos de vinilo. En esta espiral, las distancias entre los brazos permanecen constantes pero no se conservan las proporciones, ni la identidad a distintas escalas. Por un desdichado error, el artesano que preparó la lápida de Bernoulli grabó en ella una espiral de Arquímedes, en lugar de una logarítmica. El pobre matemático suizo, habría chillado de dolor de haber podido, después de muerto. Lo que me cuesta entender es que casi cuatro siglos después, nadie haya asaltado su sepultura para corregir semejante atropello.
¿Cómo calcular la longitud de una caracola?
A vista de pájaro, la caracola describe una espiral plana que queda definida por la función r(θ) = ae bθ, en coordenadas polares. A partir de la fotografía y usando razones trigonométricas sencillas, como el teorema de los senos, es posible comparar la anchura de la caracola en su base y después de dar media vuelta. Esto nos permite estimar el valor de b, que caracteriza lo rápido que crecen la espiral logarítmica. Resulta que:
Conocido este parámetro, podemos integrar la función de la espiral para hallar su longitud en el plano, L = ae bθ/b, que no es más que el radio máximo de la espiral dividido por b. Si ahora desenroscamos imaginariamente la caracola, esta formará un canal en diagonal, de de base L y altura H. Por otra parte, el radio mayor de la espiral se relaciona con la altura mediante la relación tan α = ae bθ/H. Por lo tanto, la longitud total de la caracola vendrá dada por
con Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo La espiral maravillosa se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El hidrógeno en el Universo (II): El mapa espiral de la Vía Láctea
- El océano en una caracola
- Tema y variaciones
¿Saben aquel que dice … matemáticas? (I)
El humor es una actividad muy sana, así como una medicina recomendable para nuestra vida, sobre todo en momentos como el actual con la crisis del coronavirus, el confinamiento en nuestras casas de más de dos meses y un futuro incierto. Más aún, reírse de uno mismo es además un ejercicio muy saludable.
En esta entrada vamos a hablar de un tipo de humor que podríamos denominar “humor matemático”. Este tipo de humor no se define únicamente por el hecho de que se hable en los mismos de las matemáticas o de las personas que desarrollamos esta ciencia, sino que el pensamiento matemático y la propia esencia de la ciencia de Pitágoras (investigación matemática, demostraciones, razonamiento matemático, áreas de las matemáticas, conceptos matemáticos, problemas, etc) constituyen elementos fundamentales en este humor. Esto último hace que sean chistes que, en muchas ocasiones, no sean entendidos por todo el mundo.
Antes de iniciar este pequeño paseo por algunos chistes matemáticos, expliquemos el título de esta entrada del Cuaderno de Cultura Científica. Quienes tenemos una cierta edad nos acordamos de un humorista barcelonés muy conocido en las décadas de 1980 y 1990, Eugenio Jofra Ballalluy (1941-2001), de nombre artístico Eugenio y que se hizo famoso por los inicios de sus chistes “¿Saben aquel que dice/diu …?”
Por ejemplo, uno de sus chistes decía así:
Saben aquel que dice que se encuentran dos amigos y uno le diu al otro: ¿Sabes quién se ha muerto? ¿Quién? El Anselmo. Carai, ¿de qué? De cataratas. ¿Le operaron? No, le empujaron.
O este otro relacionado con las matemáticas:
Saben aquel que diu … un niño le dice a su padre: Papá, en el colegio nos han dicho que busquemos el máximo común divisor… Y el padre li diu: ¿Pero todavía no lo han encontrado? Cuando yo iba al colegio ya lo iban buscando.

Para empezar con los chistes matemáticos, vamos a empezar por una serie de chistes cortos, algunos muy sencillos y otros que quizás necesiten un pequeño comentario. Empecemos con dos sobre los problemas de matemáticas, algo muy relacionado con la educación de esta materia.
¿Por qué se suicidó el libro de matemáticas? Porque tenía demasiados problemas.
…
– ¿Papá, papá, me resuelves este problema de matemáticas?
– No hijo, no estaría bien.
– Bueno, inténtalo de todas formas.
Algunos chistes tienen que ver con la estadística, jugando con el mal uso de la misma o con las malas interpretaciones.
El 33 por ciento de los accidentes mortales involucran a alguien que ha bebido. Por tanto, el 67 por ciento restante ha sido causado por alguien que no había bebido. A la vista de estos datos, está claro que la forma más segura de conducir es ir borracho.
…
La inmensa mayoría de las personas tiene un numero de piernas superior al promedio.
Ya que la mayoría de las personas tenemos dos piernas, luego basta que exista una persona con una sola pierna para que la “media” baje de 2 y la mayoría estaríamos por encima de la media. O como la ciudad del Vaticano, donde reside el papa de la iglesia católica, tiene una extensión de medio kilómetro cuadrado, se puede deducir que:
La ciudad del Vaticano tiene dos Papas por kilómetro cuadrado.
Algunos chistes tienen que ver con conceptos matemáticos, por lo que hay que conocer estos o el chiste no se entenderá. Además, la esencia de muchos de ellos es un juego de palabras con otro significado de esa expresión matemática en la vida cotidiana.
¿Qué es un niño complejo? Uno con la madre real y el padre imaginario.
El concepto de número complejo es un concepto matemático nada intuitivo, que extiende de cierta forma al de número real. Los números reales son los que manejamos en nuestra vida cotidiana. El chiste se apoya en el hecho de que un número complejo es de la forma a + bi, para a y b números reales, donde i tiene el valor de la raíz cuadrada de – 1 (aquí es donde llega la imaginación matemática, ya que, a priori, no existe la raíz cuadrada de – 1, pero se ha demostrado que es útil considerar que sí existe), como el número complejo 2 + 3i, luego todo número complejo tiene una parte real a y una parte imaginaria bi.

Otro chiste dice así:
Me gustan los polinomios, pero solo hasta cierto grado.
Muchas personas recordarán los polinomios de cuando los estudiaron en el instituto, relacionados con las ecuaciones algebraicas. Un polinomio es una expresión algebraica que implica a una o varias incógnitas. Por ejemplo, la expresión 1 + x es un polinomio de grado uno, 3 – 5x + 7x2, es un polinomio de grado dos o 1 + 2x + 3x2 + 4x3 de grado tres.
Seguimos con los chistes cortos:
¿Qué es un oso polar? Un oso rectangular, después de un cambio de coordenadas.
Las coordenadas cartesianas (rectangulares) permiten determinar la posición de cada punto del plano en función de dos números que expresan la distancia del punto a los dos ejes coordenados, los cuales se cortan perpendicularmente en un punto especial, el origen. En esta imagen vemos algunos ejemplos (el signo negativo indica si se está en una parte o en otra respecto a los ejes).

Las coordenadas polares son otro sistema para determinar la posición de los puntos del plano, también dada en función de dos valores numéricos, aunque ahora son la distancia al origen de coordenadas, el centro, y el ángulo respecto a la horizontal. En la imagen puede verse un ejemplo.

Y se habla de cambio de coordenadas, cuando se tiene la posición en un sistema y se pasa al otro sistema, por ejemplo, de coordenadas cartesianas a polares.
Otro chiste corto sobre la ecuación algebraica de la curva llamada parábola (es la trayectoria de una pelota lanzada con un cierto grado hacia arriba y adelante) es el siguiente.
– Jesús les dice a sus discípulos:
– ¡en verdad os digo que y = x²!
– Los discípulos comentan entre sí, y dice pedro:
– Maestro, no entendemos…
– ¡Es una parábola, bruto!
Un chiste que me gusta mucho está relacionado con el hecho de que las personas que estudiamos e investigamos en matemáticas debemos ser muy precisos en nuestra ciencia. Todo tiene que estar bien demostrado y no podemos afirmar nada que no se apoye en la demostración. No hay lugar para la especulación, si luego no se sustenta con una prueba. Por ejemplo, aunque había indicios muy fuertes de que el teorema de Fermat era verdadero, no se consideró así hasta que no se demostró (puede leerse Euler y el último teorema de Fermat o el artículo Avatares literarios del último teorema de Fermat). Por supuesto que esto llevado a la vida cotidiana parece ridículo, sin embargo, es fundamental para la construcción del edificio matemático sobre el que se apoya la ciencia en general.
Una física, una ingeniera y una matemática van en un tren por Escocia. Al observar por la ventana ven una oveja negra.
– «Aja!», dice la ingeniera, «veo que las ovejas escocesas son negras».
– «Hmm…», dice la física, «querrás decir que algunas ovejas escocesas son negras».
– «No», dice la matemática, «todo lo que sabemos es que existe al menos una oveja en Escocia, y que por lo menos uno de sus lados es negro».
Este tipo de chistes, en los que queda en evidencia que los matemáticos somos precisos, exactos en nuestras conclusiones, pero que lo que hacemos no sirve para nada, es bastante habitual. Otro ejemplo:
Dos aventureros iban viajando en globo, cuando por efecto del viento se extravían y no saben dónde están. Después de unas horas ven a alguien paseando en una pradera, y deciden bajar con el globo para preguntar a esa persona por su localización.
– Hola, buenos días, nos podría decir dónde estamos.
La persona a la que han preguntado se queda pensando un rato y al final les dice:
– Están ustedes en un globo.
Entonces uno de los viajeros le dice al otro:
– Venga, vámonos, que hemos tropezado con un idiota.
– No, hombre, no es idiota, lo que pasa es que es matemático.
– Ah, ¿sí? y ¿cómo lo sabes?
– Pues muy sencillo, mira. Le hemos hecho una pregunta bien sencilla, que cualquier persona normal podría contestar inmediatamente sin problema, pero él se ha quedado un buen rato pensando la respuesta, y al final nos ha dicho algo que es absolutamente cierto, pero que ya sabíamos y que además no nos sirve para nada.

Muchos chistes están basados en la forma en que los matemáticos desarrollamos nuestras matemáticas. Los matemáticos y matemáticas vamos obteniendo nuevos resultados a partir de los que ya han sido obtenidos previamente. Construyendo nuestra ciencia sobre lo anteriormente construido. Por eso, en ocasiones un método para resolver un nuevo problema puede ser convertirlo en uno que ya está resuelto y por lo tanto aplicar el que ya está resuelto para dar por concluido el nuevo problema. Esto que en matemáticas significa simplificar las cosas y un ahorro de tiempo y esfuerzo, en la vida cotidiana puede sonar a ir dando un rodeo en lugar de ir hacia delante, y es motivo además de muchos chistes, como los siguientes.
Le preguntan a un matemático cómo freír un huevo, a lo que contesta:
– Sacaría la sartén del armario y la pondría en la cocina, echaría aceite en la sartén, después de sacar la botella de su armario, encendería el fuego, después cogería un huevo de la nevera y cuando el aceite estuviese caliente lo echaría en la sartén, con un poco de sal, y cuando estuviese hecho lo sacaría a un plato.
– ¿Y si el aceite y los huevos estuviesen ya en la encimera de la cocina?
– Entonces los guardaría de nuevo, en el armario y la nevera, y seguiría los pasos anteriores.
En muchos de los problemas que estudiamos los matemáticos, lo primero que nos preguntamos es si existe solución al problema (hay teoremas que prueban la existencia de solución), además si existe solución al problema nos preguntamos si la solución es única. Para algunos problemas no se puede decir más y aunque parezca mentira ese tipo de resultados es muy importante. Por último, aunque en los buenos casos se hace todo a la vez, se intenta diseñar métodos de resolución del problema, para obtener soluciones concretas. Por eso hay muchos chistes que nos muestran a los matemáticos como satisfechos con solo saber que la solución existe, aunque no la calculemos. Veamos un par de ejemplos, el primero comparando varios tipos de científicos.
A un grupo de personas con profesiones relacionadas con la ciencia les preguntan cuánto son 2 +2, y en función de su formación responden lo siguiente:
Ingeniería: 3,9968743
Física: 4,000000004 ± 0.00000006
Matemáticas: Espere… sólo unos minutos más … ya he probado que la solución existe y es única… pero ahora la estoy acotando…
Filosofía: ¿Qué quiere decir 2+2?
Lógica: Defina mejor 2+2 y le responderé.
Contabilidad: Cierra las puertas y ventanas y pregunta en voz baja «¿Cuánto quiere que sea el resultado?»
Informática: Consigue acceder ilegalmente a un superordenador, escribe un programa para calcularlo, y dice que la respuesta es 5, salvo por un par de errores en el programa que se corregirán pronto.
Y otro algo más sangrante aún.
Una ingeniera, una física y una matemática se quedan en un hotel a pasar la noche. La ingeniera nota que su cafetera está echando humo, así que se levanta de la cama, la desconecta, la pone en la ducha y la enfría, luego vuelve a la cama.
Un poco más tarde, la física huele humo también. Se levanta, y ve que una colilla ha caído en una papelera, y algunos papeles han prendido. Empieza a pensar «Hmm! Esto podría ser peligroso si el fuego se extendiera, las altas temperaturas podrían matar a alguien. Debería apagar este fuego. ¿Cómo puedo hacerlo? Vamos a ver… podría hacer descender la temperatura de la papelera por debajo del punto de ignición del papel, o quizás aislar el combustible del oxígeno… vaya, podría echar agua.» Así que coge la papelera, se va a la ducha, y la llena de agua. Luego se va a dormir.
La matemática se da cuenta de que su cama está ardiendo porque unas cenizas de su pipa han prendido en el colchón. Pero como ha estado viendo a sus compañeras antes, sabe que existe solución al problema del fuego, por lo que no se preocupa y se echa a dormir… mientras la cama sigue ardiendo.

Las personas que trabajamos dentro de las matemáticas tenemos fama de ser gente que trabajamos mucho y que además estamos absortos en nuestro mundo. Esto es la base de algunos chistes, entre ellos el siguiente.
Un médico, un abogado y un matemático están hablando de si es mejor tener esposa o amante.
Empieza a reflexionar el abogado:
– Obviamente, lo mejor es tener amante. Porque si las cosas van mal con tu esposa, el divorciarte de ella puede ser muy difícil, con un montón de problemas legales, reparto de los bienes, juicios por la custodia de los hijos o por alguna propiedad, en cambio cortar con la amante es más fácil.
El médico dice:
– No, no, está claro que lo mejor es tener una esposa, ya que el tener una mujer te da estabilidad emocional, te evita el estrés y mejora tu salud. Así puedes llevar una vida saludable y desarrollar bien tu trabajo.
El matemático dice:
– Lo mejor es tener las dos. Así mientras tu mujer piensa que estás con tu amante y esta piensa que estás con tu mujer, tú puedes hacer matemáticas.
Otro tipo de chistes tienen que ver con el hecho de que debemos definir bien el problema.
A una ingeniera, una física y una matemática les ponen como problema el construir una valla alrededor de una casa utilizando la menor cantidad posible de madera. La ingeniera va y construye una valla pequeñita. La física hace los planos de algo parecido a una valla, justo al lado de las paredes de la casa, y tan ligerito que para que no se caiga lo tiene que apoyar a la casa. Pero la matemática coge un palillo, lo rompe en tres trozos, los pone en forma de triángulo sobre una mesa fuera de la casa y dice: «Como la Tierra es topológicamente una esfera, esto está rodeando a la casa.»
Como la Tierra es como una esfera, si tenemos una valla, esta rodea las zonas a ambos lados de la misma.

En ocasiones también el hecho de que estemos siempre trabajando con teorías y objetos abstractos es motivo para algunos chistes…
Una matemática y un físico van a una conferencia de física teórica, con teorías de Kaluza-Klein involucrando espacios de dimensión 9. El físico está hecho polvo al cabo de un rato, pero la matemática parece interesada, así que el físico le pregunta aburrido:
– Oye, ¿cómo puedes aguantar este rollo?
– Bah, es fácil, todo consiste en visualizarlo.
– Pero ¿cómo visualizar un espacio de dimensión 9?
– Visualizo un espacio de dimensión n y luego hago n igual a 9.
Hay quienes piensan que las matemáticas son muy complicadas, por lo que el cerebro de un matemático o matemática debe ser especial. En el libro Mathematical Circles Revisited» (reeditado por MAA en 2003) su autor Howard W. Eves cuenta que hace unos años en los congresos de Matemáticas se puso de moda el siguiente chiste.
Había una vez un cirujano que descubrió como quitar el cerebro de una persona y reemplazarlo por el tipo de cerebro que el paciente desease. Por supuesto diferentes tipos de cerebro costaban diferente cantidad de dinero.
Un día un paciente se le presentó al cirujano y le dijo que quería cambiar su cerebro. «Bien», dijo el cirujano, «¿Qué clase de cerebro desea usted? Los hay de diferentes precios. Por ejemplo, el cerebro de un abogado sale por 600 euros los 100 gramos, o el de un juez sale por 3.000 euros, y así otros precios».
«Oh! Pero yo no quiero esa clase de cerebros», dijo el paciente, «a mí me gustaría el cerebro de un profesor universitario».
«Veo que tiene usted un gusto exquisito y caro», le contestó el cirujano. «Ahora bien, el cerebro de un profesor de universidad de filología le costaría 600.000 euros, los 100 gramos, o el cerebro de un profesor de universidad de historia le costaría 1.200.000 euros, los 100 gramos, ¿de qué tipo de profesor de universidad desea usted el cerebro?».
«Me gustaría tener el cerebro de un profesor universitario de matemáticas», afirmó el paciente.
«Ya veo que su gusto es realmente caro», le dijo el cirujano. «Esos son los cerebros más caros de todos. Cuestan 6.000.000 euros, los 100 gramos».
«Eso es increíble» replicó el paciente. «¿Por qué cuesta tanto el cerebro de un matemático? Si el precio del cerebro de un abogado es de 600 euros por cada 100 gramos y el de un juez 3.000 euros por cada 100 gramos, ¿por qué cuesta el cerebro de un profesor universitario de matemáticas 6.000.000 euros por cada 100 gramos?».
«Oh!, creo que usted lo puede entender perfectamente» le dijo el cirujano. «Imagine la gran cantidad de matemáticos que se necesitarían para obtener 100 gramos de cerebro.»

Para finalizar, un chiste para quienes las matemáticas les siguen pareciendo difíciles.
Han inventado unas píldoras del conocimiento, y ávidamente los estudiantes van corriendo a la farmacia y empiezan a atiborrarse de píldoras de literatura, historia, religión… al cabo de un rato, uno de ellos le pregunta al farmacéutico:
– Oiga, ¿y no tiene ninguna para aprender matemáticas?
– Sí, espere un poquito…
El farmacéutico se mete en la trastienda, y al cabo de un rato aparece con algo que parece un melón.
– ¿Tan grande?
– Bueno, ya sabes que las matemáticas siempre fueron difíciles de tragar…

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo ¿Saben aquel que dice … matemáticas? (I) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La extraordinaria capacidad poética de las matemáticas
- Las dos culturas de las matemáticas: construir teorías o resolver problemas
- FUN WITH MATHS, diversión con matemáticas
Juntando semiconductores: amplificadores y memorias RAM

El efecto neto de un transistor es amplificar (aumentar) la corriente de izquierda a derecha. Esto tiene numerosas aplicaciones, entre ellas la más simple es la amplificación de voltajes en sí misma. Otra es la creación de memorias dinámicas de acceso aleatorio.
Amplificador

Si colocamos una resistencia grande en un circuito que contenga un transistor, como el de la figura de arriba, podemos amplificar el voltaje entrante, ya que de acuerdo con la ley de Ohm, el voltaje es igual a la intensidad multiplicada por la resistencia. Entonces, la intensidad de una corriente que atraviesa una resistencia pequeña se corresponde con un voltaje pequeño. Pero si se hace que la misma corriente atraviese una resistencia mucho mayor, producirá un voltaje mucho mayor, es decir, el voltaje de entrada pequeño se verá amplificado para producir un voltaje de salida grande.
Por ejemplo, el voltaje amplificado puede corresponder a una porción de una onda de sonido digital, en la cual la onda analógica ha sido aproximada por una serie de voltajes únicos. Esta pequeña porción de la onda (un bit) puede ser representada por un pequeño voltaje recibido en el transistor procedente de una señal recibida por un teléfono móvil. El voltaje amplificado del transistor se puede enviar a los altavoces de los auriculares, que convierten esta señal amplificada en una vibración emitida como una onda de presión que tus oídos perciben y tu cerebro interpreta como, digamos, Rosalía cantando La llorona.
Dispositivo lógico
Un transistor puede actuar como un diodo al permitir que pase la corriente o al impedir el flujo de corriente, dependiendo del voltaje en la base. Al combinar los transistores p-n-p y n-p-n, junto con los diodos, se pueden crear varios sistemas lógicos y «puertas». Una de las aplicaciones más útiles de esto se encuentra en la creación de «memoria de acceso aleatorio dinámico» (DRAM) en ordenadores, dispositivos que almacenan datos a los que se puede acceder a voluntad en orden aleatorio. [1]

Como es bien sabido, la información se almacena digitalmente en los ordenadores, es decir, se almacena en forma de cadenas de números binarios formados solo por unos y ceros. Cada número binario (ya sea 1 o 0) se llama «bit» (ocho bits forman un «byte»). Por ejemplo, el número binario 10101010, que tiene ocho bits (formando un byte), es equivalente en el sistema decimal al número 170. Si escribimos el número 170 en una hoja de cálculo y la guardamos, el ordenador primero convertirá el número decimal 170 al número binario 10101010; luego asignará cada uno de los ocho bits a una sola celda dentro de la memoria dinámica de acceso aleatorio que representamos en la imagen de arriba. Cada bit corresponderá a la carga en un dispositivo llamado condensador, que, en principio, son solo dos placas que se mantienen próximas entre sí (┤├). Si el bit es 1, el condensador recibirá una pequeña carga. Si el número es 0, no recibe ninguna carga.
Si ahora le pedimos al ordenador que recupere el número 170 de la memoria, la solicitud se envía a la «línea de palabras” (word line) como un voltaje positivo, que luego se aplica a la base del transistor en cada uno de los circuitos de esa línea. Como la base ahora es positiva, la carga en el condensador puede fluir a través del transistor y hacia arriba a través de la «línea de bits» (bit line) hasta el procesador que detecta la corriente e identifica el número en esa celda como 1. Por supuesto, si no hay una carga almacenada en el condensador no habrá corriente en la línea de bits, y ese bit se identificará como 0. En la imagen de arriba vemos un esquema de las celdas de los ocho bits para el número decimal 170. Este diagrama representa solo un byte de memoria. [2]
Notas:
[1] La capacidad de estas memorias RAM es lo que te permitirá ver películas de forma fluida o jugar a videojuegos que requieran un procesamiento muy rápido de gráficos de alta calidad, como Fortnite.
[2] El ordenador en el que se ha escrito esta serie tiene 4 gigabytes de memoria RAM, esto es, 4.000.000.000 (cuatro mil millones) de bytes, o sea, esa cifra de esquemas como el de arriba.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Juntando semiconductores: amplificadores y memorias RAM se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Juntando semiconductores: contrucción y funcionamiento del transistor
- Juntando semiconductores: LEDs y rectificadores
- Juntando semiconductores: el diodo n-p
La recuperación de la vida marina en el Abra de Bilbao

La comarca del Gran Bilbao ha mostrado históricamente una estrecha relación con el río Nervión-Ibaizabal. Desde el siglo XIX, su cauce ha venido recibiendo grandes volúmenes de aguas residuales de origen doméstico, siderometalúrgico, minero e industrial, ante la creencia de que el medio marino podría asimilar toda esa carga contaminante. Sin embargo, las condiciones ambientales naturales del Abra de Bilbao se vieron alteradas de forma drástica.
Afortunadamente, la mayor sensibilidad y conciencia ambiental de la sociedad se tradujo en la puesta en marcha en 1984 del ‘Plan de Saneamiento Integral de la comarca del Gran Bilbao’ promovido por el Consorcio de Aguas Bilbao-Bizkaia que, junto con la paulatina transformación medioambiental de las industrias, fue produciendo una mejora paulatina de la calidad de las aguas y de la vida animal y vegetal de los fondos rocosos del Abra.
Las algas y los invertebrados que viven fijos a la roca son excelentes indicadores ecológicos para evaluar la calidad de las aguas. Debido a su naturaleza sésil (sin capacidad de movimiento) o sedentaria, acumulan los efectos de la exposición prolongada a la contaminación, dando una visión general del estado ecológico de un lugar en relación a los contaminantes y a las variables naturales existentes.

La fuerte contaminación sufrida durante décadas en el Abra de Bilbao ocasionó la degradación ambiental de las comunidades biológicas originalmente existentes. La flora y fauna que ocupaba el lecho marino rocoso sufrió los efectos perjudiciales del aumento en la turbidez del agua, en la tasa de sedimentación y la concentración de sustancias tóxicas que junto con la menor disponibilidad de oxígeno originaron la desaparición masiva de muchas especies. En concreto, la zona intermareal rocosa (descubierta en bajamar) quedaba anegada por un fino depósito de fango y permanecía prácticamente sin vida en gran parte del Abra. Sólo las especies más tolerantes a la contaminación, como el alga roja Gelidium pusillum y gusanos del género Boccardia eran capaces de soportar unas condiciones ambientales tan adversas y estresantes.
En las campañas periódicas de muestreo llevadas a cabo por la UPV/EHU desde el año 1984 hasta la actualidad se ha podido constatar cómo la transformación industrial y la implementación gradual de los planes de saneamiento de aguas residuales han hecho posible un descenso en la contaminación, permitiendo el proceso de recuperación de la fauna y la flora desde mar abierto hacia las zonas más internas del Abra.
Han sido numerosos los cambios positivos que han favorecido el desarrollo de comunidades más maduras. La mejora en las condiciones ambientales ha facilitado el incremento de la diversidad, el aumento de la cobertura algal, el retroceso de algas morfológicamente sencillas frente al avance de especies más complejas con mayores requerimientos ambientales, el aumento de la variedad de estrategias tróficas de la fauna, y la restauración del equilibrio fauna/flora.

Todos estos cambios se han sucedido de forma escalonada en el tiempo. Una primera etapa de mejora quedó identificada por el desarrollo de poblaciones de especies que de forma natural dominan los intermareales de la Costa Vasca: las algas calcáreas de color rosáceo Ellisolandia elongata y Lithophyllum incrustans. Acompañando a esta vegetación aún no muy diversa, quedaba favorecida la fauna filtradora formada por bancos amplios del mejillón Mytilus galloprovincialis, mientras que las lapas herbívoras del género Patella comenzaban a recolonizar la superficie de las rocas.
Posteriormente, el desarrollo de las mejoras ambientales permitieron el aumento de la diversidad con la entrada de especies sensibles, como las algas Bifurcaria bifurcata y Halopteris scoparia y de invertebrados típicos de costa abierta como la anémona Anemonia viridis. Además, la fauna filtradora retrocedió, favoreciendo el avance de los herbívoros y la diversidad de estrategias tróficas con la presencia de invertebrados carnívoros como el gasterópodo Ocenebra erinaceus. El desarrollo de las comunidades bentónicas (organismos que viven sobre el fondo marino) trajo además otros cambios positivos en el ecosistema, aportando recursos básicos como el de refugio, cría de alevines y alimentación para especies de peces típicas de ambientes no contaminados.
Actualmente, las comunidades continúan en fase de recuperación hacia estadíos propios de zonas limpias. A pesar de las medidas de mitigación implantadas y de los cambios favorables ya registrados, aún destaca la escasez de algas de morfología compleja y de herbívoros, entre otros aspectos.

Los programas de seguimiento llevados a cabo en el Abra han aportado una información biológica necesaria de gran valor para proponer modelos de gestión y recuperación, además de contribuir al conocimiento en la elaboración de directivas europeas para la protección del medio marino. En este sentido, el estudio continuado del proceso de recuperación del Abra posibilitará obtener información científica única y muy valiosa que permita proteger, restaurar y gestionar de forma adecuada nuestros recursos marinos.
Sobre los autores: María Bustamante, Isabel Díez, Javier Tajadura, Endika Quintano, Nahiara Muguerza, José Ignacio Saiz Salinas y José María Gorostiaga Garai son investigadores del Grupo de Investigación Bentos Marino UPV/EHU
El proyecto «Ibaizabal Itsasadarra zientziak eta teknologiak ikusita / La Ría del Nervión a vista de ciencia y tecnología» comenzó con una serie de infografías que presentan la Ría del Nervión y su entorno metropolitano vistos con los ojos de la ciencia y la tecnología. De ese proyecto han surgido una serie de vídeos y artículos con el objetivo no solo de conocer cosas interesantes sobre la ría de Bilbao y su entorno, sino también de ilustrar como la cultura científica permite alcanzar una comprensión más completa del entorno.
El artículo La recuperación de la vida marina en el Abra de Bilbao se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La recuperación de la fauna en la ría de Bilbao
- 40 años del Plan Integral de Saneamiento del Bilbao Metropolitano
- Naukas Bilbao está en marcha
El polvo del Sáhara

Hace unos años leí que la fertilidad del suelo en las innumerables islas del Pacífico se mantenía, entre otros factores, por la llegada de polvo desde las capas altas de la atmósfera y llevado por el viento desde las estepas y desiertos del Asia Central. El polvo llega a Corea, Japón, las islas del Pacífico y, atravesando el océano y en una semana, hasta Canadá y Estados Unidos. Lo leí en el libro, muy recomendable, “Colapso. Por qué unas sociedades perduran y otras desaparecen”, de Jared Diamond.
Poco después, conocí las lluvias de barro del Levante español o la calima de Canarias. Era el polvo del Sáhara, que veremos en detalle más adelante. Ahora, volvamos al Pacífico. No es fácil calcular la cantidad de polvo que el viento transporta desde las llanuras centrales de Asia. Según Taichi Tanaka y Masaru Chiba, del Instituto de Investigación Meteorológica de Tsukuba, en Japón, las cantidades de polvo se dan en teragramos, es decir 1012 gramos, o sea, 1000000000000 gramos, un 1 seguido de 12 ceros. O, más fácil de captar, 106 toneladas o un millón de toneladas. Esta es la unidad de medida. Pues bien, Tanaka y Chiba calculan que de las llanuras de Asia salen 214 teragramos de polvo por año o, si se quiere, 214 millones de toneladas. Es una cifra siempre en debate y muy cambiante cada año, según la intensidad y dirección del viento y otras condiciones del clima.
Este polvo mantiene la fertilidad de las islas del Pacífico, como escribía Jared Diamond, pero también aumenta la productividad del propio océano. Joo-Eun Yoon y sus colegas, de la Universidad Nacional de Incheon, en Corea, lo han estudiado, en el norte del Pacífico, analizando la concentración de clorofila en el agua, una medida indirecta del crecimiento de algas microscópicas o fitoplancton. Los episodios más fuertes de viento con polvo se dan en el mes de abril, con más de la mitad del total, según datos tomados entre 1998 y 2014. Como medida del polvo en suspensión en la atmósfera utilizan su transparencia o, según la terminología técnica, su capacidad de aerosol. Todos los datos se toman de satélites preparados para tomar esas medidas.
El análisis de los resultados demuestra que la concentración de clorofila y, por tanto, la productividad en algas del Pacífico norte, crece más del 70% en los episodios de viento del oeste y polvo en suspensión.
Una consecuencia inesperada de este aumento de productividad, y de clorofila en el océano, supone la utilización de dióxido de carbono en la fotosíntesis de las algas y, en consecuencia, en la toma de carbono de la atmósfera, con disminución de gases de efecto invernadero y mitigación del cambio climático.
Pero este aumento de productividad llega lejos, como decía antes, hasta Estados Unidos y Canadá, y mantiene la fertilidad del suelo también a millones de kilómetros. El equipo de S.M. Aciego, de la Universidad de Michigan en Ann Arbor, lo ha estudiado en las montañas de la Sierra Nevada, en California.
El nutriente más importante que llega con el polvo es el fósforo, con 1.5 miligramos por gramo de polvo y, recordad, antes hablamos de teragramos o, si se quiere, millones de toneladas. El fósforo que llega a Sierra Nevada repone el perdido por erosión y por arrastre en el agua de la lluvia. Supone el 10%-20% del fósforo que llega al suelo de los bosques.

Volvamos a nuestro entorno más cercano, al Sáhara y su polvo. Supone, con los cálculos de Tanaka y Chiba, más del 58% del contenido en polvo de la atmósfera del planeta, con algo más de 1100 millones de toneladas al año, pero, como decía, son cifras siempre en debate y muy variables. Para acercar este polvo a nuestra geografía, repasemos la revisión de José Quereda y Jorge Olcina, de la Universidad de Alicante, sobre las lluvias de barro en la vertiente mediterránea de la Península. Siempre faltan algunos datos pues, hasta muy recientemente, las lluvias de barro eran un fenómeno que no se anotaba en los informes meteorológicos.
Son, como escriben los autores, las lluvias de barro, lluvias de tierra roja o, incluso, las lluvias de sangre de la Biblia y, no hay que olvidarlo, de los condenados de Charles Fort. Hacia el norte de la Península, y en Europa, son más raras que en el Mediterráneo, pero en absoluto desconocidas, como luego veremos.
La composición de las lluvias de barro del Levante lleva carbonatos de calcio y de magnesio. En el análisis de una lluvia de barro que cayó en Castellón en 1993, se encontró calcio, magnesio, sodio y potasio.
Como ocurría en los bosques de California, también en el Mediterráneo el polvo del Sáhara aporta nutrientes a los árboles. Por ejemplo, en el estudio que publicó Anna Ávila, de la Universitat Autònoma de Barcelona, en el macizo del Montseny, con datos desde 1983 a 1998, el polvo llevó nutrientes al suelo en el que crece el encinar. La composición del polvo prueba que proviene del Sáhara occidental y central y del Atlas de Marruecos. De los 58 episodios de lluvia de barro que están anotados en esos 15 años, el 60% del polvo llegó solo en dos, en 1985 y 1991.
El polvo aporta al encinar el 100% del fósforo, el 27% del potasio, el 45% del calcio y el 84% del magnesio que necesita como nutrientes.
No solo a las montañas, sino también a los lagos de altura como, por ejemplo y según el estudio de Anna Hervàs y su grupo, llega el polvo del Sáhara. Lo han demostrado en tres lagos de altura de los Pirineos centrales con la llegada de bacterias que, con muestreos paralelos, han encontrado que también se encuentran en las arenas del Sáhara en Mauritania. Algunas de ellas incluso son potencialmente patógenas. Y, por supuesto, también llegan nutrientes a las aguas de los lagos.
También el polvo del Sáhara llega a las islas del Mediterráneo. El grupo de Ll. Feol, de la Universitat de les Illes Balears, lo ha estudiado en las lluvias de barro en Mallorca. Fueron 253 episodios en los 22 años que van de 1982 a 2003, con gran variabilidad del número de lluvias, como es habitual, y que van de las 29 del año 1999 a solo una en 1981.
Los datos de las cantidades que se depositan sugieren a los autores que suponen un proceso sedimentario importante en las islas. Se depositan, de media, 14 gramos de polvo por metro cuadrado de suelo, pero hay picos de hasta 35 gramos por metro cuadrado. Quizá impresiona más si se traduce a 140 y 350 kilogramos de polvo por hectárea y año.

Es obvio que, además, el polvo del Sáhara contribuye a la contaminación con micropartículas en la atmósfera en la Península y en los archipiélagos. El estudio de Xavier Querol y su grupo, del Instituto de Diagnóstico Ambiental y Estudios del Agua del CSIC, en Barcelona, muestra que las concentraciones de los PM2.5 y PM 10 se multiplican hasta tres veces en episodios de polvo del Sáhara. Las PM2.5 y PM10 son pequeñas partículas sólidas, micropartículas, con un diámetro de 2.5 o 10 micrómetros, medida que es la millonésima parte de un milímetro.
Como ocurría en el norte del Pacífico con el polvo de Asia Central, también el Mediterráneo aumenta su productividad con el polvo del Sáhara. Son resultados del grupo de Mario Cabrerizo, de la Universidad de Granada, en el Mar de Alborán, con datos recogidos entre 1979 y 2016, con la conocida variabilidad en el número de episodios de cada año. Reproducen las condiciones en el laboratorio y muestran el aumento de productividad con el crecimiento de algas microscópicas o fitoplancton, tal como ocurre en el Pacífico.
Acabo con un resumen de hasta donde llega el polvo del Sáhara que, hay que recordar, supone la mayor cantidad de polvo en la atmósfera según los cálculos de Tanaka y Chiba. Los vientos que predominan en el Sáhara son del este y del sur y, por ello, el polvo llega al Atlántico cuando se mueve hacia el oeste, y hasta Europa cuando se mueve hacia el norte. A la Península llega el polvo del Sáhara con más frecuencia al centro y al sur, en verano, y con vientos del sur, según datos de 2005 a 2016, analizados por A. Russo y sus colegas de la Universidad de Lisboa.
En Europa es habitual en el Mediterráneo y llega a los Balcanes, pero en episodios menos corrientes se ha encontrado polvo del Sáhara en Escocia, Suecia, Polonia o los estados bálticos. Cuando el viento es del este, el polvo atraviesa el Atlántico y llega al Caribe y a Sudamérica, por ejemplo, a las cuencas del Amazonas y del Orinoco y, por el camino, se ha encontrado en el Mar de los Sargazos.
Incluso, con viento tormentoso de oeste sobre el Sáhara, el grupo de Jessie Creamean, de la Universidad de California en San Diego, han demostrado que el polvo del desierto atraviesa África y Asia, se une el polvo de China, atraviesa el Pacífico y llega a las montañas de California- Allí, las partículas de polvo forman núcleos de hielo que concentran agua y provocan lluvias en la costa oeste de Estados Unidos. Los autores proponen que ese polvo atmosférico ayuda a renovar los recursos de agua y a aumentar la potencia hidroeléctrica de la costa oeste de Estados Unidos.
Referencias:
Aciego, S.M: et al. 2017. Dust outpaces bedrock in nutrient supply to montane forest ecosystems. Nature Communications DOI: 10.1038/ncomms14800
Ávila, A. 1999. Las lluvias de barro y el transporte y deposición de material sahariano sobre el nordeste de la Península Ibérica. Orsis 14: 105-127.
Cabrerizo, M.J. et al. 2016. Saharan dust inputs and high UVR levels jointly alter the metabolic balance of marine oligotrophic ecosystems. Scientific Reports 6: 35892
Creamean, J.M. et al. 2013. Dust and biological aerosols from the Sahara and Asia influence precipitation in the western U.S. Science 339: 1572-1578.
Diamond, J. 2006. Colapso. Por qué unas sociedades perduran y otras desaparecen. Random House Mondadori. Barcelona. 752 pp.
Fiol, Ll.A. et al. 2005. Dust rains in Mallorca (Western Mediterranean): Their occurrence and role in some recent geological processes. Catena 63: 64-84.
Hervàs, A. et al. 2009. Viability and potential for immigration of airborne bacteria from Africa that reach high mountain lakes in Europe. Environmental Microbiology 11: 1612-1623.
Korle, L.F. et al. 2017. Downward of particle fluxes of biogenic matter and Saharan dust across the equatorial North Atlantic. Atmospheric Chemistry and Physics 17: 6023-6040.
Marinou, E. et al. 2017. Three-dimensional evolution of Saharan dust transport towards Europe based on a 9-year EARLINET-optimized CALIPSO dataset. Atmospheric Chemistry and Physics 17: 5893-5919.
Quereda Sala, J.J. & J. Olcina Cantos. 1994. Lluvias de barro en la vertiente mediterránea de la Península Ibérica. Investigaciones Geográficas 12: 7-22.
Querol, X. et al 2019. African dust and air quality over Spain: It is only dust that matters? Science of the Total Environment 686: 737-752.
Russo, A. et al. 2020. Saharan dust intrusions in the Iberian Peninsula: Predominant synoptic conditions. Science of the Total Environment doi: 10.1016/j.scitotenv.2020.137041
Tanaka, T.Y. & M. Chiba. 2006. A numerical study of the contributions of dust source regions to the global dust budget. Global and Planetary Change 52: 88-104.
Yoon, J.-E. et al. 2017. Spatial and temporal variabilities of spring Asian dust events and their impacts on chlorophyll-alpha concentrations in the western North Pacific Ocean. Geophysical Research Letters doi: 10.1002/2016GL0782124
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo El polvo del Sáhara se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Catástrofe Ultravioleta #27 VOZ 2

Imagina una tecnología capaz de reconstruir la voz de una persona que ya no puede hablar a partir de viejas grabaciones. En esta segunda entrega del especial de dos capítulos dedicados a la voz humana hablamos de las posibilidades que ofrecen algunos programas de reconstrucción de voz y de lo que algunas personas pueden hacer con su aparato fonador y mucha paciencia. ¡Y revelamos la verdad sobre Peláez y la coliflor!
Para donar tu voz al proyecto de Inma Hernáez: https://aholab.ehu.eus/aholab/
Escúchanos aquí:
Agradecimientos: Marco Sánchez, José Robles, Inma y Arantza Hernáez, Proyecto Revoice, Fundación Luzón, Grison, Ricardo Castella, Almudena Castro, Arthur C. Clark. “Voces invitadas”: Lorena Álvarez, Julián Mayorga, Cris Blanco y Alonso Díaz Carmona
** Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) para Podium Podcast con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.
El artículo Catástrofe Ultravioleta #27 VOZ 2 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Catástrofe Ultravioleta #26 VOZ 1
- Preparados para una Catástrofe Ultravioleta
- Catástrofe Ultravioleta #13 LEVIATÁN
Nuevos fármacos contra las enfermedades hepatorrenales poliquísticas

Las enfermedades hepatorrenales poliquísticas son trastornos genéticos hereditarios caracterizados por el desarrollo progresivo de múltiples quistes sintomáticos en los riñones o el hígado, que pueden producir alteraciones en la función de dichos órganos o complicaciones relacionadas con su crecimiento. En la actualidad no existen tratamientos farmacológicos eficaces y la única opción curativa es el trasplante de dichos órganos.
Investigadores de la UPV/EHU dirigidos por el Dr. Fernando Cossío (UPV/EHU), director científico de Ikerbasque, y del grupo de Enfermedades Hepáticas del IIS Biodonostia, dirigido por el investigador Ikerbasque Dr. Jesús M. Bañales, han colaborado en el desarrollo de nuevos fármacos que han demostrado ser eficaces en la disminución del crecimiento de los quistes hepáticos y renales de modelos experimentales de dicha enfermedad, lo que puede tener gran transcendencia clínica. Este proyecto multidisciplinar liderado entre ambas instituciones vascas ha contado con la colaboración de investigadores de la Universidad de Salamanca, dirigido por el Dr. José J. G. Marín, del Instituto Idibell de Cataluña, dirigido por el Dr. Manel Esteller, y del Instituto Hormel de Minnesota (EE. UU.), encabezados por el Dr. Sergio Gradilone.
Los fármacos desarrollados se basan en la estructura del ácido ursodeoxicólico (UDCA), un ácido biliar presente en nuestro cuerpo en concentración baja y que tiene propiedades protectoras para el hígado. De hecho, su administración está indicada para el tratamiento de algunas enfermedades del hígado. Los investigadores se han basado en la estructura y propiedades de esta molécula para diseñar y sintetizar una familia de derivados químicos dirigidos a inhibir una proteína clave en la promoción del crecimiento de los quistes hepatorrenales. Los resultados publicados han demostrado que estos nuevos fármacos son capaces de bloquear el crecimiento de los quistes hepáticos y renales en un modelo animal de esta enfermedad.
Referencia:
Caballero‐Camino, F.J., Rivilla, I., Herraez, E., Briz, O., Santos‐Laso, A., Izquierdo‐Sanchez, L., Lee‐Law, P.Y., Rodrigues, P.M., Munoz‐Garrido, P., Jin, S., Peixoto, E., Richard, S., Gradilone, S.A., Perugorria, M.J., Esteller, M., Bujanda, L., Marin, J.J., Banales, J.M. and Cossio, F.P. (2020) New synthetic conjugates of ursodeoxycholic acid inhibit cystogenesis in experimental models of polycystic liver disease Hepatology doi: 10.1002/hep.31216
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Nuevos fármacos contra las enfermedades hepatorrenales poliquísticas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un modelo teórico para acelerar el descubrimiento de nuevos fármacos
- María Trinidad Herrero, una científica contra las enfermedades neurodegenerativas #WomeninSTEM
- Avances contra la enfermedad de hígado graso no alcohólica
Las cremas solares no bastan: lo que debemos tener en cuenta para protegernos del sol
María Victoria de Gálvez

Además de las cremas solares, a la hora de protegernos del sol conviene tener en cuenta otros parámetros si pretendemos asegurar que la salud de la piel no se resiente en verano. A saber: sombrillas, prendas de vestir y de baño e incluso la alimentación.
Índice ultravioleta (UVI)
Para evitar las quemaduras solares, la Organización Mundial de la Salud ha establecido el llamado índice ultravioleta (UVI), que ofrece valores desde 1 (bajo) hasta 11 (muy alto). La recomendación es tomar precauciones frente a la exposición solar a partir de un valor UVI de 3.
Para conocer los datos de UVI local podemos consultar diferentes canales de información, páginas web como la de la AEMT o aplicaciones móviles como UV-DERMA, creada por la Universidad de Málaga y avalada por la Academia Española de Dermatología y Venereología (AEDV).
Además de ofrecer recomendaciones en fotoprotección, la aplicación estima el tiempo que una persona puede permanecer al sol sin quemarse en función de su fototipo y localización geográfica.
En general, conviene tener en cuenta que, aunque el uso de fotoprotectores tópicos es la medida más utilizada, lo más eficaz es evitar la exposición solar en las horas centrales del día. Es decir, entre las 12 y 16 horas, que es la franja horaria en que la irradiancia solar que alcanza la Tierra es mayor. Por otro lado, la dosis de crema importa. Estudios recientes revelan que solemos aplicar cantidades insuficientes para proteger nuestra piel de las radiaciones.
Regla de la sombra
Una forma sencilla de reconocer cuándo existe mayor riesgo de sufrir una quemadura solar es mirar nuestra propia sombra. Si resulta que supera nuestra altura, indica que los rayos del sol inciden de forma tangencial y no son peligrosos. Por el contrario, si nuestra sombra es más corta que nuestra altura se debe a que la radiación solar es más directa y tenemos más riesgo de sufrir una quemadura.

El año pasado, en el Laboratorio de Fotobiología Dermatológica de Málaga desarrollamos un dispositivo llamado UVILISCO capaz de determinar el UVI en función de la sombra reflejada. Se trata de un dispositivo sencillo con forma de obelisco (de ahí su nombre), ideado con un fin didáctico y fácil de instalar en los patios de los colegios y centros educativos.
Con él se pretende concienciar sobre fotoprotección en la etapa escolar, ya que es en esta fase de de la vida cuando se recibe la mayor parte de radiación solar. Teniendo en cuenta que se ha demostrado que con medidas de fotoprotección el cáncer de piel fotoinducido se puede prevenir hasta en un 80%, conviene tomar medidas desde edades tempranas. UVILISCO recibió el Premio al mejor estudio clínico presentado en la Reunión Andaluza de Dermatología de la AEDV.
Ropas y tejidos
La fotoprotección mediante ropas y tejidos es de gran utilidad y asequible para todos. Está muy extendida la creencia errónea de que protegen más los tejidos claros, pero lo cierto es que ofrecen mejor fotoprotección los colores oscuros.
Conviene tener en cuenta que la humedad puede disminuir la protección de los tejidos hasta en un 30%. De ahí la importancia de no confiar en que la protección es total en casos de niños o mayores que están expuestos al sol en las playas durante tiempo prolongado con las camisetas mojadas. Por otro lado, la polución ambiental también puede reducir el nivel de fotoprotección.
En nuestro laboratorio hemos analizado diferentes tejidos utilizados habitualmente en verano. Nuestros resultados muestran que confieren fotoprotección muy alta, aunque ésta se reduce en los tejidos naturales de punto holgado, como las camisas de lino.
En el caso de sobreexposición solar por actividades recreativas, deportes al aire libre, profesiones expuestas de forma prolongada al sol (socorristas, jardineros…) es fundamental el uso de ropa fotoprotectora específica, así como gorras o sombreros de ala ancha. Especialmente en verano.
Uso de sombrillas y toldos
Para evitar las quemaduras solares en las playas, es esencial usar sombrillas y toldos. Sin caer en el error de pensar que la protección que ofrecen es total. No se trata de que la tela de la sombrilla no bloquee la radiación ultravioleta solar (que en algunos casos puede ocurrir), sino que solemos obviar la radiación solar que se refleja desde la arena, el césped o la superficie sobre la que estamos situados.
Esa radiación reflejada dependerá del coeficiente de reflexión de la superficie o albedo, que suele oscilar entre el 10% y el 20% –aunque existen superficies (como la nieve) que pueden reflejar hasta el 80% de la radiación que reciben–.
Antioxidantes
El sol tiene un alto poder oxidante, y las personas tenemos antioxidantes naturales que contrarrestan sus efectos negativos. Sin embargo, en situaciones de elevada exposición solar se genera en el organismo especies reactivas de oxígeno que, si no son neutralizadas por los antioxidantes naturales, desencadenan estrés oxidativo. Ese estrés oxidativo acelera los procesos de envejecimiento, daña el ADN celular y aumenta a largo plazo el daño cutáneo.
Para contrarrestarlo, la tendencia actual por parte de la industria farmacéutica es añadir antioxidantes a las cremas solares (y, a la inversa, añadir fotoprotectores a las cremas antienvejecimiento). Los antioxidantes también pueden administrarse de forma oral, en cápsulas o comprimidos. Si bien la protección que ofrecen frente a la quemadura solar es mínima, son un buen complemento en fotoprotección, especialmente en situaciones de sobreexposición solar y en personas con alergias solares.
Otra alternativa es consumir alimentos ricos en antioxidantes para contrarrestar los efectos oxidativos del sol. En general, las verduras y frutas frescas son ricas en antioxidantes, muchos de los cuales forman parte de los pigmentos. Por eso su consumo está especialmente indicado en época estival.
Así por ejemplo, los betacarotenos (provitamina A) aportan color a la piel y están presentes en frutas y verduras de color naranja, como el melocotón o la zanahoria. El resveratrol de la uva o el licopeno del tomate son otros ejemplos de antioxidantes naturales recomendables en épocas de alta irradiancia solar.
Sobre la autora: María Victoria de Gálvez es profesora de dermatología en la Universidad de Málaga
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Las cremas solares no bastan: lo que debemos tener en cuenta para protegernos del sol se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Estimada OCU: recuerda que NO se pueden utilizar las cremas solares del año pasado
- Tener o no tener (patas): la curiosa historia del ave del paraíso
- ¿Qué le debemos a la ciencia del Romanticismo?
Omar Gil: «Tenemos chance»
¿No será tiempo ya de reconciliar en las aulas el arte con la ciencia, para que aprender atienda nuestras necesidades afectivas y espirituales, además de nuestras necesidades intelectuales y, de esa forma, el conocimiento alimente algún tipo de sabiduría y nos ayude a reducir la fragmentación de nuestra cultura, de nuestras instituciones educativas y la de nosotros mismos? […] ¿Por qué no proponernos hacer de cada curso una obra de arte?
[…] ¿Por qué no podemos elegir ser homo discens? Aprendices. Aprendices que abrazan la diversidad de la experiencia humana y la complejidad de la naturaleza, en vez de acumular conocimientos para manipularlas. Docentes que pueden aprender junto con sus estudiantes, compartiendo con ellos las fortalezas de nuestras preguntas más que la precariedad de nuestras respuestas.
Omar Gil, Tenemos chance, Pecha Kucha Montevideo (2013)

Omar Gil (1965-2020) falleció el pasado 29 de mayo. No llegué a conocerlo personalmente, aunque un proyecto en marcha nos habría llevado a encontrarnos probablemente en 2021.
Omar era Licenciado en Matemáticas por la Universidad de la República (Uruguay, 1991) y Doctor en Matemáticas por la Universidad Autónoma de Madrid (1996). Realizó su tesis doctoral bajo la supervisión de Juan Luis Vázquez Suárez. Además de sus publicaciones científicas como especialista en ecuaciones en derivadas parciales, se interesó, entre otros temas, por la innovación educativa y la divulgación de las matemáticas a través de formatos artísticos.
Desde finales de 2009 intercambiamos numerosos correos compartiendo nuestro interés por la literatura, el teatro y la manera de divulgar las matemáticas a través de estas artes.
Esta correspondencia surgió gracias a su obra de teatro Primos entre sí: Omar me pidió hacer una reseña para la sección de Teatro y Matemáticas del portal DivulgaMAT. Me proporcionó el guion de la obra, así como información completa sobre la motivación y todos los materiales que acompañaban la puesta en escena. Además, Omar repasó la reseña para “limar” las posibles incorrecciones cometidas al no haber podido ver la obra en vivo.

Basado en Primos entre sí, Omar publicó Matemáticamente tenemos chance en 2011, obteniendo el Premio Bartolomé Hidalgo en investigación y divulgación científica (2012) y el Premio Nacional de Literatura (2013). Y, tras este texto sobre las matemáticas en la vida cotidiana, llegaron el hermoso libro Cuentos para que Sofía no se pueda dormir (2012) y otros muchos proyectos para acercar las matemáticas a estudiantes y público en general.
Gracias, Omar, por recordarnos que «Tenemos chance», que tenemos la oportunidad de aprender matemáticas de una manera diferente. ¡Hasta siempre!
Bonus: brevísima reseña de “Primos entre sí”
Primos entre síes una obra de teatro que acerca las matemáticas, desde el juego y el humor, invitando a descubrirlas en nuestra vida cotidiana. También advierte sobre la necesidad de actualizar la visión de las matemáticas que trasmite el sistema educativo, animando a reducir la distancia entre las aulas y la creación y aplicaciones de las matemáticas.

En la obra, Walter Berrutti (representado por el propio Omar) es un matemático uruguayo que trabaja en el exterior y visita Montevideo para dar una serie de conferencias. Se aloja en casa de su “prima”, una amiga íntima de la madre de Walter con la que el protagonista ha convivido desde la infancia como primos, como amigos y como “algo más que camaradas”.
En un tono humorístico, la acción, el juego y el discurso se unen para desmontar algunas creencias sobre la rigidez de las matemáticas. De manera socarrona a veces, se desarman algunas “verdades absolutas” que a todos nos han enseñado de pequeños: no todas las operaciones son conmutativas, no siempre la suma de los ángulos de un triángulo es de 180 grados, no siempre sucede que 1+1=2…
Walter habla, entre otras, de superficies con curvatura positiva (como la esfera), negativa (como la silla de montar) o nula (como el plano). Explica cómo al tener la esfera curvatura positiva, ningún mapa plano de la superficie terrestre puede ser exacto: algunos conservan los ángulos, otros las distancias, pero no pueden suceder ambas cosas a la vez.
Una de las nociones matemáticas tratadas en Primos entre sí son las bases de numeración. Walter recuerda que nuestro modo de contar es la base 10, la aritmética en base 11 se usa en los ISBN de los libros, la base 23 en las letras del NIF español, y finaliza hablando de la base 2, la necesaria para escuchar un CD, ver un DVD o hablar por un teléfono móvil. Precisamente los teléfonos móviles ayudan a Berrutti a enlazar con el análisis armónico, y el matemático habla sobre la transformada de Fourier de un arco iris o el análisis de frecuencias del sonido de una guitarra.
Un minidocumental sobre teoría de juegos invita a examinar las situaciones de la vida cotidiana en las que tenemos la opción de cooperar con otra persona o no hacerlo. Junto al público se explica esta situación mediante el juego que titulan El Dilema.
Finalmente, Walter introduce varios códigos detectores y correctores de errores (el de Hamming, el de Golay, la familia de códigos de Reed-Solomon, etc.) e insiste en la importancia de una buena codificación en, por ejemplo, las misiones espaciales o los discos compactos. Citando finalmente la teoría de la información de Shannon-Weaver, el matemático recuerda que todos los conceptos anteriores están basados en propiedades de los números primos…
Puede encontrarse una reseña completa en DivulgaMAT.

Jugando aprendimos muchas cosas. Quizás las más importantes. ¿Por qué no seguimos jugando para aprender matemáticas? Haciendo malabares, magia u origami; que tienen una rica tradición matemática siempre viva. O compartiendo el movimiento de una danza, o interpretando en una pieza de teatro un personaje real, imaginario, o si se quiere todavía más abstracto.
Omar Gil, Tenemos chance, Pecha Kucha Montevideo (2013)
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Omar Gil: «Tenemos chance» se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los ritmos primos de Anthony Hill
- Números primos gemelos, parientes y sexis (2)
- Metros o millas… Houston, tenemos un problema!
Juantando semiconductores: contrucción y funcionamiento del transistor

Es muy común hablar del transistor en general, y de los microprocesadores en particular, como la base de la microelectrónica y los ordenadores, sin entrar en más profundidades. En este texto exploramos de forma muy sencilla cómo se construye [1] un transistor comercial y cómo funciona un transistor elemental. Los enlaces remiten a las explicaciones de los conceptos empleados. Entender el funcionamiento básico no debería ser especialmente difícil y te permitirá apreciar el mundo tecnológico que te rodea a otro nivel.
Nuestra guía será la siguiente figura, donde tenemos (a) un esquema de un transistor bipolar n-p-n en el que se ha establecido una diferencia de potencial en sus extremos; y (b) un esquema simplificado de como se construye [1] de hecho este tipo de transistor por los fabricantes de microprocesadores como Intel o AMD.

Se coloca una capa delgada de silicio tipo n sobre un cristal muy fino (chip) de silicio tipo p muy ligeramente dopado. El silicio de tipo p, que se encuentra entre las piezas de tipo n, se denomina base. Al ser muy delgado y solo estar ligeramente dopado, la mayoría de sus electrones, que se moverán a través de él de izquierda a derecha, no serán capturados por los huecos, sin embargo, proporcionarán un campo interno para evitar cualquier flujo cuando no haya campo externo. Existe otra razón para que el chip sea muy fino: permitir que los circuitos electrónicos funcionen lo más rápido posible.
Usando ahora una emulsión fotográfica se coloca un patrón microscópico de circuito en la capa superficial del silicio de tipo n de tal manera que la capa superficial de tipo n se elimine en unos lugares y no en otros cuando se aplique una disolución ácida a toda la superficie. Esto tiene como resultado que se expone el silicio tipo p que hay debajo, de modo que se pueden hacer las conexiones eléctricas para formar el transistor n-p-n.
¿Qué hace realmente el transistor y cómo lo hace? Miremos el esquema (a) como si representara dos diodos n-p de forma consecutiva. En estos diodos si se coloca un cable con carga negativa o cero en el silicio de tipo p y un cable con carga positiva en el lado de tipo n, no hay paso de corriente. Sin embargo, si se coloca un cable positivo en la base (tipo p) y un cable negativo en el silicio tipo n a la izquierda en el esquema, las cargas fluirán desde el silicio tipo n hacia la base. Si la base es muy delgada y solo está ligeramente dopada, las cargas pasarán a través de la base hacia el silicio tipo n a la derecha. Aquí la situación se invierte. El tipo p se mantiene positivo, pero se conecta un cable positivo de voltaje aún más alto en el extremo del silicio tipo n situado a la derecha en el esquema. El propósito de esto es mantener los electrones en movimiento de izquierda a derecha. Además de los electrones de conducción que ya están en el silicio de tipo n a la derecha, están llegando nuevos electrones del silicio de tipo n y de tipo p a la izquierda. La cantidad de flujo puede ser controlada por el voltaje positivo en la base.
El efecto neto, pues, es amplificar (aumentar) la corriente de izquierda a derecha. Esto tiene numerosas aplicaciones, entre ellas la más simple es la amplificación de voltajes en sí misma. Otra es la creación de memorias dinámicas de acceso aleatorio. Las exploraremos en siguientes entregas.
Nota:
[1] Probablemente el tiempo verbal debería estar en pasado. Pero no nos debe preocupar para nuestros fines.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Juantando semiconductores: contrucción y funcionamiento del transistor se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Juntando semiconductores: historia del transistor
- Semiconductores
- Juntando semiconductores: el diodo n-p
De las minas a los puertos. Transporte tradicional del mineral

Antiguamente, los Montes de Triano y sus minas de hierro -conocidas ya en época romana- eran comunales. Los vecinos y vecinas del Valle de Somorrostro[1] combinaban las labores agrícolas y ganaderas con el trabajo en las veneras[2] y el transporte del mineral con mulas y carros de bueyes hasta los embarcaderos, donde se cargaba hacia las ferrerías. La minería era fundamental para complementar la precaria economía del caserío.
En 1864 el camino de Valle de Trápaga-Trapagaran “teñido con mena de hierro, se ve a todas horas del día concurrido por carros y por caballerías transportando este rico mineral a los embarcaderos de Galindo o a los depósitos de Ortuella.”[3]
Los principales “puertos” estaban en Ugarte, Causo y Galindo (Valle de Trápaga-Trapagaran y Sestao). Eran simples parcelas de terreno cerca de la orilla. El mineral se depositaba en el suelo, en montones, a la espera de ser embarcado. Un rentero los cuidaba, anotaba el nombre de cada propietario y de los carreteros y controlaba la calidad de la vena. En 1846 en Ugarte había 225 depósitos, que correspondían a 61 venaqueros.

Los ríos Galindo y Granada solo eran navegables para embarcaciones pequeñas y de escaso calado, como las gabarras. En 1826 había alrededor de 20 gabarras con 40 marineros para transportar la vena; en 1850 eran 48 gabarreros y 20 mujeres venaqueras. Cuando la marea era favorable se sacaba el mineral con la sirga hasta la Ría, desde donde se llevaba a Asua (Erandio), Sestao, Portugalete o Bilbao. De ahí se llevaba en barcos y en caballerías hacia el interior. La mayoría de las embarcaciones venaqueras (pataches y quechemarines) procedían de Plentzia y Mundaka. En 1850 había entre 200 y 300 barcos, con cerca de 1000 marineros dedicados a este comercio.
A mediados del siglo XIX se producen grandes cambios, como respuesta a la Revolución Industrial que se estaba desarrollando en Europa. En 1849 se permitió exportar el mineral al extranjero, hasta entonces prohibido por el Fuero de Bizkaia, y en 1863 se eliminaron casi todos los impuestos a la exportación, lo que supuso el empujón definitivo para la llegada de capitales extranjeros.
Las principales siderurgias europeas formaron compañías mineras, como la Orconera (inglesa) y la Franco-Belga. Así, entre 1876 y los años 30 del siglo XX se produjo la llamada gran explotación minera. Estas minas llegaron a ser las más importantes de Europa por cuatro razones fundamentales: calidad del mineral, abundancia, facilidad de extracción y cercanía del mar. La mayor parte del mineral se exportó, sobre todo a Inglaterra, y para ello se construyó una red ferroviaria que conectaba las minas con la misma Ría, donde se instalaron modernos embarcaderos que cargaban el mineral en grandes buques.

Los ferrocarriles mineros transportaban mayor cantidad de hierro y en menor tiempo, por lo que los tradicionales puertos fluviales se fueron abandonando. Los habitantes de Valle de Trápaga-Trapagaran sabotearon las obras de construcción del ferrocarril de Triano, inaugurado en 1865, porque perjudicaba su modo de vida basado en el acarreo de mineral.
Así todo se siguió acarreando mineral, pero no hacia los puertos; todavía en 1886: “multitud de carros tirados por bueyes circulan por las carreteras y caminos de la zona minera de Somorrostro que cargan el mineral en las minas para llevarlo a los ferrocarriles”[4].
Solamente el puerto de Ugarte siguió con cierta actividad. En 1878 se había construido un canal para sacar el mineral que llegaba hasta este puerto en el tranvía aéreo de la mina Parcocha. Incluso en 1924 se dice: “El puertecito de Ugarte (donde todavía llegan gabarras) así como los al presente por los aterramientos y lavados de minerales alejados del agua, de Galindo, Causo y Salcedillo”[5]. Sin embargo, desde los años 70 del siglo XIX casi todo el mineral se cargaba en la propia Ría. La modernización de la extracción minera y de los transportes supuso el fin del modo de vida tradicional en el Valle de Somorrostro.
Notas:
[1] Valle de Somorrostro: pertenecía a Encartaciones y estaba formado por los Tres y Cuatro Concejos y la villa de Portugalete. Actualmente los Tres Concejos se corresponden con los municipios de Valle de Trápaga-Trapagaran, Santurtzi y Sestao y los Cuatro con Abanto-Zierbena, Zierbena y Muskiz.
[2] Venera: mina de la que se obtiene vena (hematites rojo de gran pureza).
[3] Delmas, JR: Guía histórico descriptiva del viajero en el Señorío de Vizcaya, en 1864. Madrid, 1944, pág. 526.
[4] Alzola, B: Informe relativo a los recursos de que la industria nacional dispone para las construcciones y armamentos navales, Madrid, 1886, pág. 10.
[5] Balparda y de las Herrerías, G: Historia crítica de Vizcaya y sus Fueros, Bilbao, 1974, T. I, pág. 487 .
Sobre el autor: Eneko Pérez Goikoetxea es historiador y miembro del equipo de educación ambiental del centro Ekoetxea Meatzaldea-Peñas Negras.
El proyecto «Ibaizabal Itsasadarra zientziak eta teknologiak ikusita / La Ría del Nervión a vista de ciencia y tecnología» comenzó con una serie de infografías que presentan la Ría del Nervión y su entorno metropolitano vistos con los ojos de la ciencia y la tecnología. De ese proyecto han surgido una serie de vídeos y artículos con el objetivo no solo de conocer cosas interesantes sobre la ría de Bilbao y su entorno, sino también de ilustrar como la cultura científica permite alcanzar una comprensión más completa del entorno.
El artículo De las minas a los puertos. Transporte tradicional del mineral se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Geología, industrialización y transporte del mineral de hierro en el entorno de la Ría de Bilbao
- Transporte eficiente de oxígeno y alimento en ingeniería de tejidos
- Un minivehículo de transporte de ruedas líquidas