Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 7 min 42 sec ago

Nuevos fármacos contra las enfermedades hepatorrenales poliquísticas

Fri, 2020/06/12 - 11:59
Estructura del ácido ursodeoxicólico. Se trata de un ácido producido en el hígado de algunas especies, entre ellas el oso (Ursus), donde se descubrió por primera vez.

Las enfermedades hepatorrenales poliquísticas son trastornos genéticos hereditarios caracterizados por el desarrollo progresivo de múltiples quistes sintomáticos en los riñones o el hígado, que pueden producir alteraciones en la función de dichos órganos o complicaciones relacionadas con su crecimiento. En la actualidad no existen tratamientos farmacológicos eficaces y la única opción curativa es el trasplante de dichos órganos.

Investigadores de la UPV/EHU dirigidos por el Dr. Fernando Cossío (UPV/EHU), director científico de Ikerbasque, y del grupo de Enfermedades Hepáticas del IIS Biodonostia, dirigido por el investigador Ikerbasque Dr. Jesús M. Bañales, han colaborado en el desarrollo de nuevos fármacos que han demostrado ser eficaces en la disminución del crecimiento de los quistes hepáticos y renales de modelos experimentales de dicha enfermedad, lo que puede tener gran transcendencia clínica. Este proyecto multidisciplinar liderado entre ambas instituciones vascas ha contado con la colaboración de investigadores de la Universidad de Salamanca, dirigido por el Dr. José J. G. Marín, del Instituto Idibell de Cataluña, dirigido por el Dr. Manel Esteller, y del Instituto Hormel de Minnesota (EE. UU.), encabezados por el Dr. Sergio Gradilone.

Los fármacos desarrollados se basan en la estructura del ácido ursodeoxicólico (UDCA), un ácido biliar presente en nuestro cuerpo en concentración baja y que tiene propiedades protectoras para el hígado. De hecho, su administración está indicada para el tratamiento de algunas enfermedades del hígado. Los investigadores se han basado en la estructura y propiedades de esta molécula para diseñar y sintetizar una familia de derivados químicos dirigidos a inhibir una proteína clave en la promoción del crecimiento de los quistes hepatorrenales. Los resultados publicados han demostrado que estos nuevos fármacos son capaces de bloquear el crecimiento de los quistes hepáticos y renales en un modelo animal de esta enfermedad.

Referencia:

Caballero‐Camino, F.J., Rivilla, I., Herraez, E., Briz, O., Santos‐Laso, A., Izquierdo‐Sanchez, L., Lee‐Law, P.Y., Rodrigues, P.M., Munoz‐Garrido, P., Jin, S., Peixoto, E., Richard, S., Gradilone, S.A., Perugorria, M.J., Esteller, M., Bujanda, L., Marin, J.J., Banales, J.M. and Cossio, F.P. (2020) New synthetic conjugates of ursodeoxycholic acid inhibit cystogenesis in experimental models of polycystic liver disease Hepatology doi: 10.1002/hep.31216

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Nuevos fármacos contra las enfermedades hepatorrenales poliquísticas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un modelo teórico para acelerar el descubrimiento de nuevos fármacos
  2. María Trinidad Herrero, una científica contra las enfermedades neurodegenerativas #WomeninSTEM
  3. Avances contra la enfermedad de hígado graso no alcohólica
Categories: Zientzia

Las cremas solares no bastan: lo que debemos tener en cuenta para protegernos del sol

Thu, 2020/06/11 - 11:59

María Victoria de Gálvez

Foto: Frank McKenna / Unsplash

Además de las cremas solares, a la hora de protegernos del sol conviene tener en cuenta otros parámetros si pretendemos asegurar que la salud de la piel no se resiente en verano. A saber: sombrillas, prendas de vestir y de baño e incluso la alimentación.

Índice ultravioleta (UVI)

Para evitar las quemaduras solares, la Organización Mundial de la Salud ha establecido el llamado índice ultravioleta (UVI), que ofrece valores desde 1 (bajo) hasta 11 (muy alto). La recomendación es tomar precauciones frente a la exposición solar a partir de un valor UVI de 3.

Para conocer los datos de UVI local podemos consultar diferentes canales de información, páginas web como la de la AEMT o aplicaciones móviles como UV-DERMA, creada por la Universidad de Málaga y avalada por la Academia Española de Dermatología y Venereología (AEDV).

Además de ofrecer recomendaciones en fotoprotección, la aplicación estima el tiempo que una persona puede permanecer al sol sin quemarse en función de su fototipo y localización geográfica.

En general, conviene tener en cuenta que, aunque el uso de fotoprotectores tópicos es la medida más utilizada, lo más eficaz es evitar la exposición solar en las horas centrales del día. Es decir, entre las 12 y 16 horas, que es la franja horaria en que la irradiancia solar que alcanza la Tierra es mayor. Por otro lado, la dosis de crema importa. Estudios recientes revelan que solemos aplicar cantidades insuficientes para proteger nuestra piel de las radiaciones.

Regla de la sombra

Una forma sencilla de reconocer cuándo existe mayor riesgo de sufrir una quemadura solar es mirar nuestra propia sombra. Si resulta que supera nuestra altura, indica que los rayos del sol inciden de forma tangencial y no son peligrosos. Por el contrario, si nuestra sombra es más corta que nuestra altura se debe a que la radiación solar es más directa y tenemos más riesgo de sufrir una quemadura.

UVILISCO. Fuente: Universidad de Málaga

El año pasado, en el Laboratorio de Fotobiología Dermatológica de Málaga desarrollamos un dispositivo llamado UVILISCO capaz de determinar el UVI en función de la sombra reflejada. Se trata de un dispositivo sencillo con forma de obelisco (de ahí su nombre), ideado con un fin didáctico y fácil de instalar en los patios de los colegios y centros educativos.

Con él se pretende concienciar sobre fotoprotección en la etapa escolar, ya que es en esta fase de de la vida cuando se recibe la mayor parte de radiación solar. Teniendo en cuenta que se ha demostrado que con medidas de fotoprotección el cáncer de piel fotoinducido se puede prevenir hasta en un 80%, conviene tomar medidas desde edades tempranas. UVILISCO recibió el Premio al mejor estudio clínico presentado en la Reunión Andaluza de Dermatología de la AEDV.

Ropas y tejidos

La fotoprotección mediante ropas y tejidos es de gran utilidad y asequible para todos. Está muy extendida la creencia errónea de que protegen más los tejidos claros, pero lo cierto es que ofrecen mejor fotoprotección los colores oscuros.

Conviene tener en cuenta que la humedad puede disminuir la protección de los tejidos hasta en un 30%. De ahí la importancia de no confiar en que la protección es total en casos de niños o mayores que están expuestos al sol en las playas durante tiempo prolongado con las camisetas mojadas. Por otro lado, la polución ambiental también puede reducir el nivel de fotoprotección.

En nuestro laboratorio hemos analizado diferentes tejidos utilizados habitualmente en verano. Nuestros resultados muestran que confieren fotoprotección muy alta, aunque ésta se reduce en los tejidos naturales de punto holgado, como las camisas de lino.

En el caso de sobreexposición solar por actividades recreativas, deportes al aire libre, profesiones expuestas de forma prolongada al sol (socorristas, jardineros…) es fundamental el uso de ropa fotoprotectora específica, así como gorras o sombreros de ala ancha. Especialmente en verano.

Uso de sombrillas y toldos

Para evitar las quemaduras solares en las playas, es esencial usar sombrillas y toldos. Sin caer en el error de pensar que la protección que ofrecen es total. No se trata de que la tela de la sombrilla no bloquee la radiación ultravioleta solar (que en algunos casos puede ocurrir), sino que solemos obviar la radiación solar que se refleja desde la arena, el césped o la superficie sobre la que estamos situados.

Esa radiación reflejada dependerá del coeficiente de reflexión de la superficie o albedo, que suele oscilar entre el 10% y el 20% –aunque existen superficies (como la nieve) que pueden reflejar hasta el 80% de la radiación que reciben–.

Antioxidantes

El sol tiene un alto poder oxidante, y las personas tenemos antioxidantes naturales que contrarrestan sus efectos negativos. Sin embargo, en situaciones de elevada exposición solar se genera en el organismo especies reactivas de oxígeno que, si no son neutralizadas por los antioxidantes naturales, desencadenan estrés oxidativo. Ese estrés oxidativo acelera los procesos de envejecimiento, daña el ADN celular y aumenta a largo plazo el daño cutáneo.

Para contrarrestarlo, la tendencia actual por parte de la industria farmacéutica es añadir antioxidantes a las cremas solares (y, a la inversa, añadir fotoprotectores a las cremas antienvejecimiento). Los antioxidantes también pueden administrarse de forma oral, en cápsulas o comprimidos. Si bien la protección que ofrecen frente a la quemadura solar es mínima, son un buen complemento en fotoprotección, especialmente en situaciones de sobreexposición solar y en personas con alergias solares.

Otra alternativa es consumir alimentos ricos en antioxidantes para contrarrestar los efectos oxidativos del sol. En general, las verduras y frutas frescas son ricas en antioxidantes, muchos de los cuales forman parte de los pigmentos. Por eso su consumo está especialmente indicado en época estival.

Así por ejemplo, los betacarotenos (provitamina A) aportan color a la piel y están presentes en frutas y verduras de color naranja, como el melocotón o la zanahoria. El resveratrol de la uva o el licopeno del tomate son otros ejemplos de antioxidantes naturales recomendables en épocas de alta irradiancia solar.

 

Sobre la autora: María Victoria de Gálvez es profesora de dermatología en la Universidad de Málaga

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Las cremas solares no bastan: lo que debemos tener en cuenta para protegernos del sol se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Estimada OCU: recuerda que NO se pueden utilizar las cremas solares del año pasado
  2. Tener o no tener (patas): la curiosa historia del ave del paraíso
  3. ¿Qué le debemos a la ciencia del Romanticismo?
Categories: Zientzia

Omar Gil: «Tenemos chance»

Wed, 2020/06/10 - 11:59

¿No será tiempo ya de reconciliar en las aulas el arte con la ciencia, para que aprender atienda nuestras necesidades afectivas y espirituales, además de nuestras necesidades intelectuales y, de esa forma, el conocimiento alimente algún tipo de sabiduría y nos ayude a reducir la fragmentación de nuestra cultura, de nuestras instituciones educativas y la de nosotros mismos? […] ¿Por qué no proponernos hacer de cada curso una obra de arte?

[…] ¿Por qué no podemos elegir ser homo discens? Aprendices. Aprendices que abrazan la diversidad de la experiencia humana y la complejidad de la naturaleza, en vez de acumular conocimientos para manipularlas. Docentes que pueden aprender junto con sus estudiantes, compartiendo con ellos las fortalezas de nuestras preguntas más que la precariedad de nuestras respuestas.

Omar Gil, Tenemos chance, Pecha Kucha Montevideo (2013)

Omar Gil representando la obra Primos entre sí (2009). Imagen: DivulgaMAT.

Omar Gil (1965-2020) falleció el pasado 29 de mayo. No llegué a conocerlo personalmente, aunque un proyecto en marcha nos habría llevado a encontrarnos probablemente en 2021.

Omar era Licenciado en Matemáticas por la Universidad de la República (Uruguay, 1991) y Doctor en Matemáticas por la Universidad Autónoma de Madrid (1996). Realizó su tesis doctoral bajo la supervisión de Juan Luis Vázquez Suárez. Además de sus publicaciones científicas como especialista en ecuaciones en derivadas parciales, se interesó, entre otros temas, por la innovación educativa y la divulgación de las matemáticas a través de formatos artísticos.

Desde finales de 2009 intercambiamos numerosos correos compartiendo nuestro interés por la literatura, el teatro y la manera de divulgar las matemáticas a través de estas artes.

Esta correspondencia surgió gracias a su obra de teatro Primos entre sí: Omar me pidió hacer una reseña para la sección de Teatro y Matemáticas del portal DivulgaMAT. Me proporcionó el guion de la obra, así como información completa sobre la motivación y todos los materiales que acompañaban la puesta en escena. Además, Omar repasó la reseña para “limar” las posibles incorrecciones cometidas al no haber podido ver la obra en vivo.

Portadas de sus dos libros.

 

Basado en Primos entre sí, Omar publicó Matemáticamente tenemos chance en 2011, obteniendo el Premio Bartolomé Hidalgo en investigación y divulgación científica (2012) y el Premio Nacional de Literatura (2013). Y, tras este texto sobre las matemáticas en la vida cotidiana, llegaron el hermoso libro Cuentos para que Sofía no se pueda dormir (2012) y otros muchos proyectos para acercar las matemáticas a estudiantes y público en general.

Gracias, Omar, por recordarnos que «Tenemos chance», que tenemos la oportunidad de aprender matemáticas de una manera diferente. ¡Hasta siempre!

Bonus: brevísima reseña de “Primos entre sí”

Primos entre síes una obra de teatro que acerca las matemáticas, desde el juego y el humor, invitando a descubrirlas en nuestra vida cotidiana. También advierte sobre la necesidad de actualizar la visión de las matemáticas que trasmite el sistema educativo, animando a reducir la distancia entre las aulas y la creación y aplicaciones de las matemáticas.

Cartel de la obra que contiene parte de las nociones las matemáticas tratadas: desde la numeración binaria hasta los diferentes tipos de curvaturas en superficies, pasando por la falta de conmutatividad de muchos procesos.

 

En la obra, Walter Berrutti (representado por el propio Omar) es un matemático uruguayo que trabaja en el exterior y visita Montevideo para dar una serie de conferencias. Se aloja en casa de su “prima”, una amiga íntima de la madre de Walter con la que el protagonista ha convivido desde la infancia como primos, como amigos y como “algo más que camaradas”.

En un tono humorístico, la acción, el juego y el discurso se unen para desmontar algunas creencias sobre la rigidez de las matemáticas. De manera socarrona a veces, se desarman algunas “verdades absolutas” que a todos nos han enseñado de pequeños: no todas las operaciones son conmutativas, no siempre la suma de los ángulos de un triángulo es de 180 grados, no siempre sucede que 1+1=2…

Walter habla, entre otras, de superficies con curvatura positiva (como la esfera), negativa (como la silla de montar) o nula (como el plano). Explica cómo al tener la esfera curvatura positiva, ningún mapa plano de la superficie terrestre puede ser exacto: algunos conservan los ángulos, otros las distancias, pero no pueden suceder ambas cosas a la vez.

Una de las nociones matemáticas tratadas en Primos entre sí son las bases de numeración. Walter recuerda que nuestro modo de contar es la base 10, la aritmética en base 11 se usa en los ISBN de los libros, la base 23 en las letras del NIF español, y finaliza hablando de la base 2, la necesaria para escuchar un CD, ver un DVD o hablar por un teléfono móvil. Precisamente los teléfonos móviles ayudan a Berrutti a enlazar con el análisis armónico, y el matemático habla sobre la transformada de Fourier de un arco iris o el análisis de frecuencias del sonido de una guitarra.

Un minidocumental sobre teoría de juegos invita a examinar las situaciones de la vida cotidiana en las que tenemos la opción de cooperar con otra persona o no hacerlo. Junto al público se explica esta situación mediante el juego que titulan El Dilema.

Finalmente, Walter introduce varios códigos detectores y correctores de errores (el de Hamming, el de Golay, la familia de códigos de Reed-Solomon, etc.) e insiste en la importancia de una buena codificación en, por ejemplo, las misiones espaciales o los discos compactos. Citando finalmente la teoría de la información de Shannon-Weaver, el matemático recuerda que todos los conceptos anteriores están basados en propiedades de los números primos

Puede encontrarse una reseña completa en DivulgaMAT.

Cartel de la obra en posteriores adaptaciones y representaciones. Fuente

Jugando aprendimos muchas cosas. Quizás las más importantes. ¿Por qué no seguimos jugando para aprender matemáticas? Haciendo malabares, magia u origami; que tienen una rica tradición matemática siempre viva. O compartiendo el movimiento de una danza, o interpretando en una pieza de teatro un personaje real, imaginario, o si se quiere todavía más abstracto.

Omar Gil, Tenemos chance, Pecha Kucha Montevideo (2013)

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Omar Gil: «Tenemos chance» se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los ritmos primos de Anthony Hill
  2. Números primos gemelos, parientes y sexis (2)
  3. Metros o millas… Houston, tenemos un problema!
Categories: Zientzia

Juantando semiconductores: contrucción y funcionamiento del transistor

Tue, 2020/06/09 - 11:59
A la izquierda monocristal de silicio fabricado por el método Czochralski. A partir de este tipo de cristal se obtienen las obleas que constituirán la base de los chips. A la derecha una operaria fabrica un monocristal de silicio de este tipo, ¡en 1956! Es probable que el fotógrafo le pidiese que se subiese sus gafas de seguridad (que tiene en la frente) y se quitase los guantes térmicos, que no aparecen en la imagen. Sin estos equipos es literalmente imposible aguantar más de unos segundos en esa posición. Démonos cuenta de que está fundiendo silicio puro, con un punto de fusión de 1414 ºC. Fuente: Wikimedia Commons

Es muy común hablar del transistor en general, y de los microprocesadores en particular, como la base de la microelectrónica y los ordenadores, sin entrar en más profundidades. En este texto exploramos de forma muy sencilla cómo se construye [1] un transistor comercial y cómo funciona un transistor elemental. Los enlaces remiten a las explicaciones de los conceptos empleados. Entender el funcionamiento básico no debería ser especialmente difícil y te permitirá apreciar  el mundo tecnológico que te rodea a otro nivel.

Nuestra guía será la siguiente figura, donde tenemos (a) un esquema de un transistor bipolar n-p-n en el que se ha establecido una diferencia de potencial en sus extremos; y (b) un esquema simplificado de como se construye [1] de hecho este tipo de transistor por los fabricantes de microprocesadores como Intel o AMD.

Fuente: Cassidy Physics Library

Se coloca una capa delgada de silicio tipo n sobre un cristal muy fino (chip) de silicio tipo p muy ligeramente dopado. El silicio de tipo p, que se encuentra entre las piezas de tipo n, se denomina base. Al ser muy delgado y solo estar ligeramente dopado, la mayoría de sus electrones, que se moverán a través de él de izquierda a derecha, no serán capturados por los huecos, sin embargo, proporcionarán un campo interno para evitar cualquier flujo cuando no haya campo externo. Existe otra razón para que el chip sea muy fino: permitir que los circuitos electrónicos funcionen lo más rápido posible.

Usando ahora una emulsión fotográfica se coloca un patrón microscópico de circuito en la capa superficial del silicio de tipo n de tal manera que la capa superficial de tipo n se elimine en unos lugares y no en otros cuando se aplique una disolución ácida a toda la superficie. Esto tiene como resultado que se expone el silicio tipo p que hay debajo, de modo que se pueden hacer las conexiones eléctricas para formar el transistor n-p-n.

¿Qué hace realmente el transistor y cómo lo hace? Miremos el esquema (a) como si representara dos diodos n-p de forma consecutiva. En estos diodos si se coloca un cable con carga negativa o cero en el silicio de tipo p y un cable con carga positiva en el lado de tipo n, no hay paso de corriente. Sin embargo, si se coloca un cable positivo en la base (tipo p) y un cable negativo en el silicio tipo n a la izquierda en el esquema, las cargas fluirán desde el silicio tipo n hacia la base. Si la base es muy delgada y solo está ligeramente dopada, las cargas pasarán a través de la base hacia el silicio tipo n a la derecha. Aquí la situación se invierte. El tipo p se mantiene positivo, pero se conecta un cable positivo de voltaje aún más alto en el extremo del silicio tipo n situado a la derecha en el esquema. El propósito de esto es mantener los electrones en movimiento de izquierda a derecha. Además de los electrones de conducción que ya están en el silicio de tipo n a la derecha, están llegando nuevos electrones del silicio de tipo n y de tipo p a la izquierda. La cantidad de flujo puede ser controlada por el voltaje positivo en la base.

El efecto neto, pues, es amplificar (aumentar) la corriente de izquierda a derecha. Esto tiene numerosas aplicaciones, entre ellas la más simple es la amplificación de voltajes en sí misma. Otra es la creación de memorias dinámicas de acceso aleatorio. Las exploraremos en siguientes entregas.

Nota:

[1] Probablemente el tiempo verbal debería estar en pasado. Pero no nos debe preocupar para nuestros fines.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Juantando semiconductores: contrucción y funcionamiento del transistor se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Juntando semiconductores: historia del transistor
  2. Semiconductores
  3. Juntando semiconductores: el diodo n-p
Categories: Zientzia

De las minas a los puertos. Transporte tradicional del mineral

Mon, 2020/06/08 - 11:59
Imagen 1: 1932, cargadero de mineral de Olabeaga en la ría de Bilbao. (Fotografía: Autoridad Portuaria de Bilbao / Fuente: Asociación Vasca de Patrimonio Industrial y Obra Pública)

Antiguamente, los Montes de Triano y sus minas de hierro -conocidas ya en época romana- eran comunales. Los vecinos y vecinas del Valle de Somorrostro[1] combinaban las labores agrícolas y ganaderas con el trabajo en las veneras[2] y el transporte del mineral con mulas y carros de bueyes hasta los embarcaderos, donde se cargaba hacia las ferrerías. La minería era fundamental para complementar la precaria economía del caserío.

En 1864 el camino de Valle de Trápaga-Trapagaran “teñido con mena de hierro, se ve a todas horas del día concurrido por carros y por caballerías transportando este rico mineral a los embarcaderos de Galindo o a los depósitos de Ortuella.”[3]

Los principales “puertos” estaban en Ugarte, Causo y Galindo (Valle de Trápaga-Trapagaran y Sestao). Eran simples parcelas de terreno cerca de la orilla. El mineral se depositaba en el suelo, en montones, a la espera de ser embarcado. Un rentero los cuidaba, anotaba el nombre de cada propietario y de los carreteros y controlaba la calidad de la vena. En 1846 en Ugarte había 225 depósitos, que correspondían a 61 venaqueros.

Imagen 2: plano de los puertos de Ugarte o de la vega del Juncal (1897). (Fotografía: Archivo Muncipial de Valle de Trápaga-Trapagaran)

Los ríos Galindo y Granada solo eran navegables para embarcaciones pequeñas y de escaso calado, como las gabarras. En 1826 había alrededor de 20 gabarras con 40 marineros para transportar la vena; en 1850 eran 48 gabarreros y 20 mujeres venaqueras. Cuando la marea era favorable se sacaba el mineral con la sirga hasta la Ría, desde donde se llevaba a Asua (Erandio), Sestao, Portugalete o Bilbao. De ahí se llevaba en barcos y en caballerías hacia el interior. La mayoría de las embarcaciones venaqueras (pataches y quechemarines) procedían de Plentzia y Mundaka. En 1850 había entre 200 y 300 barcos, con cerca de 1000 marineros dedicados a este comercio.

A mediados del siglo XIX se producen grandes cambios, como respuesta a la Revolución Industrial que se estaba desarrollando en Europa. En 1849 se permitió exportar el mineral al extranjero, hasta entonces prohibido por el Fuero de Bizkaia, y en 1863 se eliminaron casi todos los impuestos a la exportación, lo que supuso el empujón definitivo para la llegada de capitales extranjeros.

Las principales siderurgias europeas formaron compañías mineras, como la Orconera (inglesa) y la Franco-Belga. Así, entre 1876 y los años 30 del siglo XX se produjo la llamada gran explotación minera. Estas minas llegaron a ser las más importantes de Europa por cuatro razones fundamentales: calidad del mineral, abundancia, facilidad de extracción y cercanía del mar. La mayor parte del mineral se exportó, sobre todo a Inglaterra, y para ello se construyó una red ferroviaria que conectaba las minas con la misma Ría, donde se instalaron modernos embarcaderos que cargaban el mineral en grandes buques.

Ilustración 1: líneas de ferrocarril construidas para el transporte de mineral de hierro hasta los cargaderos ubicados a lo largo de la ría de Bilbao. (Ilustración: NorArte Studio)

Los ferrocarriles mineros transportaban mayor cantidad de hierro y en menor tiempo, por lo que los tradicionales puertos fluviales se fueron abandonando. Los habitantes de Valle de Trápaga-Trapagaran sabotearon las obras de construcción del ferrocarril de Triano, inaugurado en 1865, porque perjudicaba su modo de vida basado en el acarreo de mineral.

Así todo se siguió acarreando mineral, pero no hacia los puertos; todavía en 1886: “multitud de carros tirados por bueyes circulan por las carreteras y caminos de la zona minera de Somorrostro que cargan el mineral en las minas para llevarlo a los ferrocarriles”[4].

Solamente el puerto de Ugarte siguió con cierta actividad. En 1878 se había construido un canal para sacar el mineral que llegaba hasta este puerto en el tranvía aéreo de la mina Parcocha. Incluso en 1924 se dice: “El puertecito de Ugarte (donde todavía llegan gabarras) así como los al presente por los aterramientos y lavados de minerales alejados del agua, de Galindo, Causo y Salcedillo”[5]. Sin embargo, desde los años 70 del siglo XIX casi todo el mineral se cargaba en la propia Ría. La modernización de la extracción minera y de los transportes supuso el fin del modo de vida tradicional en el Valle de Somorrostro.

Notas:

[1] Valle de Somorrostro: pertenecía a Encartaciones y estaba formado por los Tres y Cuatro Concejos y la villa de Portugalete. Actualmente los Tres Concejos se corresponden con los municipios de Valle de Trápaga-Trapagaran, Santurtzi y Sestao y los Cuatro con Abanto-Zierbena, Zierbena y Muskiz.

[2] Venera: mina de la que se obtiene vena (hematites rojo de gran pureza).

[3] Delmas, JR: Guía histórico descriptiva del viajero en el Señorío de Vizcaya, en 1864. Madrid, 1944, pág. 526.

[4] Alzola, B: Informe relativo a los recursos de que la industria nacional dispone para las construcciones y armamentos navales, Madrid, 1886, pág. 10.

[5] Balparda y de las Herrerías, G: Historia crítica de Vizcaya y sus Fueros, Bilbao, 1974, T. I, pág. 487 .

Sobre el autor: Eneko Pérez Goikoetxea es historiador y miembro del equipo de educación ambiental del centro Ekoetxea Meatzaldea-Peñas Negras.

El proyecto «Ibaizabal Itsasadarra zientziak eta teknologiak ikusita / La Ría del Nervión a vista de ciencia y tecnología» comenzó con una serie de infografías que presentan la Ría del Nervión y su entorno metropolitano vistos con los ojos de la ciencia y la tecnología. De ese proyecto han surgido una serie de vídeos y artículos con el objetivo no solo de conocer cosas interesantes sobre la ría de Bilbao y su entorno, sino también de ilustrar como la cultura científica permite alcanzar una comprensión más completa del entorno.

 

El artículo De las minas a los puertos. Transporte tradicional del mineral se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Geología, industrialización y transporte del mineral de hierro en el entorno de la Ría de Bilbao
  2. Transporte eficiente de oxígeno y alimento en ingeniería de tejidos
  3. Un minivehículo de transporte de ruedas líquidas
Categories: Zientzia

Formas de moverse por la ciudad

Sun, 2020/06/07 - 11:59
Foto: Free-Photos / Pixabay

Han analizado miles de mapas urbanos de todo el mundo para evaluar la conectividad interior de las ciudades y cómo difiere esa conectividad entre unos países y otros. Han recurrido para ello a los mapas que recoge el proyecto de acceso libre Open Street Map. Y han cuantificado una serie de características, como son (1) el número de vías que confluyen en sus intersecciones, (2) el grado en que una única vía es necesaria para acceder a varios nodos, (3) la relación entre la distancia real que separa dos nodos y la que hay en línea recta entre ellos, y (4) el grado de sinuosidad de los trayectos entre destinos finales. Y con esas magnitudes han calculado el valor de un indicador del grado de dispersión urbana, entendida esta como ausencia de conectividad.

Han identificado, por otra parte, tres modelos urbanos de referencia. El primero es el de malla, característico de ciudades organizadas en una red de geometría rectilínea, sobre todo las que se diseñaron en América antes de que el automóvil particular alcanzase su apogeo. El segundo es el medieval, caracterizado por una disposición irregular de sus calles y con numerosas intersecciones en las que confluyen vías no perpendiculares entre sí; es propio de muchas ciudades históricas europeas. El tercero es el de “fondo de saco” (cul-de-sac); tiene muchas curvas, lazos y vías sin salida, diseños urbanos característicos de la segunda mitad del siglo XX, sobre todo en Norteamérica.

El modelo de malla se caracteriza por tener abundantes nodos o intersecciones, y por confluir un número relativamente alto de vías en esos nodos. Ese modelo tiene, en general, múltiples conexiones y muy pocas vías sin salida, al contrario que el modelo de fondo de saco. El medieval también tiene muchas intersecciones, aunque no haya muchos nodos ni sean muchas las vías que confluyen en ellos. El grado de dispersión es mínimo en el modelo en malla, algo superior en el medieval, y bastante más alto en el de fondo de saco, que tiene mínima conectividad interior.

Las ciudades con las calles mejor conectadas son las de Sudamérica, en las que abunda el modelo de malla, herencia de la colonización española. Uruguay, Paraguay y Argentina son los países con mínimos grados de dispersión. En Japón, Corea del Sur, gran parte de Europa y del Norte de África también hay niveles de conexión intraurbana relativamente altos, propios del modelo medieval. La dispersión más alta se produce en Estados Unidos, Reino Unido, Irlanda y Noruega. Hay también un grupo de países en el Sudeste y Sur de Asia con escasa conectividad urbana. En ciudades como Yakarta o Manila proliferan barrios de clase media de acceso restringido por temor al crimen, servicios públicos ineficientes y débiles regulaciones de uso del suelo. No permiten el acceso libre y, de hecho, la escasa conectividad que propician es parte de una estrategia que busca la estratificación social y el uso exclusivo de los espacios.

La estructura urbana influye en la forma en que nos desplazamos por la ciudad. Cuanto mayor es la conectividad en el interior de una ciudad, menor es el número de automóviles por hogar, y más gente opta por moverse a pie y en bicicleta. La densidad de población también afecta a esas magnitudes: hay más coches y se camina menos en las urbes de menor densidad. Por eso, estudios como este pueden ayudar a tomar decisiones que favorezcan la conectividad, y promover así los desplazamientos que permiten prescindir del vehículo particular, con lo que ello supone en términos de contaminación, salud pública y seguridad de tráfico.

Fuente: Barrington-Leigh C, Millard-Ball A (2019) A global assessment of street-network sprawl. PLoS ONE 14(11): e0223078.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Formas de moverse por la ciudad se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La robustez de la red oscura
  2. ¿Eso qué es? Y otras formas de ser curioso
  3. Ciudades sin coches
Categories: Zientzia

Alfredo García – Naukas Bilbao 2019: Derribando mitos sobre la energía nuclear

Sat, 2020/06/06 - 11:59
Foto: mhollaen / Pixabay

Alfredo García, ingeniero con licencia de supervisor en la central nuclear de Ascó (Tarragona), es la persona tras @OperadorNuclear, el referente en la divulgación en torno a la energía nuclear en el mundo de habla hispana. Esta información, que puede parecer trivial, era secreta hasta que se hizo pública en esta charla. En ella, además, desmonta los mitos habituales sobre la energía nuclear. Como es habitual, estos mitos son más fruto de los prejuicios y el desconocimiento que de la realidad contrastada.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Alfredo García – Naukas Bilbao 2019: Derribando mitos sobre la energía nuclear se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Raúl Ibáñez – Naukas Bilbao 2019: Teorías fantásticas sobre las grafías de los números
  2. Naukas Bilbao 2017 – Raúl Gay: Todo sobre mi órtesis
  3. Francisco Villatoro – Naukas Bilbao 2019: El abrazo de la plata
Categories: Zientzia

Una infección vírica puede activar la aparición de diabetes tipo I

Fri, 2020/06/05 - 11:59

Un equipo de investigadores ha concluido que los genes no codificantes, no muy estudiados hasta la fecha, pueden ser importantes en la patogénesis de las enfermedades. Al estudiar el efecto que tiene uno de esos genes en las células productoras de insulina los investigadores han descubierto que una infección vírica puede activar ciertos procesos que podrían llevar a la célula a su destrucción.

Foto: Myriam Zilles / Pixabay

La diabetes tipo I, o insulinodependiente, aparece en la juventud o la infancia. Alrededor del 10-15% de los caos de diabetes son de este tipo. Se considera un trastorno autoinmune: se produce la destrucción de las células beta propias, y estas dejan de producir insulina. “Se trata de una enfermedad autoinmune, inflamatoria y poligénica, muy compleja. Las personas que la desarrollan tienen una genética particular, pero sabemos que otra serie de factores también pueden participar en la activación de la enfermedad. Existen numerosas investigaciones que han descubierto rastros víricos en las células beta pancreáticas de personas que han desarrollado la diabetes, cosa que no se halla en personas no diabéticas. Partiendo de ese punto, hemos encontrado una interacción entre las infecciones víricas y un gen no codificante que puede incrementar el riesgo de desarrollar la enfermedad”, explica la profesora de Bioquímica y Biología Molecular de la UPV/EHU Izortze Santin Gomez.

La doctora Santin se dedica a la investigación funcional de los genes relacionados con la diabetes tipo I; concretamente, estudia “la función que cumplen estos genes en las células beta (las células productoras de insulina), para conocer el efecto que tienen en la patogénesis o desarrollo de la enfermedad”. Ha investigado la influencia de un polimorfismo que aparece en el gen Lnc13, un gen no codificante relacionado con la diabetes tipo I, en colaboración con la investigadora Ikerbasque y miembro del Departamento de Genética, Antropología Física y Fisiología Animal de la UPV/EHU Ainara Castellanos-Rubio. “Hasta ahora, se ha dado importancia sobre todo a los genes candidatos que codifican proteínas, y no se ha prestado mucha atención a otros polimorfismos que se encuentran en zonas no codificantes de proteínas, pero nosotras pensamos que estos pueden tener una gran influencia en el desarrollo de ciertas enfermedades”, comenta Santin. El grupo de investigación ha estudiado qué función cumple el gen no codificante Lnc13 en las células beta pancreáticas que han sufrido una infección vírica, y a través de qué mecanismos moleculares lo hace.

Los investigadores han llegado a una serie de conclusiones importantes: “Por un lado, cuando se da una infección vírica en las células beta, aumenta la expresión del gen Lnc13. Por otro lado, es el Lnc13 el que regula la inflamación de las células beta: la ruta metabólica que se activa cuando se incrementa el Lnc13 puede provocar que las células del sistema inmune migren a las células beta, y ese efecto está totalmente relacionado con el proceso inflamatorio que se da en la diabetes (insulitis). Hemos visto que en las personas que sufren una infección vírica, una variante (alelo) del Lnc13, que incrementa el riesgo de desarrollar la diabetes, puede provocar un proceso de inflamación desmesurada, que puede inducir la destrucción de las células beta”.

Santin explica que, por tanto, “Los polimorfismos de la zona no codificante del genoma, que hasta ahora no se han tenido en cuenta, pueden tener importantes funciones y pueden estar relacionados con la aparición de ciertas enfermedades. Por lo que es posible que a partir de ahora tengamos que comenzar a tenerlos en cuenta”. Por otro lado, en relación a la diabetes tipo I, “podemos decir que la búsqueda de cierta variante (alelo) en el estudio del genotipo del gen Lnc13 o la búsqueda de restos de infecciones víricas pueden tener un valor predictivo”, concluye.

Todo lo anterior abre las puertas a la puesta en marcha de una terapia génica: “Se puede activar la modulación de la ruta patogénica inflamatoria que hemos encontrado en nuestra investigación, jugando con la expresión de genes de la zona no codificante”.

“Está claro que la diabetes es una enfermedad compleja y poligénica —comenta Santin—; por lo tanto, no hay duda de que el gen Lnc13 no es el único factor que explica la aparición de la diabetes, pero ya es hora de entrar en el estudio de la zona no codificante del genoma, así como de incluir el Lnc13 en la ecuación que explica la genética de la enfermedad. Todavía es muy pronto para utilizarlo en el tratamiento de la diabetes, pero todo esto posibilitaría ver si jugando con la expresión del Lnc13 a nivel de células beta, podríamos detener o no el efecto patogénico provocado por las infecciones víricas”.

Referencia:

Itziar Gonzalez-Moro, Ane Olazagoitia-Garmendia, Maikel L. Colli, Nadia Cobo-Vuilleumier, Thomas S. Postler, Lorella Marselli, Piero Marchetti, Sankar Gosh, Benoit R. Gauthier, Decio L. Eizirik, Ainara Castellanos-Rubio, Izortze Santin (2020) The T1D-associated lncRNA Lnc13 modulates human pancreatic b cell inflammation by allele-specific stabilization of STAT1 mRNA PNAS doi: 10.1073/pnas.1914353117

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Una infección vírica puede activar la aparición de diabetes tipo I se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué nos puede decir un elefante del cáncer en humanos?
  2. Todo lo que se puede medir en un río
  3. Vida saludable contra la diabetes
Categories: Zientzia

El eco de la sangre

Thu, 2020/06/04 - 11:59

Bloom, a través de la puerta del bar, veía una caracola pegada a los oídos de ellos. Oía más débilmente que lo que ellos oían, cada cual para sí solo, luego cada cual para el otro, oyendo el chasquido de las olas, ruidosamente, silencioso estruendo.
[…]
El mar se creen que oyen. Cantando. Un estruendo. Es la sangre. Sopla en el oído a veces.

James Joyce, Ulises, 1922.

Imagen de Arek Socha / Pixabay

Otro mito popular sobre las caracolas vincula su sonido al flujo sanguíneo que, supuestamente, emitiría un eco al atravesar los vasos sanguíneos de los oídos. Esta explicación se encuentra por todo internet, especialmente (e irónicamente) en webs educacionales que tienen por objetivo desmentir mitos sin fundamento científico. El mismísimo Carl Sagan cayó en este error. En su libro The Cosmic Connection, afirma: “Todo el mundo sabe que es el sonido del mar lo que se oye cuando uno se pone una caracola en la oreja. En realidad se trata del sonido amplificado de la propia sangre fluyendo”1. Si bien, a continuación se pregunta: “¿Pero es realmente cierto esto? ¿Ha sido estudiado? ¿Ha intentado alguien decodificar el mensaje de la caracola?”.

A pesar de su insistencia en la web, en la Wikipedia y hasta en el Ulises de Joyce, este mito es falso. Para comprobarlo, basta con hacer un poco de ejercicio y pegar la oreja nuevamente a la caracola. Si nuestra sangre fuese la causa de su sonido, este debería aumentar a la par que el flujo sanguíneo. Sin embargo, el ruido no cambia en absoluto.

De manera más general y según me explica el cardiólogo Julián Palacios, el flujo sanguíneo no suele producir ningún sonido, da igual lo que usemos para escucharlo. El motivo es que se trata de un flujo laminar; corre suavemente por las venas sin choques ni remolinos que puedan generar ruidos. Solo en situaciones en las que su caudal se altera, como en el caso de un estrechamiento repentino o si existen fugas de algún tipo (en un soplo cardíaco, por ejemplo) es posible escucharlo. Si alguna vez has ido al médico y te han tomado la tensión, habrás notado que a veces te colocan un estetoscopio en el antebrazo. El objetivo es poder oír los conocidos como sonidos de Korotkoff. Al ocluir con el manguito el flujo sanguíneo del brazo e ir liberándolo poco a poco, se producen turbulencias en el flujo que sí resultan audibles y permiten identificar el nivel de presión sanguínea, en base a los ciclos cardíacos. Por lo demás, la sangre es silenciosa. Y si alguna vez le da por cantar, siempre va acompañada por las marcas de su director, el pulso cardíaco: un tempo marcado por las válvulas del corazón al abrirse y cerrarse. Nada parecido a los secretos de la caracola.

Aunque resulta difícil rastrear el origen de este mito dentro de la acústica pop, a finales del siglo XIX es posible encontrarlo ya en varios textos literarios. Según Stefan Helmreich, autor de Sounding the Limits of Life, esta coincidencia en el tiempo no sería casual. Para que la idea de los ecos sanguíneos cobrase fuerza, debió de ser necesario primero concebir que la sangre podía ser escuchada. Esto solo fue posible con la invención del estetoscopio, en 1816. Cuenta la historia que René Laënnec, un médico francés demasiado pudoroso para apoyar su oído directamente contra el pecho de las damas, decidió valerse de un tubo de madera para escuchar a una distancia prudente. El artilugio no solo le ayudó a desempeñar su labor con decimonónico recato, también le permitió oír los sonidos del corazón con una claridad sin precedentes. Pronto el invento se popularizó y a lo largo del siglo XIX se fue perfeccionando.

Estetoscopio de caracola. Fuente: D. B. Katz, US Patent 5,420,382, 30 May 1995

Curiosamente, los sonidos detectados con este nuevo aparato médico se comparaban a veces con aquellos procedente de una caracola, ¡pero con el objetivo de criticarlos! Un anuncio de 1886 que promocionaba un nuevo estetoscopio binaural sugiere que un mal instrumento “recuerda al resonador de juguete de un niño, una caracola”2. El motivo podría ser el mismo que, de hecho, origina los sonidos característicos de la cavidad resonante: en un mal estetoscopio, es posible que el sonido del ambiente se cuele y sea amplificado, dificultando una correcta auscultación. Esta mala publicidad, sin embargo, no amedrentó al inventor que en 1995 patentó un estetoscopio con cabeza de gasterópodo3. En su invento, el mito termina teniendo una aplicación real y la caracola es atravesada por el eco ocasional de la sangre. Por otra parte, tampoco parece que se hayan fabricado muchos aparatos bajo su modelo.

Referencias:

1 Carl Sagan, The Cosmic Connection: An Extraterrestrial Perspective (1973): “Consider, for example, seashells. Everyone knows the “sound of the sea” to be heard when putting a seashell to one’s ear. It is really the greatly amplified sound of our own blood rushing, we are told. But is this really true? Has this been studied? Has anyone attempted to decode the message being sounded by the seashell?“

2 Advertisement for “Dr. Spencer’s Improved Binaural Stethoscope”  The Practitioner: A Journal of Therapeutics and Public Health 36, no. 3 (1886).

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El eco de la sangre se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El océano en una caracola
  2. Sangre de dragón
  3. Un simple análisis de sangre permite detectar el deterioro cognitivo tras un ictus
Categories: Zientzia

Un teorema en la biblioteca

Wed, 2020/06/03 - 11:59

 

Entre los años 2005 y 2011 la Real Sociedad Matemática Española y la editorial Anaya organizaron, bajo la coordinación de Antonio Pérez Sanz y mía, Raúl Ibáñez (miembros de la Comisión de Divulgación de la RSME), dos exitosos concursos literarios de narraciones escolares y relatos cortos relacionados con las matemáticas. Las narraciones escolares y los relatos cortos finalistas y ganadores de estos concursos fueron publicados por la editorial Anaya dando lugar a dos colecciones de libros bajo los nombres de Ficciones matemáticas (narraciones escolares) y Relatos matemáticos (relatos cortos).

Portadas de los libros de la colección Relatos cortos de la editorial Anaya que recogían los relatos cortos, relacionados con las matemáticas finalistas y ganadores de los concursos literarios RSME-ANAYA

 

Esta entrada del Cuaderno de Cultura Científica toma como punto de partida la introducción que escribí para el libro Un teorema en la biblioteca, que recogía los relatos cortos del concurso RSME-ANAYA de 2007. En la misma reflexioné sobre la visión que una parte de la sociedad tiene, o tenía, de la ciencia de Pitágoras. En particular, centré mi atención en la opinión de algunas personas del mundo de la cultura y el conocimiento, ya que por una parte sus obras constituyen en alguna medida un reflejo de la sociedad en la que se desarrollan, mientras que, por otro lado, sus pensamientos y reflexiones suelen ser un referente para las demás personas.

Me gustaría iniciar este paseo por una cita del libro Los viajes de Gulliver (1726), del escritor irlandés Jonathan Swift (1667-1745):

Fui a una escuela de matemática, donde el profesor instruía a sus discípulos siguiendo un método difícilmente imaginable entre nosotros en Europa. La proposición y la demostración parecían escritas claramente en una oblea fina con tinta hecha de un colorante cefálico. Esto tenía que tragárselo el estudiante con el estómago en ayunas y no comer nada sino pan y agua durante los tres días que seguían. Al digerir la oblea, el colorante se le subía al cerebro llevándose la proposición al mismo tiempo. Pero hasta ahora el resultado ha defraudado, ya por algún error de dosis o de composición, ya por la picardía de los mozalbetes, a quienes da tanto asco esa píldora que por lo general se escabullen subrepticiamente y la expulsan por arriba antes de que pueda hacer efecto; y tampoco se les ha persuadido todavía para que guarden una abstinencia tan larga como exige la receta.

Seguro que muchos estudiantes, e incluso algunos adultos que conservan ese recuerdo negativo de su etapa escolar, desearían haber tenido una oblea como la descrita en el libro de Swift, que les hubiese permitido adquirir los conocimientos matemáticos sin necesidad de tener que estudiarlos. Aunque la visión negativa del autor de Los viajes de Gulliver tiene de las matemáticas da otra vuelta de tuerca cuando ni siquiera así los estudiantes son capaces de “tragar las matemáticas”.

Ilustración de Gulliver con el rey y la reina de Brobdingnag de la edición francesa de 1850 de Los viajes de Gulliver. Ilustración de Willmann, Colin, & Outhwaite, al estilo de Paul Gavarni. Imagen de Wikimedia Commons

 

El motivo de empezar con esta cita es que la imagen negativa que muchas personas tenían, o tienen, de las matemáticas seguramente era fruto de los malos recuerdos de la etapa escolar, alimentada en gran medida por cierto miedo a enfrentarse con ellas, lo que a la larga ha podido desembocar en cierta ignorancia en materia científica y, en particular, matemática. Es más fácil criticar lo que se ignora que intentar conocerlo mejor. Aunque esto no solamente es válido para las matemáticas. Me vienen a la mente muchos otros ejemplos, pero por citar uno, existe una cierta opinión negativa en nuestra sociedad hacia el arte contemporáneo, tan necesario y a la vez tan criticado.

Aunque una parte de la culpa, no necesariamente la principal, en esa visión negativa de las matemáticas haya podido estar relacionada con la propia enseñanza de esta asignatura. Como decía el lógico norteamericano León A. Henkin (1921-2006):

Uno de los grandes errores referidos a las matemáticas que cometemos en nuestras clases, es que el profesor siempre parece saber la respuesta a cualquier problema que se plantee, lo que hace que los alumnos piensen que hay un libro en algún sitio con todas las respuestas correctas a todas las cuestiones interesantes, y que los profesores conocen esas respuestas, y que, si nos pudiéramos hacer con el libro, lo tendríamos todo establecido. Eso no se parece en nada a la verdadera naturaleza de las matemáticas.

Aunque las matemáticas son, o deberían serlo, uno de los pilares, junto con la Lengua, de la educación de los jóvenes. Como decía la escritora británica Mary Ann Cross (1819-1880), que firmaba con el conocido pseudónimo George Eliot, en referencia a la educación en general, y poniendo a las matemáticas como referente:

Se ha dicho con gran acierto que el principal objetivo de la educación es análogo al que tienen las matemáticas; es decir, no el de obtener resultados, sino el de saber obtenerlos; no el alcanzar soluciones particulares, sino métodos con los que poder alcanzar infinitas respuestas.

Pero volvamos a esa imagen negativa de la sociedad hacia las matemáticas. En España no se ha tenido un gran aprecio por esta ciencia, y así nos encontramos por ejemplo en la novela Amor y Pedagogía del escritor y filósofo bilbaíno Miguel de Unamuno (1864-1936), el siguiente diálogo,

– ¿Qué estudias ahora?

– Matemáticas.

– ¿Matemáticas? Son como el arsénico; en bien dosificada receta fortifican, administradas a todo pasto matan. Y las matemáticas combinadas con el sentido común dan un compuesto explosivo y detonante; la “supervulgarina”. ¿Matemáticas? Uno… dos… tres… todo en serie; estudia historia para aprender a ver las cosas en proceso, en flujo.

Fotografía de Miguel de Unamuno en 1921, realizada por la Agencia de prensa Meurisse. Imagen de la Biblioteca Nacional de Francia

 

También encontramos otras opiniones negativas como la del activista estadounidense por los derechos de la minoría negra norteamericana Malcom X (1925-1965), quien tenía una concepción estática de las matemáticas.

Siento tener que decir que no me gustaban las matemáticas. Muchas veces he reflexionado sobre esto. Creo que era porque en matemáticas no hay discusión posible. Si te equivocas, te equivocas y basta.

Otra opinión negativa la encontramos en el escritor alemán y premio Nobel de Literatura, Hermann Hesse (1877-1962), autor de El lobo estepario o Siddhartha, quien la muestra como un saber atemporal, como surgido de la nada.

Usted trata la historia del mundo como un matemático trabaja con las matemáticas, donde sólo existen leyes y fórmulas, sin realidad, sin bien ni mal, sin tiempo, sin ayer, sin mañana, nada excepto el eterno y presente matemático.

El filósofo confunciano japonés Sorai Ogyu (1666-1728), habla de las matemáticas como si fueran simplemente una diversión lógica con la que nos divertimos los matemáticos y que no tiene ninguna utilidad para nuestra vida cotidiana, para nuestra sociedad.

Los matemáticos se vanaglorian de sus logros exactos, pero en realidad están absortos en acrobacias mentales y no contribuyen en la sociedad.

El director de cine aragonés Luis Buñuel (1900-1983), autor de películas como Un perro andaluz, Viridiana o El discreto encanto de la burguesía, ve a las matemáticas, y la ciencia en general, como algo frío, estático, alejado de la creación y de la imaginación.

La ciencia no me interesa. Ignora el sueño, el azar, la risa, el sentimiento, la contradicción, cosas que me son preciosas.

Cartel de la película surrealista Un perro andaluz (1929), de Luis Buñuel, con guion de Luis Bueñuel y Salvador Dalí

 

Como también el filósofo francés Jules de Gaultier (1858-1942).

En el punto donde se detiene la ciencia, empieza la imaginación.

Todas estas reflexiones nos muestran unas matemáticas estáticas, carentes de imaginación y creatividad, alejadas de la realidad y de los intereses de la sociedad, cuya creación es fría, mecánica y sin evolución. Esta visión es una visión fundamentada en el desconocimiento de la materia de la que escriben, y seguramente apoyada por cierta frustración. Además, continuamente, y de forma interesada, se ha tendido a enfrentar las matemáticas y la ciencia en general, con las letras, el arte y la cultura, como si fueran dos mundos diferentes, dos mundos opuestos. Por ejemplo, como nos recordaba Fernando Corbalán en su libro Matemáticas de la vida misma, el académico de la Lengua Española Francisco Rico afirmaba en 1996,

Uno de los mayores problemas de España es el insuficiente conocimiento escrito y hablado de las lenguas extranjeras. Entre otras cosas porque se enseñan mal. Del bachillerato habría que salir hablando perfectamente al menos una de ellas. La culpa es de los planes de estudios, que convierten estas asignaturas en marías. Las básicas deberían ser la lengua española y la lengua extranjera. Y la literatura, que es lo que enseña a conocer el mundo. Las asignaturas técnicas, las matemáticas, no hacen ninguna falta: cualquier calculadora u ordenador te lo da todo hecho.

Y más concretamente, la relación entre poesía y ciencia ha sido un símbolo de la opinión social y cultural del desencuentro entre las ciencias y las letras. Así, el poeta romántico inglés William Wordsworth (1770-1850), en su obra Baladas Líricas (Sobre Ciencia y Poesía) sitúa a la poesía como más importante en la vida de los seres humanos que el conocimiento científico.

El conocimiento de ambos, del poeta y del hombre de ciencia, es placer; pero el conocimiento del primero nos abre el sendero hacia una parte necesaria de nuestra existencia, de nuestra herencia natural e inalienable; el otro [la ciencia] es una adquisición personal e individual, que obtenemos lentamente y no por una simpatía habitual y directa respecto de nuestros congéneres. El hombre de ciencia busca la verdad como un benefactor desconocido y remoto, la abriga y la ama en sus soledad; el poeta, cantando una canción junto con todos los seres humanos, se regocija en la presencia de la verdad como nuestro amigo visible y compañero de todos los momentos. La poesía es el aliento y el más fino espíritu de todo conocimiento; … La poesía es el primero y último de los conocimientos; es tan inmortal como el corazón del hombre.

Otro poeta británico, Wystan Hugh Auden (1907-1973), que vivió parte de su vida en EEUU y que recibiera el Premio Pulitzer en 1948, ataca directamente al ansia de conocimiento que tiene el ser humano, que claramente está en la base de la creación tanto científica, pero también de la artística, y así nos dice en su poema Después de leer un manual de física moderna para niños.

Esta pasión de nuestra especie

por el proceso de descubrir

es un factor del que apenas se puede dudar,

pero me alegraría más

si supiera más claramente

para qué queremos el conocimiento.

Por el contrario, hay quienes como el escritor romántico alemán Johann Wolfgang von Goethe (1749-1832), autor de Fausto y Las penas del joven Werther, soñaban con reunir la ciencia y la poesía.

Se olvidó que la ciencia se originó en la poesía, no se tiene en cuenta que, después de una revolución de los tiempos, podrían reunirse de nuevo, amigablemente, en un punto más alto, para beneficio de ambas.

Retrato del escritor Johann Wolfgang von Goethe, a la edad de 80 años, realizado por el pintor alemán Joseph Karl Stieler (1781-1858). Obra perteneciente a Neue Pinakothek. Imagen de Wikimedia Commons

 

Otro de los símbolos del mundo de las letras, el escritor francés Gustave Flaubert (1821-1880) también creía en que ambas visiones del mundo, la artística y la científica, eran la misma y que volverían a juntarse de nuevo.

A medida que avance, el arte será más científico, del mismo modo que la ciencia se volverá artística; los dos se reunirán en la cumbre, después de haberse separado en la base.

Y más aún, decía

La poesía es una ciencia exacta, como la geometría.

Esa visión de las matemáticas, como un conocimiento dinámico, creativo, lleno de imaginación, que busca la belleza y que se inspira en ella, es una visión más real, que muchos intelectuales han sabido reconocer en su pensamiento o en sus creaciones literarias. Veamos algunas citas en este sentido, empezando por la del matemático británico Godfrey H. Hardy (1877-1947), autor de Apología de un matemático, para quien la belleza es una parte esencial de las matemáticas.

Un matemático, al igual que un pintor o un poeta, es un creador de modelos. […] Los modelos del matemático, al igual que ocurre con los del pintor o con los del poeta, han de ser hermosos; las ideas, al igual que los colores o las palabras, deben de encajar de forma armoniosa. La belleza es el primer examen. No existe lugar eterno en el mundo de las matemáticas feas.

Para el matemático francés Henri Poincaré (1854-1912) la belleza es también un elemento fundamental en el proceso de invención matemática. El texto que recoge su conferencia La invención matemática en la Sociedad Psicológica de París en 1908 es un uno de esos textos que es aconsejable leer (recientemente se ha publicado en español por la editorial KRK, con una magnífica traducción y edición de Francisco González).

En su conferencia, Poincaré habla de la intuición como un elemento fundamental en el proceso de invención matemática, aunque esta es fruto del trabajo y el conocimiento anteriores. Además, el matemático francés habla de que “inventar es discernir, es elegir”, y en ese proceso de elección en el que la intuición es tan importante, una herramienta fundamental es la belleza, es esta la que ayuda a la mente creadora, la matemática sí, pero la científica y artista también, a realizar esa elección intuitiva, casi inconsciente.

Por ejemplo, podemos leer en la misma:

todas las combinaciones se formarían como consecuencia del automatismo del yo subliminal, pero únicamente aquellas que fueran interesantes penetrarían en el campo de la consciencia […]. ¿Cuál es la causa de que entre mil productos de nuestra actividad inconsciente existan algunos llamados a cruzar el umbral, mientras otros se quedan atrás? ¿Es el azar el que les confiere ese privilegio? […]

las combinaciones útiles son precisamente las más bellas, quiero decir, aquellas que resultan más atractivas para esa sensibilidad especial que todos los matemáticos conocen, pero que los profanos ignoran hasta el extremo de tomárselo casi a risa.

¿Qué ocurre entonces? Entre las muy numerosas combinaciones que el yo subliminal ha formado a ciegas, casi todas carecen de interés y utilidad, pero, por eso mismo, no tienen efecto alguno sobre la sensibilidad estética. La consciencia no la reconocería nunca. Sólo algunas son armoniosas y, por tanto, útiles y bellas al mismo tiempo, capaces de conmover a la sensibilidad especial del geómetra de la que acabo de hablar y que, una vez estimulada, atraerá sobre ella nuestra atención, y les dará así ocasión de volverse conscientes.

Henri Poincaré, caricatura realizada por Enrique Morente, perteneciente a la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas. La exposición virtual pueden ver en el portal divulgamat.

 

La matemática rusa Sofia Kovalevskaya (1850-1891), pone el énfasis en la imaginación en el proceso creativo de las matemáticas al escribir que:

No es posible ser matemático sin llevar un poeta en el alma.

Pero también ese pensamiento llega de la mano de grandes escritores y filósofos, como el madrileño José Ortega y Gasset (1883-1955), que reconoce la participación de la imaginación en la creación matemática,

No hay modo de entender bien al hombre si no se repara en que la Matemática brota de la misma raíz que la poesía, del don imaginativo.

Una referencia clásica dentro de las matemáticas es la siguiente del escritor francés Voltaire, François-Marie Arouet (1694-1778):

Se advierte, entre los matemáticos, una imaginación asombrosa. Repetimos: existía más imaginación en la cabeza de Arquímedes que en la de Homero.

Y ya que hablamos de Voltaire, traigamos una cita más suya, aunque un poco alejada de nuestro tema de hoy: Toda secta es una bandera de error. No hay sectas en la geometría.

El poeta ruso Alexander Sergeyevich Pushkin (1799-1837) también comparó las matemáticas con la poesía.

La inspiración es necesaria en geometría, tanto como en poesía.

Y una interesante visión de las matemáticas como creadoras de belleza viene de la mano del poeta portugués Fernando Pessoa (1888-1935).

El binomio de Newton es tan bello como la Venus de Milo.

Lo que hay es poca gente que se dé cuenta de ello.

Para muchas personas es difícil entender la importancia de la imaginación en matemáticas, ya que ven, como ha quedado patente en algunas citas del principio, esta ciencia como algo estático, como un camino fijo donde solo hay que avanzar para descubrir teniendo los conocimientos técnicos adecuados, sin ninguna posibilidad de creatividad e imaginación. Sin embargo, como decía el historiador de las matemáticas W. S. Anglin:

Las matemáticas no son una marcha cautelosa a lo largo de una carretera bien despejada, sino un viaje por un desierto desconocido en el que los exploradores se pierden a menudo.

Aunque más que un vasto desierto, me gusta más la visión del matemático británico Arthur Cayley (1821-1895) en su discurso público como presidente de la British Society for the Advancement of Science, en 1883, que las mostraba como una extensión por explorar:

Es difícil dar una idea de la vasta extensión de la matemática moderna. Esta palabra «extensa» no es la correcta. Quiero decir extensa con multitud de bellos detalles. No una extensión uniforme, como un plano vacío, sin objetos, sino una parte de un bello país, visto al principio a distancia, pero que puede ser paseado y estudiado con todo detalle desde las colinas y los valles, hasta los ríos, rocas, bosques y flores. Pero, como para todas las demás cosas, así para la teoría matemática, la belleza puede ser percibida, pero no explicada.

(c) Trinity College, University of Cambridge; Supplied by The Public Catalogue Foundation

Pero dejemos el tema por hoy en este punto. Aun así, me gustaría finalizar esta entrada del Cuaderno de Cultura Científica con una cita de un libro que me encanta, Los Pintores Cubistas,del poeta francés Guillaume Apollinaire (1880-1918), relacionando las matemáticas con el arte, y en concreto, con el origen del cubismo.

Capítulo II: Los jóvenes pintores de las escuelas extremadas tienen como fin secreto hacer pintura pura. Es un arte plástico enteramente nuevo. Sólo está en sus comienzos y todavía no es tan abstracto como quisiera. La mayoría de los pintores nuevos están haciendo matemáticas sin saberlo o sin saberlas, pero no han abandonado todavía a la naturaleza, a la que interrogan para aprender de ella el camino de la vida.

Capítulo III: … Se ha reprochado enérgicamente a los pintores nuevos sus preocupaciones geométricas. Sin embargo, las figuras geométricas son lo esencial del dibujo. La geometría, ciencia que tiene por objeto la extensión, su medida y sus relaciones, ha sido siempre la regla misma de la pintura. Hasta ahora, las tres dimensiones de la geometría euclideana bastaban a las inquietudes que nacían del sentimiento de infinito en el alma de los grandes artistas.

Los pintores nuevos no se han planteado ser geómetras, como tampoco lo hicieron sus ancestros. Pero puede decirse que la geometría es a las artes plásticas lo que la gramática es al arte del escritor. Así pues, hoy, los sabios ya no se limitan a las tres dimensiones de la geometría euclideana. Los pintores se han visto conducidos, natural y, por así decirlo, intuitivamente, a preocuparse por las nuevas medidas posibles de la extensión que en el lenguaje de los mundillos modernos se designaban global y brevemente por el término de cuarta dimensión.

Tal y como se presenta en la mente, desde el punto de vista plástico, la cuarta dimensión estaría engendrada por las tres mediadas conocidas: configura la inmensidad del espacio eternizándose en todas las direcciones en un momento determinado. Es el espacio mismo, la dimensión del infinito; es la que dota a los objetos de plasticidad.

Fantasía geométrica (1971), de Anatoly Fomenko. Ilustración perteneciente al libro Mathematical Impressions

Bibliografía

1.- VV. AA. (proyecto coordinado por Raúl Ibáñez y Antonio Pérez), Un teorema en la biblioteca, Colección Relatos Matemático, ANAYA-RSME, 2009.

2.- DivulgaMAT: Concursos literarios RSME-ANAYA

3.- Fernando Corbalán, Matemáticas de la vida misma, GRAO, 2007.

4.- G. H. Hardy, Apología de un matemático, Capitán Swing, 2017.

5.- Henri Poincaré, La invención matemática, edición de Francisco González, KRK, 2018.

6.- Raúl Ibáñez, Antonio Pérez (coordinadores de la edición), El rostro humano de las matemáticas, Nivola, 2008.

7.- Juan Guirado, Infinitum, eneida, 2007.

8.- Raúl Ibáñez, Cayley, el origen del álgebra moderna, Genios de las matemáticas, RBA, 2017.

9.- Anatoly T. Fomenko, Mathematical Impressions, AMS, 1990.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Un teorema en la biblioteca se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La magia del teorema de Zeckendorf
  2. El teorema de los cuatro colores (1): una historia que comienza en 1852
  3. El teorema de Marion (Walter)
Categories: Zientzia

Juntando semiconductores: historia del transistor

Tue, 2020/06/02 - 11:59
Foto: Laura Ockel / Unsplash

Las propiedades de los semiconductores tipo n y tipo p eran bien conocidas al final de la Segunda Guerra Mundial en 1945. Este conocimiento se debía, en no poca medida, al considerable esfuerzo de investigación que supuso el desarrollo de la electrónica en general y del radar en particular.

En 1947, tres investigadores de los Laboratorios Bell en Nueva Jersey (EE.UU.) llevaron la idea del diodo n-p un paso más allá. William Shockley, Walter Brattain y John Bardeen colocaron dos diodos de germanio de forma consecutiva, un diodo n-p al lado de un diodo p-n, compartiendo el semiconductor tipo p. Descubrieron que se podía hacer que el dispositivo permitiera el paso de la electricidad o que resistiera, es decir, que bloqueara el paso de electricidad, dependiendo de la carga aplicada a la capa central de semiconductor tipo p. Esta clase de dispositivo se denomina transistor bipolar n-p-n [1]. Un transistor bipolar p-n-p también es viable. [2]

Una réplica del primer transistor. Fuente: Wikimedia Commons

A principios de la década de 1960, a medida que los transistores basados en silicio se hacían más pequeños, fiables y baratos de fabricar, comenzaron a reemplazar los tubos de vacío más voluminosos y costosos que se usaban para amplificar voltajes, por ejemplo en sistemas de sonido estéreo, en televisores o radios [3], y como dispositivos de conmutación y gestión lógica en ordenadores. Shockley, Bardeen y Brattain recibieron el Premio Nobel en 1956 por un invento que pronto lanzaría la revolución en la electrónica computacional. [4]

La revolución en la electrónica computacional se aceleró también gracias a una guerra: la Guerra Fría. La necesidad de componentes electrónicos miniaturizados para los nuevos misiles llevó al desarrollo del circuito integrado. En 1958, Jack Kilby, de Texas Instruments, desarrolló la idea de integrar transistores y los circuitos relacionados en un solo chip de silicio.

Un año después, la Fairchild Semiconductor Corporation puso en práctica la idea desarrollando el método para integrar los elementos separados en el chip. En 1971 la recién formada Intel Corporation introdujo el primer circuito de microprocesadores integrado. Los continuos avances en el diseño de microprocesadores y las técnicas de fabricación permitieron la producción en masa de microprocesadores para ordenadores personales, teléfonos móviles, automóviles, robots industriales e incluso tostadoras, frigoríficos y muñecas «parlantes». A principios de la década de 2000, Intel y sus competidores podían colocar hasta 42 millones de transistores microscópicos en un solo chip de silicio, dos centímetros cuadrados. En 2019 el Epyc Rome de AMD contiene 39.540 millones de transistores [5].

Notas:

[1] Simplificando, y porque puede resultarte útil, el nombre de transistor viene de que puede actuar como transmisor o resistor de la corriente eléctrica.

[2] También hay otro tipo diferente de transistor, conocido como el «transistor de efecto campo», que funciona con el mismo principio general.

[3] Su efecto fue tan grande que se popularizó la sinécdoque de llamar transistor al radiorreceptor basado en transistores.

[4] Los tres se llevaban como el perro y el gato y tiró cada uno por su lado mucho antes del premio. Bardeen se fue a la Univisidad de Illinois en Urbana-Champaign para seguir con sus elucubraciones teóricas en materia condensada. Terminaría recibiendo otro premio Nobel de física por la teoría BCS de la superconductividad. Brittain siguió en Bell he hizo investigaciones aplicadas a sistemas biológicos. Y, finalmente, Shockley se mudó a la Universidad de Stanford, y desde ella sentó las bases para el desarrollo de las industrias de Silicon Valley en los alrededores de la universidad. Muchas de las compañías originales del valle (incluida Intel) fueron fundadas por personas que originalmente habían trabajado con Shockley.

Bardeen, Shockely y Brattain. La foto tiene su aquel sabiendo lo que ocurría entre los tres. Fuente: Wikimedia Commons

[5] Transistores MOSFET, esto es, transistores de efecto de campo de semiconductores de óxido metálico.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Juntando semiconductores: historia del transistor se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Juntando semiconductores: el diodo n-p
  2. Juntando semiconductores: LEDs y rectificadores
  3. Semiconductores
Categories: Zientzia

40 años del Plan Integral de Saneamiento del Bilbao Metropolitano

Mon, 2020/06/01 - 11:59

 

Imagen 1: la ría de Bilbao en su desembocadura en 1976. (Fotografía: El correo.com)

En 1979, el Consorcio de Aguas Bilbao Bizkaia puso en marcha el Plan Integral de Saneamiento del Bilbao Metropolitano, el proyecto medioambiental más importante llevado a cabo en Euskadi, que ha supuesto una inversión superior a los 1.200 millones de euros.

Además de cumplir las exigencias de la Unión Europea en materia de tratamiento de las aguas residuales, el plan ha permitido la recuperación medioambiental de nuestros ríos, Ría y playas del entorno. El trabajo no ha concluido, queda todavía trabajo por hacer porque en materia de saneamiento siempre hay margen de mejora, pero estos 40 años han dejado para la historia una estampa que seguramente las personas más jóvenes ni recuerden, pero que formaba parte del ADN de nuestro Bilbao, surcado entonces por una Ría marrón, pestilente y sin posibilidad de vida animal o vegetal.

Ilustración 1: entre 1900 y 1975 la Ría se convirtió en un colector de residuos donde la vida era imposible, llegando a recibir 2.000 toneladas diarias de residuos. (Ilustración: NorArte Studio)

El Plan Integral de Saneamiento ha transformado la imagen de la Ría y la han convertido en un nuevo espacio vertebrador de la Villa para el disfrute de toda la ciudadanía. En total, unos 280 kilómetros de colectores e interceptores recogen las aguas residuales domésticas e industriales, y varios cruces subfluviales trasladan las aguas sucias –también desde la margen derecha– hasta la Estación Depuradora de Aguas Residuales – EDAR de Galindo (Sestao), la gran obra por excelencia en saneamiento ejecutada por el Consorcio de Aguas. Desde 1990, año en que comenzó a operar la planta, se depuran al día las aguas fecales de 850.000 bizkainas y bizkainos, unos 350.000.000 litros al día. Es la depuradora principal, pero no la única, ya que las aguas se depuran en otras 31 plantas repartidas por el territorio histórico.

Pero echemos un poco la vista atrás a aquel Bilbao en blanco y negro. A mediados del siglo XIX, el entorno de la Ría inició un fuerte proceso de industrialización basado, principalmente, en la explotación y exportación del mineral de hierro y de la industria siderúrgica. De ser un pequeño puerto, la Ría de Bilbao se convirtió en uno de los principales focos industriales y comerciales, no solo del Estado, sino también de Europa.

En pocos años, la fisonomía y el paisaje del cauce sufrieron una profunda transformación. Sus márgenes se poblaron de fábricas e infraestructuras portuarias y el fuerte movimiento migratorio, propiciado por la necesidad creciente de mano de obra, provocó un rápido crecimiento poblacional del área. Entre 1900 y 1975 la población se cuadruplicó.

Ilustración 2: características de la red de estructuras construidas para desarrollar el plan de saneamiento del Bilbao Metropolitano. (Ilustración: NorArte Studio)

A la vez que se producía este desarrollo, las aguas de la Ría empezaban a mostrar una contaminación alarmante. El crecimiento urbano desordenado y la falta de conciencia medioambiental propiciaron el vertido de las aguas residuales –domésticas e industriales– directamente en el estuario, sin ningún tipo de tratamiento previo. La Ría se convirtió en un colector de residuos donde la vida era imposible.

La Ría recibía diariamente 900 toneladas de residuos sólidos procedentes, principalmente, de las explotaciones mineras, 400 toneladas de vertidos ácidos, 80 toneladas de metales, además de compuestos cianurados o compuestos nitrogenados; en definitiva, casi 2.000 toneladas diarias de residuos que la convirtieron en una cloaca sin oxígeno.

Por este motivo, uno de los principales objetivos del Plan Integral de Saneamiento fue precisamente la recuperación ambiental de la Ría de Bilbao, para lo cual se fijó un 60% de oxigenación como estándar de calidad de las aguas. Kilómetros de colectores empezaron a recoger las aguas residuales de hogares e industrias, que ya no van al cauce, sino a las plantas depuradoras, siendo la de Galindo pieza clave del sistema, el riñón que desde los años 90 depura las aguas residuales de Bizkaia. El resultado es una Ría ahora sí, viva y cada vez más apta para el desarrollo de nuevos usos deportivos y náuticos.

Paralelamente a todas estas obras hidráulicas, en 1989 comenzaron a realizarse estudios de seguimiento en el medio acuático receptor para evaluar la eficacia de las medidas adoptadas por el Plan Integral de Saneamiento, financiados por el Consorcio de Aguas y URA – Agencia Vasca del Agua. Personas expertas del centro tecnológico AZTI, en colaboración con la UPV/EHU, se encargan de llevar a cabo esta labor de vigilancia ambiental. Todos los años se realizan campañas y muestreos para evaluar el estado de la Ría y su evolución, analizando la calidad del agua, los sedimentos, la fauna y la flora.

Ilustración 3: sistema de colectores para el saneamiento del Bilbao Metropolitano, a través del cual se depuran diariamente 350.000.000 litros de agua. (Ilustración: NorArte Studio)

El efecto más importante del Plan Integral de Saneamiento en la Ría ha sido la recuperación de los niveles normales de oxígeno. De valores cercanos o inferiores al 40% de saturación a comienzos de los años 90, a valores del 90% de saturación actualmente. Hoy en día no hay ninguna zona del estuario con problemas de oxigenación. Todo esto ha permitido la presencia de comunidades biológicas en todo el sistema, desde la zona interior de Bilbao hasta el Abra, con más de 60 especies de peces asentadas (lenguado, cabuxino, mojarra, platija, muble, lubina, salmonete, chicharro, anguila…), además de algas y otros organismos que viven en los sedimentos y en los sustratos rocosos.

Y esta es la historia de Cuando la vida volvió a la Ría. Ahora nos corresponde a todas y todos, conservar las masas de agua y hacer un buen uso de los sistemas de saneamiento porque son una pieza clave para asegurar la sostenibilidad del planeta, devolviendo al medio limpia el agua que utilizamos, para que siga su ciclo natural.

Sobre el autor: Pedro María Barreiro es ingeniero industrial y Gerente del Consorcio de Aguas Bilbao Bizkaia.

El proyecto «Ibaizabal Itsasadarra zientziak eta teknologiak ikusita / La Ría del Nervión a vista de ciencia y tecnología» comenzó con una serie de infografías que presentan la Ría del Nervión y su entorno metropolitano vistos con los ojos de la ciencia y la tecnología. De ese proyecto han surgido una serie de vídeos y artículos con el objetivo no solo de conocer cosas interesantes sobre la ría de Bilbao y su entorno, sino también de ilustrar como la cultura científica permite alcanzar una comprensión más completa del entorno.

 

El artículo 40 años del Plan Integral de Saneamiento del Bilbao Metropolitano se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La recuperación de la fauna en la ría de Bilbao
  2. ¿Qué esconden los sedimentos de la Ría?
  3. Naukas Bilbao está en marcha
Categories: Zientzia

Los reflejos del espejo más famoso del arte

Sun, 2020/05/31 - 11:59

 

Ser reconocido mundialmente por crear una obra maestra es un hecho notable. Que un único detalle de una de tus pinturas sea trascendental para la historia del arte es algo solo al alcance de un puñado de elegidos. Hablamos del espejo más fascinante jamás pintado, hablamos del espejo de Jan van Eyck en El matrimonio Arnolfini.

Imagen 1. El Matrimonio Arnolfini (82×60 cm), de Jan van Eyck (1434)

 

El Matrimonio Arnolfini es un perfecto ejemplo de la maestría que había alcanzado su autor con la pintura al óleo: los pliegues de las ropas, los detalles del candelabro, la talla de los muebles… Es una de las obras más estudiadas de la historia y, sin embargo, todavía no está claro su significado. El prestigioso historiador del arte Erwin Panofsky sostenía que representaba el enlace entre Giovanni Arnolfini y su esposa Giovanna Cenami. El sacerdote y el testigo indispensables para celebrar la ceremonia aparecerían en… el espejo. Pero, hoy por hoy, ni la propia National Gallery, museo donde se encuentra el cuadro, mantiene esa teoría. De todos modos, no hemos venido aquí a hablar de algo sobre lo que ya han vertido ríos de tinta. El protagonista de este artículo será exclusivamente el objeto circular que se alza entre los brazos que unen el hombre y la mujer.

Comencemos por decir que el espejo que van Eyck pintó difiere un tanto de la idea originaria que tenía. La reflectografía infrarroja nos permite saber que en una primera instancia el artista dibujó un espejo ligeramente más grande, por lo menos en cuanto al marco se refiere. Gracias a esta técnica analítica podemos contemplar la silueta del aspecto que pudo haber tenido (Imagen 2). Cabe destacar que, además de un tamaño mayor, el marco iba a tener tan solo ocho segmentos en lugar de los diez que ahora tiene y que sirvieron al pintor para dibujar escenas del Vía Crucis.

Imagen 2. Macrofotografía y reflectografía infrarroja del espejo. Fuente:  © KIK-IRPA, Brussels.

Pero la parte más fascinante del espejo no es su marco, sino su reflejo. Gracias a ese recurso van Eyck introdujo en la pintura a otros dos personajes que se encuentran fuera de la escena principal. Quizás esto os recuerde a algo que hizo un tal Velázquez 222 años después. ¿De dónde tomaría la inspiración? Yo solo digo que El Matrimonio Arnolfini estaba en poder de la Corte española cuando don Diego era pintor de cámara. Aunque tampoco tenemos que realizar viajes tan largos en el tiempo: otros pintores flamencos explotaron el recurso del espejo pocos años después de que van Eyck lo hiciese (Imagen 3).

Imagen 3. Espejos en las obras San Juan Bautista y el maestro franciscano Enrique de Werl (Robert Campin, 1438), Un orfebre en su taller (Petrus Christus, 1449), Las bodas de Caná (Juan de Flandes, ca. 1500) y El cambista y su mujer (Quinten Massys, 1514).

Como podéis ver, los espejos sirven para completar la composición, bien sea mostrando elementos nuevos, bien sea mostrando una perspectiva diferente. Y ahí es donde sobresale la creación de van Eyck. Dentro de esa circunferencia de apenas cinco centímetros de diámetro el pintor recrea la lujosa habitación en la que se hallan los protagonistas. ¡Aparecen hasta las naranjas! Si os fijáis detenidamente veréis que los objetos reflejados sufren una distorsión y las líneas rectas se curvan. Esto es un fenómeno comprensible si tenemos en cuenta que nos encontramos ante un espejo convexo. La pregunta que nos podríamos hacer es si esta distorsión obedece a los principios de la óptica. Como suele suceder en estos casos, hay gente que se lo ha preguntado antes que nosotros. Lo bueno es que así conocemos la respuesta.

Imagen 4. Detalle del espejo de El Matrimonio Arnolfini.

En el año 2004 se publicó un artículo titulado Reflections of Reality in Jan van Eyck and Robert Campin (Reflejos de la realidad en Jan van Eyck y Robert Campin). En este trabajo los autores pretendían indagar en el realismo de los artistas flamencos a través del estudio de los espejos convexos. Para ello se valieron de herramientas informáticas (uno de los firmantes trabajaba para Microsoft) y emplearon un algoritmo para estudiar la “exactitud geométrica” de las imágenes reflejadas.

Para simplificar las cosas diremos que el proceso consiste en tomar la imagen distorsionada del espejo y transformarla mediante diferentes modelos matemáticos para obtener una nueva imagen corregida. Cuanto más se acerque la imagen corregida en su totalidad a la “perspectiva correcta” más exacta se considera la recreación. Estas transformaciones se hicieron siguiendo tres modelos para cubrir diferentes posibilidades: que el espejo fuese parabólico, que fuese esférico o que provocase una distorsión radial.

Al aplicar esta metodología en El retrato Arnolfini las diferencias entre los tres modelos fueron mínimas, pero podemos ver que en ningún caso se puede obtener una imagen “correcta” de la realidad (Imagen 5). El lugar más fácil para observar ese hecho es la ventana. Mientras casi todas las distorsiones del espejo se corrigen y se obtienen objetos más o menos rectos, la parte izquierda del marco de la ventana sigue teniendo un aspecto curvado. Por lo tanto, ahí van Eyck se alejó un tanto de la imagen que en realidad hubiese proyectado el espejo. Teniendo en cuenta que lo pintó hace casi seiscientos años, se lo podemos perdonar.

Imagen 5. De izquierda a derecha: Imagen original, corregida para espejo parabólico, corregida para espejo esférico y corregida mediante modelo radial. Fuente: Criminisi et al (2004)

 

Ahora bien, la ciencia es implacable y, si se encuentra un fallo, hay que intentar arreglarlo. Los investigadores tomaron el espejo una vez transformado y retocaron aquellas zonas que todavía mostraban distorsión: el borde izquierdo de la ventana y de la mesa y la parte inferior del vestido de la mujer. Una vez hecho estos cambios, hicieron el proceso inverso: revirtieron la transformación y obtuvieron el espejo más realista posible. O, por lo menos, el que mejor obedece las leyes de la óptica. Como podéis ver en la Imagen 6, no difiere en exceso de lo que pintó van Eyck. Quizás lo más destacable, además de la mencionada ventana, es que la mesa original no toma la forma curvada que le correspondería por estar en el borde del espejo.

Imagen 6. Proceso de corrección del espejo: (1) La imagen se transforma según el modelo esférico, (2) se introducen correcciones en aquellos puntos que todavía muestran distorsión (las zonas marcadas son las más evidentes) y (3) se invierte la transformación. Fuente:  Criminisi et al (2004)

Para concluir el artículo, solo me queda parafrasear a los autores de este interesantísimo trabajo, ya que comparten la visión de este blog: “esta investigación representa un nuevo intento de construir un diálogo entre dos disciplinas diferentes: las ciencias de la computación y la historia del arte. A pesar de sus diferencias fundamentales, pueden aprender una de la otra y enriquecerse mutuamente”.

Para saber más:

A. Criminisi et al. (2004) Reflections of Reality in Jan van Eyck and Robert Campin, Historical Methods: A Journal of Quantitative and Interdisciplinary History, 37(3), 109-122, doi: 10.3200/HMTS.37.3.109-122.

Rachel Billinge y Lorne Campbell (1995) The infra-red Reflectograms of Jan van Eyck’s Portrait of Giovanni (?) Arnolfini and his Wife Giovanna Cenami, National Gallery Technical Bulletin, 16, 47-60.

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

El artículo Los reflejos del espejo más famoso del arte se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tabla periódica en el arte: Cobre
  2. El fondo cósmico de microondas y el espejo de feria
  3. Van Eyck al descubierto
Categories: Zientzia

Catástrofe Ultravioleta #26 VOZ 1

Sat, 2020/05/30 - 11:59
Catástrofe Ultravioleta #26 VOZ 1

Hablamos de la voz, la importancia que tiene en nuestra identidad y de las funcionalidades, algunas buenas y otras no tanto, de la introducción de las tecnologías. ¿Puedes terminar en la cárcel por tu voz?, ¿te pueden robar la voz?, ¿qué implicaciones tendrá en un futuro cercano que alguien consiga usurpar tu voz?

Agradecimientos a Michele Catanzaro y Nuria Gabaldá

** Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) para Podium Podcast con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.

El artículo Catástrofe Ultravioleta #26 VOZ 1 se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Preparados para una Catástrofe Ultravioleta
  2. Catástrofe Ultravioleta #14 VULCANO
  3. Catástrofe Ultravioleta #10 – Hipnosis
Categories: Zientzia

Un predictor de la evolución a metástasis del melanoma

Fri, 2020/05/29 - 11:59
Análisis de BRAF-V600E mediante inmunohistoquímica (A-C) y PCR Digital (D-H) en tres muestras representativas de melanoma.

El melanoma es un tumor maligno que se origina a partir de la transformación de los melanocitos. Los melanocitos son las células de la piel encargadas de la síntesis de melanina, un polímero complejo que nos protege de los efectos negativos de la radiación solar y nos broncea la piel. Aunque el melanoma es el menos común entre los cánceres de piel, es el que presenta mayor tasa de mortalidad, en gran medida por su elevado potencial de metástasis.

Una vez que un paciente es diagnosticado con melanoma, en estadios avanzados, se estima si se beneficiará de la terapia adyuvante con inhibidores de BRAF. Para ello los laboratorios clínicos analizan si el paciente tiene o no una mutación concreta en el gen BRAF, en concreto la mutación BRAF-V600E, que es una de las más comunes en melanoma y es considerada una mutación “conductora”, es decir, una mutación que confiere una ventaja para la iniciación de la trasformación y crecimiento tumoral.

Sin embargo, cada vez es más evidente que los tumores son muy heterogéneos y existen subpoblaciones de células con mutaciones y comportamientos distintos dentro del mismo tumor. “Por eso, creemos que cuantificar la mutación es mucho más informativo que sólo tratar de detectarla (positivo o negativo). Esta cuantificación es posible realizarla a partir de biopsias mediante una técnica novedosa denominada PCR-digital”, explica Arrate Sevilla, del Departamento de Genética, Antropología Física y Fisiología Animal de la UPV/EHU.

En el estudio se analizó la carga mutacional en biopsias de 78 pacientes y se observó que la carga de la mutación BRAF-V600E se correlacionaba inversamente con el estadio de los pacientes, lo que sugiere que podría ser útil como marcador de pronóstico. Pero, además, lo más interesante es que en pacientes de estadio II se correlacionaba inversamente con el desarrollo de metástasis. Esto es, los pacientes que habían desarrollado metástasis tenían en general menor porcentaje de la mutación en sus tumores primarios. Así, mediante análisis predictivos basados en aprendizaje automatizado (machine learning), se vio que la carga mutacional de BRAF-V600E era capaz de catalogar a los pacientes de estadio II en metastásicos o no-metastásicos, de forma ligeramente más precisa que el marcador comúnmente utilizado: la profundidad de Breslow.

Según los análisis de este grupo la carga de esta mutación parece estar relacionada con el pronóstico. “Al menos en pacientes en estadio II, podría ser un predictor de la evolución a metástasis”, indica Sevilla.

Estos resultados son preliminares y precisan que este posible marcador sea validado en un conjunto mucho más amplio de pacientes. “Sin embargo, creemos que nuestro descubrimiento va por el buen camino, es novedoso y abre la puerta a estudios adicionales sobre los mecanismos de evolución de este tumor”, añade la investigadora.

Referencia:

Arrate Sevilla, M. Celia Morales, Pilar A. Ezkurra, Javier Rasero, Verónica Velasco, Goikoane Cancho-Galan, Ana Sánchez-Diez, Karmele Mujika, Cristina Penas, Isabel Smith, Aintzane Asumendi, Jesús M. Cortés, Maria Dolores Boyano, Santos Alonso (2020) BRAF V600E mutational load as a prognosis biomarker in malignant melanoma PLoS ONE doi: 10.1371/journal.pone.0230136

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Un predictor de la evolución a metástasis del melanoma se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Biomarcadores para la detección precoz del melanoma
  2. Nanopartículas para reducir la metástasis hepática del cáncer de colon
  3. Día de Darwin 2020: Evolución del Sistema Solar + Teoría evolutiva y medicina
Categories: Zientzia

La humanidad ante su propia extinción

Thu, 2020/05/28 - 11:59

Fernando Valladares y Emiliano Bruner

Foto: Natalya Letunova / Unsplash

Las catástrofes y amenazas ambientales causadas o agravadas por la humanidad crecen en frecuencia e intensidad. Estamos muy preocupados por las pandemias y por el cambio climático, pero no hace tanto que las toneladas de plástico que vertemos al mar o los miles de seísmos que generamos anualmente ocupaban las portadas de los periódicos.

Amparados en nuestra sociedad altamente tecnificada, parece que vamos contrarrestando los impactos. Pero crece la sensación de que estos problemas ambientales que generamos y que sufrimos nos quedan cada vez más grandes. ¿Tenemos la capacidad de resistir los embates venideros? ¿Crecerán más rápido los problemas que las soluciones?

La dinámica exponencial en los procesos de degradación ambiental que hemos iniciado hace poco probable que todas las soluciones lleguen a tiempo. Basta con representar la evolución temporal de la temperatura de la atmósfera, del número de zoonosis o de la extinción de especies para ver que hace falta algo más que tecnología para mantenernos a salvo.

La magnitud y velocidad de los cambios ambientales que generamos requieren de avances igual de rápidos en una gobernanza colaborativa y global para los que no estamos bien preparados. Podría darse que ese intelecto nuestro que nos ha traído hasta aquí no sea suficiente ahora para sacarnos del embrollo. ¿O sí?

El escaso éxito biológico del ser humano

Los humanos presumimos a menudo de nuestros supuestos logros evolutivos, incluso a la hora de etiquetar nuestra propia especie como “sabia”. Pero a veces olvidamos que los criterios de la evolución biológica no son precisamente los mismos que los de nuestras sociedades.

Hay, además, diferencias importantes en la valoración del éxito. En biología, se puede medir el éxito de un grupo zoológico, por ejemplo, considerando el tiempo que ha aguantado en este planeta, el número de individuos que lo representa o la variabilidad biológica que aquel grupo ha generado. Los humanos no nos lucimos en ninguno de estos parámetros.

  • Como grupo zoológico, los homínidos cuentan con muy pocas especies en comparación con otros animales.
  • A nivel de individuos no vamos mal. Somos ahora alrededor de siete mil setecientos millones, pero también en este caso no es un número particularmente grande, considerando por ejemplo lo que logran muchos insectos.
  • La cuestión cronológica, finalmente, coloca a los humanos modernos en una escala casi ridícula. 200 000 años de historia no son nada en una perspectiva filogenética. Incluso Homo erectus, tachado de ser una criatura primitiva y sencillona, aguantó casi dos millones de años, algo que no es seguro que nosotros podamos lograr.

Con estos parámetros, parece que el ser humano no está como para exigir medallas. Unas medallas que más bien habría que entregar a seres realmente exitosos en este planeta como las cucarachas o las medusas, de las que quizá tengamos algunas cosas que aprender.

¿Podríamos extinguirnos en el futuro?

Una vez aclarado de dónde venimos y dónde estamos, resulta patente que tampoco es muy importante saber hacia dónde vamos. Millones de especies se han extinguidos en el pasado, y nosotros no seremos ni los primeros ni los últimos en hacerlo.

Especies eternas, sencillamente, no existen. Así que podemos estar tranquilos: tarde o temprano, tendremos que dejar el turno a quien le toque.

Mientras tanto, a la espera del final, podemos preguntarnos cómo ocupar el tiempo que nos queda y cómo podemos aprovechar nuestra transitoria presencia.

Pero también en este caso, si queremos arrojar luz con la linterna de la evolución, habrá que hacerlo según sus cánones y sus pautas. Por ejemplo, recordando que el único verdadero valor de la selección natural no es la fuerza, la belleza, la astucia o la simpatía, sino el carnal y bruto éxito reproductivo. Quien hace más hijos aumentará sus representantes en el parlamento genético de las generaciones siguientes. Tan sencillo como eso.

Para que haya evolución, alguien tiene que tener una ventaja reproductiva tan patente que desplace, genealógicamente, a todos los demás, a corto o a largo plazo. Esto es algo que, en la naturaleza, puede ocurrir con relativa facilidad en pequeñas poblaciones (más sensibles a la trasmisión de una combinación genética ventajosa), cuando hay repentinas colonizaciones de territorios lejanos por parte de unos pocos valientes (efecto del fundador) o cuando unos pocos sobreviven a algún desastre colosal (efecto del cuello de botella). La probabilidad de que un cambio evolutivo se propague es mucho más alta cuando hay grupos reducidos.

Nuestra amplia y globalizada especie sufre, actualmente, de una inercia genética bastante potente que diluye cualquier intento de variación evolutiva. La posibilidad de algún tipo de evolución biológica solo tendrá lugar si de repente algo muy serio redimensionara terriblemente la población mundial, dejando pocos representantes, quizás portadores de alguna ventaja que haya garantizado su supervivencia.

¿Qué papel pueden jugar la tecnología y la cultura?

Ahora bien, no hay que olvidar que los humanos tenemos un factor que los otros grupos zoológicos no tienen: la cultura. Las relaciones íntimas entre genética y cultura todavía están por descubrir. No hay por qué pensar que no habrá sorpresas.

A pesar de la increíble diversidad humana, a estas alturas, todos –empleados de oficina, cazadores-recolectores o campesinos– compartimos ciertas garantías médicas y de salud. Y ahora también el uso del móvil. Así que no podemos descartar que, donde no llegan las moléculas, puedan llegar potentes partículas de información, con consecuencias totalmente imprevisibles.

Además, nuestra capacidad tecnológica y cultural nos ha colocado en una posición evolutivamente muy peculiar. Probablemente hemos alcanzado un tope entre el éxito reproductivo y la disponibilidad de recursos. Esto conlleva una larga serie de problemas energéticos, ecológicos y sociales que, a estas alturas, ya no se pueden obviar. En otras palabras: estamos muriendo de éxito.

Para incrementar la probabilidad de nuestra supervivencia, en lugar de aumentar nuestra capacidad reproductiva, tendremos que reducirla. En lugar de lograr procesar más energía, tendremos que buscar la forma de procesar menos. Porque si hay algo que nos enseña la evolución es que no siempre más es mejor. Nos extinguiremos, no cabe duda, pero tampoco hay que tener prisa.

Sobre los autores: Fernando Valladares es Profesor de Investigación en el Departamento de Biogeografía y Cambio Global del Museo Nacional de Ciencias Naturales (MNCN-CSIC) y Emiliano Bruner, es Responsable del Grupo de Paleoneurobiología del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH)

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo La humanidad ante su propia extinción se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ondas gravitacionales: una nueva era para la humanidad
  2. El ferrocarril metropolitano ante la COVID-19
  3. Polinizadores en extinción
Categories: Zientzia

Superlópez no debería beber alcohol

Wed, 2020/05/27 - 11:59

Pensemos en un suceso con dos posibles resultados, por ejemplo el de lanzar una moneda al aire. Si la moneda no está trucada, la probabilidad de que caiga cara o cruz es la misma, de 1/2. Si estudiamos la sucesión de resultados obtenidos al repetir sucesivamente este experimento –y que son estadísticamente independientes– obtenemos un camino o paseo aleatorio, en este caso, de dimensión 1. El paseo consistiría en dar un paso a la izquierda o a la derecha, dependiendo de que la moneda mostrara cara o cruz.

Todos los posibles resultados de un paseo aleatorio tras 5 lanzamientos de una moneda no trucada. Imagen: Wikimedia Commons.

 

Añadamos ahora una dimensión más. Pensemos en Juan López, que intenta llegar a su casa tras una noche de fiesta en la que no ha moderado su consumo de alcohol. Debe recorrer la distancia entre el lugar en el que se encuentra y su casa, pero está bastante aturdido y va dando algún que otro traspiés, cambiando a veces la dirección de su marcha. Podemos imaginar que Juan está caminando aleatoriamente por su ciudad, cuyas calles forman un retículo de dimensión 2. En cada cruce, Juan decide –en realidad, con lo desorientado que está, es el azar el que decide por él– una de las cuatro posibles direcciones en cada cruce. Por supuesto, puede elegir también aquella dirección por la que ha venido; cualquier elección –norte, sur, este y oeste– tiene la misma probabilidad de 1/4. Este sería un paseo aleatorio bidimensional. La pregunta es: ¿conseguirá Juan a su casa?

Paseo aleatorio de Juan López. Imagen: Marta Macho Stadler.

 

Imaginemos una última situación. Unas semanas más tarde Superlópez –el alter ego de Juan López– vuelve de una fiesta provisto con su traje de superhéroe. Tampoco ha sido capaz de moderarse. Intenta regresar a su casa para descansar. Pero esta vez, al poder volar, su recorrido es aún más complejo. Podemos imaginar a Superlópez volando aleatoriamente por un retículo de tres dimensiones; en cada cruce de cada cubo de vértices con coordenadas enteras, Superlópez tiene seis posibles caminos equiprobables a seguir. ¿Llegará el superhéroe ebrio y desorientado hasta su casa?

Tres posibles paseos aleatorios de Superlópez. Imagen: Marta Macho Stadler a partir de figuras de Wikimedia Commons.

 

Obviamente, la noción de paseo aleatorio se puede generalizar a retículos de cualquier dimensión. En 1921, el matemático George Pólya demostró el siguiente resultado:

Sea p(d) la probabilidad de que un paseo aleatorio sobre un retículo de dimensión d regrese a su punto de partida. Se verifica que:

p(1) = p(2) = 1 y p(d) &lt 1 si d &gt 2.

Además, Watson (1939), McCrea y Whipple (1940), Domb (1954) y Glasser y Zucker (1977) demostraron que:

p(3) = 0,34053732955099914282627318443…

Al aumentar el número de dimensiones d del retículo, p(d) va disminuyendo, se hace más difícil regresar al punto de partida (Ver Sloane).

¿Qué enseñanza puede obtener Juan López de estos resultados? En primer lugar, que debe moderar su ingesta de alcohol. En el caso de que la fiesta se “desmadre” y sus facultades se vean afectadas, más vale que no saque su disfraz de Superlópez. ¿Por qué? Porque la probabilidad de llegar a su casa caminando –aunque sea con dificultad– como Juan López es de 1. Sin embargo, cuando cambia a su personalidad de Superlópez e intenta regresar volando, todo se complica. Realizando sus desplazamientos aleatorios en dimensión 3, la probabilidad de llegar a casa es menor de 0,35. Volando con su personalidad de superhéroe se arriesgaría a vagar al azar sin encontrar su añorada morada…

Referencias

Bruno Winckler, Recueil de blagues mathématiques et autres curiosités, Ellipses, 2011 (leído y adaptado de este libro)

Eric W Weisstein, Pólya’s Random Walk Constants, From MathWorld–A Wolfram Web Resource

N. J. A. Sloane, Decimal expansion of probability that a random walk on a 3-D lattice returns to the origin, The On-line Encyclopedia of Integer Sequences

G. Pólya, Über eine Aufgabe der Wahrscheinlichkeitsrechnung betreffend die Irrfahrt im Straßennetz, Mathematische Annalen 84 (1921) 149-160

G. N. Watson, Three Triple Integrals, Quart. J. Math. 2 10 (1939) 266-276

W. H. McCrea and F. J. W. Whipple, Random Paths in Two and Three Dimensions, Proc. Roy. Soc. Edinburgh 60 (1940) 281-298

C. Domb, On Multiple Returns in the Random-Walk Problem, Proc. Cambridge Philos. Soc. 50 (1954) 586-591

M. L. Glasser and I. J. Zucker, Extended Watson Integrals for the Cubic Lattices, Proc. Nat. Acad. Sci. 74 (1977) 1800-1801

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Superlópez no debería beber alcohol se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Beber alcohol produce cáncer
  2. ¿Debería el sándwich simple llamarse doble?
  3. Visualizando la hiperesfera a través de la fibración de Hopf
Categories: Zientzia

Juntando semiconductores: LEDs y rectificadores

Tue, 2020/05/26 - 11:59
Foto: silviasuin13 / Pixabay

Una fotocélula formada a partir de un diodo n-p trabajando en sentido inverso es una cosa muy útil.

Si un electrón de conducción en un diodo n-p cae dentro de un hueco, emitirá el exceso de energía en forma de fotón, como lo haría un electrón en un átomo cuando salta a un estado cuántico más bajo. Si diseñamos el diodo de tal manera que emita fotones en el rango visible, podremos ver el efecto. Un diodo emisor de luz es lo que probablemente conozcas por las siglas de su nombre en inglés, light emitting diode, LED.

Estas luces LED, que generalmente son rojas, verdes o naranjas, y hasta azules [1], tiene muchas aplicaciones, desde indicarte con una lucecita en tu teléfono móvil que te ha llegado una notificación de tu aplicación favorita, hasta iluminar salas o decoraciones navideñas con un consumo energético muy bajo, pasando por monitores [2].

Sin embargo, uno de los mayores usos de los diodos n-p es en circuitos donde queremos que la corriente fluya solo en una dirección, pero en ningún caso en la dirección opuesta [3]. Esto se usa, por ejemplo, en los circuitos lógicos de los ordenadores, en los que una respuesta de «verdadero» o «falso», «sí» o «no», 0 o 1, se puede decidir permitiendo o no que la corriente fluya a través del dispositivo.

Un dispositivo que permite que una corriente fluya solo en una dirección también se puede usar para convertir una corriente alterna (AC), por ejemplo, la corriente de un enchufe de pared, en corriente continua (DC) para usar en dispositivos electrónicos pequeños. [4]

La corriente eléctrica comercial es alterna en un patrón ondulatorio a una velocidad o frecuencia de 60 ciclos por segundo (60 Hz). Si creamos un circuito cerrado que incluya el enchufe de pared de AC, un dispositivo para medir la corriente (un amperímetro) y un diodo n-p, la corriente en el cable irá en una sola dirección, lo que ocurre solo cuando el voltaje es positivo en el lado de tipo p y negativo en el lado de tipo n. Esta conversión de corriente AC a DC se llama rectificación, y los dispositivos quelo hacen son rectificadores. Son imprescindibles para usar dispositivos que aceptan solo corriente continua y solo tenemos acceso a electricidad comercial.

Rectificación de una corriente alterna trifásica (arriba) a una corriente continua (abajo, en negro). Fuente: Wikimedia Commons

Pero hay un inconveniente. El voltaje producido por el diodo n-p es solo positivo, pero su valor cambia constantemente y es cero durante un largo intervalo. Estos efectos se pueden reducir enviando la corriente a través de dispositivos electrónicos adicionales, conocidos como filtros, que ayudan a suavizar el voltaje a un valor constante, produciendo una corriente continua constante que luego puede alimentarse a un dispositivo electrónico de DC: un juego electrónico, una calculadora, una ordenador portátil, etc.

Estas propiedades de los semiconductores se vuelven aún más interesantes cuando agregamos un tercer semiconductor a nuestro diodo n-p y creamos un transistor.

Notas:

[1] Lo escribimos de esta forma porque un LED azul no es en absoluto algo trivial. Tanto es así que por conseguirlo los japoneses Isamu Akasaki, Hiroshi Amano y Shuji Nakamura recibieron el Premio Nobel de Física, ¡en 2014!

[2] El último grito son las pantallas OLED, donde los diodos son moléculas orgánicas (en el sentido químico del término).

[3] Si vemos como funciona el diodo n-p, aquí, lo que sigue debería ser, si no obvio, sí relativamente fácil de entender.

[4] Los efectos de AC/DC pueden provocar ondas sísmicas mensurables. Aquí un espectacular vídeo ilustrativo.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Juntando semiconductores: LEDs y rectificadores se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Juntando semiconductores: el diodo n-p
  2. Semiconductores
  3. Tipos de comportamiento conductor
Categories: Zientzia

La recuperación de la fauna en la ría de Bilbao

Mon, 2020/05/25 - 11:59
Imagen 1: la ría de Bilbao bajo el marco del Puente Bizkaia (coloquialmente conocido como el puente colgante) y al fondo el puerto. (Fotografía: Jose Castanedo – bajo licencia Creative Commons Atribución-NoComercial-SinDerivadas 2.0 Genérica. Fuente: Flickr)La degradación del estuario

La ría de Bilbao, zona donde las aguas dulces de la cuenca del Nervión-Ibaizabal se encuentran con el agua marina del mar Cantábrico, es un estuario relativamente grande. Actualmente el estado del sistema dista mucho del natural; se ha perdido buena parte de la superficie original y de los principales ambientes, especialmente en las zonas intermareales, que hoy en día son muy escasas.

La ría de Bilbao y sus márgenes constituyen el área más industrializada y de mayor densidad poblacional de toda la cornisa Cantábrica. Por su situación geográfica y por la riqueza natural en recursos minerales la zona experimentó, sobre todo desde el siglo XIX, un intenso desarrollo industrial y crecimiento poblacional. Esto supuso una gran presión humana y durante muchos años los efluentes urbanos e industriales que se generaban eran vertidos a la Ría sin ningún tipo de tratamiento. Durante décadas las zonas media e interior del estuario presentaban graves problemas de oxigenación. Además, el sistema presentaba elevados niveles de contaminación, tanto en las aguas como en los sedimentos. Por eso, en la zona interior del estuario los fondos quedaron desprovistos de vida animal y en el resto de la Ría las poblaciones de fauna eran muy pobres, con pocas especies, estando presentes solo las más resistentes a la contaminación.

El Plan de Saneamiento

En 1979 se aprobó el Plan Integral de Saneamiento de la Comarca del Gran Bilbao, un ambicioso proyecto que tenía por objeto recuperar el sistema desde el punto de vista medioambiental; como estándar de calidad se fijó un 60% de oxigenación de las aguas. El oxígeno disuelto es, sin lugar a dudas, el factor que en mayor medida limitaba la entrada y mantenimiento de la fauna.

En 1989 el Consorcio de Aguas Bilbao Bizkaia puso en marcha un seguimiento del estado del sistema tanto desde una perspectiva fisicoquímica, como biológica y, por extensión, ecológica. Dicho seguimiento contempla el estudio tanto del medio físico como de sus características químicas y de diversas comunidades biológicas.

Ilustración 1: en la época de la industrialización la ría de Bilbao presentaba una comunidad faunística pobre. En esta época solo estaban presentes poblaciones que toleraban la contaminación.  (Ilustración: NorArte Studio)La recuperación del estuario y de su fauna

La calidad fisicoquímica del agua ha experimentado una gran mejoría. Hoy en día el oxígeno no es un factor limitante para la vida acuática. El estándar de calidad se cumple en todo el estuario. Esta mejoría se debe al tratamiento de las aguas en la depuradora de Galindo, que comenzó en 1990. En 2001 entró en funcionamiento el tratamiento biológico, que ha tenido un gran efecto en la mejora de la calidad del agua. Las concentraciones de nitrógeno y de bacterias fecales han disminuido de manera muy significativa (40 veces menos y 200 veces menos, respectivamente, que hace 30 años) y la transparencia de las aguas ha aumentado. Los sedimentos de la Ría presentan unas concentraciones de contaminantes muy inferiores a las de hace treinta años.

Por todo lo anterior, pero especialmente por la mejoría en las condiciones de oxigenación, los organismos que viven en los sedimentos, la denominada comunidad bentónica, han experimentado una gran recuperación. Cientos de especies de invertebrados viven actualmente en los sedimentos de la Ría, siendo los grupos más importantes los anélidos (gusanos), los moluscos (como los caracolillos y los berberechos), los crustáceos (como los cangrejos y las quisquillas) y los equinodermos (como los erizos y las estrellas de mar). Esto es especialmente relevante en la zona más interior, que antes del año 2000 era azoica (sin vida). Actualmente las comunidades bentónicas en el estuario son diversas y permanentes.

Ilustración 2: con el comienzo del tratamiento biológico mejoraron los niveles de oxígeno del agua y las comunidades biológicas fueron recuperándose. (Ilustración: NorArte Studio)

Además de los animales que viven en los sedimentos, también resulta de gran interés analizar el estado de las comunidades que viven por encima del fondo, la llamada fauna demersal, que incluye a animales como peces y crustáceos. Hasta el momento se han registrado en todo el estuario 57 especies de peces y 33 de crustáceos y se ha registrado un incremento progresivo del número de organismos. Entre las especies más comunes de peces se pueden citar el cabuxino (un pez de pequeño tamaño que vive cerca del fondo), el lenguado, la muxarra, la platija, la lubina, la anguila y el salmonete, y no resulta rara la presencia de especies típicamente marinas, como el txitxarro y la antxoa. También son abundantes varias especies de quisquillas y cangrejos.

Se deben destacar los cambios ocurridos en la zona más interior del estuario, entre Olabeaga y Euskalduna, donde la mejoría ha sido especialmente significativa: en esta zona, hasta el año 2002 no se habían encontrado peces ni crustáceos. En 2002 se encontraron varias especies y desde entonces cada año se ha ido encontrando una mayor variedad. En las últimas campañas han aparecido, además de diversas quisquillas y cangrejos, numerosas especies de peces: cabuxino, chaparrudo, anguila, lubina, muxarra, raspallón, aguja, muble, chopa, platija, solla, lenguado, etc. La presencia de numerosas especies de peces y crustáceos es ya regular en esta zona.

Ilustración 3: los buenos niveles de oxigenación del agua y el descenso de la contaminación permiten hoy en día la presencia de una comunidad faunística de gran diversidad. (Ilustración: NorArte Studio)

Además, en los últimos años se viene constatando un claro incremento en el número de especies y en los efectivos de aves que utilizan el estuario como zona de invernada, descanso y alimentación. Esta mejoría se debe a que, por un lado, la calidad del agua ofrece condiciones adecuadas para estas especies, algunas de ellas nadadoras y buceadoras y, por otro, a que disponen de alimento -por la presencia de peces e invertebrados- en toda la Ría.

Mirando al futuro

La recuperación de los sistemas naturales fuertemente contaminados es un proceso normalmente largo, difícil y generalmente caro. Es imposible, además, conseguir que tales sistemas vuelvan a sus condiciones originales. Sin embargo, tal y como hemos visto, es posible recuperar parte de la naturalidad perdida. La recuperación progresiva del estuario del Nervión es un ejemplo de ello. La puesta en marcha y progresivo desarrollo del Plan de Saneamiento ha permitido revertir la situación, que ha pasado de una tendencia al deterioro hace unas décadas a una de mejoría en los últimos tiempos. Aún queda trabajo por hacer y margen de mejora; actualmente se están implantando medidas para recoger aguas aún sin depurar, para mejorar el tratamiento de las aguas en la parte media y alta de la cuenca y para incrementar la capacidad del sistema de saneamiento. Sin duda, todo ello tendrá un efecto positivo en la fauna de la Ría.

Sobre el autor: Javier Franco San Sebastián es doctor en biología e investigador del Área de Gestión Ambiental de Mares y Costas de AZTI

El proyecto «Ibaizabal Itsasadarra zientziak eta teknologiak ikusita / La Ría del Nervión a vista de ciencia y tecnología» comenzó con una serie de infografías que presentan la Ría del Nervión y su entorno metropolitano vistos con los ojos de la ciencia y la tecnología. De ese proyecto han surgido una serie de vídeos y artículos con el objetivo no solo de conocer cosas interesantes sobre la ría de Bilbao y su entorno, sino también de ilustrar como la cultura científica permite alcanzar una comprensión más completa del entorno.

 

El artículo La recuperación de la fauna en la ría de Bilbao se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué esconden los sedimentos de la Ría?
  2. Geología, industrialización y transporte del mineral de hierro en el entorno de la Ría de Bilbao
  3. Naukas Bilbao está en marcha
Categories: Zientzia

Zoonosis

Sun, 2020/05/24 - 11:59
Foto: Kiran kichu / Unsplash

La gran mayoría de virus y bacterias que infectan a otros animales no suponen una amenaza para los seres humanos. Pero unos pocos, sí. Son una pequeñísima parte, pero son un peligro, porque nos pueden infectar y provocar, de esa forma, enfermedades a las que denominamos zoonosis, algunas de ellas potencialmente graves.

Las zoonosis pueden ser causadas por todo tipo de agentes patógenos, desde priones hasta protozoos parásitos, pasando por virus, bacterias y hongos. La transmisión se puede producir en contextos variados. Puede ocurrir desde una mascota, desde animales que se crían o sacrifican para su consumo, o desde los que se cazan. Y la gravedad de la enfermedad es también variable; algunas zoonosis no causan víctimas mortales, mientras otras, como el ébola, matan a la mayor parte de quienes la contraen. En la actualidad, del orden de dos mil quinientos millones de personas enferman cada año, de los que mueren alrededor de dos millones setecientas mil.

SARS-CoV-2 es el último virus zoonótico que hemos conocido hasta la fecha. Es un coronavirus (un tipo concreto de virus cuya cubierta, al microscopio electrónico, asemeja una corona solar). Su origen se desconoce aún, pero es posible que proceda directa o indirectamente de murciélagos, aunque en la transición a seres humanos también pudo estar implicado el pangolín. Otros coronavirus han pasado a los seres humanos no hace mucho. El SARS-CoV-1 pasó de murciélagos a civetas de las palmeras y de ahí, en 2002, a seres humanos; acabó con la vida de ocho mil cuatrocientas personas. Otro coronavirus, el MERS-CoV, procede posiblemente de murciélagos, pero es transmitido a las personas a través de dromedarios; desde 2012, cuando se produjo el primer brote, se han registrado 2.500 casos, de los que un 35% han resultado fatales.

Algunos virus de la gripe también son de origen zoonótico reciente, como el que provocó la pérdida de cuatrocientas mil vidas humanas en 2009 y 2010. El virus responsable procedía del cerdo y se cree que, a su vez, era descendiente del que provocó la pandemia de la mal llamada “gripe española” de 1918; procedía de aves y causó la muerte de cerca de cincuenta millones de personas. De hecho, los virus de la gripe se consideran candidatos a provocar alguna pandemia grave, lo que ocurriría si alguna cepa adquiriese una virulencia especial. Otras zoonosis víricas potencialmente peligrosas son la fiebre Lassa, la fiebre del Valle del Rift y la enfermedad del virus de Marburgo.

Muchas enfermedades víricas de origen zoonótico pierden ese carácter y pasan a ser enfermedades humanas. Es lo que probablemente ocurrió con los coronavirus responsables de algunos catarros o resfriados, de los que se piensa que pasaron a los seres humanos hace miles de años. También el virus de la inmunodeficiencia humana (VIH) saltó a las personas desde los chimpancés, pero esa transición se produjo hace mucho menos tiempo -cerca de noventa años- y en la actualidad se considera un virus humano.

Los virus zoonóticos pueden ser muy peligrosos porque, al ser de reciente llegada a nuestra especie, carecemos de la inmunidad adecuada para hacerles frente. Por otro lado, un virus bien adaptado a su hospedador no le produce un daño tal que provoque su muerte, pues eso detiene la expansión del virus. En parte eso limita, por ejemplo, la capacidad del virus del ébola para expandirse; al ser tan letal, no da tiempo a sus hospedadores a que contagien a mucha gente. Sin embargo, los virus que llevan miles de años con nosotros, como los de los catarros, están adaptados, no acabamos del todo con ellos y, a cambio, ellos nos dejan vivir.

Fuentes:

Le Page, Michael (2020) Coronavirus: Why infections from animals are such a deadly problem. New Scientist

López-Goñi, Ignacio (2015) Virus y pandemias. Glyphos.

Wikipedia: Zoonosis

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Zoonosis se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sí con mis impuestos
  2. Las epidemias del pasado… y del futuro
  3. El coronavirus de Wuhan, ¿qué sabemos hasta ahora?
Categories: Zientzia

Pages