Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 1 hora 6 mins

Formas de moverse por la ciudad

Dom, 2020/06/07 - 11:59
Foto: Free-Photos / Pixabay

Han analizado miles de mapas urbanos de todo el mundo para evaluar la conectividad interior de las ciudades y cómo difiere esa conectividad entre unos países y otros. Han recurrido para ello a los mapas que recoge el proyecto de acceso libre Open Street Map. Y han cuantificado una serie de características, como son (1) el número de vías que confluyen en sus intersecciones, (2) el grado en que una única vía es necesaria para acceder a varios nodos, (3) la relación entre la distancia real que separa dos nodos y la que hay en línea recta entre ellos, y (4) el grado de sinuosidad de los trayectos entre destinos finales. Y con esas magnitudes han calculado el valor de un indicador del grado de dispersión urbana, entendida esta como ausencia de conectividad.

Han identificado, por otra parte, tres modelos urbanos de referencia. El primero es el de malla, característico de ciudades organizadas en una red de geometría rectilínea, sobre todo las que se diseñaron en América antes de que el automóvil particular alcanzase su apogeo. El segundo es el medieval, caracterizado por una disposición irregular de sus calles y con numerosas intersecciones en las que confluyen vías no perpendiculares entre sí; es propio de muchas ciudades históricas europeas. El tercero es el de “fondo de saco” (cul-de-sac); tiene muchas curvas, lazos y vías sin salida, diseños urbanos característicos de la segunda mitad del siglo XX, sobre todo en Norteamérica.

El modelo de malla se caracteriza por tener abundantes nodos o intersecciones, y por confluir un número relativamente alto de vías en esos nodos. Ese modelo tiene, en general, múltiples conexiones y muy pocas vías sin salida, al contrario que el modelo de fondo de saco. El medieval también tiene muchas intersecciones, aunque no haya muchos nodos ni sean muchas las vías que confluyen en ellos. El grado de dispersión es mínimo en el modelo en malla, algo superior en el medieval, y bastante más alto en el de fondo de saco, que tiene mínima conectividad interior.

Las ciudades con las calles mejor conectadas son las de Sudamérica, en las que abunda el modelo de malla, herencia de la colonización española. Uruguay, Paraguay y Argentina son los países con mínimos grados de dispersión. En Japón, Corea del Sur, gran parte de Europa y del Norte de África también hay niveles de conexión intraurbana relativamente altos, propios del modelo medieval. La dispersión más alta se produce en Estados Unidos, Reino Unido, Irlanda y Noruega. Hay también un grupo de países en el Sudeste y Sur de Asia con escasa conectividad urbana. En ciudades como Yakarta o Manila proliferan barrios de clase media de acceso restringido por temor al crimen, servicios públicos ineficientes y débiles regulaciones de uso del suelo. No permiten el acceso libre y, de hecho, la escasa conectividad que propician es parte de una estrategia que busca la estratificación social y el uso exclusivo de los espacios.

La estructura urbana influye en la forma en que nos desplazamos por la ciudad. Cuanto mayor es la conectividad en el interior de una ciudad, menor es el número de automóviles por hogar, y más gente opta por moverse a pie y en bicicleta. La densidad de población también afecta a esas magnitudes: hay más coches y se camina menos en las urbes de menor densidad. Por eso, estudios como este pueden ayudar a tomar decisiones que favorezcan la conectividad, y promover así los desplazamientos que permiten prescindir del vehículo particular, con lo que ello supone en términos de contaminación, salud pública y seguridad de tráfico.

Fuente: Barrington-Leigh C, Millard-Ball A (2019) A global assessment of street-network sprawl. PLoS ONE 14(11): e0223078.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Formas de moverse por la ciudad se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La robustez de la red oscura
  2. ¿Eso qué es? Y otras formas de ser curioso
  3. Ciudades sin coches
Categorías: Zientzia

Alfredo García – Naukas Bilbao 2019: Derribando mitos sobre la energía nuclear

Sáb, 2020/06/06 - 11:59
Foto: mhollaen / Pixabay

Alfredo García, ingeniero con licencia de supervisor en la central nuclear de Ascó (Tarragona), es la persona tras @OperadorNuclear, el referente en la divulgación en torno a la energía nuclear en el mundo de habla hispana. Esta información, que puede parecer trivial, era secreta hasta que se hizo pública en esta charla. En ella, además, desmonta los mitos habituales sobre la energía nuclear. Como es habitual, estos mitos son más fruto de los prejuicios y el desconocimiento que de la realidad contrastada.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Alfredo García – Naukas Bilbao 2019: Derribando mitos sobre la energía nuclear se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Raúl Ibáñez – Naukas Bilbao 2019: Teorías fantásticas sobre las grafías de los números
  2. Naukas Bilbao 2017 – Raúl Gay: Todo sobre mi órtesis
  3. Francisco Villatoro – Naukas Bilbao 2019: El abrazo de la plata
Categorías: Zientzia

Una infección vírica puede activar la aparición de diabetes tipo I

Vie, 2020/06/05 - 11:59

Un equipo de investigadores ha concluido que los genes no codificantes, no muy estudiados hasta la fecha, pueden ser importantes en la patogénesis de las enfermedades. Al estudiar el efecto que tiene uno de esos genes en las células productoras de insulina los investigadores han descubierto que una infección vírica puede activar ciertos procesos que podrían llevar a la célula a su destrucción.

Foto: Myriam Zilles / Pixabay

La diabetes tipo I, o insulinodependiente, aparece en la juventud o la infancia. Alrededor del 10-15% de los caos de diabetes son de este tipo. Se considera un trastorno autoinmune: se produce la destrucción de las células beta propias, y estas dejan de producir insulina. “Se trata de una enfermedad autoinmune, inflamatoria y poligénica, muy compleja. Las personas que la desarrollan tienen una genética particular, pero sabemos que otra serie de factores también pueden participar en la activación de la enfermedad. Existen numerosas investigaciones que han descubierto rastros víricos en las células beta pancreáticas de personas que han desarrollado la diabetes, cosa que no se halla en personas no diabéticas. Partiendo de ese punto, hemos encontrado una interacción entre las infecciones víricas y un gen no codificante que puede incrementar el riesgo de desarrollar la enfermedad”, explica la profesora de Bioquímica y Biología Molecular de la UPV/EHU Izortze Santin Gomez.

La doctora Santin se dedica a la investigación funcional de los genes relacionados con la diabetes tipo I; concretamente, estudia “la función que cumplen estos genes en las células beta (las células productoras de insulina), para conocer el efecto que tienen en la patogénesis o desarrollo de la enfermedad”. Ha investigado la influencia de un polimorfismo que aparece en el gen Lnc13, un gen no codificante relacionado con la diabetes tipo I, en colaboración con la investigadora Ikerbasque y miembro del Departamento de Genética, Antropología Física y Fisiología Animal de la UPV/EHU Ainara Castellanos-Rubio. “Hasta ahora, se ha dado importancia sobre todo a los genes candidatos que codifican proteínas, y no se ha prestado mucha atención a otros polimorfismos que se encuentran en zonas no codificantes de proteínas, pero nosotras pensamos que estos pueden tener una gran influencia en el desarrollo de ciertas enfermedades”, comenta Santin. El grupo de investigación ha estudiado qué función cumple el gen no codificante Lnc13 en las células beta pancreáticas que han sufrido una infección vírica, y a través de qué mecanismos moleculares lo hace.

Los investigadores han llegado a una serie de conclusiones importantes: “Por un lado, cuando se da una infección vírica en las células beta, aumenta la expresión del gen Lnc13. Por otro lado, es el Lnc13 el que regula la inflamación de las células beta: la ruta metabólica que se activa cuando se incrementa el Lnc13 puede provocar que las células del sistema inmune migren a las células beta, y ese efecto está totalmente relacionado con el proceso inflamatorio que se da en la diabetes (insulitis). Hemos visto que en las personas que sufren una infección vírica, una variante (alelo) del Lnc13, que incrementa el riesgo de desarrollar la diabetes, puede provocar un proceso de inflamación desmesurada, que puede inducir la destrucción de las células beta”.

Santin explica que, por tanto, “Los polimorfismos de la zona no codificante del genoma, que hasta ahora no se han tenido en cuenta, pueden tener importantes funciones y pueden estar relacionados con la aparición de ciertas enfermedades. Por lo que es posible que a partir de ahora tengamos que comenzar a tenerlos en cuenta”. Por otro lado, en relación a la diabetes tipo I, “podemos decir que la búsqueda de cierta variante (alelo) en el estudio del genotipo del gen Lnc13 o la búsqueda de restos de infecciones víricas pueden tener un valor predictivo”, concluye.

Todo lo anterior abre las puertas a la puesta en marcha de una terapia génica: “Se puede activar la modulación de la ruta patogénica inflamatoria que hemos encontrado en nuestra investigación, jugando con la expresión de genes de la zona no codificante”.

“Está claro que la diabetes es una enfermedad compleja y poligénica —comenta Santin—; por lo tanto, no hay duda de que el gen Lnc13 no es el único factor que explica la aparición de la diabetes, pero ya es hora de entrar en el estudio de la zona no codificante del genoma, así como de incluir el Lnc13 en la ecuación que explica la genética de la enfermedad. Todavía es muy pronto para utilizarlo en el tratamiento de la diabetes, pero todo esto posibilitaría ver si jugando con la expresión del Lnc13 a nivel de células beta, podríamos detener o no el efecto patogénico provocado por las infecciones víricas”.

Referencia:

Itziar Gonzalez-Moro, Ane Olazagoitia-Garmendia, Maikel L. Colli, Nadia Cobo-Vuilleumier, Thomas S. Postler, Lorella Marselli, Piero Marchetti, Sankar Gosh, Benoit R. Gauthier, Decio L. Eizirik, Ainara Castellanos-Rubio, Izortze Santin (2020) The T1D-associated lncRNA Lnc13 modulates human pancreatic b cell inflammation by allele-specific stabilization of STAT1 mRNA PNAS doi: 10.1073/pnas.1914353117

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Una infección vírica puede activar la aparición de diabetes tipo I se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué nos puede decir un elefante del cáncer en humanos?
  2. Todo lo que se puede medir en un río
  3. Vida saludable contra la diabetes
Categorías: Zientzia

El eco de la sangre

Jue, 2020/06/04 - 11:59

Bloom, a través de la puerta del bar, veía una caracola pegada a los oídos de ellos. Oía más débilmente que lo que ellos oían, cada cual para sí solo, luego cada cual para el otro, oyendo el chasquido de las olas, ruidosamente, silencioso estruendo.
[…]
El mar se creen que oyen. Cantando. Un estruendo. Es la sangre. Sopla en el oído a veces.

James Joyce, Ulises, 1922.

Imagen de Arek Socha / Pixabay

Otro mito popular sobre las caracolas vincula su sonido al flujo sanguíneo que, supuestamente, emitiría un eco al atravesar los vasos sanguíneos de los oídos. Esta explicación se encuentra por todo internet, especialmente (e irónicamente) en webs educacionales que tienen por objetivo desmentir mitos sin fundamento científico. El mismísimo Carl Sagan cayó en este error. En su libro The Cosmic Connection, afirma: “Todo el mundo sabe que es el sonido del mar lo que se oye cuando uno se pone una caracola en la oreja. En realidad se trata del sonido amplificado de la propia sangre fluyendo”1. Si bien, a continuación se pregunta: “¿Pero es realmente cierto esto? ¿Ha sido estudiado? ¿Ha intentado alguien decodificar el mensaje de la caracola?”.

A pesar de su insistencia en la web, en la Wikipedia y hasta en el Ulises de Joyce, este mito es falso. Para comprobarlo, basta con hacer un poco de ejercicio y pegar la oreja nuevamente a la caracola. Si nuestra sangre fuese la causa de su sonido, este debería aumentar a la par que el flujo sanguíneo. Sin embargo, el ruido no cambia en absoluto.

De manera más general y según me explica el cardiólogo Julián Palacios, el flujo sanguíneo no suele producir ningún sonido, da igual lo que usemos para escucharlo. El motivo es que se trata de un flujo laminar; corre suavemente por las venas sin choques ni remolinos que puedan generar ruidos. Solo en situaciones en las que su caudal se altera, como en el caso de un estrechamiento repentino o si existen fugas de algún tipo (en un soplo cardíaco, por ejemplo) es posible escucharlo. Si alguna vez has ido al médico y te han tomado la tensión, habrás notado que a veces te colocan un estetoscopio en el antebrazo. El objetivo es poder oír los conocidos como sonidos de Korotkoff. Al ocluir con el manguito el flujo sanguíneo del brazo e ir liberándolo poco a poco, se producen turbulencias en el flujo que sí resultan audibles y permiten identificar el nivel de presión sanguínea, en base a los ciclos cardíacos. Por lo demás, la sangre es silenciosa. Y si alguna vez le da por cantar, siempre va acompañada por las marcas de su director, el pulso cardíaco: un tempo marcado por las válvulas del corazón al abrirse y cerrarse. Nada parecido a los secretos de la caracola.

Aunque resulta difícil rastrear el origen de este mito dentro de la acústica pop, a finales del siglo XIX es posible encontrarlo ya en varios textos literarios. Según Stefan Helmreich, autor de Sounding the Limits of Life, esta coincidencia en el tiempo no sería casual. Para que la idea de los ecos sanguíneos cobrase fuerza, debió de ser necesario primero concebir que la sangre podía ser escuchada. Esto solo fue posible con la invención del estetoscopio, en 1816. Cuenta la historia que René Laënnec, un médico francés demasiado pudoroso para apoyar su oído directamente contra el pecho de las damas, decidió valerse de un tubo de madera para escuchar a una distancia prudente. El artilugio no solo le ayudó a desempeñar su labor con decimonónico recato, también le permitió oír los sonidos del corazón con una claridad sin precedentes. Pronto el invento se popularizó y a lo largo del siglo XIX se fue perfeccionando.

Estetoscopio de caracola. Fuente: D. B. Katz, US Patent 5,420,382, 30 May 1995

Curiosamente, los sonidos detectados con este nuevo aparato médico se comparaban a veces con aquellos procedente de una caracola, ¡pero con el objetivo de criticarlos! Un anuncio de 1886 que promocionaba un nuevo estetoscopio binaural sugiere que un mal instrumento “recuerda al resonador de juguete de un niño, una caracola”2. El motivo podría ser el mismo que, de hecho, origina los sonidos característicos de la cavidad resonante: en un mal estetoscopio, es posible que el sonido del ambiente se cuele y sea amplificado, dificultando una correcta auscultación. Esta mala publicidad, sin embargo, no amedrentó al inventor que en 1995 patentó un estetoscopio con cabeza de gasterópodo3. En su invento, el mito termina teniendo una aplicación real y la caracola es atravesada por el eco ocasional de la sangre. Por otra parte, tampoco parece que se hayan fabricado muchos aparatos bajo su modelo.

Referencias:

1 Carl Sagan, The Cosmic Connection: An Extraterrestrial Perspective (1973): “Consider, for example, seashells. Everyone knows the “sound of the sea” to be heard when putting a seashell to one’s ear. It is really the greatly amplified sound of our own blood rushing, we are told. But is this really true? Has this been studied? Has anyone attempted to decode the message being sounded by the seashell?“

2 Advertisement for “Dr. Spencer’s Improved Binaural Stethoscope”  The Practitioner: A Journal of Therapeutics and Public Health 36, no. 3 (1886).

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El eco de la sangre se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El océano en una caracola
  2. Sangre de dragón
  3. Un simple análisis de sangre permite detectar el deterioro cognitivo tras un ictus
Categorías: Zientzia

Un teorema en la biblioteca

Mié, 2020/06/03 - 11:59

 

Entre los años 2005 y 2011 la Real Sociedad Matemática Española y la editorial Anaya organizaron, bajo la coordinación de Antonio Pérez Sanz y mía, Raúl Ibáñez (miembros de la Comisión de Divulgación de la RSME), dos exitosos concursos literarios de narraciones escolares y relatos cortos relacionados con las matemáticas. Las narraciones escolares y los relatos cortos finalistas y ganadores de estos concursos fueron publicados por la editorial Anaya dando lugar a dos colecciones de libros bajo los nombres de Ficciones matemáticas (narraciones escolares) y Relatos matemáticos (relatos cortos).

Portadas de los libros de la colección Relatos cortos de la editorial Anaya que recogían los relatos cortos, relacionados con las matemáticas finalistas y ganadores de los concursos literarios RSME-ANAYA

 

Esta entrada del Cuaderno de Cultura Científica toma como punto de partida la introducción que escribí para el libro Un teorema en la biblioteca, que recogía los relatos cortos del concurso RSME-ANAYA de 2007. En la misma reflexioné sobre la visión que una parte de la sociedad tiene, o tenía, de la ciencia de Pitágoras. En particular, centré mi atención en la opinión de algunas personas del mundo de la cultura y el conocimiento, ya que por una parte sus obras constituyen en alguna medida un reflejo de la sociedad en la que se desarrollan, mientras que, por otro lado, sus pensamientos y reflexiones suelen ser un referente para las demás personas.

Me gustaría iniciar este paseo por una cita del libro Los viajes de Gulliver (1726), del escritor irlandés Jonathan Swift (1667-1745):

Fui a una escuela de matemática, donde el profesor instruía a sus discípulos siguiendo un método difícilmente imaginable entre nosotros en Europa. La proposición y la demostración parecían escritas claramente en una oblea fina con tinta hecha de un colorante cefálico. Esto tenía que tragárselo el estudiante con el estómago en ayunas y no comer nada sino pan y agua durante los tres días que seguían. Al digerir la oblea, el colorante se le subía al cerebro llevándose la proposición al mismo tiempo. Pero hasta ahora el resultado ha defraudado, ya por algún error de dosis o de composición, ya por la picardía de los mozalbetes, a quienes da tanto asco esa píldora que por lo general se escabullen subrepticiamente y la expulsan por arriba antes de que pueda hacer efecto; y tampoco se les ha persuadido todavía para que guarden una abstinencia tan larga como exige la receta.

Seguro que muchos estudiantes, e incluso algunos adultos que conservan ese recuerdo negativo de su etapa escolar, desearían haber tenido una oblea como la descrita en el libro de Swift, que les hubiese permitido adquirir los conocimientos matemáticos sin necesidad de tener que estudiarlos. Aunque la visión negativa del autor de Los viajes de Gulliver tiene de las matemáticas da otra vuelta de tuerca cuando ni siquiera así los estudiantes son capaces de “tragar las matemáticas”.

Ilustración de Gulliver con el rey y la reina de Brobdingnag de la edición francesa de 1850 de Los viajes de Gulliver. Ilustración de Willmann, Colin, & Outhwaite, al estilo de Paul Gavarni. Imagen de Wikimedia Commons

 

El motivo de empezar con esta cita es que la imagen negativa que muchas personas tenían, o tienen, de las matemáticas seguramente era fruto de los malos recuerdos de la etapa escolar, alimentada en gran medida por cierto miedo a enfrentarse con ellas, lo que a la larga ha podido desembocar en cierta ignorancia en materia científica y, en particular, matemática. Es más fácil criticar lo que se ignora que intentar conocerlo mejor. Aunque esto no solamente es válido para las matemáticas. Me vienen a la mente muchos otros ejemplos, pero por citar uno, existe una cierta opinión negativa en nuestra sociedad hacia el arte contemporáneo, tan necesario y a la vez tan criticado.

Aunque una parte de la culpa, no necesariamente la principal, en esa visión negativa de las matemáticas haya podido estar relacionada con la propia enseñanza de esta asignatura. Como decía el lógico norteamericano León A. Henkin (1921-2006):

Uno de los grandes errores referidos a las matemáticas que cometemos en nuestras clases, es que el profesor siempre parece saber la respuesta a cualquier problema que se plantee, lo que hace que los alumnos piensen que hay un libro en algún sitio con todas las respuestas correctas a todas las cuestiones interesantes, y que los profesores conocen esas respuestas, y que, si nos pudiéramos hacer con el libro, lo tendríamos todo establecido. Eso no se parece en nada a la verdadera naturaleza de las matemáticas.

Aunque las matemáticas son, o deberían serlo, uno de los pilares, junto con la Lengua, de la educación de los jóvenes. Como decía la escritora británica Mary Ann Cross (1819-1880), que firmaba con el conocido pseudónimo George Eliot, en referencia a la educación en general, y poniendo a las matemáticas como referente:

Se ha dicho con gran acierto que el principal objetivo de la educación es análogo al que tienen las matemáticas; es decir, no el de obtener resultados, sino el de saber obtenerlos; no el alcanzar soluciones particulares, sino métodos con los que poder alcanzar infinitas respuestas.

Pero volvamos a esa imagen negativa de la sociedad hacia las matemáticas. En España no se ha tenido un gran aprecio por esta ciencia, y así nos encontramos por ejemplo en la novela Amor y Pedagogía del escritor y filósofo bilbaíno Miguel de Unamuno (1864-1936), el siguiente diálogo,

– ¿Qué estudias ahora?

– Matemáticas.

– ¿Matemáticas? Son como el arsénico; en bien dosificada receta fortifican, administradas a todo pasto matan. Y las matemáticas combinadas con el sentido común dan un compuesto explosivo y detonante; la “supervulgarina”. ¿Matemáticas? Uno… dos… tres… todo en serie; estudia historia para aprender a ver las cosas en proceso, en flujo.

Fotografía de Miguel de Unamuno en 1921, realizada por la Agencia de prensa Meurisse. Imagen de la Biblioteca Nacional de Francia

 

También encontramos otras opiniones negativas como la del activista estadounidense por los derechos de la minoría negra norteamericana Malcom X (1925-1965), quien tenía una concepción estática de las matemáticas.

Siento tener que decir que no me gustaban las matemáticas. Muchas veces he reflexionado sobre esto. Creo que era porque en matemáticas no hay discusión posible. Si te equivocas, te equivocas y basta.

Otra opinión negativa la encontramos en el escritor alemán y premio Nobel de Literatura, Hermann Hesse (1877-1962), autor de El lobo estepario o Siddhartha, quien la muestra como un saber atemporal, como surgido de la nada.

Usted trata la historia del mundo como un matemático trabaja con las matemáticas, donde sólo existen leyes y fórmulas, sin realidad, sin bien ni mal, sin tiempo, sin ayer, sin mañana, nada excepto el eterno y presente matemático.

El filósofo confunciano japonés Sorai Ogyu (1666-1728), habla de las matemáticas como si fueran simplemente una diversión lógica con la que nos divertimos los matemáticos y que no tiene ninguna utilidad para nuestra vida cotidiana, para nuestra sociedad.

Los matemáticos se vanaglorian de sus logros exactos, pero en realidad están absortos en acrobacias mentales y no contribuyen en la sociedad.

El director de cine aragonés Luis Buñuel (1900-1983), autor de películas como Un perro andaluz, Viridiana o El discreto encanto de la burguesía, ve a las matemáticas, y la ciencia en general, como algo frío, estático, alejado de la creación y de la imaginación.

La ciencia no me interesa. Ignora el sueño, el azar, la risa, el sentimiento, la contradicción, cosas que me son preciosas.

Cartel de la película surrealista Un perro andaluz (1929), de Luis Buñuel, con guion de Luis Bueñuel y Salvador Dalí

 

Como también el filósofo francés Jules de Gaultier (1858-1942).

En el punto donde se detiene la ciencia, empieza la imaginación.

Todas estas reflexiones nos muestran unas matemáticas estáticas, carentes de imaginación y creatividad, alejadas de la realidad y de los intereses de la sociedad, cuya creación es fría, mecánica y sin evolución. Esta visión es una visión fundamentada en el desconocimiento de la materia de la que escriben, y seguramente apoyada por cierta frustración. Además, continuamente, y de forma interesada, se ha tendido a enfrentar las matemáticas y la ciencia en general, con las letras, el arte y la cultura, como si fueran dos mundos diferentes, dos mundos opuestos. Por ejemplo, como nos recordaba Fernando Corbalán en su libro Matemáticas de la vida misma, el académico de la Lengua Española Francisco Rico afirmaba en 1996,

Uno de los mayores problemas de España es el insuficiente conocimiento escrito y hablado de las lenguas extranjeras. Entre otras cosas porque se enseñan mal. Del bachillerato habría que salir hablando perfectamente al menos una de ellas. La culpa es de los planes de estudios, que convierten estas asignaturas en marías. Las básicas deberían ser la lengua española y la lengua extranjera. Y la literatura, que es lo que enseña a conocer el mundo. Las asignaturas técnicas, las matemáticas, no hacen ninguna falta: cualquier calculadora u ordenador te lo da todo hecho.

Y más concretamente, la relación entre poesía y ciencia ha sido un símbolo de la opinión social y cultural del desencuentro entre las ciencias y las letras. Así, el poeta romántico inglés William Wordsworth (1770-1850), en su obra Baladas Líricas (Sobre Ciencia y Poesía) sitúa a la poesía como más importante en la vida de los seres humanos que el conocimiento científico.

El conocimiento de ambos, del poeta y del hombre de ciencia, es placer; pero el conocimiento del primero nos abre el sendero hacia una parte necesaria de nuestra existencia, de nuestra herencia natural e inalienable; el otro [la ciencia] es una adquisición personal e individual, que obtenemos lentamente y no por una simpatía habitual y directa respecto de nuestros congéneres. El hombre de ciencia busca la verdad como un benefactor desconocido y remoto, la abriga y la ama en sus soledad; el poeta, cantando una canción junto con todos los seres humanos, se regocija en la presencia de la verdad como nuestro amigo visible y compañero de todos los momentos. La poesía es el aliento y el más fino espíritu de todo conocimiento; … La poesía es el primero y último de los conocimientos; es tan inmortal como el corazón del hombre.

Otro poeta británico, Wystan Hugh Auden (1907-1973), que vivió parte de su vida en EEUU y que recibiera el Premio Pulitzer en 1948, ataca directamente al ansia de conocimiento que tiene el ser humano, que claramente está en la base de la creación tanto científica, pero también de la artística, y así nos dice en su poema Después de leer un manual de física moderna para niños.

Esta pasión de nuestra especie

por el proceso de descubrir

es un factor del que apenas se puede dudar,

pero me alegraría más

si supiera más claramente

para qué queremos el conocimiento.

Por el contrario, hay quienes como el escritor romántico alemán Johann Wolfgang von Goethe (1749-1832), autor de Fausto y Las penas del joven Werther, soñaban con reunir la ciencia y la poesía.

Se olvidó que la ciencia se originó en la poesía, no se tiene en cuenta que, después de una revolución de los tiempos, podrían reunirse de nuevo, amigablemente, en un punto más alto, para beneficio de ambas.

Retrato del escritor Johann Wolfgang von Goethe, a la edad de 80 años, realizado por el pintor alemán Joseph Karl Stieler (1781-1858). Obra perteneciente a Neue Pinakothek. Imagen de Wikimedia Commons

 

Otro de los símbolos del mundo de las letras, el escritor francés Gustave Flaubert (1821-1880) también creía en que ambas visiones del mundo, la artística y la científica, eran la misma y que volverían a juntarse de nuevo.

A medida que avance, el arte será más científico, del mismo modo que la ciencia se volverá artística; los dos se reunirán en la cumbre, después de haberse separado en la base.

Y más aún, decía

La poesía es una ciencia exacta, como la geometría.

Esa visión de las matemáticas, como un conocimiento dinámico, creativo, lleno de imaginación, que busca la belleza y que se inspira en ella, es una visión más real, que muchos intelectuales han sabido reconocer en su pensamiento o en sus creaciones literarias. Veamos algunas citas en este sentido, empezando por la del matemático británico Godfrey H. Hardy (1877-1947), autor de Apología de un matemático, para quien la belleza es una parte esencial de las matemáticas.

Un matemático, al igual que un pintor o un poeta, es un creador de modelos. […] Los modelos del matemático, al igual que ocurre con los del pintor o con los del poeta, han de ser hermosos; las ideas, al igual que los colores o las palabras, deben de encajar de forma armoniosa. La belleza es el primer examen. No existe lugar eterno en el mundo de las matemáticas feas.

Para el matemático francés Henri Poincaré (1854-1912) la belleza es también un elemento fundamental en el proceso de invención matemática. El texto que recoge su conferencia La invención matemática en la Sociedad Psicológica de París en 1908 es un uno de esos textos que es aconsejable leer (recientemente se ha publicado en español por la editorial KRK, con una magnífica traducción y edición de Francisco González).

En su conferencia, Poincaré habla de la intuición como un elemento fundamental en el proceso de invención matemática, aunque esta es fruto del trabajo y el conocimiento anteriores. Además, el matemático francés habla de que “inventar es discernir, es elegir”, y en ese proceso de elección en el que la intuición es tan importante, una herramienta fundamental es la belleza, es esta la que ayuda a la mente creadora, la matemática sí, pero la científica y artista también, a realizar esa elección intuitiva, casi inconsciente.

Por ejemplo, podemos leer en la misma:

todas las combinaciones se formarían como consecuencia del automatismo del yo subliminal, pero únicamente aquellas que fueran interesantes penetrarían en el campo de la consciencia […]. ¿Cuál es la causa de que entre mil productos de nuestra actividad inconsciente existan algunos llamados a cruzar el umbral, mientras otros se quedan atrás? ¿Es el azar el que les confiere ese privilegio? […]

las combinaciones útiles son precisamente las más bellas, quiero decir, aquellas que resultan más atractivas para esa sensibilidad especial que todos los matemáticos conocen, pero que los profanos ignoran hasta el extremo de tomárselo casi a risa.

¿Qué ocurre entonces? Entre las muy numerosas combinaciones que el yo subliminal ha formado a ciegas, casi todas carecen de interés y utilidad, pero, por eso mismo, no tienen efecto alguno sobre la sensibilidad estética. La consciencia no la reconocería nunca. Sólo algunas son armoniosas y, por tanto, útiles y bellas al mismo tiempo, capaces de conmover a la sensibilidad especial del geómetra de la que acabo de hablar y que, una vez estimulada, atraerá sobre ella nuestra atención, y les dará así ocasión de volverse conscientes.

Henri Poincaré, caricatura realizada por Enrique Morente, perteneciente a la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas. La exposición virtual pueden ver en el portal divulgamat.

 

La matemática rusa Sofia Kovalevskaya (1850-1891), pone el énfasis en la imaginación en el proceso creativo de las matemáticas al escribir que:

No es posible ser matemático sin llevar un poeta en el alma.

Pero también ese pensamiento llega de la mano de grandes escritores y filósofos, como el madrileño José Ortega y Gasset (1883-1955), que reconoce la participación de la imaginación en la creación matemática,

No hay modo de entender bien al hombre si no se repara en que la Matemática brota de la misma raíz que la poesía, del don imaginativo.

Una referencia clásica dentro de las matemáticas es la siguiente del escritor francés Voltaire, François-Marie Arouet (1694-1778):

Se advierte, entre los matemáticos, una imaginación asombrosa. Repetimos: existía más imaginación en la cabeza de Arquímedes que en la de Homero.

Y ya que hablamos de Voltaire, traigamos una cita más suya, aunque un poco alejada de nuestro tema de hoy: Toda secta es una bandera de error. No hay sectas en la geometría.

El poeta ruso Alexander Sergeyevich Pushkin (1799-1837) también comparó las matemáticas con la poesía.

La inspiración es necesaria en geometría, tanto como en poesía.

Y una interesante visión de las matemáticas como creadoras de belleza viene de la mano del poeta portugués Fernando Pessoa (1888-1935).

El binomio de Newton es tan bello como la Venus de Milo.

Lo que hay es poca gente que se dé cuenta de ello.

Para muchas personas es difícil entender la importancia de la imaginación en matemáticas, ya que ven, como ha quedado patente en algunas citas del principio, esta ciencia como algo estático, como un camino fijo donde solo hay que avanzar para descubrir teniendo los conocimientos técnicos adecuados, sin ninguna posibilidad de creatividad e imaginación. Sin embargo, como decía el historiador de las matemáticas W. S. Anglin:

Las matemáticas no son una marcha cautelosa a lo largo de una carretera bien despejada, sino un viaje por un desierto desconocido en el que los exploradores se pierden a menudo.

Aunque más que un vasto desierto, me gusta más la visión del matemático británico Arthur Cayley (1821-1895) en su discurso público como presidente de la British Society for the Advancement of Science, en 1883, que las mostraba como una extensión por explorar:

Es difícil dar una idea de la vasta extensión de la matemática moderna. Esta palabra «extensa» no es la correcta. Quiero decir extensa con multitud de bellos detalles. No una extensión uniforme, como un plano vacío, sin objetos, sino una parte de un bello país, visto al principio a distancia, pero que puede ser paseado y estudiado con todo detalle desde las colinas y los valles, hasta los ríos, rocas, bosques y flores. Pero, como para todas las demás cosas, así para la teoría matemática, la belleza puede ser percibida, pero no explicada.

(c) Trinity College, University of Cambridge; Supplied by The Public Catalogue Foundation

Pero dejemos el tema por hoy en este punto. Aun así, me gustaría finalizar esta entrada del Cuaderno de Cultura Científica con una cita de un libro que me encanta, Los Pintores Cubistas,del poeta francés Guillaume Apollinaire (1880-1918), relacionando las matemáticas con el arte, y en concreto, con el origen del cubismo.

Capítulo II: Los jóvenes pintores de las escuelas extremadas tienen como fin secreto hacer pintura pura. Es un arte plástico enteramente nuevo. Sólo está en sus comienzos y todavía no es tan abstracto como quisiera. La mayoría de los pintores nuevos están haciendo matemáticas sin saberlo o sin saberlas, pero no han abandonado todavía a la naturaleza, a la que interrogan para aprender de ella el camino de la vida.

Capítulo III: … Se ha reprochado enérgicamente a los pintores nuevos sus preocupaciones geométricas. Sin embargo, las figuras geométricas son lo esencial del dibujo. La geometría, ciencia que tiene por objeto la extensión, su medida y sus relaciones, ha sido siempre la regla misma de la pintura. Hasta ahora, las tres dimensiones de la geometría euclideana bastaban a las inquietudes que nacían del sentimiento de infinito en el alma de los grandes artistas.

Los pintores nuevos no se han planteado ser geómetras, como tampoco lo hicieron sus ancestros. Pero puede decirse que la geometría es a las artes plásticas lo que la gramática es al arte del escritor. Así pues, hoy, los sabios ya no se limitan a las tres dimensiones de la geometría euclideana. Los pintores se han visto conducidos, natural y, por así decirlo, intuitivamente, a preocuparse por las nuevas medidas posibles de la extensión que en el lenguaje de los mundillos modernos se designaban global y brevemente por el término de cuarta dimensión.

Tal y como se presenta en la mente, desde el punto de vista plástico, la cuarta dimensión estaría engendrada por las tres mediadas conocidas: configura la inmensidad del espacio eternizándose en todas las direcciones en un momento determinado. Es el espacio mismo, la dimensión del infinito; es la que dota a los objetos de plasticidad.

Fantasía geométrica (1971), de Anatoly Fomenko. Ilustración perteneciente al libro Mathematical Impressions

Bibliografía

1.- VV. AA. (proyecto coordinado por Raúl Ibáñez y Antonio Pérez), Un teorema en la biblioteca, Colección Relatos Matemático, ANAYA-RSME, 2009.

2.- DivulgaMAT: Concursos literarios RSME-ANAYA

3.- Fernando Corbalán, Matemáticas de la vida misma, GRAO, 2007.

4.- G. H. Hardy, Apología de un matemático, Capitán Swing, 2017.

5.- Henri Poincaré, La invención matemática, edición de Francisco González, KRK, 2018.

6.- Raúl Ibáñez, Antonio Pérez (coordinadores de la edición), El rostro humano de las matemáticas, Nivola, 2008.

7.- Juan Guirado, Infinitum, eneida, 2007.

8.- Raúl Ibáñez, Cayley, el origen del álgebra moderna, Genios de las matemáticas, RBA, 2017.

9.- Anatoly T. Fomenko, Mathematical Impressions, AMS, 1990.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Un teorema en la biblioteca se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La magia del teorema de Zeckendorf
  2. El teorema de los cuatro colores (1): una historia que comienza en 1852
  3. El teorema de Marion (Walter)
Categorías: Zientzia

Juntando semiconductores: historia del transistor

Mar, 2020/06/02 - 11:59
Foto: Laura Ockel / Unsplash

Las propiedades de los semiconductores tipo n y tipo p eran bien conocidas al final de la Segunda Guerra Mundial en 1945. Este conocimiento se debía, en no poca medida, al considerable esfuerzo de investigación que supuso el desarrollo de la electrónica en general y del radar en particular.

En 1947, tres investigadores de los Laboratorios Bell en Nueva Jersey (EE.UU.) llevaron la idea del diodo n-p un paso más allá. William Shockley, Walter Brattain y John Bardeen colocaron dos diodos de germanio de forma consecutiva, un diodo n-p al lado de un diodo p-n, compartiendo el semiconductor tipo p. Descubrieron que se podía hacer que el dispositivo permitiera el paso de la electricidad o que resistiera, es decir, que bloqueara el paso de electricidad, dependiendo de la carga aplicada a la capa central de semiconductor tipo p. Esta clase de dispositivo se denomina transistor bipolar n-p-n [1]. Un transistor bipolar p-n-p también es viable. [2]

Una réplica del primer transistor. Fuente: Wikimedia Commons

A principios de la década de 1960, a medida que los transistores basados en silicio se hacían más pequeños, fiables y baratos de fabricar, comenzaron a reemplazar los tubos de vacío más voluminosos y costosos que se usaban para amplificar voltajes, por ejemplo en sistemas de sonido estéreo, en televisores o radios [3], y como dispositivos de conmutación y gestión lógica en ordenadores. Shockley, Bardeen y Brattain recibieron el Premio Nobel en 1956 por un invento que pronto lanzaría la revolución en la electrónica computacional. [4]

La revolución en la electrónica computacional se aceleró también gracias a una guerra: la Guerra Fría. La necesidad de componentes electrónicos miniaturizados para los nuevos misiles llevó al desarrollo del circuito integrado. En 1958, Jack Kilby, de Texas Instruments, desarrolló la idea de integrar transistores y los circuitos relacionados en un solo chip de silicio.

Un año después, la Fairchild Semiconductor Corporation puso en práctica la idea desarrollando el método para integrar los elementos separados en el chip. En 1971 la recién formada Intel Corporation introdujo el primer circuito de microprocesadores integrado. Los continuos avances en el diseño de microprocesadores y las técnicas de fabricación permitieron la producción en masa de microprocesadores para ordenadores personales, teléfonos móviles, automóviles, robots industriales e incluso tostadoras, frigoríficos y muñecas «parlantes». A principios de la década de 2000, Intel y sus competidores podían colocar hasta 42 millones de transistores microscópicos en un solo chip de silicio, dos centímetros cuadrados. En 2019 el Epyc Rome de AMD contiene 39.540 millones de transistores [5].

Notas:

[1] Simplificando, y porque puede resultarte útil, el nombre de transistor viene de que puede actuar como transmisor o resistor de la corriente eléctrica.

[2] También hay otro tipo diferente de transistor, conocido como el «transistor de efecto campo», que funciona con el mismo principio general.

[3] Su efecto fue tan grande que se popularizó la sinécdoque de llamar transistor al radiorreceptor basado en transistores.

[4] Los tres se llevaban como el perro y el gato y tiró cada uno por su lado mucho antes del premio. Bardeen se fue a la Univisidad de Illinois en Urbana-Champaign para seguir con sus elucubraciones teóricas en materia condensada. Terminaría recibiendo otro premio Nobel de física por la teoría BCS de la superconductividad. Brittain siguió en Bell he hizo investigaciones aplicadas a sistemas biológicos. Y, finalmente, Shockley se mudó a la Universidad de Stanford, y desde ella sentó las bases para el desarrollo de las industrias de Silicon Valley en los alrededores de la universidad. Muchas de las compañías originales del valle (incluida Intel) fueron fundadas por personas que originalmente habían trabajado con Shockley.

Bardeen, Shockely y Brattain. La foto tiene su aquel sabiendo lo que ocurría entre los tres. Fuente: Wikimedia Commons

[5] Transistores MOSFET, esto es, transistores de efecto de campo de semiconductores de óxido metálico.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Juntando semiconductores: historia del transistor se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Juntando semiconductores: el diodo n-p
  2. Juntando semiconductores: LEDs y rectificadores
  3. Semiconductores
Categorías: Zientzia

40 años del Plan Integral de Saneamiento del Bilbao Metropolitano

Lun, 2020/06/01 - 11:59

 

Imagen 1: la ría de Bilbao en su desembocadura en 1976. (Fotografía: El correo.com)

En 1979, el Consorcio de Aguas Bilbao Bizkaia puso en marcha el Plan Integral de Saneamiento del Bilbao Metropolitano, el proyecto medioambiental más importante llevado a cabo en Euskadi, que ha supuesto una inversión superior a los 1.200 millones de euros.

Además de cumplir las exigencias de la Unión Europea en materia de tratamiento de las aguas residuales, el plan ha permitido la recuperación medioambiental de nuestros ríos, Ría y playas del entorno. El trabajo no ha concluido, queda todavía trabajo por hacer porque en materia de saneamiento siempre hay margen de mejora, pero estos 40 años han dejado para la historia una estampa que seguramente las personas más jóvenes ni recuerden, pero que formaba parte del ADN de nuestro Bilbao, surcado entonces por una Ría marrón, pestilente y sin posibilidad de vida animal o vegetal.

Ilustración 1: entre 1900 y 1975 la Ría se convirtió en un colector de residuos donde la vida era imposible, llegando a recibir 2.000 toneladas diarias de residuos. (Ilustración: NorArte Studio)

El Plan Integral de Saneamiento ha transformado la imagen de la Ría y la han convertido en un nuevo espacio vertebrador de la Villa para el disfrute de toda la ciudadanía. En total, unos 280 kilómetros de colectores e interceptores recogen las aguas residuales domésticas e industriales, y varios cruces subfluviales trasladan las aguas sucias –también desde la margen derecha– hasta la Estación Depuradora de Aguas Residuales – EDAR de Galindo (Sestao), la gran obra por excelencia en saneamiento ejecutada por el Consorcio de Aguas. Desde 1990, año en que comenzó a operar la planta, se depuran al día las aguas fecales de 850.000 bizkainas y bizkainos, unos 350.000.000 litros al día. Es la depuradora principal, pero no la única, ya que las aguas se depuran en otras 31 plantas repartidas por el territorio histórico.

Pero echemos un poco la vista atrás a aquel Bilbao en blanco y negro. A mediados del siglo XIX, el entorno de la Ría inició un fuerte proceso de industrialización basado, principalmente, en la explotación y exportación del mineral de hierro y de la industria siderúrgica. De ser un pequeño puerto, la Ría de Bilbao se convirtió en uno de los principales focos industriales y comerciales, no solo del Estado, sino también de Europa.

En pocos años, la fisonomía y el paisaje del cauce sufrieron una profunda transformación. Sus márgenes se poblaron de fábricas e infraestructuras portuarias y el fuerte movimiento migratorio, propiciado por la necesidad creciente de mano de obra, provocó un rápido crecimiento poblacional del área. Entre 1900 y 1975 la población se cuadruplicó.

Ilustración 2: características de la red de estructuras construidas para desarrollar el plan de saneamiento del Bilbao Metropolitano. (Ilustración: NorArte Studio)

A la vez que se producía este desarrollo, las aguas de la Ría empezaban a mostrar una contaminación alarmante. El crecimiento urbano desordenado y la falta de conciencia medioambiental propiciaron el vertido de las aguas residuales –domésticas e industriales– directamente en el estuario, sin ningún tipo de tratamiento previo. La Ría se convirtió en un colector de residuos donde la vida era imposible.

La Ría recibía diariamente 900 toneladas de residuos sólidos procedentes, principalmente, de las explotaciones mineras, 400 toneladas de vertidos ácidos, 80 toneladas de metales, además de compuestos cianurados o compuestos nitrogenados; en definitiva, casi 2.000 toneladas diarias de residuos que la convirtieron en una cloaca sin oxígeno.

Por este motivo, uno de los principales objetivos del Plan Integral de Saneamiento fue precisamente la recuperación ambiental de la Ría de Bilbao, para lo cual se fijó un 60% de oxigenación como estándar de calidad de las aguas. Kilómetros de colectores empezaron a recoger las aguas residuales de hogares e industrias, que ya no van al cauce, sino a las plantas depuradoras, siendo la de Galindo pieza clave del sistema, el riñón que desde los años 90 depura las aguas residuales de Bizkaia. El resultado es una Ría ahora sí, viva y cada vez más apta para el desarrollo de nuevos usos deportivos y náuticos.

Paralelamente a todas estas obras hidráulicas, en 1989 comenzaron a realizarse estudios de seguimiento en el medio acuático receptor para evaluar la eficacia de las medidas adoptadas por el Plan Integral de Saneamiento, financiados por el Consorcio de Aguas y URA – Agencia Vasca del Agua. Personas expertas del centro tecnológico AZTI, en colaboración con la UPV/EHU, se encargan de llevar a cabo esta labor de vigilancia ambiental. Todos los años se realizan campañas y muestreos para evaluar el estado de la Ría y su evolución, analizando la calidad del agua, los sedimentos, la fauna y la flora.

Ilustración 3: sistema de colectores para el saneamiento del Bilbao Metropolitano, a través del cual se depuran diariamente 350.000.000 litros de agua. (Ilustración: NorArte Studio)

El efecto más importante del Plan Integral de Saneamiento en la Ría ha sido la recuperación de los niveles normales de oxígeno. De valores cercanos o inferiores al 40% de saturación a comienzos de los años 90, a valores del 90% de saturación actualmente. Hoy en día no hay ninguna zona del estuario con problemas de oxigenación. Todo esto ha permitido la presencia de comunidades biológicas en todo el sistema, desde la zona interior de Bilbao hasta el Abra, con más de 60 especies de peces asentadas (lenguado, cabuxino, mojarra, platija, muble, lubina, salmonete, chicharro, anguila…), además de algas y otros organismos que viven en los sedimentos y en los sustratos rocosos.

Y esta es la historia de Cuando la vida volvió a la Ría. Ahora nos corresponde a todas y todos, conservar las masas de agua y hacer un buen uso de los sistemas de saneamiento porque son una pieza clave para asegurar la sostenibilidad del planeta, devolviendo al medio limpia el agua que utilizamos, para que siga su ciclo natural.

Sobre el autor: Pedro María Barreiro es ingeniero industrial y Gerente del Consorcio de Aguas Bilbao Bizkaia.

El proyecto «Ibaizabal Itsasadarra zientziak eta teknologiak ikusita / La Ría del Nervión a vista de ciencia y tecnología» comenzó con una serie de infografías que presentan la Ría del Nervión y su entorno metropolitano vistos con los ojos de la ciencia y la tecnología. De ese proyecto han surgido una serie de vídeos y artículos con el objetivo no solo de conocer cosas interesantes sobre la ría de Bilbao y su entorno, sino también de ilustrar como la cultura científica permite alcanzar una comprensión más completa del entorno.

 

El artículo 40 años del Plan Integral de Saneamiento del Bilbao Metropolitano se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La recuperación de la fauna en la ría de Bilbao
  2. ¿Qué esconden los sedimentos de la Ría?
  3. Naukas Bilbao está en marcha
Categorías: Zientzia

Los reflejos del espejo más famoso del arte

Dom, 2020/05/31 - 11:59

 

Ser reconocido mundialmente por crear una obra maestra es un hecho notable. Que un único detalle de una de tus pinturas sea trascendental para la historia del arte es algo solo al alcance de un puñado de elegidos. Hablamos del espejo más fascinante jamás pintado, hablamos del espejo de Jan van Eyck en El matrimonio Arnolfini.

Imagen 1. El Matrimonio Arnolfini (82×60 cm), de Jan van Eyck (1434)

 

El Matrimonio Arnolfini es un perfecto ejemplo de la maestría que había alcanzado su autor con la pintura al óleo: los pliegues de las ropas, los detalles del candelabro, la talla de los muebles… Es una de las obras más estudiadas de la historia y, sin embargo, todavía no está claro su significado. El prestigioso historiador del arte Erwin Panofsky sostenía que representaba el enlace entre Giovanni Arnolfini y su esposa Giovanna Cenami. El sacerdote y el testigo indispensables para celebrar la ceremonia aparecerían en… el espejo. Pero, hoy por hoy, ni la propia National Gallery, museo donde se encuentra el cuadro, mantiene esa teoría. De todos modos, no hemos venido aquí a hablar de algo sobre lo que ya han vertido ríos de tinta. El protagonista de este artículo será exclusivamente el objeto circular que se alza entre los brazos que unen el hombre y la mujer.

Comencemos por decir que el espejo que van Eyck pintó difiere un tanto de la idea originaria que tenía. La reflectografía infrarroja nos permite saber que en una primera instancia el artista dibujó un espejo ligeramente más grande, por lo menos en cuanto al marco se refiere. Gracias a esta técnica analítica podemos contemplar la silueta del aspecto que pudo haber tenido (Imagen 2). Cabe destacar que, además de un tamaño mayor, el marco iba a tener tan solo ocho segmentos en lugar de los diez que ahora tiene y que sirvieron al pintor para dibujar escenas del Vía Crucis.

Imagen 2. Macrofotografía y reflectografía infrarroja del espejo. Fuente:  © KIK-IRPA, Brussels.

Pero la parte más fascinante del espejo no es su marco, sino su reflejo. Gracias a ese recurso van Eyck introdujo en la pintura a otros dos personajes que se encuentran fuera de la escena principal. Quizás esto os recuerde a algo que hizo un tal Velázquez 222 años después. ¿De dónde tomaría la inspiración? Yo solo digo que El Matrimonio Arnolfini estaba en poder de la Corte española cuando don Diego era pintor de cámara. Aunque tampoco tenemos que realizar viajes tan largos en el tiempo: otros pintores flamencos explotaron el recurso del espejo pocos años después de que van Eyck lo hiciese (Imagen 3).

Imagen 3. Espejos en las obras San Juan Bautista y el maestro franciscano Enrique de Werl (Robert Campin, 1438), Un orfebre en su taller (Petrus Christus, 1449), Las bodas de Caná (Juan de Flandes, ca. 1500) y El cambista y su mujer (Quinten Massys, 1514).

Como podéis ver, los espejos sirven para completar la composición, bien sea mostrando elementos nuevos, bien sea mostrando una perspectiva diferente. Y ahí es donde sobresale la creación de van Eyck. Dentro de esa circunferencia de apenas cinco centímetros de diámetro el pintor recrea la lujosa habitación en la que se hallan los protagonistas. ¡Aparecen hasta las naranjas! Si os fijáis detenidamente veréis que los objetos reflejados sufren una distorsión y las líneas rectas se curvan. Esto es un fenómeno comprensible si tenemos en cuenta que nos encontramos ante un espejo convexo. La pregunta que nos podríamos hacer es si esta distorsión obedece a los principios de la óptica. Como suele suceder en estos casos, hay gente que se lo ha preguntado antes que nosotros. Lo bueno es que así conocemos la respuesta.

Imagen 4. Detalle del espejo de El Matrimonio Arnolfini.

En el año 2004 se publicó un artículo titulado Reflections of Reality in Jan van Eyck and Robert Campin (Reflejos de la realidad en Jan van Eyck y Robert Campin). En este trabajo los autores pretendían indagar en el realismo de los artistas flamencos a través del estudio de los espejos convexos. Para ello se valieron de herramientas informáticas (uno de los firmantes trabajaba para Microsoft) y emplearon un algoritmo para estudiar la “exactitud geométrica” de las imágenes reflejadas.

Para simplificar las cosas diremos que el proceso consiste en tomar la imagen distorsionada del espejo y transformarla mediante diferentes modelos matemáticos para obtener una nueva imagen corregida. Cuanto más se acerque la imagen corregida en su totalidad a la “perspectiva correcta” más exacta se considera la recreación. Estas transformaciones se hicieron siguiendo tres modelos para cubrir diferentes posibilidades: que el espejo fuese parabólico, que fuese esférico o que provocase una distorsión radial.

Al aplicar esta metodología en El retrato Arnolfini las diferencias entre los tres modelos fueron mínimas, pero podemos ver que en ningún caso se puede obtener una imagen “correcta” de la realidad (Imagen 5). El lugar más fácil para observar ese hecho es la ventana. Mientras casi todas las distorsiones del espejo se corrigen y se obtienen objetos más o menos rectos, la parte izquierda del marco de la ventana sigue teniendo un aspecto curvado. Por lo tanto, ahí van Eyck se alejó un tanto de la imagen que en realidad hubiese proyectado el espejo. Teniendo en cuenta que lo pintó hace casi seiscientos años, se lo podemos perdonar.

Imagen 5. De izquierda a derecha: Imagen original, corregida para espejo parabólico, corregida para espejo esférico y corregida mediante modelo radial. Fuente: Criminisi et al (2004)

 

Ahora bien, la ciencia es implacable y, si se encuentra un fallo, hay que intentar arreglarlo. Los investigadores tomaron el espejo una vez transformado y retocaron aquellas zonas que todavía mostraban distorsión: el borde izquierdo de la ventana y de la mesa y la parte inferior del vestido de la mujer. Una vez hecho estos cambios, hicieron el proceso inverso: revirtieron la transformación y obtuvieron el espejo más realista posible. O, por lo menos, el que mejor obedece las leyes de la óptica. Como podéis ver en la Imagen 6, no difiere en exceso de lo que pintó van Eyck. Quizás lo más destacable, además de la mencionada ventana, es que la mesa original no toma la forma curvada que le correspondería por estar en el borde del espejo.

Imagen 6. Proceso de corrección del espejo: (1) La imagen se transforma según el modelo esférico, (2) se introducen correcciones en aquellos puntos que todavía muestran distorsión (las zonas marcadas son las más evidentes) y (3) se invierte la transformación. Fuente:  Criminisi et al (2004)

Para concluir el artículo, solo me queda parafrasear a los autores de este interesantísimo trabajo, ya que comparten la visión de este blog: “esta investigación representa un nuevo intento de construir un diálogo entre dos disciplinas diferentes: las ciencias de la computación y la historia del arte. A pesar de sus diferencias fundamentales, pueden aprender una de la otra y enriquecerse mutuamente”.

Para saber más:

A. Criminisi et al. (2004) Reflections of Reality in Jan van Eyck and Robert Campin, Historical Methods: A Journal of Quantitative and Interdisciplinary History, 37(3), 109-122, doi: 10.3200/HMTS.37.3.109-122.

Rachel Billinge y Lorne Campbell (1995) The infra-red Reflectograms of Jan van Eyck’s Portrait of Giovanni (?) Arnolfini and his Wife Giovanna Cenami, National Gallery Technical Bulletin, 16, 47-60.

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

El artículo Los reflejos del espejo más famoso del arte se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tabla periódica en el arte: Cobre
  2. El fondo cósmico de microondas y el espejo de feria
  3. Van Eyck al descubierto
Categorías: Zientzia

Catástrofe Ultravioleta #26 VOZ 1

Sáb, 2020/05/30 - 11:59
Catástrofe Ultravioleta #26 VOZ 1

Hablamos de la voz, la importancia que tiene en nuestra identidad y de las funcionalidades, algunas buenas y otras no tanto, de la introducción de las tecnologías. ¿Puedes terminar en la cárcel por tu voz?, ¿te pueden robar la voz?, ¿qué implicaciones tendrá en un futuro cercano que alguien consiga usurpar tu voz?

Agradecimientos a Michele Catanzaro y Nuria Gabaldá

** Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) para Podium Podcast con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.

El artículo Catástrofe Ultravioleta #26 VOZ 1 se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Preparados para una Catástrofe Ultravioleta
  2. Catástrofe Ultravioleta #14 VULCANO
  3. Catástrofe Ultravioleta #10 – Hipnosis
Categorías: Zientzia

Un predictor de la evolución a metástasis del melanoma

Vie, 2020/05/29 - 11:59
Análisis de BRAF-V600E mediante inmunohistoquímica (A-C) y PCR Digital (D-H) en tres muestras representativas de melanoma.

El melanoma es un tumor maligno que se origina a partir de la transformación de los melanocitos. Los melanocitos son las células de la piel encargadas de la síntesis de melanina, un polímero complejo que nos protege de los efectos negativos de la radiación solar y nos broncea la piel. Aunque el melanoma es el menos común entre los cánceres de piel, es el que presenta mayor tasa de mortalidad, en gran medida por su elevado potencial de metástasis.

Una vez que un paciente es diagnosticado con melanoma, en estadios avanzados, se estima si se beneficiará de la terapia adyuvante con inhibidores de BRAF. Para ello los laboratorios clínicos analizan si el paciente tiene o no una mutación concreta en el gen BRAF, en concreto la mutación BRAF-V600E, que es una de las más comunes en melanoma y es considerada una mutación “conductora”, es decir, una mutación que confiere una ventaja para la iniciación de la trasformación y crecimiento tumoral.

Sin embargo, cada vez es más evidente que los tumores son muy heterogéneos y existen subpoblaciones de células con mutaciones y comportamientos distintos dentro del mismo tumor. “Por eso, creemos que cuantificar la mutación es mucho más informativo que sólo tratar de detectarla (positivo o negativo). Esta cuantificación es posible realizarla a partir de biopsias mediante una técnica novedosa denominada PCR-digital”, explica Arrate Sevilla, del Departamento de Genética, Antropología Física y Fisiología Animal de la UPV/EHU.

En el estudio se analizó la carga mutacional en biopsias de 78 pacientes y se observó que la carga de la mutación BRAF-V600E se correlacionaba inversamente con el estadio de los pacientes, lo que sugiere que podría ser útil como marcador de pronóstico. Pero, además, lo más interesante es que en pacientes de estadio II se correlacionaba inversamente con el desarrollo de metástasis. Esto es, los pacientes que habían desarrollado metástasis tenían en general menor porcentaje de la mutación en sus tumores primarios. Así, mediante análisis predictivos basados en aprendizaje automatizado (machine learning), se vio que la carga mutacional de BRAF-V600E era capaz de catalogar a los pacientes de estadio II en metastásicos o no-metastásicos, de forma ligeramente más precisa que el marcador comúnmente utilizado: la profundidad de Breslow.

Según los análisis de este grupo la carga de esta mutación parece estar relacionada con el pronóstico. “Al menos en pacientes en estadio II, podría ser un predictor de la evolución a metástasis”, indica Sevilla.

Estos resultados son preliminares y precisan que este posible marcador sea validado en un conjunto mucho más amplio de pacientes. “Sin embargo, creemos que nuestro descubrimiento va por el buen camino, es novedoso y abre la puerta a estudios adicionales sobre los mecanismos de evolución de este tumor”, añade la investigadora.

Referencia:

Arrate Sevilla, M. Celia Morales, Pilar A. Ezkurra, Javier Rasero, Verónica Velasco, Goikoane Cancho-Galan, Ana Sánchez-Diez, Karmele Mujika, Cristina Penas, Isabel Smith, Aintzane Asumendi, Jesús M. Cortés, Maria Dolores Boyano, Santos Alonso (2020) BRAF V600E mutational load as a prognosis biomarker in malignant melanoma PLoS ONE doi: 10.1371/journal.pone.0230136

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Un predictor de la evolución a metástasis del melanoma se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Biomarcadores para la detección precoz del melanoma
  2. Nanopartículas para reducir la metástasis hepática del cáncer de colon
  3. Día de Darwin 2020: Evolución del Sistema Solar + Teoría evolutiva y medicina
Categorías: Zientzia

La humanidad ante su propia extinción

Jue, 2020/05/28 - 11:59

Fernando Valladares y Emiliano Bruner

Foto: Natalya Letunova / Unsplash

Las catástrofes y amenazas ambientales causadas o agravadas por la humanidad crecen en frecuencia e intensidad. Estamos muy preocupados por las pandemias y por el cambio climático, pero no hace tanto que las toneladas de plástico que vertemos al mar o los miles de seísmos que generamos anualmente ocupaban las portadas de los periódicos.

Amparados en nuestra sociedad altamente tecnificada, parece que vamos contrarrestando los impactos. Pero crece la sensación de que estos problemas ambientales que generamos y que sufrimos nos quedan cada vez más grandes. ¿Tenemos la capacidad de resistir los embates venideros? ¿Crecerán más rápido los problemas que las soluciones?

La dinámica exponencial en los procesos de degradación ambiental que hemos iniciado hace poco probable que todas las soluciones lleguen a tiempo. Basta con representar la evolución temporal de la temperatura de la atmósfera, del número de zoonosis o de la extinción de especies para ver que hace falta algo más que tecnología para mantenernos a salvo.

La magnitud y velocidad de los cambios ambientales que generamos requieren de avances igual de rápidos en una gobernanza colaborativa y global para los que no estamos bien preparados. Podría darse que ese intelecto nuestro que nos ha traído hasta aquí no sea suficiente ahora para sacarnos del embrollo. ¿O sí?

El escaso éxito biológico del ser humano

Los humanos presumimos a menudo de nuestros supuestos logros evolutivos, incluso a la hora de etiquetar nuestra propia especie como “sabia”. Pero a veces olvidamos que los criterios de la evolución biológica no son precisamente los mismos que los de nuestras sociedades.

Hay, además, diferencias importantes en la valoración del éxito. En biología, se puede medir el éxito de un grupo zoológico, por ejemplo, considerando el tiempo que ha aguantado en este planeta, el número de individuos que lo representa o la variabilidad biológica que aquel grupo ha generado. Los humanos no nos lucimos en ninguno de estos parámetros.

  • Como grupo zoológico, los homínidos cuentan con muy pocas especies en comparación con otros animales.
  • A nivel de individuos no vamos mal. Somos ahora alrededor de siete mil setecientos millones, pero también en este caso no es un número particularmente grande, considerando por ejemplo lo que logran muchos insectos.
  • La cuestión cronológica, finalmente, coloca a los humanos modernos en una escala casi ridícula. 200 000 años de historia no son nada en una perspectiva filogenética. Incluso Homo erectus, tachado de ser una criatura primitiva y sencillona, aguantó casi dos millones de años, algo que no es seguro que nosotros podamos lograr.

Con estos parámetros, parece que el ser humano no está como para exigir medallas. Unas medallas que más bien habría que entregar a seres realmente exitosos en este planeta como las cucarachas o las medusas, de las que quizá tengamos algunas cosas que aprender.

¿Podríamos extinguirnos en el futuro?

Una vez aclarado de dónde venimos y dónde estamos, resulta patente que tampoco es muy importante saber hacia dónde vamos. Millones de especies se han extinguidos en el pasado, y nosotros no seremos ni los primeros ni los últimos en hacerlo.

Especies eternas, sencillamente, no existen. Así que podemos estar tranquilos: tarde o temprano, tendremos que dejar el turno a quien le toque.

Mientras tanto, a la espera del final, podemos preguntarnos cómo ocupar el tiempo que nos queda y cómo podemos aprovechar nuestra transitoria presencia.

Pero también en este caso, si queremos arrojar luz con la linterna de la evolución, habrá que hacerlo según sus cánones y sus pautas. Por ejemplo, recordando que el único verdadero valor de la selección natural no es la fuerza, la belleza, la astucia o la simpatía, sino el carnal y bruto éxito reproductivo. Quien hace más hijos aumentará sus representantes en el parlamento genético de las generaciones siguientes. Tan sencillo como eso.

Para que haya evolución, alguien tiene que tener una ventaja reproductiva tan patente que desplace, genealógicamente, a todos los demás, a corto o a largo plazo. Esto es algo que, en la naturaleza, puede ocurrir con relativa facilidad en pequeñas poblaciones (más sensibles a la trasmisión de una combinación genética ventajosa), cuando hay repentinas colonizaciones de territorios lejanos por parte de unos pocos valientes (efecto del fundador) o cuando unos pocos sobreviven a algún desastre colosal (efecto del cuello de botella). La probabilidad de que un cambio evolutivo se propague es mucho más alta cuando hay grupos reducidos.

Nuestra amplia y globalizada especie sufre, actualmente, de una inercia genética bastante potente que diluye cualquier intento de variación evolutiva. La posibilidad de algún tipo de evolución biológica solo tendrá lugar si de repente algo muy serio redimensionara terriblemente la población mundial, dejando pocos representantes, quizás portadores de alguna ventaja que haya garantizado su supervivencia.

¿Qué papel pueden jugar la tecnología y la cultura?

Ahora bien, no hay que olvidar que los humanos tenemos un factor que los otros grupos zoológicos no tienen: la cultura. Las relaciones íntimas entre genética y cultura todavía están por descubrir. No hay por qué pensar que no habrá sorpresas.

A pesar de la increíble diversidad humana, a estas alturas, todos –empleados de oficina, cazadores-recolectores o campesinos– compartimos ciertas garantías médicas y de salud. Y ahora también el uso del móvil. Así que no podemos descartar que, donde no llegan las moléculas, puedan llegar potentes partículas de información, con consecuencias totalmente imprevisibles.

Además, nuestra capacidad tecnológica y cultural nos ha colocado en una posición evolutivamente muy peculiar. Probablemente hemos alcanzado un tope entre el éxito reproductivo y la disponibilidad de recursos. Esto conlleva una larga serie de problemas energéticos, ecológicos y sociales que, a estas alturas, ya no se pueden obviar. En otras palabras: estamos muriendo de éxito.

Para incrementar la probabilidad de nuestra supervivencia, en lugar de aumentar nuestra capacidad reproductiva, tendremos que reducirla. En lugar de lograr procesar más energía, tendremos que buscar la forma de procesar menos. Porque si hay algo que nos enseña la evolución es que no siempre más es mejor. Nos extinguiremos, no cabe duda, pero tampoco hay que tener prisa.

Sobre los autores: Fernando Valladares es Profesor de Investigación en el Departamento de Biogeografía y Cambio Global del Museo Nacional de Ciencias Naturales (MNCN-CSIC) y Emiliano Bruner, es Responsable del Grupo de Paleoneurobiología del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH)

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo La humanidad ante su propia extinción se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ondas gravitacionales: una nueva era para la humanidad
  2. El ferrocarril metropolitano ante la COVID-19
  3. Polinizadores en extinción
Categorías: Zientzia

Superlópez no debería beber alcohol

Mié, 2020/05/27 - 11:59

Pensemos en un suceso con dos posibles resultados, por ejemplo el de lanzar una moneda al aire. Si la moneda no está trucada, la probabilidad de que caiga cara o cruz es la misma, de 1/2. Si estudiamos la sucesión de resultados obtenidos al repetir sucesivamente este experimento –y que son estadísticamente independientes– obtenemos un camino o paseo aleatorio, en este caso, de dimensión 1. El paseo consistiría en dar un paso a la izquierda o a la derecha, dependiendo de que la moneda mostrara cara o cruz.

Todos los posibles resultados de un paseo aleatorio tras 5 lanzamientos de una moneda no trucada. Imagen: Wikimedia Commons.

 

Añadamos ahora una dimensión más. Pensemos en Juan López, que intenta llegar a su casa tras una noche de fiesta en la que no ha moderado su consumo de alcohol. Debe recorrer la distancia entre el lugar en el que se encuentra y su casa, pero está bastante aturdido y va dando algún que otro traspiés, cambiando a veces la dirección de su marcha. Podemos imaginar que Juan está caminando aleatoriamente por su ciudad, cuyas calles forman un retículo de dimensión 2. En cada cruce, Juan decide –en realidad, con lo desorientado que está, es el azar el que decide por él– una de las cuatro posibles direcciones en cada cruce. Por supuesto, puede elegir también aquella dirección por la que ha venido; cualquier elección –norte, sur, este y oeste– tiene la misma probabilidad de 1/4. Este sería un paseo aleatorio bidimensional. La pregunta es: ¿conseguirá Juan a su casa?

Paseo aleatorio de Juan López. Imagen: Marta Macho Stadler.

 

Imaginemos una última situación. Unas semanas más tarde Superlópez –el alter ego de Juan López– vuelve de una fiesta provisto con su traje de superhéroe. Tampoco ha sido capaz de moderarse. Intenta regresar a su casa para descansar. Pero esta vez, al poder volar, su recorrido es aún más complejo. Podemos imaginar a Superlópez volando aleatoriamente por un retículo de tres dimensiones; en cada cruce de cada cubo de vértices con coordenadas enteras, Superlópez tiene seis posibles caminos equiprobables a seguir. ¿Llegará el superhéroe ebrio y desorientado hasta su casa?

Tres posibles paseos aleatorios de Superlópez. Imagen: Marta Macho Stadler a partir de figuras de Wikimedia Commons.

 

Obviamente, la noción de paseo aleatorio se puede generalizar a retículos de cualquier dimensión. En 1921, el matemático George Pólya demostró el siguiente resultado:

Sea p(d) la probabilidad de que un paseo aleatorio sobre un retículo de dimensión d regrese a su punto de partida. Se verifica que:

p(1) = p(2) = 1 y p(d) &lt 1 si d &gt 2.

Además, Watson (1939), McCrea y Whipple (1940), Domb (1954) y Glasser y Zucker (1977) demostraron que:

p(3) = 0,34053732955099914282627318443…

Al aumentar el número de dimensiones d del retículo, p(d) va disminuyendo, se hace más difícil regresar al punto de partida (Ver Sloane).

¿Qué enseñanza puede obtener Juan López de estos resultados? En primer lugar, que debe moderar su ingesta de alcohol. En el caso de que la fiesta se “desmadre” y sus facultades se vean afectadas, más vale que no saque su disfraz de Superlópez. ¿Por qué? Porque la probabilidad de llegar a su casa caminando –aunque sea con dificultad– como Juan López es de 1. Sin embargo, cuando cambia a su personalidad de Superlópez e intenta regresar volando, todo se complica. Realizando sus desplazamientos aleatorios en dimensión 3, la probabilidad de llegar a casa es menor de 0,35. Volando con su personalidad de superhéroe se arriesgaría a vagar al azar sin encontrar su añorada morada…

Referencias

Bruno Winckler, Recueil de blagues mathématiques et autres curiosités, Ellipses, 2011 (leído y adaptado de este libro)

Eric W Weisstein, Pólya’s Random Walk Constants, From MathWorld–A Wolfram Web Resource

N. J. A. Sloane, Decimal expansion of probability that a random walk on a 3-D lattice returns to the origin, The On-line Encyclopedia of Integer Sequences

G. Pólya, Über eine Aufgabe der Wahrscheinlichkeitsrechnung betreffend die Irrfahrt im Straßennetz, Mathematische Annalen 84 (1921) 149-160

G. N. Watson, Three Triple Integrals, Quart. J. Math. 2 10 (1939) 266-276

W. H. McCrea and F. J. W. Whipple, Random Paths in Two and Three Dimensions, Proc. Roy. Soc. Edinburgh 60 (1940) 281-298

C. Domb, On Multiple Returns in the Random-Walk Problem, Proc. Cambridge Philos. Soc. 50 (1954) 586-591

M. L. Glasser and I. J. Zucker, Extended Watson Integrals for the Cubic Lattices, Proc. Nat. Acad. Sci. 74 (1977) 1800-1801

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Superlópez no debería beber alcohol se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Beber alcohol produce cáncer
  2. ¿Debería el sándwich simple llamarse doble?
  3. Visualizando la hiperesfera a través de la fibración de Hopf
Categorías: Zientzia

Juntando semiconductores: LEDs y rectificadores

Mar, 2020/05/26 - 11:59
Foto: silviasuin13 / Pixabay

Una fotocélula formada a partir de un diodo n-p trabajando en sentido inverso es una cosa muy útil.

Si un electrón de conducción en un diodo n-p cae dentro de un hueco, emitirá el exceso de energía en forma de fotón, como lo haría un electrón en un átomo cuando salta a un estado cuántico más bajo. Si diseñamos el diodo de tal manera que emita fotones en el rango visible, podremos ver el efecto. Un diodo emisor de luz es lo que probablemente conozcas por las siglas de su nombre en inglés, light emitting diode, LED.

Estas luces LED, que generalmente son rojas, verdes o naranjas, y hasta azules [1], tiene muchas aplicaciones, desde indicarte con una lucecita en tu teléfono móvil que te ha llegado una notificación de tu aplicación favorita, hasta iluminar salas o decoraciones navideñas con un consumo energético muy bajo, pasando por monitores [2].

Sin embargo, uno de los mayores usos de los diodos n-p es en circuitos donde queremos que la corriente fluya solo en una dirección, pero en ningún caso en la dirección opuesta [3]. Esto se usa, por ejemplo, en los circuitos lógicos de los ordenadores, en los que una respuesta de «verdadero» o «falso», «sí» o «no», 0 o 1, se puede decidir permitiendo o no que la corriente fluya a través del dispositivo.

Un dispositivo que permite que una corriente fluya solo en una dirección también se puede usar para convertir una corriente alterna (AC), por ejemplo, la corriente de un enchufe de pared, en corriente continua (DC) para usar en dispositivos electrónicos pequeños. [4]

La corriente eléctrica comercial es alterna en un patrón ondulatorio a una velocidad o frecuencia de 60 ciclos por segundo (60 Hz). Si creamos un circuito cerrado que incluya el enchufe de pared de AC, un dispositivo para medir la corriente (un amperímetro) y un diodo n-p, la corriente en el cable irá en una sola dirección, lo que ocurre solo cuando el voltaje es positivo en el lado de tipo p y negativo en el lado de tipo n. Esta conversión de corriente AC a DC se llama rectificación, y los dispositivos quelo hacen son rectificadores. Son imprescindibles para usar dispositivos que aceptan solo corriente continua y solo tenemos acceso a electricidad comercial.

Rectificación de una corriente alterna trifásica (arriba) a una corriente continua (abajo, en negro). Fuente: Wikimedia Commons

Pero hay un inconveniente. El voltaje producido por el diodo n-p es solo positivo, pero su valor cambia constantemente y es cero durante un largo intervalo. Estos efectos se pueden reducir enviando la corriente a través de dispositivos electrónicos adicionales, conocidos como filtros, que ayudan a suavizar el voltaje a un valor constante, produciendo una corriente continua constante que luego puede alimentarse a un dispositivo electrónico de DC: un juego electrónico, una calculadora, una ordenador portátil, etc.

Estas propiedades de los semiconductores se vuelven aún más interesantes cuando agregamos un tercer semiconductor a nuestro diodo n-p y creamos un transistor.

Notas:

[1] Lo escribimos de esta forma porque un LED azul no es en absoluto algo trivial. Tanto es así que por conseguirlo los japoneses Isamu Akasaki, Hiroshi Amano y Shuji Nakamura recibieron el Premio Nobel de Física, ¡en 2014!

[2] El último grito son las pantallas OLED, donde los diodos son moléculas orgánicas (en el sentido químico del término).

[3] Si vemos como funciona el diodo n-p, aquí, lo que sigue debería ser, si no obvio, sí relativamente fácil de entender.

[4] Los efectos de AC/DC pueden provocar ondas sísmicas mensurables. Aquí un espectacular vídeo ilustrativo.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Juntando semiconductores: LEDs y rectificadores se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Juntando semiconductores: el diodo n-p
  2. Semiconductores
  3. Tipos de comportamiento conductor
Categorías: Zientzia

La recuperación de la fauna en la ría de Bilbao

Lun, 2020/05/25 - 11:59
Imagen 1: la ría de Bilbao bajo el marco del Puente Bizkaia (coloquialmente conocido como el puente colgante) y al fondo el puerto. (Fotografía: Jose Castanedo – bajo licencia Creative Commons Atribución-NoComercial-SinDerivadas 2.0 Genérica. Fuente: Flickr)La degradación del estuario

La ría de Bilbao, zona donde las aguas dulces de la cuenca del Nervión-Ibaizabal se encuentran con el agua marina del mar Cantábrico, es un estuario relativamente grande. Actualmente el estado del sistema dista mucho del natural; se ha perdido buena parte de la superficie original y de los principales ambientes, especialmente en las zonas intermareales, que hoy en día son muy escasas.

La ría de Bilbao y sus márgenes constituyen el área más industrializada y de mayor densidad poblacional de toda la cornisa Cantábrica. Por su situación geográfica y por la riqueza natural en recursos minerales la zona experimentó, sobre todo desde el siglo XIX, un intenso desarrollo industrial y crecimiento poblacional. Esto supuso una gran presión humana y durante muchos años los efluentes urbanos e industriales que se generaban eran vertidos a la Ría sin ningún tipo de tratamiento. Durante décadas las zonas media e interior del estuario presentaban graves problemas de oxigenación. Además, el sistema presentaba elevados niveles de contaminación, tanto en las aguas como en los sedimentos. Por eso, en la zona interior del estuario los fondos quedaron desprovistos de vida animal y en el resto de la Ría las poblaciones de fauna eran muy pobres, con pocas especies, estando presentes solo las más resistentes a la contaminación.

El Plan de Saneamiento

En 1979 se aprobó el Plan Integral de Saneamiento de la Comarca del Gran Bilbao, un ambicioso proyecto que tenía por objeto recuperar el sistema desde el punto de vista medioambiental; como estándar de calidad se fijó un 60% de oxigenación de las aguas. El oxígeno disuelto es, sin lugar a dudas, el factor que en mayor medida limitaba la entrada y mantenimiento de la fauna.

En 1989 el Consorcio de Aguas Bilbao Bizkaia puso en marcha un seguimiento del estado del sistema tanto desde una perspectiva fisicoquímica, como biológica y, por extensión, ecológica. Dicho seguimiento contempla el estudio tanto del medio físico como de sus características químicas y de diversas comunidades biológicas.

Ilustración 1: en la época de la industrialización la ría de Bilbao presentaba una comunidad faunística pobre. En esta época solo estaban presentes poblaciones que toleraban la contaminación.  (Ilustración: NorArte Studio)La recuperación del estuario y de su fauna

La calidad fisicoquímica del agua ha experimentado una gran mejoría. Hoy en día el oxígeno no es un factor limitante para la vida acuática. El estándar de calidad se cumple en todo el estuario. Esta mejoría se debe al tratamiento de las aguas en la depuradora de Galindo, que comenzó en 1990. En 2001 entró en funcionamiento el tratamiento biológico, que ha tenido un gran efecto en la mejora de la calidad del agua. Las concentraciones de nitrógeno y de bacterias fecales han disminuido de manera muy significativa (40 veces menos y 200 veces menos, respectivamente, que hace 30 años) y la transparencia de las aguas ha aumentado. Los sedimentos de la Ría presentan unas concentraciones de contaminantes muy inferiores a las de hace treinta años.

Por todo lo anterior, pero especialmente por la mejoría en las condiciones de oxigenación, los organismos que viven en los sedimentos, la denominada comunidad bentónica, han experimentado una gran recuperación. Cientos de especies de invertebrados viven actualmente en los sedimentos de la Ría, siendo los grupos más importantes los anélidos (gusanos), los moluscos (como los caracolillos y los berberechos), los crustáceos (como los cangrejos y las quisquillas) y los equinodermos (como los erizos y las estrellas de mar). Esto es especialmente relevante en la zona más interior, que antes del año 2000 era azoica (sin vida). Actualmente las comunidades bentónicas en el estuario son diversas y permanentes.

Ilustración 2: con el comienzo del tratamiento biológico mejoraron los niveles de oxígeno del agua y las comunidades biológicas fueron recuperándose. (Ilustración: NorArte Studio)

Además de los animales que viven en los sedimentos, también resulta de gran interés analizar el estado de las comunidades que viven por encima del fondo, la llamada fauna demersal, que incluye a animales como peces y crustáceos. Hasta el momento se han registrado en todo el estuario 57 especies de peces y 33 de crustáceos y se ha registrado un incremento progresivo del número de organismos. Entre las especies más comunes de peces se pueden citar el cabuxino (un pez de pequeño tamaño que vive cerca del fondo), el lenguado, la muxarra, la platija, la lubina, la anguila y el salmonete, y no resulta rara la presencia de especies típicamente marinas, como el txitxarro y la antxoa. También son abundantes varias especies de quisquillas y cangrejos.

Se deben destacar los cambios ocurridos en la zona más interior del estuario, entre Olabeaga y Euskalduna, donde la mejoría ha sido especialmente significativa: en esta zona, hasta el año 2002 no se habían encontrado peces ni crustáceos. En 2002 se encontraron varias especies y desde entonces cada año se ha ido encontrando una mayor variedad. En las últimas campañas han aparecido, además de diversas quisquillas y cangrejos, numerosas especies de peces: cabuxino, chaparrudo, anguila, lubina, muxarra, raspallón, aguja, muble, chopa, platija, solla, lenguado, etc. La presencia de numerosas especies de peces y crustáceos es ya regular en esta zona.

Ilustración 3: los buenos niveles de oxigenación del agua y el descenso de la contaminación permiten hoy en día la presencia de una comunidad faunística de gran diversidad. (Ilustración: NorArte Studio)

Además, en los últimos años se viene constatando un claro incremento en el número de especies y en los efectivos de aves que utilizan el estuario como zona de invernada, descanso y alimentación. Esta mejoría se debe a que, por un lado, la calidad del agua ofrece condiciones adecuadas para estas especies, algunas de ellas nadadoras y buceadoras y, por otro, a que disponen de alimento -por la presencia de peces e invertebrados- en toda la Ría.

Mirando al futuro

La recuperación de los sistemas naturales fuertemente contaminados es un proceso normalmente largo, difícil y generalmente caro. Es imposible, además, conseguir que tales sistemas vuelvan a sus condiciones originales. Sin embargo, tal y como hemos visto, es posible recuperar parte de la naturalidad perdida. La recuperación progresiva del estuario del Nervión es un ejemplo de ello. La puesta en marcha y progresivo desarrollo del Plan de Saneamiento ha permitido revertir la situación, que ha pasado de una tendencia al deterioro hace unas décadas a una de mejoría en los últimos tiempos. Aún queda trabajo por hacer y margen de mejora; actualmente se están implantando medidas para recoger aguas aún sin depurar, para mejorar el tratamiento de las aguas en la parte media y alta de la cuenca y para incrementar la capacidad del sistema de saneamiento. Sin duda, todo ello tendrá un efecto positivo en la fauna de la Ría.

Sobre el autor: Javier Franco San Sebastián es doctor en biología e investigador del Área de Gestión Ambiental de Mares y Costas de AZTI

El proyecto «Ibaizabal Itsasadarra zientziak eta teknologiak ikusita / La Ría del Nervión a vista de ciencia y tecnología» comenzó con una serie de infografías que presentan la Ría del Nervión y su entorno metropolitano vistos con los ojos de la ciencia y la tecnología. De ese proyecto han surgido una serie de vídeos y artículos con el objetivo no solo de conocer cosas interesantes sobre la ría de Bilbao y su entorno, sino también de ilustrar como la cultura científica permite alcanzar una comprensión más completa del entorno.

 

El artículo La recuperación de la fauna en la ría de Bilbao se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué esconden los sedimentos de la Ría?
  2. Geología, industrialización y transporte del mineral de hierro en el entorno de la Ría de Bilbao
  3. Naukas Bilbao está en marcha
Categorías: Zientzia

Zoonosis

Dom, 2020/05/24 - 11:59
Foto: Kiran kichu / Unsplash

La gran mayoría de virus y bacterias que infectan a otros animales no suponen una amenaza para los seres humanos. Pero unos pocos, sí. Son una pequeñísima parte, pero son un peligro, porque nos pueden infectar y provocar, de esa forma, enfermedades a las que denominamos zoonosis, algunas de ellas potencialmente graves.

Las zoonosis pueden ser causadas por todo tipo de agentes patógenos, desde priones hasta protozoos parásitos, pasando por virus, bacterias y hongos. La transmisión se puede producir en contextos variados. Puede ocurrir desde una mascota, desde animales que se crían o sacrifican para su consumo, o desde los que se cazan. Y la gravedad de la enfermedad es también variable; algunas zoonosis no causan víctimas mortales, mientras otras, como el ébola, matan a la mayor parte de quienes la contraen. En la actualidad, del orden de dos mil quinientos millones de personas enferman cada año, de los que mueren alrededor de dos millones setecientas mil.

SARS-CoV-2 es el último virus zoonótico que hemos conocido hasta la fecha. Es un coronavirus (un tipo concreto de virus cuya cubierta, al microscopio electrónico, asemeja una corona solar). Su origen se desconoce aún, pero es posible que proceda directa o indirectamente de murciélagos, aunque en la transición a seres humanos también pudo estar implicado el pangolín. Otros coronavirus han pasado a los seres humanos no hace mucho. El SARS-CoV-1 pasó de murciélagos a civetas de las palmeras y de ahí, en 2002, a seres humanos; acabó con la vida de ocho mil cuatrocientas personas. Otro coronavirus, el MERS-CoV, procede posiblemente de murciélagos, pero es transmitido a las personas a través de dromedarios; desde 2012, cuando se produjo el primer brote, se han registrado 2.500 casos, de los que un 35% han resultado fatales.

Algunos virus de la gripe también son de origen zoonótico reciente, como el que provocó la pérdida de cuatrocientas mil vidas humanas en 2009 y 2010. El virus responsable procedía del cerdo y se cree que, a su vez, era descendiente del que provocó la pandemia de la mal llamada “gripe española” de 1918; procedía de aves y causó la muerte de cerca de cincuenta millones de personas. De hecho, los virus de la gripe se consideran candidatos a provocar alguna pandemia grave, lo que ocurriría si alguna cepa adquiriese una virulencia especial. Otras zoonosis víricas potencialmente peligrosas son la fiebre Lassa, la fiebre del Valle del Rift y la enfermedad del virus de Marburgo.

Muchas enfermedades víricas de origen zoonótico pierden ese carácter y pasan a ser enfermedades humanas. Es lo que probablemente ocurrió con los coronavirus responsables de algunos catarros o resfriados, de los que se piensa que pasaron a los seres humanos hace miles de años. También el virus de la inmunodeficiencia humana (VIH) saltó a las personas desde los chimpancés, pero esa transición se produjo hace mucho menos tiempo -cerca de noventa años- y en la actualidad se considera un virus humano.

Los virus zoonóticos pueden ser muy peligrosos porque, al ser de reciente llegada a nuestra especie, carecemos de la inmunidad adecuada para hacerles frente. Por otro lado, un virus bien adaptado a su hospedador no le produce un daño tal que provoque su muerte, pues eso detiene la expansión del virus. En parte eso limita, por ejemplo, la capacidad del virus del ébola para expandirse; al ser tan letal, no da tiempo a sus hospedadores a que contagien a mucha gente. Sin embargo, los virus que llevan miles de años con nosotros, como los de los catarros, están adaptados, no acabamos del todo con ellos y, a cambio, ellos nos dejan vivir.

Fuentes:

Le Page, Michael (2020) Coronavirus: Why infections from animals are such a deadly problem. New Scientist

López-Goñi, Ignacio (2015) Virus y pandemias. Glyphos.

Wikipedia: Zoonosis

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Zoonosis se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sí con mis impuestos
  2. Las epidemias del pasado… y del futuro
  3. El coronavirus de Wuhan, ¿qué sabemos hasta ahora?
Categorías: Zientzia

Raúl Ibáñez – Naukas Bilbao 2019: Teorías fantásticas sobre las grafías de los números

Sáb, 2020/05/23 - 11:59

Las grafías de los números son la forma básica y reconocible que tienen los números que usamos hoy, independientemente de la tipografía que empleemos para escribirlos. Es lo que hace que identifiquemos a un cinco como un cinco y a un siete como un siete. Su historia es un recorrido espacio-temporal por la historia de las matemáticas. Y, sin embargo, en webs, libros de divulgación e incluso libros de texto aparecen explicaciones de su origen que nos hablan más del éxito de las fake news y de la falta de rigor a la hora de incorporar información, que de la realidad sobre esa historia misma, ya fascinante de por sí. Raúl Ibáñez pone las cosas en su sitio en este vídeo. Para más detalle puede leerse Teorías fantásticas sobre el origen de la grafía de las cifras.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Raúl Ibáñez – Naukas Bilbao 2019: Teorías fantásticas sobre las grafías de los números se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – Raúl Gay: Todo sobre mi órtesis
  2. Teorías fantásticas sobre el origen de la grafía de las cifras
  3. Zientziateka: Raúl Ibáñez – El teorema de la rosa
Categorías: Zientzia

La obesidad infantil podría iniciarse antes de la concepción

Vie, 2020/05/22 - 11:59
Foto: Hush Naidoo / Unsplash

Un grupo de investigadores de la Universidad del País Vasco, el Hospital de Cruces,  la clínica IVI Bilbao y Biocruces Bizkaia ha descubierto que los ovocitos —óvulos inmaduros— de las mujeres obesas y de las mujeres con sobrepeso tienen menores concentraciones de ácidos grasos omega-3.

En un estudio de la composición lipídica de 922 óvulos de fertilización in vitro de 205 mujeres de complexión normal, con sobrepeso y con obesidad, dirigido por el catedrático de la Facultad de Medicina y Enfermería de la UPV/EHU Roberto Matorras Weinig, se ha encontrado que los ovocitos tanto de las mujeres obesas como con sobrepeso tienen una composición lipídica muy diferente.

Los ácidos grasos omega-3 son esenciales en la dieta humana, es decir, deben ser ingeridos porque el organismo no los sintetiza.  Su ingesta es en general escasa en la dieta occidental. Por otra parte, señala el Dr. Matorras, “los ácidos grasos omega-3 compiten metabólicamente con los omega-6, cuya ingesta en general es demasiado alta en la dieta occidental. Así, elevadas ingestas de omega-6 contribuyen a que haya bajos niveles de omega-3. Presumiblemente este sea el mecanismo de sus bajos niveles en los óvulos”.

La obesidad es un conocido problema de salud pública con numerosas repercusiones en diferentes órganos. “Una de sus implicaciones en el embarazo es el nacimiento de niños macrosómicos (de peso elevado), y con posterior riesgo de obesidad infantil y adulta. Hasta la fecha esto era atribuido al efecto de la obesidad materna durante el embarazo, así como a las dietas inadecuadas en la vida infantil. Pero con estos hallazgos se plantea la posibilidad de que los problemas de estos niños puedan iniciarse incluso antes de su concepción, debido a una peor composición lipídica de los óvulos que los han generado”, indica Matorras.

El investigador añade que “las pacientes obesas tienen peores resultados en fertilización in vitro, los cuales han sido atribuidos a numerosos motivos. Con este descubrimiento se pone de manifiesto otra posible causa de estos resultados inferiores”.

Referencia:

Roberto Matorras, Antonia Exposito, Marcos Ferrando, Rosario Mendoza, Zaloa Larreategui, Lucía Laínz, Larraitz Aranburu, Fernando Andrade, Luis Aldámiz-Echevarria, Maria Begoña Ruiz-Larrea, Jose Ignacio Ruiz-Sanz (2020) Oocytes of women who are obese or overweight have lower levels of n-3 polyunsaturated fatty acids compared with oocytes of women with normal weight Fertility and Sterility doi: 10.1016/j.fertnstert.2019.08.059

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo La obesidad infantil podría iniciarse antes de la concepción se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La ausencia de un supresor tumoral podría producir esterilidad en ratones.
  2. El pteroestilbeno como posible tratamiento de la obesidad
  3. Resveratrol y pteroestilbeno en el control epigenético de la acumulación de grasa corporal
Categorías: Zientzia

El misterio de los caballos salvajes de Chernóbil

Jue, 2020/05/21 - 11:59

Germán Orizaola

Manada de caballos de Przewalski en la Zona de Exclusión de Chernóbil (Ucrania). Septiembre 2016. Foto: Luke Massey

Se cumplen 34 años del accidente en la central nuclear de Chernóbil (Ucrania). Este accidente, el mayor de la historia en una instalación nuclear, llevó a la creación de una Zona de Exclusión de 4 700 km² entre Ucrania y Bielorrusia. Un total de 350 000 personas fueron evacuadas de ese área.

Las predicciones iniciales señalaban que, debido a la contaminación radiactiva, la zona iba a ser inhabitable durante más de 20 000 años. Se pensaba que Chernóbil se convertiría en un desierto para la vida.

Tres décadas más tarde numerosos estudios han señalado que en Chernóbil vive una diversa y abundante comunidad animal. Un gran número de especies amenazadas a nivel nacional y europeo tienen hoy su refugio en la Zona de Exclusión de Chernóbil.

Un ejemplo claro de cuál es la situación de la fauna en Chernóbil es el de los caballos de Przewalski.

¿El último caballo salvaje?

La existencia de caballos salvajes en las estepas de Asia se conocía en occidente desde el siglo XV. Pero no fue hasta 1881 cuando la especie se describió formalmente para la ciencia a partir de un cráneo y una piel recolectados por el coronel ruso Nikolái Przewalski. Así fue como los caballos conocidos como takhi (“sagrados”) en Mongolia pasaron a llamarse caballos de Przewalski (Equus ferus przewalski).

Caballo de Przewalski, Zona de Exclusión de Chernobyl (Ucrania). Septiembre 2015. Foto: Nick Beresford

Durante mucho tiempo se consideraron como el único caballo salvaje del mundo. Sin embargo, estudios recientes han indicado que son formas asilvestradas descendientes de los primeros caballos domesticados por el pueblo Botai en el norte de Kazajistán hace 5 500 años.

En tiempos del coronel Przewalski estos caballos salvajes ya eran escasos en las estepas de Mongolia y China. El sobrepastoreo y la caza para su consumo por las poblaciones humanas provocaron su declive final. El último ejemplar salvaje fue observado en el desierto del Gobi en 1969.

La población en cautividad tampoco pasó por una situación muy positiva. En los años 50 solo 12 individuos sobrevivían en zoos europeos. No obstante, a partir de ellos se comenzó un programa de cría en cautividad que ha conseguido rescatar a la especie de la extinción.

Hoy la población llega a los 2 000 individuos. Varios centenares viven en libertad en las estepas de Asia y distintas zonas de Europa. Entre ellas, para sorpresa de muchos, en Chernóbil.

Grupo de caballos de Przewalski en la Zona de Exclusión de Chernóbil (Ucrania). Septiembre 2016. Foto: Luke Massey

Los caballos de Chernóbil

En el momento del accidente en la central nuclear no existían caballos de Przewalski en Chernóbil. No fue hasta 1998 cuando los primeros 31 individuos llegaron a la Zona de Exclusión. Eran 10 machos y 18 hembras procedentes de la reserva natural de Askania Nova, en el sur de Ucrania, y 3 machos de un zoo local.

Tras una alta mortalidad asociada al traslado y suelta, la elevada tasa de nacimientos hizo que la población llegase a 65 individuos en solo cinco años. La intensa caza furtiva entre 2004 y 2006 diezmó a la población. Solo 50 individuos sobrevivían en 2007.

Macho de caballo de Przewalski fotografiado por cámaras de fototrampeo en el bosque rojo, Zona de Exclusión de Chernóbil (Ucrania). Abril 2017.
Foto: RED FIRE Project / UK Centre for Ecology and Hydrology

Las intensas medidas de protección han hecho que solo 20 años después de su llegada a Chernóbil su número se haya multiplicado por cinco. El censo más actual, realizado por científicos locales en 2018, reveló que en la parte ucraniana de la Zona de Exclusión viven unos 150 animales. Los caballos se agrupan en entre 10 y 12 manadas familiares, además de dos grupos de machos y algunos individuos solitarios. En 2018 al menos 22 potros nacieron en la Zona de Exclusión. Algunos se han movido más al norte y se han asentado ya en Bielorrusia.

Dos caballos de Przewalski fotografiados por cámaras de fototrampeo dentro de un pinar de la Zona de Exclusión de Chernóbil (Ucrania). Enero 2015.
Foto: TREE Project / UK Centre for Ecology and Hydrology

Las cámaras de fototrampeo instaladas por toda la Zona de Exclusión han demostrado que, a pesar de ser una especie asociada a las estepas, en Chernóbil estos caballos usan el bosque con gran frecuencia. Esto incluye el famoso “bosque rojo”, una de las zonas más radiactivas del planeta.

Los recientes incendios en Chernóbil han afectado severamente a algunas de las localidades usadas por los caballos en la Zona de Exclusión. Será necesario ahora evaluar el efecto que estos fuegos tendrán sobre la conservación de la especie en la zona.

Las lecciones de los caballos de Chernóbil

La introducción de los caballos de Przewalski en Chernóbil ha sido un éxito. De este éxito se pueden extraer varias lecciones.

El caso de los caballos de Przewalski refleja una vez más que, en ausencia de humanos, Chernóbil se ha convertido en un refugio para la fauna salvaje. Esto nos debería llevar a reflexionar sobre el impacto de la presencia humana sobre los ecosistemas naturales. Sin actividad humana alrededor, incluso con contaminación radiactiva, la gran fauna prospera.

Otras zonas afectadas por contaminación radiactiva como la derivada del accidente en la central de Fukushima (Japón) y de las pruebas de bombas atómicas en los atolones del Pacífico, mantienen igualmente una alta diversidad de fauna. Quizás debamos reconsiderar nuestra visión sobre el impacto a medio y largo de plazo de la radiactividad sobre el medio ambiente.

En todo caso, necesitamos entender mejor los mecanismos que permiten a la fauna vivir en zonas con contaminación radiactiva. Son muchas las preguntas que quedan por responder. ¿Están los organismos vivos de Chernóbil expuestos a menos radiación de la prevista?, ¿causa esta exposición menos daño?, ¿tienen los organismos mecanismos de reparación del daño celular causado por la radiación más eficaces de lo esperado?

Para responder a estas preguntas necesitamos más ciencia. En septiembre, esperamos empezar a trabajar con los caballos de Przewalski en Chernóbil, intentando desvelar los misterios que hacen que esta especie y muchas otras prosperen en la Zona de Exclusión.

Sobre el autor: Germán Orizaola es investigador del Programa Ramón y Cajal en la Universidad de Oviedo

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo El misterio de los caballos salvajes de Chernóbil se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los supermicrobios amenazan con ser más letales que el cáncer
  2. Epigenética, desigualdad y cambio climático
  3. La oreja de oso, una joya del Pirineo que guarda el secreto de la resurrección
Categorías: Zientzia

Los números que proporcionan alegría

Mié, 2020/05/20 - 11:59

La imaginación de las personas es increíble. En anteriores entradas del Cuaderno de Cultura Científica, como Los números enamorados o ¿Pueden los números enamorarse de su propia imagen?, hemos visto curiosas e interesantes familias de números naturales, sin embargo, la imaginación matemática no deja de crear, o descubrir si uno cree en el platonismo matemático, fascinantes grupos de números. En esta entrada os hablaré de los números llamados harshad o de Niven.

Symmetry, acrílico sobre lienzo, 60 x 60 cm, del artista suizo Eugen Jost. Obra perteneciente a la exposición Everything is number

Un número natural se dice que es un número harshad, o también, de Niven, si es divisible por la suma de sus dígitos. Por ejemplo, el número 18 es harshad porque es divisible por 1 + 8 = 9, como también lo es el número de la bestia, el 666 (véanse las entradas 666, el número de la bestia (1) y (2)), divisible por 6 + 6 + 6 = 18, o el número de Hardy-Ramanujan 1729 (véase la entrada Las matemáticas del taxi ), divisible por 1 + 7 + 2 + 9 = 19. Sin embargo, el 25 no es un número de Niven ya que no es divisible por 2 + 5 = 7, ni tampoco lo son todos los números primos con más de un dígito.

El concepto de número harshad fue introducido por el matemático recreativo indio Dattatreya Ramchandra Kaprekar (1905-1986), a quien le debemos algunos descubrimientos de teoría de números como la constante de Kaprekar, los números de Kaprekar, los autonúmeros o los números harshad, en su artículo Multidigital numbers, publicado en la revista Scripta Mathematica en 1955. El nombre harshad viene de la unión de las dos palabras del sánscrito “harsa”, que significa alegría o felicidad, y “da”, que significa “dar”, por lo que sería algo así como “que da, o proporciona, alegría”.

El concepto fue introducido de nuevo por el matemático canadiense-estadounidense Ivan M. Niven (1915-1999), que fue presidente de la Mathematical Association of America, en una charla que impartió en un congreso de teoría de números en 1977. Por este motivo, se les conoce también como números de Niven.

Fotografías de los matemáticos D. R. Krapekar (abajo), de Wikimedia Commons, e Ivan M. Niven (arriba), tomada por Konrad Jacobs y perteneciente a la colección de fofografías de Oberwolfach.

Una de las ventajas de una familia como esta es que es sencillo calcular por uno mismo, a mano o con calculadora, los primeros números de la misma, por ejemplo, los menores que 1.000, que se muestran más abajo, o hasta la cantidad que cada cual decida. Los números harshad se corresponden con la sucesión A005349 de la Enciclopedia online de sucesiones de números enteros, del matemático británico-estadounidense N. J. A. Sloane. Los menores de 1.000 son:

1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 12, 18, 20, 21, 24, 27, 30, 36, 40, 42, 45, 48, 50, 54, 60, 63, 70, 72, 80, 81, 84, 90, 100, 102, 108, 110, 111, 112, 114, 117, 120, 126, 132, 133, 135, 140, 144, 150, 152, 153, 156, 162, 171, 180, 190, 192, 195, 198, 200, 201, 204, 207, 209, 210, 216, 220, 222, 224, 225, 228, 230, 234, 240, 243, 247, 252, 261, 264, 266, 270, 280, 285, 288, 300, 306, 308, 312, 315, 320, 322, 324, 330, 333, 336, 342, 351, 360, 364, 370, 372, 375, 378, 392, 396, 399, 400, 402, 405, 407, 408, 410, 414, 420, 423, 432, 440, 441, 444, 448, 450, 460, 465, 468, 476, 480, 481, 486, 500, 504, 506, 510, 511, 512, 513, 516, 518, 522, 531, 540, 550, 552, 555, 558, 576, 588, 592, 594, 600, 603, 605, 612, 621, 624, 629, 630, 640, 644, 645, 648, 660, 666, 684, 690, 700, 702, 704, 711, 715, 720, 730, 732, 735, 736, 738, 756, 770, 774, 777, 780, 782, 792, 800, 801, 803, 804, 810, 820, 825, 828, 832, 840, 846, 864, 870, 874, 880, 882, 888, 900, 902, 910, 912, 915, 918, 935, 936, 954, 960, 966, 972, 990, 999, 1.000.

Como podemos observar hay muchos números de Niven entre los mil primeros números, en concreto, 213. Sin embargo, como demostraron en 1985 los matemáticos estadounidenses Robert E. Kennedy y Curtis N. Cooper la densidad de estos números es cero, es decir, que cuanto más grandes sean los números naturales considerados menos números que proporcionan alegría habrá. En otras palabras, si N(n) es la cantidad de números de Niven menores, o iguales, que n, entonces el límite del cociente N(n) / n es cero.

Una curiosidad de estos números está relacionada con los números factoriales. Recordemos que el factorial de un número m es el número igual a la multiplicación de todos los números naturales menores, o iguales, que el mismo, es decir, m! = m x (m – 1) x (m – 2) x … x 3 x 2 x 1. Así, para los primeros números naturales sus factoriales son 1! = 1, 2! = 2, 3! = 6, 4! =24, 5! = 120, 6! = 720, 7! = 5040, y podríamos continuar. Si nos fijamos, todos esos números son de Niven, incluso si continuamos con algunos más, 40.320, 362.880, 3.628.800, 39.916.800, … descubriremos que lo siguen siendo. Por este motivo, algunas personas interesadas en el estudio de esta familia se preguntaron si todos los números factoriales serían de los que proporcionan alegría. La respuesta es negativa, ya que la suma de los dígitos del factorial del número 432, es 3.897, cuya descomposición en factores primos es 32 x 433, pero el número primo 433 no puede dividir a 432!. En consecuencia, el factorial 432! no es harshad.

El año 2.020 es un año harshad, o un año que proporciona alegría, ya que 2.020 es divisible por 4, que es la suma de sus dígitos. La imagen ha sido compuesta con los números de una tipografía de números creada por el diseñador barcelonés DAQ

Otra propiedad que se ha estudiado ha sido la existencia de números harshad consecutivos, más allá de los diez primeros números. La primera pareja es, como puede verse arriba, 20 – 21, aunque hay muchas más, como 80 – 81. El primer trio de números de Niven es 110 – 111 – 112. Los cuatro primeros números consecutivos que producen alegría son 510 – 511 – 512 – 513. Mientras que para obtener cinco números consecutivos ya nos tenemos que desplazar a números más grandes, en concreto al sexteto que empieza en 131.052.

En 1982 el matemático Robert E. Kennedy demostró que no es posible construir una sucesión de 21 números harshad consecutivos, pero como probaría después con su colega Curtis Cooper, sí se pueden construir 20 números de Niven consecutivos, de hecho, existen infinitos ejemplos de tales sucesiones. Aunque la más pequeña de esas familias tiene más de 44.363.342.786 dígitos.

La ceramista estadounidense Laura C. Hewitt crea cerámicas con números binarios, con tipografías de máquinas de escribir, como este hermoso jarrón. La imagen pertenece a su tienda de Etsy.

La propiedad definitoria de los números harshad está dada en función de los dígitos de la representación del número, luego no es una propiedad del número en sí mismo, sino que depende de la base de numeración en la que lo representemos.

Empecemos considerando el sistema binario, es decir, la representación de los números en base dos (véase por ejemplo el video de la serie Una de mates dedicado a los números binarios). Por ejemplo, los números 20, 21, 27 y 34 se representan en el sistema binario como:

Recordemos que los unos y ceros de la representación binaria nos están diciendo qué potencias de 2 se utilizan para expresar el número como sumas de potencias de 2. Como los tres primeros números binarios anteriores tienen 5 dígitos las potencias de 2 implicadas son 16, 8, 4, 2 y 1. Además, 20 = 16 + 4 (16 sí, 8 no, 4 sí, 2 no y 1 no), 21 = 16 + 4 + 1 y 27 = 16 + 8 + 2 + 1. El último número tiene 6 dígitos, luego implica también a la potencia 32, de hecho, 34 = 32 + 2 (32 sí, 16 no, 8 no, 4 no, 2 sí y 1 no).

La suma de los dígitos binarios del número 20 es 2 (véase la imagen anterior), que divide a 20, luego el número 20 es un número 2-harshad (donde el prefijo indica en la base en la que tiene esa propiedad, luego en los casos normales, cuando no lo hemos indicado, habría sido 10-harshad). Y la suma de los dígitos binarios de 21 es 3, que divide a 21, luego también es 2-harshad. Por lo tanto, 20 y 21 son 2-harshad y 10-harshad.

Por otra parte, 27 que es 10-harshad, no es 2-harshad, ya que la suma de sus dígitos es 4, que no divide a 27. Mientras que para el 34, que no es 10-harshad, la suma de sus dígitos es 2, que divide a 34, luego sí es 2-harshad.

Al igual que hemos comentado antes para la base decimal, podríamos calcular los primeros números (hasta la cantidad que deseemos) que son harshad en la base binaria, es decir, que son 2-harshad. En general, podemos calcular los números b-harshad para cualquier base de numeración b, no solo 2 o 10.

Para un sistema de numeración en base b, los primeros b números naturales –que se corresponden con las b – 1 cifras básicas no nulas y el número de la base b, son trivialmente números b-harshad.

Los únicos números primos que pueden ser b-harshad son aquellos que son menores, o iguales, que la base. Por eso los únicos primos de Niven en la base decimal son 2, 3, 5 y 7, o el número 11 es 12-harshad.

Existen cuatro números que son b-harshad para cualquier base b, que son 1, 2, 4 y 6. Aunque el número 12 casi les acompaña, puesto que es b-harshad para todas las bases, excepto b = 8.

Los mediadores (2016), de la artista sudafricana, afincada en Francia, Nicky Broekhuysen. Imagen de la página web del artistaDetalle de Los mediadores (2016), del artista sudafricano, afincado en Francia, Nicky Broekhuysen. Imagen de la página web del artista

Pero volvamos a los números harshad, o de Niven, para la base decimal, aunque lo que vamos a comentar a continuación también sería válido para cualquier base. Vamos a considerar dos familias particulares dentro de esta familia. La primera es la formada por los números harshad (o de Niven) múltiples, que son aquellos tales que, al dividirlos por la suma de sus dígitos, el resultado es otro número harshad. Por ejemplo, el número 6.804, que al dividirlo por la suma de sus dígitos, 18, el resultado 378 sigue siendo un número que proporciona felicidad. Más aún, con este número se puede seguir el proceso, hasta un total de cuatro veces (llamada multiplicidad de número de harshad múltiple 6.804), como se muestra en la imagen.

O el número 987.552, que es harshad múltiple, con multiplicidad 3, ya que en el proceso de dividir por las sumas de los dígitos se obtienen los números de Niven 27.432 y 1.524, pero el siguiente resultado 127 ya no lo es.

El número 2.016.502.858.579.884.466.176 harshad múltiple, con multiplicidad 12, como se muestra en la imagen, donde los divisores son las sumas de los dígitos de los números del dividendo, y los resultados se escriben en la línea siguiente.

Una subfamilia interesante dentro de los números harshad podría la fromada por aquellos números tales que al dividirlos por la suma de sus dígitos el resultado sea el producto de los mismos. O lo que es equivalente, el número se puede escribir como el producto de la suma de sus dígitos por el producto de los mismos, por eso reciben el nombre de números suma-producto. Un ejemplo es el número 135 que, al dividirlo por la suma de sus dígitos, 1 + 3 + 5 = 9, el resultado es 15, que es el producto de los mismos. A pesar del interés de esta propiedad, realmente solo existen 3 números que cumplen la misma, 1, 135 y 144.

Para terminar esta entrada del Cuaderno de Cultura Científica introduciremos los números harshadmórficos, o Nivenmórficos, que son aquellos números n tales que existe un número harshad N cuya suma es el número n y además está en los últimos dígitos de N. Por ejemplo, el número 18 es harshadmórfico ya que existe el número de Niven 16.218, cuyos dígitos suman 18 y termina en 18.

El matemático Sandro Boscaro demostró que curiosamente todos los números, salvo el 11, son harshadmórficos. Siempre se puede encontrar un número de Niven que termine en ese número y sus dígitos también sumen el propio número.

Por ejemplo, si tomamos el número 12, por el resultado de Boscaro sabemos que es harshadmórfico. De hecho, la suma de los dígitos y la terminación del número de Niven 912 es 12. Lo cual vale para cualquier otro número, que no sea once. Os dejo como entretenimiento buscar los correspondientes números de Niven para los números menores que 30 (salvo 11, claro).

Bibliografía

1.- David Wells, The Penguin Dictionary of Curious and Interesting Numbers, Penguin Press, 1998.

2.- J. Sándor, B. Crstici, Handbook of Number Theory II, Kluwer Academic Publishers, 2004.

3.- Wolfram MathWorld: Harshad Number

4.- Wikipedia: Harshad number

5.- N. J. A. Sloane, The On-line Encyclopedia of Integer Sequences: A005349

6.- D. R. Kaprekar, Multidigital numbers, Scripta Math. 21, 27, 1955.

7.- R. E. Kennedy, C. N. Cooper, On the natural density of the Niven numbers,

College Math. J. 15, no. 4, p. 309-312, 1984.

8.- R. E. Kennedy, Digital sums, Niven numbers and natural density, Crux Math. 8, p. 131-135, 1982.

9.- C. N. Cooper, R. E. Kennedy, On consecutive Niven numbers, Fib. Quart.

21, p. 146-151, 1993.

10.-Boscaro, Sandro, Nivenmorphic integers, Journal of Recreational Mathematics 28 (3), p. 201–205, 1996–1997.

11.- Página web del artista Nicky Broekhuysen

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Los números que proporcionan alegría se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El secreto de los números que no querían ser simétricos
  2. Números primos gemelos, parientes y sexis (2)
  3. Números errores de impresión
Categorías: Zientzia

Juntando semiconductores: el diodo n-p

Mar, 2020/05/19 - 11:59
Fuente: ESA

La introducción de las impurezas adecuadas permite crear semiconductores de distintos tipos, el tipo n y el tipo p [1]. ¿Qué pasaría si tomamos un semiconductor tipo p con una superficie muy limpia y homogénea [2] y juntamos esta superficie con la superficie limpia y homogénea de un semiconductor tipo n? Piénsalo un momento antes de continuar.

Los electrones en la banda de conducción del semiconductor de tipo n pueden moverse a través del límite entre los dos semiconductores y caer en los huecos [3] en la banda de valencia de energía más baja del semiconductor de tipo p. Dicho de otra forma, al establecer el contacto, lo electrones libres de uno y los huecos del otro comienzan a desaparecer. Pero a medida que los electrones desaparecen en el tipo n, las cargas positivas de las impurezas ya no están equilibradas por los electrones conductores negativos que quedan, por lo que el tipo n se carga positivamente. Lo contrario sucede en el semiconductor de tipo p. A medida que desaparecen los huecos, las impurezas terminan teniendo un electrón extra, lo que hace que el tipo p se cargue negativamente.

El resultado de todo esto es que después de muy poco tiempo se establece un campo eléctrico neto entre los semiconductores tipo n y tipo p que detiene el proceso de destrucción mutua al mantener los electrones en el tipo n separados de los huecos en el tipo p, con una «capa agotada» [4] en el medio. Se alcanza pues un estado de equilibrio.

Estado de equilibrio del diodo n-p y formación de la zona agotada (z.c.e.) [4]. Fuente: Wikimedia CommonsSi ahora establecemos una diferencia de potencial, con una batería pequeña, por ejemplo, a través del dispositivo formado por el tipo p y el tipo n, que podemos llamar diodo n-p, el equilibrio se verá afectado o no dependiendo de cómo establezcamos la diferencia de potencial. Si el cable positivo se coloca en el material de tipo n y el cable negativo en el material de tipo p, la separación de los electrones y los agujeros se refuerza. No pasa corriente.

El positivo de la batería al tipo n. La zona agotada (z.c.e.) [4] se amplía. No hay corriente. Fuente: Wikimedia Commons.Pero si invertimos los cables, de modo que el cable positivo llega al tipo p y el cable negativo al tipo n, los electrones negativos en el lado de tipo n se mueven hacia la capa agotada, y lo mismo pasa con los huecos positivos en el tipo p. Si el potencial externo aplicado es mayor que el potencial creado por el campo eléctrico entre los dos semiconductores, pasará la corriente en el diodo n-p.

El positivo de la batería al tipo p. Fluye la corriente. La zona agotada (z.c.e.) [4] desaparece. Fuente : Wikimedia Commons¿Y esto para qué sirve? Si ahora llega un fotón desde el exterior y aporta energía de forma que un electrón del tipo n salte a la banda de conducción, la corriente aumentará. El diodo n-p por tanto se puede usar como una fotocélula aún más potente que un simple semiconductor solo. Quizás el uso más común de este tipo de fotocélula es la generación de electricidad a partir de la energía solar. Esto se puede hacer para dispositivos a pequeña escala, como los calculadores de bolsillo, o para necesidades de energía a mayor escala, como la energía para un edificio completo. Estas fotocélulas se suelen llamar células fotovoltaicas.

Notas:

[1] Para entender bien lo que sigue es conveniente leer antes Impurezas dopantes.

[2] Para visualizarlo puedes entender homogénea como plana, sin irregularidades, lo que permite un buen contacto.

[3] Personalmente creo que es más gráfico decir boquetes, pero mantenemos hueco por aquello de que es la palabra más habitual. Bujero tampoco me parecería mal, pero mejor no.

[4] Una capa de tierra quemada, donde los electrones y huecos se han compensado hasta que el campo eléctrico creado ha impedido que siguiese la destrucción. También se llama barrera interna de potencial o zona de carga espacial (z.c.e.).

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Juntando semiconductores: el diodo n-p se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Semiconductores
  2. Las bandas de Bloch
  3. El modelo clásico de electrones libres de Drude-Lorentz
Categorías: Zientzia

Páginas