S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 35 min 25 sec

El cerebro humano tarda en madurar

dim, 2019/03/17 - 11:59
Imagen: Gordon Johnson / Pixabay

Una característica peculiar de los seres humanos es que, aunque nacemos con una cabeza de gran tamaño, tardamos en completar el crecimiento y desarrollo del encéfalo. A los dos años de edad alcanza el 85% de su volumen máximo, por lo que ha de seguir creciendo. Por otro lado, no todas sus áreas se desarrollan y maduran a la vez. La corteza cerebral, que es la parte más exterior, madura en último lugar. Y en ese proceso la proporción entre las denominadas materia gris y materia blanca cambia.

La materia gris corresponde a diferentes elementos: cuerpos neuronales y sus dendritas, que son prolongaciones ramificadas a través de las cuales una neurona recibe señales de otras; células de la glía, que dan soporte y protección a las anteriores; capilares sanguíneos, que proporcionan a neuronas y células gliales el oxígeno y los nutrientes que necesitan; y las conexiones entre neuronas, denominadas sinapsis. La materia gris se distribuye en la corteza del cerebro y del cerebelo, así como en numerosas estructuras de ubicación más profunda en el interior del encéfalo.

La materia blanca corresponde a los axones de las neuronas que se encuentran recubiertos por una sustancia lipídica denominada mielina. Un axón es una proyección de forma tubular que conducen señales nerviosas desde el cuerpo de una neurona hasta otras que pueden encontrarse a cierta distancia o hasta células musculares, principalmente. La vaina de mielina que recubre el axón lo aísla, y ayuda, de esa forma, a que los impulsos nerviosos se transmitan más rápida y eficazmente.

El volumen de materia gris de varias regiones de la corteza cerebral alcanza su máximo desarrollo alrededor de los 10 años de edad. Ese incremento refleja un aumento de las conexiones entre neuronas que se producen como consecuencia de la experiencia, el adiestramiento y el aprendizaje. Durante esos años, la actividad encefálica es tan intensa que llega a gastar un 60% de la energía que consume el organismo en reposo, y casi la mitad de las necesidades diarias totales de energía. Hay quienes atribuyen a ese gran consumo de energía el hecho de que el crecimiento del cuerpo durante la niñez sea lento y se prolongue en el tiempo.

A partir de los once o doce años las cosas cambian. El grosor de la materia gris de la corteza cerebral empieza a reducirse, y lo hace de forma sustancial durante la adolescencia. En algunas zonas esa reducción llega a ser del 17% hacia el final del proceso, unos 15 años después. Lo que ocurre, en parte, es que una cierta proporción de las conexiones sinápticas se “podan”, como se dice en la jerga neurocientífica. Esa poda elimina conexiones que no se usan o se usan poco y se mantienen las que más tráfico registran. A la vez aumenta la proporción de materia blanca. Eso es indicio de que los axones que conducen las señales se hacen más gruesos y que aumenta su grado de cobertura por la capa lipídica de mielina. El engrosamiento de los axones y el mayor grado de mielinización promueven una más rápida y eficaz transmisión de impulsos nerviosos y , por lo tanto, una comunicación más eficiente entre la corteza cerebral y el resto de áreas encefálicas. En definitiva: el cerebro funciona mejor.

La maduración de la corteza cerebral requiere tiempo y hace que la adolescencia sea un periodo difícil. Pero durante ese periodo la mente humana aprende a navegar en el complejo entorno social en que se desenvolverá en la edad adulta. La adolescencia puede entenderse así como el precio que paga por ese aprendizaje.

Nota:

Esta anotación es parte de una colección de tres artículos dedicados a la neuropsicología de la adolescencia. Los artículos son El desajuste adolescente, En busca de la identidad personal y este, El cerebro humano tarda en madurar.

——————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El cerebro humano tarda en madurar se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas nerviosos: el cerebro de vertebrados
  2. Daños estructurales por consumo de alcohol en el cerebro humano
  3. ¿Cuántas células hay en el cuerpo humano?
Catégories: Zientzia

¿Hemos intentando contactar con extraterrestres?

sam, 2019/03/16 - 11:59

¿Hemos intentando contactar con extraterrestres? Y si es así, ¿cómo y cuándo se ha hecho? ¿Quién lo ha hecho? Y sobre todo, ¿qué se les ha dicho en los mensajes que se han enviado? Todas las respuestas en minuto y medio.

Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenarán en el programa de ciencia Órbita Laika (@orbitalaika_tve), a partir del próximo 18 de marzo todos los lunes a las 22:00 en la 2 de RTVE.

Edición realizada por César Tomé López

El artículo ¿Hemos intentando contactar con extraterrestres? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia express: los transgénicos
  2. Ciencia express: el carbono-14 y los rayos cósmicos
  3. Ciencia express: Cómo se formó la luna
Catégories: Zientzia

Los biólogos de la UPV/EHU y la conservación de la naturaleza

ven, 2019/03/15 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

Toma de muestras de bivalvos en los manglares nicaragüenses. Foto: Ionan Marigomez / UPV/EHU

A menudo se critica a la universidad por falta de conexión con la sociedad. Se afirma que la universidad enseña conocimientos arcanos y que la investigación apenas tiene implicaciones prácticas. Este punto de vista es compartido por bastantes universitarios, por lo que algo habrá detrás del mismo. Sin embargo, un poco de perspectiva histórica muestra que hay numerosas interacciones entre la universidad y la sociedad. A título de ejemplo, vamos a analizar cuál ha sido el impacto de la Sección de Biología en la conservación de la naturaleza.

La Sección de Biología comenzó su andadura muy modestamente en la por entonces denominada Facultad de Ciencias de la Universidad de Bilbao. Esta Sección carecía de catedráticos hasta 1975 y, de los tres profesores agregados de aquel momento, ninguno pertenecía a alguna de las áreas de la biología más naturalistas, es decir, la botánica, la zoología o la ecología. Tampoco llegaban fondos para apoyar proyectos de investigación en estos ámbitos. El bum llegó en la segunda mitad de los años 80, cuando se multiplicó el número de profesores, se potenció la formación de doctores y los grupos de investigación comenzaron a recibir financiación pública para el desarrollo de sus proyectos. Los años 90 vieron la aparición de cursos de postgrado tipo máster, como por ejemplo el de “Evaluación y Recuperación Ambiental”, y el afianzamiento de colaboraciones externas de los equipos de investigación. El siglo XXI ha supuesto la puesta de largo de la investigación en muchos de esos grupos, que participan en proyectos multinacionales de indudable repercusión sobre la conservación y el manejo de los recursos naturales, llegando a alcanzar niveles de excelencia y prestigio internacionales.

En estos años, la Facultad de Ciencia y Tecnología ha formado un gran número de personas en Biología, Ciencias Ambientales y otras disciplinas ligadas con la conservación de la naturaleza. Según las estadísticas oficiales, los egresados de la la FCT incluyen más de 3850 licenciados y más de 450 graduados en Biología, a lo que se suman centenares de estudiantes de master y 475 doctores. De ellos, muchos trabajan en ámbitos relacionados con la conservación de la naturaleza. Algunos lo hacen para la administración como técnicos de medio ambiente municipales, en consorcios y mancomunidades, en las diputaciones forales, departamentos del Gobierno Vasco, parques naturales, etc. Otros muchos trabajan en empresas relacionadas con la conservación de la naturaleza, como consultoras (por ejemplo, Anbiotek o Ekolur) o en centros de I+D+I como Neiker o Azti. Otros muchos se han dedicado a la enseñanza, tanto la reglada en institutos, ikastolas, colegios y universidades, como no reglada en aulas de naturaleza, CEIDAs, etc. Finalmente, muchos egresados colaboran en asociaciones y otras entidades en pro de la conservación de la naturaleza, como grupos ecologistas, asociaciones conservacionistas o entidades de estudio e interpretación del medio ambiente como la Sociedad de Ciencias Aranzadi. Aunque es imposible de cuantificar, podemos afirmar que esta masa de gente con una formación en biología y actitudes conservacionistas ha tenido mucho que ver con la transformación que se ha registrado en la forma de entender la relación de la especie humana con el medio ambiente en el País Vasco.

Miembros de la FCT discutiendo un proyecto de restauración en el Parque Natural de Aiako Harria con técnicos de la Diputación Foral de Gipuzkoa, de Aguas del Añarbe de URA y de la Confederación Hidrográfica del Cantábrico. Fuente: Arturo Elosegi.

Por otro lado, algunos equipos de la FCT han sido muy activos en el inventariado y seguimiento de la biodiversidad de nuestro entorno. Por citar sólo algunos de ellos, el laboratorio de zoología abrió varias líneas de investigación sobre fauna fluvial y marina, sobre artrópodos del suelo o sobre moluscos terrestres. A esas líneas posteriormente se han incorporado otros grupos como el de murciélagos. Por su parte, el laboratorio de botánica abrió líneas de investigación sobre algas, musgos, plantas superiores y hongos, así como otra sobre geobotánica, que caracterizó y cartografió las principales comunidades vegetales de nuestro entorno. La información acumulada durante décadas ha sido esencial para caracterizar los lugares más biodiversos del País Vasco, para identificar sus principales factores de riesgo y, entre otras, para diseñar y optimizar la red Natura 2000.

Además de los inventarios de biodiversidad, algunos grupos han trabajado activamente en evaluar el estado de salud del medio ambiente, colaborando en poner las bases del sistema de información medioambiental del País Vasco. Por ejemplo, en los años 80, los entonces laboratorios de zoología y ecología se embarcaron en el primer gran estudio hidrobiológico de los ríos de Bizkaia, así como en la evaluación del estado medioambiental de la ría de Bilbao. El primer trabajo fue la semilla de la que derivó la red de seguimiento de los ríos del País Vasco, actualmente en manos de URA, la Agencia Vasca del Agua, mientras que el segundo comenzó una serie de estudios sobre la salud de nuestra costa. También hay que citar en este apartado al laboratorio de microbiología, que durante muchos años ha colaborado en la determinación de la calidad de las aguas de baño de la Comunidad Autónoma.

Otros grupos han centrado sus estudios en la detección y evaluación de los impactos que causa la actividad humana en la estructura y el funcionamiento de los ecosistemas. El grupo de ecología fluvial ha estudiado el impacto de las prácticas forestales, de la contaminación agrícola y urbana, de las detracciones de agua o del cambio climático en ríos vascos y de otras regiones. Lo que comenzó siendo el laboratorio de citología, por su parte, ha ido convirtiéndose en un grupo de investigación sobre ecotoxicología, que es hoy la base de la Estación Marina de Plentzia, mientras que el grupo de ecotoxicología animal y biodiversidad utiliza especies como centinelas del estado de salud de las aguas continentales. Otras líneas aplicadas han sido el estudio de suelos contaminados, que se ha abordado desde los laboratorios de zoología y fisiología vegetal, o los trabajos más agronómicos realizados en este último. Toda la información obtenida por estos grupos es utilizada por la Diputaciones Forales, por el Gobierno Vasco y por otras entidades en la planificación y gestión del territorio.

Miembros de la FCT revisando trabajos de restauración ecológica en el río Araxes (Gipuzkoa), junto con técnicos de la Diputación Foral de Gipuzkoa, de las empresas Ekolur y Basoinsa, y un científico del IGB de Berlín. Fuente: Arturo Elosegi.

Más allá de la obtención de información, algunos grupos de la Sección han colaborado estrechamente con la administración en trabajos de gestión de poblaciones, comunidades o ecosistemas. Por ejemplo, el grupo de ecología y evolución del comportamiento ha trabajado en la gestión de mamíferos amenazados, como el visón, el desmán ibérico o los murciélagos, el de ecología y gestión del pastoreo en la gestión de la ganadería en pastos de montaña, el grupo de ecofisiología vegetal en la, entre otras, recuperación de suelos degradados o contaminados, y el de ecología fluvial en proyectos de restauración de ríos. Estos trabajos no se han limitado a evaluar el efecto de prácticas de conservación realizadas por la administración, sino que han implicado a la universidad en el diseño, ejecución y seguimiento de estas prácticas, muchas de las cuales han sido pioneras a nivel estatal.

Finalmente, no podemos olvidar el papel de asesoría realizado por muchos miembros de la Sección, en su participación en los patronatos de parques naturales o de la Reserva de la Biosfera de Urdaibai, o en Naturzaintza, el consejo asesor de conservación de la naturaleza del Gobierno Vasco. Además de estas colaboraciones, es habitual que miembros de la Sección participen en reuniones para definir estrategias y planes de la administración, como la Estrategia Española de Restauración de Ríos o la Estrategia Vasca de Biodiversidad.

La Sección de Biología continúa aportando conocimiento sobre los ecosistemas de nuestro entorno, lo cual facilita la gestión de nuestros recursos naturales. Si bien hasta hace bien poco esta aportación de conocimiento residía básicamente en las áreas más naturalistas referidas arriba, hoy en día las herramientas de la biología molecular son esenciales en el estudio de la biodiversidad, lo que aumenta el número de grupos que trabajan en este campo. Por todo ello, es de esperar que la Sección de Biología de la FCT siga teniendo un papel importante en la conservación de la naturaleza en el País Vasco y en el mundo en general.

Sobre los autores: Arturo Elosegi es profesor de ecología en el Departamento de Biología Vegetal y Ecología de la Facultad de Ciencia Tecnología de la UPV/EHU. Jesús Pozo se retiró recientemente del mismo departamento.

El artículo Los biólogos de la UPV/EHU y la conservación de la naturaleza se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una fórmula para dominarlos a todos: La conservación de la energía y la ley de la palanca
  2. De las leyes de conservación (I)
  3. Naturaleza, ciencia y cultura en el bicentenario de Henry David Thoreau
Catégories: Zientzia

Aprendiendo de las máquinas

jeu, 2019/03/14 - 11:59
Imagen: Pixabay

La segunda mitad del siglo XX vio nacer la computación y el sueño de la inteligencia artificial —“la ciencia de conseguir que las máquinas hagan cosas que requerirían inteligencia si las hiciesen humanos”, en palabras de Marvin Minsky—, que hoy en día está despertando un renovado interés gracias a la rama del aprendizaje automático. Se trata de un conjunto de técnicas que se benefician de los avances tecnológicos en materia de computación de las últimas dos décadas, y se caracterizan por su capacidad de engullir enormes cantidades de datos para enfrentarse a problemas de gran complejidad. Las aplicaciones son vastas, y ya forman parte de nuestro día a día: se utilizan para detección de fraude, navegación en vehículos autónomos, sistemas de recomendación (de productos, música…), diagnóstico médico, optimización de procesos, juegos… y un largo etcétera.

En todos estos casos, decimos que la máquina aprende. Y sabemos perfectamente cómo aprende (la lógica matemática y computacional subyacente), pero ¿qué aprende exactamente? Esta pregunta, aparentemente sencilla, nos persigue en todas sus aplicaciones. Por ejemplo, ¿qué lleva a AlphaZero a considerar ventajosos los movimientos que hace y que epatan por igual a aficionados y expertos ajedrecistas? Lo cierto es que no lo sabemos. La importancia de la cuestión puede parecer relativa en decisiones no críticas como la recomendación de una película, pero resulta esencial, e incluso abre derivadas éticas, cuando hablamos de cosas como conceder o no conceder un crédito, o la reacción de un coche autónomo ante un accidente.

En realidad, el tipo de problema al que se enfrentan las técnicas de aprendizaje automático es el mismo al que se viene enfrentando la ciencia, estadística mediante, desde su nacimiento: la inferencia de patrones, de generalizaciones, a partir de datos observacionales con el objetivo de obtener predicciones. En otras palabras, dada una entrada X, ¿qué modelo o función “f” genera la salida Y=f(X)? La gran diferencia se encuentra en que tradicionalmente nos hemos enfrentado a problemas para los cuales hay una teoría matemática previa que establece la estructura de “f”. La estadística clásica es la ciencia que estudia los diferentes tipos de modelos “f” y genera las técnicas para obtener y evaluar el mejor ajuste a partir de las observaciones (x, y). Por otro lado, las técnicas de aprendizaje automático de la nueva ciencia de datos son capaces de aprender la función “f” a partir de los datos sin ningún modelo previo, sin ningún conocimiento a priori del problema. La función “f” inferida se encuentra de alguna forma codificada tras el proceso de aprendizaje, pero nos es completamente desconocida y no hay forma de extraerla: es por eso que suelen llamarse “algoritmos de caja negra”.

Así pues, la estadística clásica define modelos matemáticos en los que las relaciones entre variables son explícitas y, por tanto, son directamente interpretables. Pensemos en una simple relación lineal: cuando crece X, crece Y; por tanto, obtenemos un valor grande de Y porque X es grande. En cambio, estos algoritmos de caja negra son capaces de capturar relaciones arbitrariamente complejas y predecir con gran precisión, pero su desventaja a día de hoy es que nos las ocultan, matemáticamente hablando: no somos capaces de interpretar qué propiedades de X influyen en Y.

Por tanto, uno de los grandes retos que la inteligencia artificial tiene por delante es el de intentar obtener conocimiento a partir de la estructura que las máquinas son capaces de extraer de grandes volúmenes de datos. Quizás se logre mediante una formalización matemática de las técnicas actuales, o quizás se desarrolle una nueva estadística ahora desconocida. Sea como sea, aprender de las máquinas puede ser uno de los principales hitos del presente siglo.

Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute

El artículo Aprendiendo de las máquinas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Máquinas inteligentes (y III): Deep blue, HAL 9000 y más allá
  2. Seminario Famelab: aprendiendo a hacer monólogos
  3. Máquinas inteligentes (II): Inteligencia artificial y robótica
Catégories: Zientzia

Paradojas: contando peces, pesando patatas y… detectando agujeros

mer, 2019/03/13 - 11:59

Tengo un acuario en casa. Contiene doscientos peces, de los cuales el 99% son rojos. Quiero conseguir que sólo el 98% de los peces de mi pecera sean colorados, eliminando sólo algunos de este color, pero sin tener que comprar más de otras tonalidades. ¿Cuántos peces rojos debo sacar del acuario?

Imagen: Pixabay

Seguro que son pocos los que debo extraer de mi pecera. Veamos: los peces rojos representan el 99%. Por lo tanto, el 1% no son colorados, es decir, solo hay dos peces que no son rojos en el acuario. Necesito extraer algunos peces rojos para conseguir que estos dos peces lleguen a ser el 2% de los peces del acuario. Así, si dos peces no colorados deben ser el 2% del total, una sencilla regla de tres dice que deben quedar en el acuario ¡solo 98 peces rojos! Es decir, deben sacarse 100 peces rojos para que el porcentaje de peces colorados pase del 99%al 98%. Sorprendente, ¿no?

¿Y qué hago ahora con los cien peces que me sobran? Decido cambiarlos a un colega por cien kilos de patatas. Es justo, ¿no? Un pez por un kilo de patatas… Y se me plantea un nuevo problema.

Tengo 100 kilos de patatas. El 99% de su peso corresponde al agua que contienen. Quiero deshidratarlas para conseguir que contengan solo un 98% de agua. Tras hacerlo, ¿cuánto pesan las patatas? ¡Si sólo pesan 50 kilos! ¿Por qué?

Imagen: Wikimedia Commons.

Veamos: si de esos 100 kilos, 99 kilos son de agua, 1 kilo corresponde a sólido seco. Vaya, parece que estoy teniendo un “déjà vu”… esto me recuerda mucho al caso de los peces rojos. Pero centrémonos, volvamos a los tubérculos. Si tras deshidratar las patatas la parte sólida pasa a ser del 2% del total –que sigue pesando 1 kilo, porque no se ve afectada por la deshidratación– de nuevo puedo hacer una sencilla regla de tres que me dice que debe de haber solo 49 kilos de agua. Así que, efectivamente, las patatas pasan a pesar 50 kilos. Bueno, así me costará menos transportarlas.

Creo que compraré algo de queso para elaborar alguna receta y acompañar a parte de esas patatas. Me gusta el Emmental porque tiene agujeros, y –como todo el mundo sabe– a las personas que nos dedicamos a la topología nos encanta contar agujeros. Para eso se inventó la teoría de homología, ¿no? Para eso, para contar agujeros de diferentes dimensiones y así distinguir espacios no homeomorfos.

Y me ha dado por pensar en los agujeros del queso, que parece que proceden de la fermentación producida por partículas microscópicas de heno presentes en la leche. A ver:

Cuanto más queso Emmental compre, más agujeros habrá. Pero, cuantos más agujeros haya, tendré menos queso. Es decir, cuanto más queso compre… ¡tendré menos queso!

Imagen: Wikimedia Commons.

¡No me lo puedo creer! Y todo esto por culpa de cien peces rojos…

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Paradojas: contando peces, pesando patatas y… detectando agujeros se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Patatas ‘perfectas’ con el método ‘Edge Hotel School’
  2. La topología modifica la trayectoria de los peces
  3. Los peces en el río
Catégories: Zientzia

Reflexión y refracción de la luz

mar, 2019/03/12 - 11:59
Imagen: V Photography and Art (flickr)

¿Qué ocurre cuando la luz que viaja por un medio (por ejemplo, el aire) alcanza el límite de otro medio (por ejemplo, el vidrio)? Las respuestas a esta pregunta dependen de si se utiliza el modelo de partícula o el de onda para la luz. ¿Qué implica cada uno y cuál es mejor? ¿Cómo explican el siguiente hecho experimental (Figura 1):

Figura 1. Un haz de luz llega con un ángulo de 60º al límite entre dos medios; vemos que una parte es reflejada (también con un ángulo de 60º) y otra pasa al medio 2 con un cambio de dirección. Fuente: Wikimedia Commons

El modelo de onda ya lo hemos tratado aquí para la reflexión y aquí para la refracción. Recordemos las conclusiones principales aplicadas a la luz:

1. Un rayo de luz no es otra cosa que una línea perpendicular a las líneas de cresta de una onda. Un rayo representa la dirección en la que viaja un tren de ondas.

2. En la reflexión, el ángulo de incidencia(Θi) es igual al ángulo de reflexión (Θr), esto es, Θi = Θr

3. La refracción implica un cambio de la longitud de onda y velocidad de la onda a medida que pasa a otro medio. Cuando la velocidad disminuye, la longitud de onda disminuye y el rayo gira en una dirección hacia una línea perpendicular al límite entre los medios. Este giro hacia la perpendicular se observa, por ejemplo, cuando un rayo de luz pasa del aire al vidrio.

Figura 2. El modelo de ondas en acción. Fuente: Cassidy Physics Library

¿Cómo explicar las mismas observaciones mediante el modelo de partículas? Primero tenemos que considerar la naturaleza de la superficie del vidrio. Aunque aparentemente homogénea, estamos en realidad ante una superficie rugosa: un microscopio lo suficientemente potente mostraría que tiene multitud de colinas y valles. Si las partículas de luz fueran similares a pequeñas bolitas de materia, al golpear una superficie tan rugosa lo que cabría esperar es que se dispersasen en todas direcciones. Por tanto, no serían reflejadas ni refractadas. Por lo tanto, hay que refinar el modelo. Newton argumentó que en realidad debe haber “algún rasgo del cuerpo que esté disperso uniformemente sobre su superficie y por el cual este actúa sobre el rayo sin contacto inmediato (some feature of the body which is evenly diffused over its surface and by which it acts upon the ray without immediate contact).

Vamos a seguir la idea de Newton, a ver a donde nos lleva. De entrada, en el caso de la reflexión, la fuerza actuante tendría que ser una que repela las partículas de luz. Pero claro, por la misma regla de tres, es necesaria una una fuerza que atraiga a las partículas de luz en lugar de repelerlas para explicar la refracción. Esto parece que se complica para el modelo de partículas. O no. Veamos

Cuando una partícula de luz se acerca a un límite con otro medio, primero tendría que superar la fuerza repelente. Si lo consiguiera, entonces encontraría una fuerza atractiva en el medio que la atraería hacia el medio. Dado que la fuerza atractiva sería un vector perpendicular a la superficie del medio, tomando como referencia la dirección del movimiento de la partícula ese vector tendría un componente en la dirección del movimiento original de la partícula, lo que implica que la velocidad de la partícula tendría que aumentar. Otra consecuencia es que, si el rayo de partículas se moviera con un ángulo oblicuo al límite, cambiaría de dirección a medida que entrase en el medio, girando hacia la línea perpendicular al límite.

De acuerdo con el modelo de partículas*, por lo tanto, podríamos afirmar lo siguiente:

1. Un rayo representa la dirección en la que se mueven las partículas.

2. En la reflexión, los ángulos de incidencia y reflexión son iguales. Esta predicción se puede derivar aplicando la ley de conservación del momento a partículas repelidas por una fuerza.

3. La refracción implica un cambio de velocidad de las partículas a medida que entran en otro medio. En concreto, cuando actúa una fuerza atractiva, la velocidad aumenta y el rayo cambia de dirección al entrar en el medio.

Figura 3. El modelo de partículas en acción. Fuente: Cassidy Physics Library

Comparemos estas características del modelo de partículas con las características correspondientes del modelo de onda. La única diferencia está en la velocidad predicha para un rayo refractado. Observamos que un rayo se curva hacia la línea perpendicular cuando la luz pasa del aire al vidrio. El modelo de partículas predice que la luz tiene una velocidad mayor en el segundo medio. El modelo de ondas predice que la luz tiene una velocidad menor.

Podríamos pensar que no hay nada más fácil para averiguar qué modelo es el más correcto: diseñar un experimento para determinar qué predicción es correcta. Todo lo que uno tiene que hacer es medir la velocidad de la luz después de que haya entrado en el vidrio o en el agua y compararla con la velocidad de la luz en el aire. Pero no. A a finales del siglo XVII y principios del siglo XVIII, cuando Huygens argumentaba a favor del modelo de onda y Newton apoyaba el modelo de partículas, ningún experimento de este tipo era posible. La única forma disponible de medir la velocidad de la luz era la astronómica.

No sería hasta mediados del siglo XIX que Armand H.L. Fizeau y Jean B.L. Foucault conseguirían medir la velocidad de la luz en el agua. Los resultados concuerdan con las predicciones del modelo de onda: la velocidad de la luz es menor en el agua que en el aire.

Los experimentos de Foucault-Fizeau de 1850 se consideraron como el último clavo en el ataúd del modelo newtoniano de partículas para la luz, ya que, cuando se realizaron estos experimentos, buena parte de la comunidad científica ya había aceptado el modelo de onda por otras razones. Algunas de estas se derivaron del trabajo del científico inglés Thomas Young, y serán las que veamos a continuación.

Nota:

* Implícitamente en el argumento está la asunción sobre el límite del tamaño de las “partículas” de luz de Newton. Las partículas deben ser al menos tan pequeñas como las irregularidades en la superficie de un vidrio. Si fuesen mayores tendríamos el mismo efecto que una pelota de tenis rebotando en el rugoso suelo de hormigón, solo reflexión.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Reflexión y refracción de la luz se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Refracción de ondas
  2. Aplicaciones de la reflexión de ondas: el sonar
  3. Reflexión de ondas: rayos
Catégories: Zientzia

Un cartel para el día de pi

mar, 2019/03/12 - 08:00

María Begoña Medel Bermejo

El alumnado del Grado en Creación y Diseño de la Facultad de Bellas Artes de la UPV/EHU comienza a adentrarse en el mundo del Diseño durante su tercer curso con una asignatura cuyo nombre es Diseño Gráfico.

Existe una discusión recurrente sobre la existencia o no de alguna diferencia entre el Arte y el Diseño. Desde esta asignatura, que imparto desde hace casi 30 años, suelo insistir en el hecho de que una de las características fundamentales, si no la más destacable, es la presencia de un cliente con una necesidad de comunicación. El cliente es el elemento que nos convierte en los profesionales intermediarios que resuelven un problema de comunicación, aplicando los conocimientos sobre el funcionamiento de la percepción humana en la creación de un conjunto único y original de imágenes y textos significantes que transmitirán el mensaje que se necesite.

Suele suceder que en el aula trabajamos con supuestos en los que el rol de cliente lo asume el docente o los propios alumnos, de manera rotativa. Pero, algunas veces tenemos la suerte de enfrentarnos a problemas reales para los que desarrollar soluciones de comunicación gráfica.

Durante este curso 2018-2019, de acuerdo con la Guía Docente de la asignatura Diseño Gráfico, el último proyecto que el alumnado debía desarrollar era un cartel.

Ya habíamos colaborado en otras ocasiones con otras facultades y entidades públicas en temas similares pero, nunca habíamos trabajado con la Facultad de Ciencia y Tecnología.

Tener como cliente a alguien cuyo día a día es tan diferente del nuestro era el mayor atractivo que encontré a esta posibilidad. La innovación, la creación nunca surge si trabajamos dentro de nuestra área de confort. Salir de lo común, de lo reiterativo, supone colocarse en ese lugar que resulta incómodo porque no lo conocemos, y mirar todo aquello que vamos descubriendo con ojos limpios.

Por todo lo dicho hasta ahora me puse en contacto con algunos profesores del área de Matemáticas para preguntarles si tenían algún tema en el que pudiéramos colaborar. La respuesta fue inmediata y muy positiva, necesitaban publicitar la jornada BCAM-Naukas en el día de Pi y era posible colaborar. Participar en un evento organizado por la Cátedra de Cultura Científica de la UPV/EHU, Naukas y BCAM (Basque Center for Applied Mathematics) ha sido un reto para el alumnado y la oportunidad de hacer algo que no quedara entre las paredes de la clase como un proyecto académico más, si no que consiguiera trascender y llegar al público colocando a ambas facultades y a la UPV/EHU en el punto de mira de nuestro cliente específico, el posible futuro alumnado.

Ya teníamos el tema para el proyecto de cartel de este curso.

En clase, cuando planteé el tema, hubo todo tipo de reacciones: desde el entusiasmo al temor ante lo desconocido. Pero, en general, fue bien acogido dado que la posibilidad de hacer algo real suele ser muy valorada por el alumnado.

Participaron 56 alumnas y alumnos de dos grupos, castellano y euskera, de tercer curso del grado en Creación y Diseño. Cada uno de ellos debía llevar a cabo una labor de recopilación de información sobre el tema que les permitiera llegar a concebir al menos tres conceptos totalmente diferentes que sirvieran para comunicar la celebración del día de Pi.

Cuando desarrollamos conceptos de comunicación gráfica trabajamos la creatividad desde diversos lugares para poder encontrar esa imagen que consiga atraer la atención del espectador estableciendo un vínculo emocional al conseguir descifrar el mensaje. Se trata de hacer sonreír a nuestro cerebro.

Creo que el resultado obtenido este curso permite constatar que el acercamiento al mundo de las matemáticas permite una multiplicidad de caminos. Como colofón de esta experiencia se han seleccionado dos carteles: el de Paula Castro como cartel de la jornada del 13 de marzo de 2019 y el de Jone Aldalur para comunicar la realización de talleres para escolares. Se trata de las dos primeras imágenes que aparecen a continuación junto con otros 10 carteles que fueron pre-seleccionados:

Obra de Paula Castro. Éste ha sido el cartel seleccionado como imagen general del día de Pi. La relación y conexión entre la ciencia y la profundidad del cosmos se ha realizado mediante la utilización de la imagen icónica de la luna, que representa la circunferencia, y la estela de condensación que genera el cohete en referencia al diámetro.Obra de Jone Aldalur. Se utilizó la imagen para informar sobre los talleres del día de Pi. Las pelotas con números Pi dentro del frasco tienen colores llamativos para atrapar nuestra mirada y a su vez nos remiten a los juegos de azar en los que esos números pueden decidir nuestra suerte. Obra de José Manuel García. Un contraluz crea un ambiente narrativo en el que el número Pi aparece sobre una colina desde la que surge un camino de estrellas hacia el cielo.Obra de David von Heeren. Gestos positivos realizados con las manos nos sirven para crear una pequeña adivinanza ayudados por los personajes del fondo, que nos proporcionan la pista necesaria para encontrar la clave.Obra de Jon Flores. A veces se ve más lo que no está que lo que está. Se trabaja con la elipsis repetida del elemento fundamental del cartel. Si no lo leemos en voz alta puede que no seamos capaces de descubrir el juego visual.Obra de Ainhoa Simpler. Como si fuera un juego solitario aparecen las cartas en grupos que remiten a las primeras cifras del número Pi y en cada una de ellas descubrimos la imagen de una matemática famosa.Obra de Maialen Sayans. El todo y sus partes. Los primeros números de la sucesión infinita de Pi colocados en visión frontal se convierten en un juego de transparencias que crean otra realidad.Obra de Eva Muñoz. Hasta ahora muchos matemáticos han perdido el sueño investigando el número Pi y tomando café para mantenerse despiertos. La huella del café sobre la mesa es un guiño a la circunferencia y su diámetro.Obra de Mikel Larena. Juego de transparencias con la sucesión del número Pi.Obra de Anne Fernandez. Un papel arrugado con forma esférica repleto de fórmulas matemáticas aparece en primer plano con un fondo realizado con una regla de círculos.Obra de 11 Laiene Pagazaurtundua. Metáfora visual “el árbol de la ciencia”Obra de Lukas Zelaia. Sustitución de un elemento arquitectónico por un Pi gigante que genera en el espectador nuevos puntos de vista y relaciones emocionales con la imagen mediante esta conexión inusual.

Todas ellas son imágenes muy diferentes que aportan acercamientos originales al concepto de PI desde el mundo del Diseño Gráfico.

Esperamos seguir colaborando en próximas ediciones siempre mejorando la presente y que sea de nuevo una experiencia enriquecedora para ambas facultades.

Sobre la autora: María Begoña Medel Bermejo es Doctora en Bellas Artes y profesora del Grado en Creación y Diseño BBAA/AAEE de la UPV /EHU

El artículo Un cartel para el día de pi se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una fórmula para dominarlos a todos: La conservación de la energía y la ley de la palanca
  2. Marcas de agua digitales, qué son y para qué sirven
  3. El consumo de alcohol para el corazón y las dificultades de divulgar ciencia
Catégories: Zientzia

El hígado y la vesícula biliar

lun, 2019/03/11 - 11:59

Además de las secreciones pancreáticas, el intestino delgado también recibe secreciones procedentes del sistema biliar, que está formado por el hígado y la vesícula biliar. Nos referimos, en concreto, a la bilis y, en particular, a las sales biliares. Es este el principal asunto que trataremos en esta anotación.

Higado y vesícula biliar humanos. Imagen: cancer.org

Pero eso será algo más adelante, porque al hígado corresponden funciones adicionales de gran relevancia que queremos consignar aquí para dejar constancia de ellas. Para empezar, es el órgano que gobierna el metabolismo del conjunto del organismo; podría decirse que es el órgano metabólico maestro, su director. Se ocupa del procesamiento metabólico de proteínas, carbohidratos y lípidos, tras su absorción en el intestino, incluyendo también la gluconeogénesis (síntesis metabólica de glucosa a partir de precursores no glucídicos). Y almacena glucógeno y grasas, a la vez que otras sustancias de menor relevancia cuantitativa, como hierro, cobre y varias vitaminas.

El hígado también se ocupa de degradar productos residuales y hormonas, además de eliminar agentes tóxicos y sustancias, procedentes del exterior, sin utilidad biológica o potencialmente peligrosas (fármacos, por ejemplo). También sintetiza proteínas y lipoproteínas plasmáticas, entre las que se encuentran las que participan en la coagulación de la sangre y las que transportan fosfolípidos, colesterol y hormonas esteroideas y tiroideas.

A las tareas anteriores, hay que añadir que activa la vitamina D (tarea compartida con el riñón); elimina, mediante el concurso de sus macrófagos (células de Kupffer), bacterias y glóbulos rojos que ya han finalizado su vida útil; secreta las hormonas trombopoietina (estimula la producción de plaquetas), hepcidina (regula el metabolismo del hierro en mamíferos), IGF 1 o factor de crecimiento insulínico 1 (estimula el crecimiento); excreta el colesterol y la biliverdina y bilirrubina, que son productos derivados de la degradación de la hemoglobina; y en algunas especies de mamíferos (no en primates y conejillos de India) y de aves sintetiza ácido ascórbico (vitamina C).

Es de destacar que con la excepción de las células de Kupffer, todas las funciones aquí consignadas son realizadas por un mismo tipo celular, el hepatocito. Por lo tanto, no hay diferenciación de funciones con arreglo a tipos celulares (puesto que solo hay los dos citados), sino en virtud de los orgánulos en que se desarrolla cada una de ellas. En ellos radica la función y esta se diferencia de unos orgánulos a otros.

El hígado es un órgano muy irrigado, y el flujo sanguíneo en su interior está organizado de tal modo que cada hepatocito está en contacto con sangre venosa proveniente del tubo digestivo y sangre arterial procedente de la aorta. Los capilares procedentes del intestino se van agrupando hasta confluir en la vena porta hepática que penetra en el hígado donde se vuelve a ramificar en múltiples capilares, formando una red de (los denominados) sinusoides hepáticos. Esos sinusoides son los que permiten que la sangre procedente directamente del estómago e intestino delgado difunda a todas las células del hígado para que provean a estos de las sustancias absorbidas. La sangre sale del órgano con los productos elaborados o expulsados para su eliminación (como la urea, por ejemplo) y lo hace a través de la vena hepática, en la que confluyen los capilares que lo drenan. Además de la sangre procedente del digestivo, al hígado también le llega sangre arterial con oxígeno y otras sustancias procedentes del conjunto del organismo para su procesamiento en los hepatocitos.

El hígado se organiza en lóbulos, disposiciones hexagonales de tejido en torno a una vena central. A lo largo de los vértices exteriores de los lóbulos discurren una rama de la vena porta hepática, otra de la arteria hepática y un ducto biliar. De la vena y arteria citadas salen amplios sinusoides que se dirigen hacia la vena central. Las células de Kupffer tapizan los sinusoides, atrapan a cuantas bacterias y eritrocitos fuera de servicio se encuentran, y los eliminan. Los hepatocitos se disponen en placas de dos células cada una, de manera que todas se encuentran en contacto con los vasos sanguíneos, como hemos dicho antes. Las venas centrales de cada lóbulo convergen en la vena hepática que es la que sale del hígado y se une a la vena cava inferior.

El canalículo de la bilis discurre entre las dos células de cada placa, recibiendo secreción biliar de todas ellas. Los canalículos se dirigen hacia el exterior del lóbulo y transportan así la bilis hasta los ductos que se encuentran en los vértices de los hexágonos (lóbulos hepáticos); los ductos de cada lóbulo acaban agrupándose en el ducto hepático común, que es el que lleva la bilis al duodeno.

El hígado produce bilis de forma permanente, pero el acceso de la bilis al duodeno se encuentra controlado por el esfínter de Oddi, que solo permite su paso cuando hay quimo en el duodeno y puede, por lo tanto, ser utilizado. Cuando el esfínter se encuentra cerrado las sales biliares se acumulan en la vesícula biliar, que hace las veces de depósito. Con cada comida la bilis entra en el duodeno debido al vaciado de la vesícula y al aumento en la producción a cargo del hígado. Los seres humanos producimos entre 250 ml y 1 l de bilis cada día. El mensajero que desencadena la contracción de la vesícula y la relajación del esfínter de Oddi es la hormona CCK (la colecistoquinina que vimos en El páncreas) y que se libera por efecto de la presencia de grasa en el duodeno.

Imagen: Wikimedia Commons

La bilis contiene colesterol, lecitina, sales biliares, y bilirrubina y biliverdina, y estas sustancias se encuentran en una solución ligeramente básica, similar a la producida por las células de los ductos del páncreas. Las sales biliares son derivados del colesterol y participan en la digestión y absorción de las grasas debido a su acción detergente y a la formación de micelas. Tras su intervención la digestión de lípidos, son reabsorbidas mediante transporte activo en el íleon, la zona terminal del intestino delgado. De allí, a través del sistema porta, vuelven al hígado. Se calcula que en promedio, en cada comida unas mismas sales circulan dos veces por el duodeno e intestino delgado, y que cada día se pierden con las heces un 5% de las sales biliares. Su pérdida es repuesta por los hepatocitos de manera que el total se mantiene constante.

Emulsificación de los lípidos por las sales biliares. Imagen: Wikimedia Commons

Las sales biliares intervienen en la digestión de las grasas favoreciendo su emulsificación. Convierten gotas grandes de lípidos en gotas de muy pequeño tamaño suspendidas en el quimo acuoso. De esa forma aumenta muchísimo la relación superficie/volumen y exponiendo una mayor superficie micelar a la acción de la lipasa pancreática, de manera que esta puede atacar las moléculas de triglicéridos. Sin la formación de emulsiones, la mayor parte de esos triglicéridos quedarían en el interior de las gotas grandes lejos del alcance enzimático.

Las sales biliares actúan como los jabones. Ambos son anfipáticos: contienen una porción hidrofóbica (un esteroide derivado del colesterol) y otra hidrofílica con carga negativa (una taurina o glicina) . Las sales se adsorben a la superficie de una gota de grasa, con una orientación acorde a su naturaleza; esto es, la porción liposoluble interactúa con la superficie de la gota lipídica, mientras que la porción cargada queda orientada hacia el exterior y disuelta en agua. Los movimientos intestinales ayudan a fragmentar esas gotas lipídicas y hacer que sean cada vez más pequeñas. En ausencia de sales biliares (detergente), las pequeñas gotas tenderían a caolescer, volviéndose a formar grandes gotas. Pero eso no ocurre porque las cargas negativas solubles en agua lo impiden; forman una especie de capa de cargas negativas que se repelen unas a otras, de manera que no llegan a entrar en contacto. Las gotas lipídicas pequeñas tienen un diámetro que varía entre 200 y 5000 nm.

Para la digestión de las grasas es esencial el concurso de la lipasa procedente del páncreas. La acción de esta enzima es efectiva porque el páncreas secreta la coenzima colipasa, también un péptido alifático, que ocupa el lugar de algunas sales biliares en la superficie de las gotas lipídicas y desde esa posición se une a la lipasa de manera que esta pueda hacer su trabajo. La enzima queda así enganchada a la superficie de las gotas, rodeada de sales biliares, pero de tal forma que puede actuar directamente sobre las moléculas lipídicas.

La absorción de lípidos en el intestino se produce gracias a la formación de micelas. Las micelas son estructuras de entre 3 y 10 nm de diámetro en las que intervienen, además de las sales biliares, el fosfolípido lecitina y el colesterol. La lecitina, como las sales biliares, es anfipática, de manera que se asocia con las sales formando agrupaciones cuya porción hidrofóbica se dispone en el interior, junto al colesterol, y la porción hidrofílica en el exterior. De esa forma, moléculas hidrofóbicas que resultan de la digestión de los lípidos (monoglicéridos, ácidos grasos libres y vitaminas liposolubles) son transportados en emulsión acuosa, gracias a la cubierta hidrofílica, hasta los enclaves del epitelio intestinal donde son absorbidos.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El hígado y la vesícula biliar se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Avances contra la enfermedad de hígado graso no alcohólica
  2. Una ecuación para determinar la grasa en el hígado a partir de una resonancia
  3. Proteínas plasmáticas
Catégories: Zientzia

La adaptación a los incendios forestales

dim, 2019/03/10 - 11:59

Para empezar y como ejemplo nos sirve la Comunidad Autónoma del País Vasco. El 27 de diciembre de 2016 aprobó el Consejo del Gobierno Vasco el Plan Especial de Emergencias por Riesgo de Incendios Forestales. En el texto, en la página 9, aparece un cuadro con la superficie quemada en la Comunidad entre 1985 y 2012. El máximo está en el catastrófico 1989, en el mes de diciembre, con más de 27000 hectáreas de superficie arbolada. Fue una sequía en invierno, después de una larga sequía estival, y con fuertes vientos que dificultaban la extinción de los incendios.

El siguiente año en superficie quemada fue 1985, con casi 2600 hectáreas, seguido de 2002 con 700 hectáreas y 1995 con 600 hectáreas. En 2011 fueron 140 hectáreas y en 2012, último año con datos en este Plan, fueron 175 hectáreas. En España, y según datos del Ministerio de Medio Ambiente, los años recientes con más de 400000 hectáreas quemadas fueron 1985, 1989 y 1994.

Estos son los datos para la Comunidad y para España y no hay que olvidar que a nivel del planeta, más o menos el 3% de su superficie se quema cada año. Los incendios forestales aparecen cuando las plantas colonizan la tierra, en bosques de entre 350 y 400 millones de años de antigüedad. Hay restos de carbón de incendios tan antiguos como del Silúrico, hace unos 400 millones de años.

Cada fuego es una combinación particular de frecuencia, intensidad, tamaño, estación, tipo de propagación y extensión. Pero, también es evidente que los incendios influyen, además de todo lo que significan como suceso público, en nuestra percepción del entorno, en concreto, del paisaje. Francisco Lloret y sus colegas, de la Universitat Autònoma de Barcelona, han estudiado los cambios en el paisaje en el municipio de Tivissa, en Tarragona, entre 1956 y 1993.

Tivissa. Imagen: Wikimedia Commons

Es un municipio agrícola con zonas difíciles y poco productivas que se han abandonado en los últimos años, y se han cubierto de matorrales que han homogeneizado el paisaje. Además, ha disminuido la superficie de bosques. Los autores encuentran que los incendios son más probables en áreas homogéneas con árboles, y provocan que el paisaje posterior también sea homogéneo.

Concluyen que, en las zonas con actividad humana el paisaje es más heterogéneo, por ejemplo, con distintas actividades agrícolas y modelos de explotación de la tierra, y los incendios se controlan mejor quizá por ser heterogéneas, con diferentes plantaciones que, a su vez, tienen diferente capacidad de incendiarse. Y, además, los que se aprovechan de las actividades agrícolas procuran defenderlas del fuego y no provocar incendios.

En las zonas sin actividad agrícola, muy iguales, con árboles y arbustos, los incendios se extienden con más facilidad y provocan, después y en primer término, mayor diversidad.

Es evidente que, sea a más o a menos diversidad, los incendios influyen en el paisaje y en nuestra precepción del mismo.

El incendio acercándose al complejo de Old Faithful en el Parque Nacional de Yellowstone (Estados Unidos) en 1988. Imagen: Wikimedia Commons

Sin embargo, un paisaje quemado se puede recuperar, quizá no exactamente igual al que existía antes del fuego, y puede convertirse en un área ecológicamente saludable. Fue el año 1988, en una gran sequía que, al año siguiente, en 1989, provocaría los incendios en el País Vasco, cuando ocurrió el gran incendio en Estados Unidos, en el Parque Nacional de Yellowstone, en el que ardieron más de 600000 hectáreas, algo así como Gipuzkoa, Bizkaia y gran parte de Álava. Fue uno de los mayores incendios forestales en una zona templada que aparece en la historia escrita. Daniel Donato y su grupo, del Departamento de Recursos Naturales del Estado de Washington en Olympia, nos cuentan cómo está el parque 24 años después.

Las zonas centrales del bosque, más tupidas y con más árboles, se han regenerado con fuerza y no ha influido la severidad del incendio. Las zonas más secas, con menos árboles, se han recuperado peor, en más tiempo, y, sobre todo, lo hacían con más eficacia si cerca habían quedado parcelas pequeñas sin quemar que pueden funcionar como reserva de semillas.

Una de las zonas de pino de Yellowstone que ardieron en 1988 tal y como se encontraba en 2006. El pino que sobrevivió (a la izquierda) es un Picea engelmannii, los jóvenes, Pinus contorta. Imagen: Wikimedia Commons

La regeneración culminó, en general, a los 15 años del incendio aunque, en las mejores zonas, el crecimiento ha continuado. A los 24 años, en esas zonas de bosque más maduro, el reemplazamiento de los árboles anteriores al incendio está completo. En las áreas más secas y con menos bosque, ha quedado, en muchos lugares, una estepa herbácea que necesitará varias décadas o, incluso, teniendo en cuenta el calentamiento global, nunca volverá a ser bosque.

Los resultados sobre incendios en la Península Ibérica son parecidos, tanto en Galicia, según el grupo de Otilia Reyes, de la Universidad de Santiago de Compostela, como en Cataluña, según Santiago Martín y Lluis Coll, del Centro de Ciencias Forestales de Solsona.

Son dos paisajes diferentes en dos climas distintos, en el oeste y este de la Península. En ambos casos, los incendios fueron en bosques de pinos, con el pino marítimo (Pinus pinaster), en Serres, en la costa de A Coruña y en 2014, un año antes del estudio, y pino laricio (Pinus nigra) en el centro de Cataluña y en 1998, siete años anterior al estudio.

Los resultados son parecidos y, como en Yellowstone, cuanto más potente es el bosque original, mejor se recupera. Y, también, ayuda la presencia de pequeñas parcelas no quemadas como origen de semillas para repoblar. Solo en las zonas más secas aparecen áreas con arbustos o praderas. Para la recuperación de las zonas con buen bosque original no se necesita ninguna intervención.

Como nos cuentan William Bond y John Keeley, de las universidades de El Cabo, en Sudáfrica, y de California en Los Angeles, grandes áreas del mundo arden de manera regular y, por tanto, los ecosistemas se han incendiado durante cientos de millones de años. Hay evidencias de incendios de hace 420 millones de años, desde la aparición de las plantas terrestres. Así se ha construido el paisaje que conocemos y se mantienen la estructura y la función de esos ecosistemas, muy adaptados a los incendios periódicos. Por tanto, los incendios son una fuerza evolutiva de selección natural lo que implica que los bosques que ahora conocemos se han seleccionado y aguantan y se recuperan de los incendios porque así se han formado. Y el fuego estimula la regeneración con, por ejemplo, semillas que germinan estimuladas por el calor o por sustancias químicas emitidas por la madera quemada o, también, la floración acelerada por el fuego.

Después de revisar incendios y diversidad de plantas en todo el planeta, excepto la Antártida, y desde finales del siglo XX hasta inicios de XXI, Juli Pausas y Eloi Ribeiro, del CIDE-CSIC de Montcada, en Valencia, y del ISRIC de Wageningen, en Holanda, han recopilado casi 200 millones de citas. Sus resultados demuestran que la mayor diversidad de plantas se da con la mayor productividad y, también, con la actividad de incendios. Así, el fuego explica una proporción significativa de la diversidad de las plantas. En conclusión, el fuego aumenta la heterogeneidad del paisaje y crea nuevos nichos con oportunidades para una gran variedad de especies.

Paisaje un año después de un incendio en un bosque de pinos. Imagen: Wikimedia Commons

Las plantas adaptadas al fuego han seleccionado determinadas características que les benefician en caso de incendio. En las áreas con clima mediterráneo, como la propia cuenca del Mediterráneo, California, región de El Cabo en Sudáfrica y Chile, el grupo de Philip Rundel, de la Universidad de California en Los Angeles, han revisado el número de especies vegetales adaptadas al fuego. En el Mediterráneo abundan las plantas que rebrotan después del incendio; tienen germinación estimulada por el fuego, sea por el calor, o por el humo; y florecen estimuladas por el fuego. Para estas especies, el fuego ha sido un estímulo importante para la diversificación y aparición de nuevas especies.

Como resumen final sirve la publicación de Juli Pausas y Jon Keeley, del Centro de Investigación sobre Desertificación del CSIC en Valencia y del Servicio Geológico de Estados Unidos respectivamente, cuando escriben que no solo el clima y el suelo explican la distribución de las especies animales y vegetales en el planeta, también interviene el fuego. Desde hace mucho tiempo, unos 400 millones de años, impulsando la aparición de especies nuevas adaptadas a los incendios periódicos. Sin embargo, nuestra especie ha cambiado la relación entre el fuego y los seres vivos. Primero, Homo utilizó el fuego para adaptar el entorno a sus necesidades. Pero, y en segundo lugar, lo hace con tal intensidad y extensión que cambió muchos ecosistemas y pone en peligro la sostenibilidad.

Referencias:

Archibald, S. et al. 2018. Biological and geophysical feedbacks with fire in the Earth system. Environmental Research Letters 13: 033003.

Bond, W.J. & Keeley, J.E. 2005. Fire as a global “herbivore”: the ecology and evolution of flammable ecosystems. Trends in Ecology and Evolution 20: 387-394.

Bowman, D.M.J.S. et al. 2009. Fire in the Earth system. Science 324: 481-484.

Donato, D.C. et al. 2016. Regeneration of montane forests 24 years after the 1988 Yellowstone fires: A fire-catalyzed shift in lower treelines? Ecosphere 7: e01410

Pausas, J.G. & Keeley, J.E. 2009. A burning story: The role of fire in the history of life. BioScience 59: 593-601.

Pausas, J.G. & Ribeiro. E. 2017. Fire and plant diversity at the global scale. Global Ecology and Biogeography DOI: 10.1111/geb.12596

Rundel, P.W. et al. 2018. Fire and plant diversification in Mediterranean-climate regions. Frontiers in Plant Science 9: 851.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo La adaptación a los incendios forestales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Incendios, los grafos de visibilidad y la conjetura de Collatz
  2. “El bien común como adaptación” por Antonio Lafuente
  3. Las aves de Prometeo
Catégories: Zientzia

¿Existe el geoturismo?

sam, 2019/03/09 - 11:59

Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.

Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.

La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.

Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.

Asier Hilario, director científico del Geoparque de la Costa Vasca, se encarga de ahondar en la geología como recurso. Algunos de los principales destinos turísticos del mundo son pura geología, tienen millones de visitantes y aunque muchos no lo sepan, hay algo de esa geología que les interesa. Desde su experiencia, expone las principales claves y oportunidades del geoturismo para crear destinos de turismo innovadores y sostenibles que fomenten el disfrute y conocimiento de las ciencias de la Tierra.

Edición realizada por César Tomé López

El artículo ¿Existe el geoturismo? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Geología, ver más allá de lo que pisamos
  2. Patrimonio geológico: la otra mitad del ambiente
  3. Geología: la clave para saber de dónde venimos y hacia dónde vamos
Catégories: Zientzia

Proteómica: cuando las proteínas y la espectrometría de masas van de la mano

ven, 2019/03/08 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebrará dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Durante las próximas semanas en el Cuaderno de Cultura Científica y en Zientzia Kaiera se publicarán regularmente artículos que narren algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas. Comenzamos con la serie “Espectrometría de masas”, técnica analítica que supone el ejemplo perfecto del incesante avance de la Ciencia y la Tecnología.

La espectrometría de masas (MS) es una técnica habitual entre los químicos desde hace ya 100 años, pero no fue hasta hace 3 décadas que se empezó a utilizar como técnica de análisis de proteínas. Para analizar un analito mediante espectrometría de masas (MS) es necesario ionizar dicho analito y pasarlo a fase gaseosa. Durante mucho tiempo, la posibilidad de ionizar macromoléculas como las proteínas o fragmentos de proteínas, es decir péptidos, y pasarlos a fase gaseosa se consideraba una tarea tan posible como hacer volar a un elefante. Sin embargo, el desarrollo y comercialización de dos métodos de ionización a los que se denominó ionización “suave”, demostraron que era posible analizar macromoléculas del tamaño de las proteínas, tanto en disolución como en estado seco cristalino; éstos métodos de ionización se conocen hoy día como ionización electrospray (ESI) y ionización por desorción láser asistida por matriz, (matrix assisted laser desorption ionization) (MALDI). En ESI, se aplica un alto voltaje a la solución que contiene el analito a su paso por una fina aguja perforada. A medida que se va evaporando la solución con las moléculas cargadas, se va reduciendo el tamaño de las gotas, hasta conseguir que pasen a estado gaseoso. Por su parte, en MALDI se dispara con láser a una placa de acero en la que se ha secado el analito junto con una matriz. La matriz absorbe la energía del láser que a su vez se transfiere a la muestra, haciendo que cambie a estado gaseoso.

Pero, ¿por qué las proteínas? ¿a qué viene ese interés por analizarlas? La razón es que las proteínas son las moléculas fundamentales de todos los seres vivos. Las proteínas son las encargadas de realizar diversas tareas en nuestras células; entre otras, catalizan reacciones químicas, transportan moléculas, mantienen la estructura celular y nos protegen frente a los patógenos. Nuestro cuerpo está formado por trillones de células, y cada una de ellas cuenta con miles de proteínas diferentes. De hecho, dependiendo del catálogo o conjunto de proteínas que contenga un tipo de célula, llevará a cabo unas u otras funciones y tendrá unas u otras características. Todas las células de un ser vivo contienen la misma información genética, es decir, el genoma de todas sus células es idéntico. La información necesaria para producir cada proteína está escrita en los genes. Dicho de otro modo, los genes son las recetas que se siguen para crear las proteínas, y dependiendo de las recetas que se utilicen en cada momento, se producirán unas proteínas u otras. Se denomina proteoma a la colección de proteínas de las que dispone una célula en un momento concreto. A diferencia del genoma, el proteoma celular varía continuamente; en respuesta a cualquier estímulo que llegue a las células, o cuando deben hacer frente a cualquier ataque, es decir, con el fin de adaptarse al entorno, las células producirán diferentes proteínas que trabajarán conjuntamente. Esto explica cómo, contando ambas con el mismo genoma, una oruga se convierta en mariposa (Imagen 1).

Imagen 1. Papilio machaon oruga (a) y mariposa (b). Fuente: Wikimedia Commons.

Las proteínas, al igual que nosotros, tienen sus propias «redes sociales». Cumplen sus funciones interaccionando entre ellas más que individualmente. A pesar de ello, estas interacciones suelen ser, en la mayoría de los casos, temporales. Se crean y se destruyen según las necesidades celulares. Habiendo millones de proteínas en la células, la red de interacciones intracelulares es tan compleja como la que puede haber entre todas las personas del planeta. El funcionamiento de esa red de proteínas condicionará la salud de la célula y, en consecuencia, la de todo el organismo. Por eso es tan importante estudiar las proteínas y sus interacciones, es decir, los proteomas, e intentar interpretarlos en su conjunto. En consecuencia, uno de los retos fundamentales de la biología actual es describir los proteomas cualitativamente y cuantitativamente. Dicho objetivo parece alcanzable y pocos dudan del liderazgo que ha tomado la proteómica en este camino.

La proteómica estudia los proteomas. Fue en 1975 cuando por primera vez se separaron miles de proteínas de la bacteria Escherichia coli mediante electroforesis bidimensional en gel (2DE). Sin embargo, la identificación de dichas proteínas, concretar cuáles eran exactamente, constituía otro reto diferente. Para abordarlo, fue necesario, tanto desarrollar técnicas de secuenciación parcial, léase degradación de Edman, como ajustar la propia técnica de espectrometría de masas (MS) al análisis de proteínas. La MS es, a día de hoy, el método que se utiliza habitualmente para identificar proteínas. Para poder interpretar los proteomas en su conjunto, además de identificar las proteínas, hay que cuantificarlas. Los primeros pasos para la cuantificación de proteínas se dieron mediante el análisis de imágenes de los geles de 2DE. Si bien sigue siendo una técnica adecuada para el análisis proteómico, hoy en día ocupa un segundo lugar, muy por detrás de la proteómica basada en la espectrometría de masas (MS-based proteomics). De hecho, actualmente, la MS es el método habitual para identificar y cuantificar las proteínas en muestras proteicas complejas. Se ha convertido pues en una técnica fundamental para interpretar la información codificada en el genoma.

Tal y como se ha mencionado anteriormente, las técnicas habituales utilizadas para ionizar y evaporar proteínas y péptidos son ESI y MALDI. La técnica MALDI-MS se utiliza para analizar mezclas de péptidos relativamente simples. En cambio, los sistemas ESI-MS acoplados a la cromatografía líquida (LC-MS), son los más adecuados para el análisis de muestras complejas. Siendo los proteomas, por definición, complejos, las técnicas de LC-MS han prevalecido en la proteómica. La precisión, sensibilidad y resolución de masas, junto con su velocidad, son las claves del éxito de las técnicas de LC-MS. Durante los últimos años, se ha podido identificar, cuantificar y caracterizar un enorme número de proteomas mediante diferentes procedimientos de LC-MS. Entre los logros conseguidos a nivel de proteómica, cabe destacar dos borradores del proteoma humano publicados en 2014, y el actual Proyecto Proteoma Humano (HPP) dirigido por la Organización Mundial del Proteoma Humano (HUPO)

Pero, ¿qué es lo que hacemos exactamente en un laboratorio de proteómica? Sea cual sea la muestra recibida (muestra obtenida de una biopsia, células animales o vegetales, bacterias, secreción biológica…), habitualmente se aplica el flujo de trabajo denominado proteómica bottom-up o proteómica ascendente, de abajo hacia arriba (Imagen 2). En primer lugar, se extraen las proteínas de la muestra. A continuación, se utiliza una enzima que digiere las proteínas, habitualmente la tripsina, para trocear las proteínas en trozos pequeños denominados péptidos. Los péptidos de la mezcla se separan en la cromatografía líquida de fase inversa acoplada a la ionización por electrospray. A medida que los péptidos eluyen de la columna, se van ionizando y pasan al espectrómetro de masas. Allí, los iones de los péptido se van separando y detectando en función de su relación masa-carga (m/z). Los péptidos más abundantes se aíslan del resto, y se fragmentan, dando lugar a espectros de fragmentación. Estos espectros son los que contienen la información que permite identificar y cuantificar los péptidos. Finalmente, los datos obtenidos por el espectrómetro de masas se analizan mediante herramientas informáticas específicas. De esta manera, es posible saber qué proteínas hay en la muestra analizada y en qué cantidad.

Imagen 2. Proteómica bottom-up Fuente: Autores.

Durante la última década, la proteómica basada en la MS se ha convertido en una de las principales herramientas analíticas para las biociencias. Ha permitido estudiar las proteínas desde diversas vertientes, y ha facilitado el camino para conocer sus estructuras, variaciones, cantidades, modificaciones postraduccionales e interacciones. Además, gracias a la proteómica nos encontramos más cerca de identificar las proteínas implicadas en el desarrollo de diversas enfermedades y los biomarcadores necesarios para el diagnóstico de las mismas. Durante los próximos años, se irán completando los catálogos proteicos de diferentes condiciones celulares. Junto a los resultados obtenidos a partir de la genómica, epigenómica, metabolómica y otras «ómicas» a gran escala, los descubrimientos obtenidos gracias a la proteómica contribuirán a la construcción de modelos celulares. De hecho, esa es la tendencia actual: trabajar desde un punto de vista multidisciplinar con el fin de construir modelos matemáticos y estadísticos que ayuden a aclarar la complejidad de los procesos biológicos; y es precisamente ahí donde la proteómica jugará un papel relevante.

Más información

  • Fenn JB (2003) “Electrospray wings for molecular elephants (Nobel lecture)” Angew Chem Int Ed Engl. 42(33), 3871-94. DOI:10.1002/anie.200300605
  • Fenn JB et al. (1989) “Electrospray ionization for mass spectrometry of large biomolecules” Science 246(4926), 64-71. DOI: 10.1126/science.2675315
  • Tanaka K et al. (1988) “Protein and polymer analyses up to m/z 100 000 by laser ionization time-of-flight mass spectrometry” Rapid Communications in Mass Spectrometry 2(8), 151–153. DOI:10.1002/rcm.1290020802
  • Karas M and Hillenkamp F (1988) “Laser desorption ionization of proteins with molecular masses exceeding 10,000 daltons” Anal Chem. 60(20), 2299-301. DOI: 10.1021/ac00171a028
  • O’Farrell (1975) “High resolution two-dimensional electrophoresis of proteins” J Biol Chem 250(10), 4007-21.
  • Kim MS et al. (2014) “A draft map of the human proteome” Nature 509(7502), 575-81. DOI: 10.1038/nature13302
  • Wilhelm M et al. (2014) “Mass-spectrometry-based draft of the human proteome” Nature 509(7502), 582-7. DOI: 10.1038/nature13319
  • HUPO: https://hupo.org/human-proteome-project

Sobre los autores: Miren Josu Omaetxebarria, Nerea Osinalde, Jesusmari Arizmendi y Jabi Beaskoetxea, miembros del departamento de Bioquímica y Biología Molecular, y Kerman Aloria, técnico de SGIker.

El artículo Proteómica: cuando las proteínas y la espectrometría de masas van de la mano se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cartografiando territorio inexplorado: imagen por espectrometría de masas
  2. Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
  3. A new hero is born: La espectrometría de masas al servicio de la justicia
Catégories: Zientzia

El orden es una fantasía

jeu, 2019/03/07 - 11:59
Damian Ucieda Cortes. Demolition, Glasgow, Reino Unido, 2015

Uno de los cometidos más sofisticados de las ciencias es mostrar el conocimiento de forma elegante. Pensemos en las fórmulas matemáticas que describen las leyes físicas. En los modelos de moléculas y cristales. En el enunciado de hipótesis. Con qué precisión del lenguaje y con qué precisión plástica describimos cómo es lo que nos rodea. Con qué elegancia.

Para muchos, entre los que me incluyo, el paradigma de todo esto es la Tabla Periódica de los Elementos.

A lo largo de la historia se han sucedido varios intentos de ordenar los elementos químicos. Una vez tuvimos la certeza de que algunas sustancias eran elementos químicos, es decir, que estaban formadas por un solo tipo de átomos; comenzamos a ordenarlos de acuerdo con sus propiedades: peso atómico, tipo y número de elementos con los que enlaza, estado natural… Teníamos la intuición y el deseo de que los elementos que lo conforman todo, el aire, la piel, la arena, todo, respondiesen a un orden mayor, como si este orden nos hubiese venido dado.

Hubo intentos bellísimos, como el del tornillo telúrico. Para ello se construyó una hélice de papel en la que estaban ordenados por pesos atómicos los elementos químicos conocidos, enrollada sobre un cilindro vertical, y al hacer coincidir elementos químicos similares sobre la misma generatriz se apreciaba que el resto de las generatrices surgidas también mostraban relación entre los elementos químicos unidos, lo que claramente indicaba una cierta periodicidad. Era tan bonito que era una pena que no fuese cierto. El tornillo telúrico no funcionaba con todos los elementos químicos, solo servía para los más ligeros.

Hubo otro intento especialmente refinado de ordenar los elementos químicos que tenía relación con la música. Qué fabulosa la relación entre la música y la química. Al ordenar los elementos de acuerdo con su peso atómico creciente -exceptuando el hidrógeno y los gases nobles, que todavía no se conocían- el que quedaba en octavo lugar tenía unas propiedades muy similares al primero. Se le llamó ley de las octavas. Era bonito ver tal relación entre la naturaleza de los elementos químicos y la escala de las notas musicales. Lamentablemente la ley de las octavas empezaba a fallar a partir del elemento calcio. Con lo bonita que era. Una lástima.

Cuando ya se conocían 63 elementos químicos -en la actualidad conocemos 118- se ordenaron en grupos de acuerdo con sus propiedades químicas. Y dentro del grupo, se organizaron por peso atómico creciente. Quien lo hizo por primera vez, hace 150 años, tuvo la osadía de corregir algunos pesos atómicos que hacían peligrar la estética de aquella tabla. Dejó huecos para elementos que, según él, se descubrirían en el futuro. Y es que la tabla, ante todo, tenía que ser bonita, porque la realidad es bonita y tiene que responder a algún orden. Qué locura si no. Pues la tabla de los elementos químicos también.

Aquella tabla fue el origen de la actual Tabla Periódica de los Elementos. Con el tiempo, efectivamente descubrimos más elementos químicos. Rellenamos los huecos, tal y como era de esperar. Y hasta descubrimos que aquel orden no respondía a pesos atómicos crecientes, o al menos no siempre, y de ahí los cambios propuestos. Aquel orden respondía al número de protones que cada elemento químico contiene en su núcleo. Lo llamamos número atómico, pero hace 150 años no se sabía nada de esto. Era bonito, era ordenado, era elegante. Tenía que ser verdad.

En las ciencias, y en cualquier otra forma de conocimiento, la belleza es criterio de verdad. Las leyes físicas que conseguimos expresar con fórmulas matemáticas, cuanto más bellas, más ciertas. Cuanto más y mejor comprimamos su verdad en estilosos caracteres del alfabeto griego, más ciertas. Nos brindan esa sensación tan placentera de tenerlo todo bajo control. Nos hacen creer que, si está ordenado, es que lo hemos entendido.

Las ciencias describen la realidad. Lo hacen a su manera, con su lenguaje propio. El de los números, las palabras, las ilustraciones. Esa descripción nos satisface cuando es lo suficientemente elegante. Podríamos tener un conjunto de 118 elementos químicos de los que conocer absolutamente todo, de forma individual, y no haberlos ordenado jamás. Y sabríamos lo mismo, pero nos daría la impresión de que, sin orden, los datos son solo datos. No hay conocimiento sin orden.

El orden es una fantasía. Esto puede interpretarse de dos formas de fácil convivencia. Es una fantasía porque es una ilusión. La realidad es un caos y somos nosotros con nuestras leyes y nuestras tablas los que creamos la ficción de orden. Es un deseo. Y es una fantasía porque es bonito. Porque así entendemos la belleza. Por eso el orden es un deseo de belleza autocumplido.

Los grandes hitos del conocimiento, entre ellos la Tabla Periódica de los Elementos, tienen algo en común: nos hablan de nosotros. Todos ellos revelan la pasta de la que estamos hechos.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo El orden es una fantasía se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los cuantificadores se aprenden en el mismo orden, sea cual sea la lengua
  2. Los 880 cuadrados mágicos de orden 4 de Frénicle
  3. #Naukas15 Fantasía en la divulgación: una estrella para Cervantes
Catégories: Zientzia

Personas famosas que estudiaron matemáticas: música y deporte

mer, 2019/03/06 - 11:59

En mi anterior entrada de la sección Matemoción del Cuaderno de Cultura Científica estuvimos hablando de personas que han sido famosas en diferentes ámbitos de la sociedad y la cultura, en concreto, nos centramos en el mundo de la literatura y el cine, pero que se graduaron en matemáticas, e incluso realizaron un doctorado, Personas famosas que estudiaron matemáticas: literatura y cine. En esta entrada vamos a continuar mostrando ejemplos de otros dos ámbitos de la sociedad muy alejados el uno del otro, y a priori también del mundo de las matemáticas, como son la música y el deporte.

Efectivamente, dentro de la música también nos encontramos personas que sorprendentemente están relacionadas con las matemáticas. Uno de los más conocidos es el músico estadounidense Art Garfunkel, del famoso dúo musical Simon and Garfunkel, que fueron muy populares en la década de 1960. Algunas de sus canciones más conocidas son The sound of silence (el sonido del silencio), Mrs Robinson (Señora Robinson) o Bridge over troubled water (Puente sobre aguas turbulentas). Simon y Garfunkel empezaron a cantar juntos en 1955, bajo el nombre de Tom y Jerry (como los dibujos animados), pero fue en 1963 cuando inician el dúo Simon and Garfunkel, con el que estuvieron en activo hasta su separación en 1970, aunque se volverían a reunir para conciertos puntuales en varias ocasiones.

Fotografía de Simon and Garfunkel en un concierto en Rotterdam (Holanda) en 1982, realizada por Rob Bogaerts, de la Agencia de Fotografía ANEFO. Imagen de Wikimedia Commons

Arthur (Art) Garfunkel (Nueva York, 1941) estudió en la Universidad de Columbia. Se graduó en Historia del Arte y obtuvo el master en Matemáticas, en 1967. Empezó a realizar su tesis doctoral sobre enseñanza de las matemáticas, pero la música le desvió de ese camino. Tras la ruptura del dúo, en 1970, Garfunkel además de intentar iniciar su carrera en solitario en la música, estuvo dando clase de geometría en un instituto de secundaria en Connecticut durante dos años. Fue una pequeña laguna docente en su larga vida profesional, en la que compaginaría su trabajo como cantante, actor y poeta. En algunas entrevistas habla de ese corto período como docente de geometría, como un momento “extraño”, ya que había alcanzado un enorme éxito en el mundo de la música, con Simon and Garfunkel, y ahora enseñaba matemáticas en un instituto. Por ejemplo, comenta “Yo intentaba explicarles un problema de matemáticas y cuando les decía si tenían alguna pregunta, ellos me preguntaban cómo eran los Beatles”.

Pero vayamos a un cantante más actual, el músico inglés Jon Buckland¸ guitarrista y fundador del grupo Coldplay, conocido por álbumes como Parachutes (2000), A Rush of Blood to the Head (2002), X&Y (2005) o Viva la Vida or Death and all his Friends (2008).

Jon Buckland (Londres, 1977) estudió astronomía y matemáticas en el University College de Londres, allí conoció al otro miembro de la banda Chris Martin, quien estudiaba Cultura Antigua, se hicieron amigos y juntos montarían la banda Coldplay. Algunos títulos de la banda hacen referencia a las matemáticas, como Twisted Logic, Square One, Proof, Major Minus y 42.

Jonny Buckland, en el concerto de Coldplay en el Fuji Rock Festival (2011), en Niigata (Japan). Fotografía de Christopher Johnson, en Wikimedia Commons, originalmente en Flickr

Otro de los músicos muy conocidos relacionados con las matemáticas, aunque más con la astrofísica, es el músico británico Brian May, guitarrista y compositor de la banda de rock QUEEN. Algunas de las grandes canciones de esta mítica banda están firmadas por Brian May, como “Now I’m Here”, “We Will Rock You”, “Fat Bottomed Girls”, “Save Me”, “Flash”, “Hammer to Fall”, “Who Wants to Live Forever”, “I Want It All”, “The Show Must Go On”, “Headlong”, “Too Much Love Will Kill You” o “No-One but You (Only the Good Die Young)”.

Brian May, junto a Freddy Mercury y John Deacon, en el concierto de New Heaven de noviembre de 1977. Fotografía de Carl Lender, en Wikimedia Commons, originalmente en Flickr

Brian H. May (Londres, 1947) estudió matemáticas y física en el Imperial College de Londres, graduándose en física en 1968. Empezó su tesis doctoral en astrofísica en 1971 (realizó sus primeras observaciones del espacio, para su tesis, en el observatorio del Teide en Tenerife), pero la música se cruzó en su camino y abandonó su carrera científica. Aunque no de forma definitiva, ya que la retomaría treinta años más tarde, terminando su tesis doctoral en 2007.

Participó en varias ocasiones en el programa de televisión The Sky at Night, presentado por Sir Patrick Moore, con quien ha publicado un libro de astronomía en 2012, Bang! The complete history of the Universe.

Seguimos añadiendo personajes dentro del mundo de la música. El compositor minimalista estadounidense Philip Glass, quien ha compuesto más de 20 óperas, entre ellas La Bella y la Bestia (1994), Einstein on the Beach (1976), en la cual los números son muy importantes, solo se cantan en ella números y nombres de notas musicales, o sus óperas Galileo Galilei (2002) y Kepler (2009), un montón de bandas sonoras de películas, entre ellas Kundun (1997), de Martin Scorsese, El show de Truman (1998), de Peter Weir, Las horas (2002), de Stephen Daldry o El ilusionista (2006), de Neil Burger, así como muchos otros álbumes, por ejemplo, de composiciones para piano, entre otras. Su música se enmarca dentro del estilo de música New Age.

Philip Glass, en cuatro momentos, durante un concierto en Aarhus (Dinamarca), en 2017. Fotografía de Hreinn Gudlaugsson, en Wikimedia Commons

Con 15 años, Philip Glass (Baltimore, Maryland, 1937) empezó a estudiar matemáticas y filosofía en la Universidad de Chicago, y se graduó a los 19 años. En una entrevista sobre la ópera Einstein on the Beach a Philip Glass, quien compuso la música y el texto, y a Robert Wilson, director y productor de la ópera, este contó que cuando se conocieron le preguntó a Philip Glass como componía y este le puso un ejemplo de una fórmula matemática. Y es que las matemáticas son importantes en la obra de Philip Glass, puesto que suele utilizar estructuras matemáticas para componer algunas de ellas.

La cantante estadounidense Barbara Hendricks, soprano lírica y también cantante de jazz, que en los últimos 20 años es también conocida por su activismo por los derechos humanos, se graduó en matemáticas y en química en la Universidad de Nebraska-Lincoln. Cuando en 2009 estuvo en Bilbao, en una entrevista afirmó lo siguiente:

Las matemáticas sirven para todo en la vida, ya que te enseñan a razonar, a resolver problemas. Pero sobre todo me han dado disciplina para mí misma, una disciplina que no es para nada opresiva, sino que me facilita ser libre”.

Fotografía, realizada por Anders Henrikson, de Barbara Hendricks en un concierto en Estocolmo (Suecia), en 2014. Imagen de Wikimedia Commons

Una opinión diferente de las matemáticas tiene la cantante británica ESKA. Nacida en Londres (1971), pero cuya familia procedía de Zimbabue, Eska Mtungwazi estudió el grado de matemáticas en la prestigiosa London School of Economics. En esa época ya empezó a adentrarse en el mundo de la música, pero la presión por tener una carreara más convencional la llevó a empezar un master en matemáticas y estadística, después en enseñanza de las matemáticas, antes de empezar a trabajar como maestra de educación primaria.

Ella les da poca importancia a sus estudios de matemáticas. En una entrevista en la Revista Yorokobu afirma:

La educación superior no tiene por qué ser ilustradora, esa educación sirve si ayuda a la persona a seguir interesada en aprender. Yo estoy agradecida a mis padres por haberme facilitado esa educación superior, eso lo llevo conmigo, pero, claro, ¿hasta qué punto tiene esto que ver con lo que estoy haciendo ahora?”.

Portada del álbum ESKA (2015), de la cantante británica ESKA

El compositor y letrista estadounidense Stephen Sondheim, conocido y premiado, en particular, por sus contribuciones al género del musical, aunque no posee un título en matemáticas, si está muy relacionado con esta ciencia. Stephen Sondheim ha recibido un Oscar de la Academia (por la canción Sooner or Later de la película Dick Tracy, interpretada por Madonna), 8 premios Tony de teatro (por musicales como A Funny Thing Happened on the Way to the Forum, Companies, Follies, A Little Night Music o Sweeney Todd, y uno a toda su carrera), 8 premios Grammy de la academia de la música, un Pulitzer (por el drama Sunday in the Park with George), y muchos premios más.

Fotografía de Stephen Sondheim de alrededor de 1970 y cartel de la obra musical Sweeney Todd, el barbero diabólico de la calle Fleet, de la producción del National Youth Music Theatre, en el Teatro Rose de Kingston, Nueva York, en 2011. Imágenes de Wikimedia Commons

Las matemáticas, así como los problemas y juegos de ingenio, fueron su primera pasión en su juventud, antes que la música, aunque ya tocaba el piano desde niño, y la literatura.

Stephen Sondheim empezó a estudiar el grado de matemáticas en el Williams College, de Williamson, Massachusetts, pero pronto empezó a interesarse solo por la música a raíz de un curso de música del primer cuatrimestre en el que se había matriculado y abandonó las matemáticas. En una entrevista sobre esos años afirma “Yo era matemático por naturaleza, y aún lo soy, pero sabía que no quería ser matemático”. Aunque en otra entrevista afirma en relación a las matemáticas, quizás por esa parte natural matemática que llevaba dentro, “me habría encantado trabajar en el teorema de Fermat”.

Y existen muchos más ejemplos, como el trompetista estadounidense de los años 1950, Clifford Brown, quien se graduó en matemáticas en el Delaware State College y en música en el Maryland State College; el músico canadiense Dan Snaith, cuyos nombres artísticos son Caribou, Manitoba o Daphni, realizó su tesis doctoral (cuyo título era Overconvergent Siegel Modular Symbols) sobre temas de álgebra, bajo la dirección del matemático Kevin Buzzard, en el Imperial College de Londres; el guitarra y vocalista del grupo de punk californiano Angry Samoans, Greg Turner, se graduó en matemáticas Claremont Graduate University e imparte clases de matemáticas en la New Mexico Highlands University; o el cantante y compositor, Phil Alvin, de la banda de rock and roll formada en 1978 en California, The Blasters, obtuvo su grado de master en matemáticas e inteligencia artificial en la California State University, en Long Beach, y después realizó su tesis doctoral en UCLA, donde también impartió clases de matemáticas. Incluso, hubo quien empezó, pero se quedó en el camino, como la cantante Carole King, que realizó solo un año de matemáticas.

La cantante Carole King interpretando la canción “(You Make Me Feel Like) A Natural Woman” en el Madison Square Garden de Nueva York. Fotografía de Jonathan Schilling, en Wikimedia Commons

Para terminar con la música me gustaría añadir a la pionera de la música electrónica Delia Derbyshire. La música y compositora británica Ann Delia Derbyshire (1937-2001) obtuvo una beca para estudiar matemáticas en el Girton College de la Universidad de Cambridge, y finalmente se graduaría en matemáticas y música. Y salvo tres meses dando clases de matemáticas y música para el cónsul general británico en Ginebra, no volvería a tener relación con el mundo académico matemático.

Sin embargo, su relación con las matemáticas no termina ahí, ya que estas eran fundamentales para la composición de sus obras, como ella misma afirmaba en una de las pocas entrevistas que concedió. Por ejemplo, utilizó la sucesión de Fibonacci 1, 1, 2, 3, 5, 8, 13, 21, 34, … para la creación de sus composiciones (para información sobre esta sucesión pueden leerse las entradas Póngame media docena de fibonaccis o El origen poético de la sucesión de Fibonacci, entre otras).

La música y compositora Delia Derbyshire. Imagen de la página web Mujeres y música

También nos encontramos en este grupo de personas relacionadas con las matemáticas a algunos deportistas.

Empecemos con un ejemplo curioso, ya que fue una persona conocida tanto dentro del fútbol, como de las matemáticas, es el danés Harald Bohr (1887-1951), hermano del premio Nobel de Física, Niels Bohr.

Harald Bohr estudió matemáticas en la Universidad de Copenhague, donde se licenció en 1909 y obtuvo su doctorado un año más tarde. Su área de trabajo fue el Análisis Matemático. Empezó estudiando, para su tesis doctoral, la conocida serie de Dirichlet, luego en colaboración con el matemático alemán Edmund Landau obtuvo el conocido como teorema de Bohr-Landau y fundó, junto con el matemático inglés G. H. Hardy, el campo de las funciones casi periódicas. Entre 1915 y 1930 fue profesor en Universidad Tecnológica de Dinamarca y después catedrático en la Universidad de Copenhague, durante 21 años, hasta su muerte.

Fotografía de la asistencia al International Congress of Mathematicians de Zurich en 1932, entre la que se encuentra Harald Bohr (rodeado en azul). Imagen de Wikimedia Commons

Pero resulta que además de un buen matemático, fue un buen jugador de fútbol. En 1903, con dieciséis años, debutó en el club Akademisk Boldklub, del norte de Copenhague. En 1908 fue seleccionado para jugar con la selección danesa de fútbol en los Juegos Olímpicos de Londres, donde obtuvieron la medalla de plata. Volvería a jugar con la selección danesa en 1910 contra Inglaterra. Se convirtió en una celebridad como jugador de fútbol, hasta el punto de que cuando defendió su tesis doctoral dentro del público asistente a la misma había más fans de fútbol que personas del ámbito de las matemáticas.

Fotografía del equipo danés de fútbol que compitió en los Juegos Olímpicos de Londres en 1908. El matemático Harald Bohr es el segundo, empezando por la izquierda, de la fila superior. Imagen de Wikimedia Commons

El jugador inglés de fútbol Glen Johnson (Greenwich, Londres, 1984), quien jugó, entre los años 2002 y 2019, en seis clubs ingleses distintos, entre ellos el Chelsea y el Liverpool, y fue internacional en 54 partidos, entre ellos, los mundiales de Sudáfrica (2010) y Brasil (2014), empezó en 2012, en paralelo a su carrera en el fútbol, a estudiar el grado de matemáticas en la Open University, la universidad a distancia.

Fotografía del jugador inglés Glen Johnson en 2011, cuando jugaba con el Liverpool. Imagen de Badudoy en Wikimedia Commons

El exfutbolista camerunés, nacionalizado francés, Jean-Alain Boumsong (Douala, Camerún, 1979), que jugó en diferentes clubes europeos, como el francés Le Havre, el Glasgow Rangers escocés, el Newcastle United inglés, la Juventus de Turín, el Olympique de Lyon, y el Panathinaikos, así como en la selección francesa, se graduó en matemáticas por la Universidad de Le Havre.

Casi podríamos decir que también se graduó en matemáticas el mítico jugador de baloncesto de la NBA Michael Jordan (Nueva York, 1963), jugador de los Chicago Bulls, quizás el mejor jugador de baloncesto de la NBA de la historia, ya que empezó el grado de matemáticas, pero lo abandonó en su penúltimo año. Aunque sí terminó sus estudios de matemáticas el también jugador de baloncesto de la NBA David Robinson, apodado “el almirante”, que jugó durante 14 temporadas en los San Antonio Spurs. Al terminar del instituto, David Robinson ingresó en la Academia Naval de Estados Unidos, donde se graduó en matemáticas.

Fotografía de uno de los míticos mates del jugador de Baloncesto de la NBA, de los Chicago Bulls, Michael Jordan

Un jugador de baloncesto español que también es matemático es el alicantino Sergio Olmos (Elda, 1986). En un curso de verano Xpheres College, para profesionales del Baloncesto, Sergio Olmos se presentaba como “el matemático más alto del mundo” y es que este jugador de baloncesto, de 2,13 metros de altura, se graduó en matemáticas en la Universidad de Temple en Philadelphia, a donde se marchó con 17 años para continuar su carrera dentro del baloncesto. Después de los cuatro años jugando a baloncesto en la Universidad de Temple, y estudiando matemáticas, continuó su carrera de baloncesto en España, jugando en diferentes clubs, como el Valencia Basket, el Club Basquet Coruña o la Fundación Club Baloncesto Granada, en el que juega en la actualidad. Sin embargo, no abandonaría su carrera académica. Interesado por la estadística se graduó en Ciencias Económicas y Matemáticas en la británica Open University y realizó Máster de Bioestadística y Bioinformática de la Universitat de Barcelona. La empresa de bioestadística y estadística aplicada Biostatech, le incluye en su página web como uno de sus colaboradores. Y recientemente ha empezado a escribir un blog sobre matemáticas llamado Mínimos cuadrados.

El jugador de Baloncesto Sergio Olmos, hacia el año 2016, jugando en el Club Basquet Coruña

El jugador de fútbol americano John Urschel que jugó en la NFL en los Baltimore Ravens, durante tres temporadas hasta que se retiró en 2017. Por otra parte, se graduó en matemáticas en la Universidad Estatal de Pensilvania (Penn State University) en 2012, y obtuvo el grado de master en 2013. En 2014 entró como profesor adjunto en esa misma universidad, donde continúa trabajando y en 2016 empezó a realizar su tesis doctoral en el MIT (Instituto Tecnológico de Massachusetts), sobre teoría de grafos espectral, álgebra lineal numérica y machine learning (aprendizaje automático).

Su primer artículo fue “Inestabilidades en el problema de los tres cuerpos de Sol-Jupiter-Asteroide” publicado en 2013 en la revista Celestial Mechanics and Dynamical Astronomy. Ha día de hoy, ya tiene 11 artículos publicados en revistas de investigación. Tiene número de Erdös 4. Recordemos que el número de Erdös es la distancia, en co-autoría de artículos de investigación matemática entre una persona que investiga en esta ciencia y el matemático húngaro Paul Erdös (1913-1996), así él mismo tiene número de Erdös 0, alguien que ha publicado un artículo con Erdös tiene número de Erdös 1, quien ha publicado con una persona con número de Erdös 1, tiene número de Erdös 2, y así se continúa (para más información El número de Erdös-Bacon-Sabbath).

Fotografías de John Urschel, una como jugador de futbol americano en los Baltimore Ravens en 2015 (fotografía de Jeffrey Beall en Wikimedia Commons) y la otra frente a una pizarra en la Tufts University en 2018 (fotografía del propio John Urschel, en Wikimedia Commons)

Aunque no es el único jugador de fútbol americano con un grado en matemáticas. Por ejemplo, el jugador de los New York Giants y los Carolina Panthers, y en la actualidad entrenador de este último equipo, Chase Blackburn (Ohio, 1983), se graduó en matemáticas en la Universidad de Akron, en Ohio. O el jugador de las décadas de 1950 y 1960, Frank Ryan (Texas, 1936), que jugó en los equipos Los Ángeles Rams, Cleveland Browns o Washington Redskins, no solo es doctor en matemáticas por la Universidad de Rice (el título de su tesis doctoral es “A Characterization of the Set of Asymptotic Values of a Function Holomorphic in the Unit Disc”), sino que continuó su carrera como profesor e investigador en matemáticas, y tiene número de Erdös igual a 3.

Terminamos con otro deporte, como es el tenis. La tenista británica Virginia Wade, que ganó el torneo abierto de EEUU en 1968, el abierto de Australia en 1972 y el torneo de Wimbledon en 1977, estudió matemáticas y física en la Universidad de Sussex.

Fotografía de Virginia Wade jugando al tenis. Imagen de la página web de la BBC

Estos no son todos los ejemplos que existen, pero es una buena muestra.

Bibliografía

1.- Entrada en la Wikipedia sobre Art Garfunkel

2.- Página web de Art Garfunkel

3.- Entrada en la Wikipedia sobre Jon Buckland

4.- Entrada en la Wikipedia sobre Brian May

5.- Página web de Philip Glass

6.- Entrada en la Wikipedia de Philip Glass

7.- Marta Macho, Barbara Hendricks y las matemáticas, Mujeres con ciencia, 2014.

8.- Página web de ESKA

9.- Entrada en la Wikipedia de Delia Derbyshire

10.- Página web de Delia Derbyshire

11.- Entrada en la Wikipedia de Harald Bohr

12.- Entrada en la Wikipedia de Glen Johnson

13.- Entrada en la Wikipedia de Jean-Alain Boumsong

14.- Entrada en la Wikipedia de Michael Jordan

15.- Entrada en la Wikipedia de John Urschel

16.- Entrada en la Wikipedia de Sergio Olmos

17.- Entrada en la Wikipedia de Virginia Wade

18.- David Richeson, Look who majored in mathematics, blog Division by zero, 2009.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Personas famosas que estudiaron matemáticas: música y deporte se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Personas famosas que estudiaron matemáticas: literatura y cine
  2. Con ‘n’, música ‘casi’ infinita
  3. Las dos culturas de las matemáticas: construir teorías o resolver problemas
Catégories: Zientzia

La velocidad finita de la luz

mar, 2019/03/05 - 11:59
Ío con Júpiter de fondo. Fuente: NASA

Dado que podemos considerar que la luz viaja en línea recta, ¿podemos decir a qué velocidad lo hace? Galileo abordó este problema en sus Discorsi e Dimostrazioni Matematiche Intorno a Due Nuove Scienze, publicado en 1638. Señaló que las experiencias cotidianas podrían llevarnos a concluir que la luz se propaga instantáneamente. Pero que estas experiencias, cuando se analizan más de cerca, solo muestran que la luz viaja mucho más rápido que el sonido. Por ejemplo, “cuando vemos disparar una pieza de artillería a gran distancia el destello llega a nuestros ojos sin que transcurra tiempo; pero el sonido llega al oído solo después de un intervalo perceptible”.

Pero, ¿cómo sabemos realmente si la luz se movió “sin que transcurra tiempo” a menos que tengamos alguna forma precisa de medir el lapso de tiempo? Galileo continúa describiendo un experimento mediante el cual dos personas que se encontrasen en colinas distantes y usando linternas podrían medir la velocidad de la luz. Concluyó que la velocidad de la luz era probablemente finita, no infinita. Galileo, sin embargo, no estima un valor definido concreto.

Las pruebas experimentales se relacionaron con éxito por primera vez con una velocidad finita para la luz por un astrónomo danés, Ole Rømer. Las observaciones detalladas de los satélites de Júpiter habían mostrado una irregularidad inexplicable en los tiempos registrados entre los eclipses sucesivos de los satélites por el planeta. Se esperaba que un eclipse del satélite Ío ocurriera exactamente 45 s después de las 5:25 de la mañana del 9 de noviembre de 1676 (calendario juliano). En septiembre de ese año, Rømer anunció a la Academia de Ciencias de París que el eclipse observado llegaría 10 minutos tarde. El 9 de noviembre, los astrónomos del Observatorio Real de París estudiaron cuidadosamente el eclipse. Aunque escépticos, informaron que el eclipse ocurrió tarde, tal como lo había previsto Rømer.

Ilustración empleada por Rømer en su informe Demonstration tovchant le mouvement de la lumiere trouvé par M. Römer de l’ Academie Royale des Sciences, fechado el 7 de diciembre de 1676. A: Sol; B: Júpiter; DC: Ío

Más tarde, Rømer reveló la base teórica de su predicción a los desconcertados astrónomos en la Academia de Ciencias. Explicó que el tiempo originalmente esperado del eclipse se había calculado a partir de observaciones hechas cuando Júpiter estaba cerca de la Tierra. Pero ahora Júpiter se estaba más lejos. El retraso en el eclipse ocurrió simplemente porque la luz procedente de las inmediaciones de Júpiter, donde ocurría el eclipse, necesita un tiempo para llegar a la Tierra. Obviamente, este intervalo de tiempo debe ser mayor cuando la distancia relativa entre Júpiter y la Tierra en sus órbitas es mayor. De hecho, Rømer estimaba que la luz necesita alrededor de 22 minutos para cruzar la propia órbita de la Tierra alrededor del Sol.

Poco después, el físico holandés Christian Huygens utilizó los datos de Rømer para realizar el primer cálculo de la velocidad de la luz. Huygens combinó el valor de Rømer de 22 minutos para que la luz cruzara la órbita de la Tierra con su propia estimación del diámetro de la órbita de la Tierra. Huygens obtuvo un valor para la velocidad de la luz en el espacio que, en unidades modernas, es de aproximadamente 200.000 km/s. Esto es, aproximadamente dos tercios del valor actualmente aceptado. El error en el valor de Huygens se debió principalmente a que Rømer sobrestimó el intervalo de tiempo. Ahora sabemos que la luz solo necesita unos 16 minutos para cruzar la órbita de la Tierra.

La velocidad de la luz se ha medido de muchas maneras diferentes desde el siglo XVII. El desarrollo de dispositivos electrónicos en el siglo XX permitió mediciones muy precisas, haciendo de la velocidad de la luz una de las constantes físicas medidas con mayor precisión. Debido a la importancia del valor de la velocidad de la luz en las teorías físicas modernas*, en la actualidad su valor no se mide, sino que está definido a consecuencia de la definición de metro y es, exactamente, de 299,792,458 metros por segundo. La velocidad de la luz suele estar representada por el símbolo c.

Nota:

* Sobre esto puedes leer La velocidad de las ondas electromagnéticas y la naturaleza de la luz de la serie Electromagnetismo y El principio de constancia de la velocidad de la luz de la serie Teoría de la invariancia

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo La velocidad finita de la luz se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El principio de constancia de la velocidad de la luz
  2. La velocidad de las ondas electromagnéticas y la naturaleza de la luz
  3. La relatividad del tiempo (y 3)
Catégories: Zientzia

¿Por qué son tan grandes las ballenas?

lun, 2019/03/04 - 11:59
Escultura metálica de “Bluebelle”, una ballena azul capturada en el Atlántico sur en 1912, expuesta en la ribera del Sena durante la Cumbre del Clima de París en 2015. Fuente: Bluebird Marine Systems

Como miembro de una especie que habitualmente se cree el centro del universo, considero personalmente muy importante recibir de vez en cuando una bofetada de humildad ecológica. Una cosa que nunca falla, son las ballenas. Pensar en esos enormes mamíferos viviendo (o, bueno, sobreviviendo) en la inmensidad del océano siempre me recuerda lo insignificante que soy.

Y sin embargo, no tenía ni idea hasta hace poco de cómo las ballenas se hicieron tan grandes, ni por qué. Ni siquiera me lo había preguntado hasta que me topé con la respuesta. Por eso yo soy periodista científica, y no científica, supongo. No me hago las preguntas, pero me encanta contar las respuestas. Aquí voy con esta respuesta, por si ustedes tampoco la conocen.

¿Cuándo se hicieron enormes las ballenas?

No tenemos del todo claro cómo las ballenas se hicieron tan enormes, si les tengo que ser sincera, aunque es un debate abierto desde hace tiempo. En 2010, Graham Slater, biólogo evolucionista de la Universidad de Chicago, propuso una hipótesis según la cual los cetáceos (ballenas y delfines) se dividieron en grupos de distintos tamaños muy pronto en su evolución, hace aproximadamente 30 millones de años. En ese momento, los delfines quedaron como los más pequeños de la familia, las ballenas barbudas se convirtieron en gigantes y los zifios evolucionaron a un tamaño intermedio. Los tres grupos y sus descendientes se han mantenido más o menos estables en esos rangos de tiempo.

No todo el mundo está de acuerdo con esta teoría. Nicholas Pyenson, del Museo de Historia Natural perteneciente al Smithsonian, en Washington, decidió utilizar la enorme colección de fósiles del museo para aclarar las dudas. Tras determinar que el tamaño total de una ballena se puede inferir del tamaño de los huesos de su mandíbula, midió o obtuvo ese dato de los cráneos de 63 especies de ballena ya extinta, además de 13 especies actuales, y las fue colocando en una línea temporal que mostrase la evolución del árbol familiar de las ballenas.

Los datos obtenidos demostraban que las ballenas no aumentaron de tamaño tan pronto como Slater había sugerido en un principio, y también que no fue algo progresivo en el tiempo, sino que se habían vuelto moderadamente grandes y se habían mantenido así durante millones de años hasta hace unos 4,5 millones de años, según un estudio que publicaron después conjuntamente Pyenson, Slater y Jeremy Goldberg, de la Universidad de Stanford en Palo Alto.

En ese momento pasaron de relativamente grandes a gigantescas. La ballena azul que conocemos a día de hoy mide hasta 30 metros de largo, mientras que hace 4,5 millones de años las ballenas más grandes que existían medían solamente 10 metros.

¿Cómo fue posible?

Vale, ya sabemos cuándo. ¿Cómo pasó esto? Slater y compañía pasaron entonces a estudiar qué estaba ocurriendo en el mundo en aquel momento para que tuviese lugar este importante cambio de tamaño en las ballenas. Descubrieron que el estirón coincidió con el principio de la primera edad de hielo. En ese momento en que los glaciares se expandían, los deshielos de primavera y verano vertían enormes cantidades de nutrientes a las costas oceánicas que causaron una proliferación masiva del krill, los organismos microscópicos de los que se alimentan las ballenas.

Esto creó un nuevo patrón de alimentación: los deshielos estacionales creaban épocas de comida abundante separadas a lo largo del año, disponible para aquellos que pudiesen aprovecharla y con menos competencia debido a la desaparición de muchos otros peces y animales marinos.

Esto fue una ventaja para las ballenas: las ballenas que se alimentan cazando krill y filtrando el agua a través de sus barbas podían en este ambiente alimentarse de forma más eficiente que otros competidores. Y cuando mejor alimentadas, más grandes y rápidas eran para desplazarse de una zona de caza a otra.

¿Por qué ese tamaño gigantesco?

Quizá ahora sepamos un poco mejor, aunque todavía no de forma definitiva, cuándo y cómo las ballenas se hicieron descomunales, pero ¿por qué?

Tampoco aquí la respuesta está del todo clara. Algunos expertos postulan que pudo ser una respuesta evolutiva a los ataques de los megatiburones que poblaron los océanos hace millones de años. Pero la mayoría de las hipótesis se centran en el agua como un medio liberador: con la gravedad atenuada, los cuerpos de los mamíferos marinos, especialmente los de las ballenas, son capaces de manejar muchas más toneladas de peso. Además, es más fácil acceder a grandes territorios donde alimentarse y el menú es más variado.

Sin embargo, esta idea del océano como liberación también tiene sus detractores, y en 2018, William Gearty, de la Universidad de Stanford, propuso una explicación diferente: las ballenas y otros mamíferos marinos son tan grandes no por el alivio que el agua pone a sus limitaciones, sino porque impone otras nuevas.

A medida que entras en el agua, empiezas a perder un calor corporal que no estabas perdiendo sobre la tierra, y la forma más eficiente contrarrestar esa pérdida de temperatura es volverse más grande: a medida que crece cuerpo de un animal (de estos animales marinos concretamente cuyo cuerpo tiende a adoptar la forma de un globo), el volumen aumenta más rápido que su superficie, de forma que se genera más calor, pero se pierde menos en comparación. Claro que el volumen de un animal no puede aumentar infinitamente, ya que un cuerpo mayor también requiere más alimento, y hay un límite en la comida que un animal puede encontrar, atrapar y comer.

Según esta teoría, el tamaño de una especie se encuentra limitada por abajo por su necesidad de mantenerse caliente (demasiado pequeño y perderá demasiado calor) y por arriba por su necesidad de alimentarse (demasiado grande y no podrá comer lo suficiente). Y ese límite es mucho más estrecho en el mar que en la tierra, según el científico, que calculó que los mamíferos marinos (focas, cetáceos, manatíes…) han alcanzado de forma independiente una masa media óptima de unas 5 toneladas.

Las ballenas y las focas, en los extremos

Espera, ¿qué? ¿5 toneladas? Pero eso está muy, muy lejos de las 140 toneladas que puede pesar una ballena azul adulta, el animal más grande del mundo y con el que hemos abierto esta historia.

Sí, bueno, recordemos que se trata de una media. En el otro extremo estarían las focas, que pueden pesar, dependiendo de la especie, entre 100 y 250 kilos aproximadamente en su edad adulta. Diferencias evolutivas y de características podrían explicar como ambas especies han conseguido saltarse esos límites que propone Gearty, cada una por un lado. Las focas tienen una gruesa piel y pelo, y pasan mucho tiempo fuera del agua. Así podrían hacer frente a una pérdida de calor que en principio su pequeño tamaño facilita.

Y las ballenas azules y otras barbadas son los cazadores más eficaces del mundo y, si la explicación de Slater y sus colegas es cierta, supieron aprovechar una oportunidad que pocas especies coetáneas pudieron ver en un momento de rápidos cambios climáticos. Así han podido evolucionar y mantener esos cuerpos masivos allí donde los demás mamíferos marinos han conseguido ser grandes, pero no tanto. Gigantes de verdad, solo ellas.

Referencias:

Diversity versus disparity and the radiation of modern cetaceans – The Royal Society Publishing

Independent evolution of baleen whale gigantism linked to Plio-Pleistocene ocean dynamics – Proceedings of the Royal Society B

Why whales grew to such monster sizes – Science

Energetic tradeoffs control the size distribution of aquatic mammals – Proceedings of the National Academy of Science

Why whales got so big – The Atlantic

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo ¿Por qué son tan grandes las ballenas? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El pueblo que hablaba con las ballenas, ¿podría enseñarnos su idioma a los demás?
  2. Cómo usar a las ballenas como detectores de radiación
  3. Eran nuestras ballenas
Catégories: Zientzia

El Brexit dañará el sistema cardiovascular de los británicos

dim, 2019/03/03 - 11:59
Fuente: REUTERS / Peter Nicholls

Una investigación dirigida por Christopher Millett del Imperial College de Londres y publicada en la revista British Medical Journal, ha llegado a la conclusión de que la salida del Reino Unido de la Unión Europea provocará un aumento del número de muertes debidas a enfermedades cardiovasculares. El estudio analiza los efectos que tendría sobre la salud cardiovascular la previsible disminución del consumo de frutas y verduras que ocasionará el también previsible encarecimiento de esos alimentos. Dependiendo de la forma en que se produzca la salida, las estimaciones de fallecimientos adicionales entre los años 2.021 y 2.030 se encuentran entre un 0,6 y un 1,7% del total de muertes por enfermedad cardiovascular.

Los investigadores han analizado cuatro posibles escenarios. El primero es el que se derivaría de un acuerdo con la UE y terceros países en virtud del cual no se aplicarían tarifas aduaneras a los estados de la Unión ni a la mitad de aquellos con los que existen acuerdos comerciales en la actualidad. En el segundo también se produciría un acuerdo de libre comercio con la UE, pero sí se aplicarían aranceles a los vegetales procedentes de terceros países. El tercer escenario es el más desfavorable pues supondría una salida sin acuerdo y la implantación de barreras comerciales con los países de la Unión y aquellos con los que esta mantiene tratados de libre comercio. El cuarto es el que se produciría si el Reino Unido eliminase los aranceles comerciales con todos los países. En todos los casos se asume que se producirían subidas de precios derivados de un aumento en los costes de transacción originados por los mayores controles fronterizos. Los costes arancelarios variarían en función de los acuerdos que se alcanzasen.

Los investigadores han contado con las herramientas estadísticas necesarias para estimar la magnitud de la reducción en el consumo de los alimentos frescos de origen vegetal en función de los aumentos de precios. Y también disponen de modelos que relacionan el riesgo cardiovascular con el consumo de esos alimentos. A partir de todo ello han estimado que se producirían entre 4160 muertes adicionales (0,6% de las provocadas por enfermedad cardiovascular) en el supuesto de una eliminación de todos los aranceles (mejor escenario), y 12400 (1,7% de las debidas a enfermedad cardiovascular) en el de un Brexit sin acuerdo y con barreras arancelarias a la importación de alimentos vegetales (peor escenario).

Habrá quien ponga en duda que el precio de los alimentos tenga efectos sobre la salud. Pero los tiene. De hecho, ya sabíamos, por ejemplo, que los aumentos del precio de frutas y verduras provocan elevaciones en la concentración sanguínea del colesterol de baja y muy baja densidad, el conocido como “colesterol malo”. Esto no es anecdótico. Y no debe extrañar que esos efectos tengan incluso mayor alcance.

Como era previsible, el estudio ha generado debate entre los partidarios del Brexit y sus adversarios, y los propios autores han opuesto sus argumentos a las críticas recibidas. No obstante, consideraciones de este tipo no van a provocar cambios en la opinión del público británico y sus representantes políticos acerca del Brexit.

Con todo, lo interesante del estudio es el constatar que los sistemas de salud y la comunidad científica disponen de información sobre el efecto que pueden tener las decisiones políticas y económicas que toman los gobiernos en aspectos relevantes de la salud y la vida de las personas. Las políticas sanitarias afectan a la salud de la población, por supuesto. Pero las decisiones que inciden en el precio de los alimentos también lo hacen. Constatar este hecho es importante.

Referencias:

Seferidi P, Laverty AA, Pearson-Stuttard J, et al: Impacts of Brexit on fruit and vegetable intake and cardiovascular disease in England: a modelling study. BMJ Open 2019; 9:e026966. doi: 10.1136/bmjopen-2018-026966

Rahkovsky I & Gregory C A: Food prices and blood cholesterol. Economics and Human Biology 2013; Vol 11 (1): 95-107. https://doi.org/10.1016/j.ehb.2012.01.004

El artículo El Brexit dañará el sistema cardiovascular de los británicos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Regulación de la circulación (1): control del sistema cardiovascular
  2. Respuesta de los sistemas respiratorio y cardiovascular al ejercicio físico
  3. ¿Demuestran el Brexit y Trump que vivimos en una simulación por ordenador?
Catégories: Zientzia

Geomorfología y paisaje: la piel del territorio

sam, 2019/03/02 - 11:59

Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.

Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.

La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.

Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.

Raoul Servert, geógrafo y paisajista, consultor privado (Araudi), perito judicial en medio ambiente y ordenación del territorio, y miembro de la junta directiva de Fundicot, trata en esta ponencia sobre el papel de la geomorfología como base para los estudios integrales del paisaje.

Edición realizada por César Tomé López

El artículo Geomorfología y paisaje: la piel del territorio se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Geología, ver más allá de lo que pisamos
  2. Geología: la clave para saber de dónde venimos y hacia dónde vamos
  3. Patrimonio geológico: la otra mitad del ambiente
Catégories: Zientzia

Cartografiando territorio inexplorado: imagen por espectrometría de masas

ven, 2019/03/01 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebrará dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Durante las próximas semanas en el Cuaderno de Cultura Científica y en Zientzia Kaiera se publicarán regularmente artículos que narren algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas. Comenzamos con la serie “Espectrometría de masas”, técnica analítica que supone el ejemplo perfecto del incesante avance de la Ciencia y la Tecnología.

La espectrometría de masas es una poderosa técnica analítica que permite determinar la identidad de las moléculas a partir del dato de su masa. Para la aplicación de la técnica de espectrometría de masas, la muestra, independientemente del estado en que se encuentre, debe ser transferida intacta y cargada eléctricamente a fase gas. Por supuesto, esta definición es una supersimplificación de los principios físico-químicos que subyacen a la técnica. Sin embargo, de ella se desprenden varios datos importantes: la técnica permite analizar muestras muy complejas sin marcado previo (es decir, sin necesidad de marcar las moléculas que se quieren detectar). Estas dos características, junto con la de su enorme precisión, sensibilidad y velocidad, la hacen especialmente útil para el análisis de muestras biológicas. Sin embargo, se necesitó del desarrollo de las denominadas técnicas de ionización blanda, para poder transferir las moléculas biológicas intactas a fase gas.

La técnica de MALDI (Matrix Assisted Laser Desoption/Ionization, Figura 1) es una de las más utilizadas para la introducción de moléculas termolábiles en un espectrómetro de masas. Comienza depositando una porción representativa de la muestra biológica en una placa de acero y recubriéndola con una sustancia orgánica (la matriz), que absorbe la luz en la zona de emisión de los láseres comerciales (normalmente en el UV, en torno a los 335-350 nm). Las moléculas biológicas son, normalmente, transparentes a esta radiación, por lo que no se ven afectadas por el láser. Sin embargo, la matriz sí absorbe la radiación láser, se fragmenta, y libera el analito ionizado en fase gas.

Figura 1. Esquema de la espectrometría de masas por MALDI. Fuente: José A. Fernández

En los años 90, surge un refinamiento de esta técnica: la imagen por espectrometría de masas, que permite la exploración directa de tejidos (Figura 2). Efectivamente, la aplicación de la metodología MALDI no tiene por qué restringirse a muestras sólidas, sino que se puede aplicar directamente sobre secciones de tejido congelado en fresco. De este modo, se obtienen los mapas de distribución de todas las moléculas biológicas (detectables) a lo largo del tejido. La técnica de MALDI-IMS (MALDI-Imaging Mass Spectrometry), es capaz no sólo de dar la identificación de cientos de biomoléculas en un solo experimento, sino que aporta su localización dentro del tejido (información espacial), permitiendo asociar los cambios a estructuras histológicas o incluso a células individuales.

Figura 2. Protocolo de un experimento de MALDI-IMS. Fuente: José A. Fernández

Estudio de células de colon

En metabolómica la información espacial es de enorme relevancia, ya que cada tipo celular presenta un perfil metabólico propio, que cambia con el ciclo celular. Por ejemplo, la técnica de IMS ha sido de gran utilidad para estudiar la maduración de células en el colón, la última parte del sistema digestivo. La pared de este órgano (Figura 3), está recubierta de unas invaginaciones, denominadas criptas, que están formadas por una única capa de células epiteliales (vamos, de piel). Como todos los epitelios, el del colon también sufre un desgaste, por lo que las células deben reemplazarse continuamente. En el fondo de las criptas, existe un nicho de células madre en constante división, que son las encargadas de abastecer de nuevas células a la cripta. La presión de estas nuevas células, empuja hacia arriba a la anteriores, que van madurando para adoptar papeles especializados, hasta que, al llegar a la parte exterior, descaman.

Figura 3. A) Esquema de una cripta colónica. B) Imagen óptica de una sección de colon humano, donde se aprecian varias criptas; C) Imágenes de distribución de algunas especies representativas de lípidos en secciones de biopsias de colon humano sano y adenomatoso. Fuente: José A. Fernández

Gracias a nuestros experimentos de MALDI-IMS en colaboración con el grupo de la Dra. Barceló-Coblijn (IdisPa, Palma), hemos demostrado que todo el proceso de división y maduración de las células, está acompañado por un cambio en su perfil lipídico o lipidoma (el conjunto de los lípidos que contiene la célula): a medida que el colonocito va madurando, las especies lipídicas que contienen ácido araquidónico (un ácido graso con funciones señalizadoras), van reemplazándolo por otros ácidos grasos de cadena más corta y con menor número de insaturaciones. En resumen, los lípidos están tan estrictamente regulados, que se puede deducir a qué altura de la cripta se encuentra un colonocito, simplemente observando su perfil lipídico. Más aún, las imágenes nos permitieron determinar que este cambio en el lipidoma se da en la parte central y terminal del colonocito, mientras que el núcleo del mismo no presenta cambio alguno en su lipidoma con la maduración.

Las criptas colónicas se encuentran rodeadas de otro tejido denominado lámina propia, que le da soporte y que está altamente infiltrado por células del sistema inmune, siempre vigilantes ante posibles invasiones bacterianas. No debemos olvidar que, del otro lado del epitelio, existe una inmensa población bacteriana que nos ayuda a procesar los alimentos y a aprovechar los nutrientes. Mientras las bacterias estén del lado correcto, son beneficiosas. Lo impresionante de la técnica de MALDI-IMS es que nos permitió demostrar que las células de la lámina propia siguen un patrón completamente diferente: presentan una enorme cantidad de ácido araquidónico, que está relacionado con la inflamación, y que éste es más abundante cerca de la parte luminal del colon. Es decir, células contiguas, colonocito y fibroblasto, presentan lipidomas completamente distintos y regulan su expresión lipídica de manera independiente. Es decir, cada célula tiene una composición de lípidos propia y exclusiva, que permite su identificación

Una aplicación directa y evidente de todo este conocimiento es la detección temprana del cáncer de colon. Si el perfil lipídico de una célula está tan estrictamente regulado, la alteración metabólica que el proceso de malignización produce, debería tener un impacto dramático en el perfil lipídico celular. De hecho, nuestros resultados demuestran que el tejido alterado de colon, presenta alteraciones significativas, tanto morfológicas como metabólicas. La Figura 3 muestra imágenes histológicas de una sección de biopsia de colon neoplásico. Claramente, las criptas han perdido su morfología típica, debido a que las células madre se reproducen descontroladamente, produciendo demasiados colonocitos, que además no maduran. Tal y como esperábamos, la huella lipídica de estos colonocitos coincide con la huella lipídica de las células madre en el fondo de la cripta, demostrando desde un punto de vista molecular, que son colonocitos inmaduros que se siguen reproduciendo y que no llegan a diferenciarse. Mientras tanto, las células de la lámina propia, siguen ajenas al proceso de malignización y siguen presentando un perfil lipídico similar al que presentan en tejido sano.

Este ejemplo demuestra la importancia de la utilización de técnicas con localización espacial para el estudio del metaboloma, y más concretamente, del lipidoma, ya que los cambios se producen a nivel celular. Sin la resolución espacial, los cambios producidos en los colonocitos, quedarían diluidos entre el lipidoma del resto de las células.

Estudio del cerebro

La aplicación de la técnica de MALDI-IMS está suponiendo una revolución no sólo en el campo de la lipidómica, sino también en proteómica y en campos más aplicados como la anatomía patológica. Efectivamente, del mismo modo que en los ejemplos expuestos en este artículo se presentan mapas de distribución de lípidos, también es posible la detección de proteínas y péptidos directamente en tejido y realizar las imágenes correspondientes. Realmente, la técnica es aplicable a cualquier molécula detectable por MALDI y permite al patólogo ver la histología de un tejido, desde un punto de vista molecular. Como cada tipo de tejido o incluso de célula tiene su perfil lipidómico/proteómico propio, se pueden utilizar herramientas de análisis estadístico para visualizar los píxeles en base a su huella molecular, como se muestra en la Figura 4, donde se muestra el resultado de un experimento de MALDI-IMS sobre una sección sagital (a lo largo, desde el bulbo olfatorio hasta el cerebelo) de cerebro de rata: los espectros de cada pixel se han analizado mediante un algoritmo de análisis estadístico y se han proyectado después sobre una red neuronal, utilizando el patrón de colores mostrado en la imagen: aquellos píxeles con un perfil metabólico más parecido, presentan colores más próximos en la escala. Se observa que la imagen resultante reproduce fielmente la histología del tejido. Cualquier alteración del metabolismo de un tipo de célula, resultaría en la alteración del patrón de colores, permitiendo fácilmente su identificación.

Figura 4. Análisis estadístico de la huella lipídica de una sección sagital de cerebro de rata, con un tamaño de píxel de 100 μm.

En resumen, la técnica de MALDI-IMS permite añadir una dimensión extra al análisis de muestras biológicas: la localización espacial dentro de un tejido de los metabolitos y proteínas que lo componen, abriendo un abanico de futuras aplicaciones en el estudio de las enfermedades metabólicas.

Sobre el autor: José A. Fernández es investigador en el Departamento de Química Física de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Cartografiando territorio inexplorado: imagen por espectrometría de masas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
  2. A new hero is born: La espectrometría de masas al servicio de la justicia
  3. Metabolómica: el todo sobre la suma de las partes
Catégories: Zientzia

El último puzle de Bach

jeu, 2019/02/28 - 11:59

En el antiguo Ayuntamiento de Leipzig se encuentra el que es, sin duda, el retrato más conocido de Johann Sebastian Bach. Fue pintado en 1746 por Elias Gottlob Haussmann. En él, Bach posa vestido de gala, con su mejor peluca, mirando fijamente al espectador. Su expresión es bastante seria, sí… pero, a la vez, parece contener una medio sonrisa, como si fuese a levantar una ceja. Es más me gustaría argumentar el siguiente parecido expresivo razonable:

Esa es la sonrisilla de “ya sabes a qué me refiero” aquí, en Leipzig y en Pekín. O igual no, y me lo estoy inventando yo. Quizás sea todo pura sugestión pero enseguida entenderéis por qué.

Resulta que, en este cuadro, Bach no posa solo. Si uno baja la mirada, descubre que hay un trozo de papel entre sus manos. Y ese trozo de papel está caído casualmente de manera que el espectador puede leer perfectamente su contenido:


Canon triple a 6 voces. Ya sabes a qué me refiero.

El subtítulo es mío. El hecho de que faltan la mitad de las voces del dichoso canon, no: eso forma parte del retrato (podéis contar los 3 pentagramas de la partitura). Bach mira a cámara y nos reta con su último puzle: ya sabes a qué me refiero, a ver si puedes sacarlo.

Pero es que esta era, precisamente, la gracia del canon como forma musical. Hoy todos conocemos los cánones como melodías que se copian a sí mismas después de cierto número de compases. Pero si está sonando “arde Londres” ahora mismo en tu cabeza, dale al pause. Los cánones de los que voy a hablarte eran mucho más interesantes.

Veréis, hemos dicho que la repetición y los patrones forman parte indisoluble de eso que percibimos como música. En general, estos patrones operan a nivel inconsciente. No necesitamos prestar atención a qué partes de una melodía se repiten, o medir la duración de ciertos sonidos para saber si siguen algún orden regular. Simplemente, hay ciertas melodías que nos parecen pegadizas y hay ciertos sonidos que llamamos ritmo. Simplemente, funciona porque nos suena musical. Del mismo modo, un compositor no necesita dictar cada patrón o repetición que va a regir la estructura de su obra. A veces, sólo un análisis posterior puede encontrar todos los espejos que se esconden en una partitura. Y hay veces que sucede exactamente lo contrario.

Hay veces que el patrón no surge de la música sino que da lugar a la música de manera prescriptiva. Este es el caso del canon y esto es, de hecho, lo que significa su nombre: canon era la regla (las instrucciones) que permitía a los cantantes generar distintas voces a partir de una única melodía escrita. “Arde Londres” es, efectivamente, un canon: hay varias personas cantando distintas voces que se coordinan entre sí. En este caso, la melodía de todos ellos es exactamente la misma solo que desplazada en el tiempo (la regla sería “empieza un compás más tarde”). Pero este es el tipo más sencillo de canon, existen muchos otros: se pueden generar voces no sólo desplazadas en el tiempo, sino también en la escala (“empieza más tarde, desde otra nota”), o invertidas de arriba a abajo (“si la melodía sube, tú baja”), o de atrás a adelante (“lee la melodía desde el final”), o cambiando su duración (“canta lo mismo más despacio”), o cualquier combinación de las anteriores. Las posibilidades son ilimitadas.

Este tipo de juegos existen, probablemente, desde que la música es música, pero en el Renacimiento se hicieron especialmente populares. En muchas ocasiones, el canon ni siquiera se hacía explícito: la simetría se ocultaba en la música, como un tesoro por descubrir para el analista atento. Pero la propia música no debía perder expresividad a costa de este juego de ingenio. Hoy, por otra parte, es posible generar cánones por ordenador con música ejecutada en el momento. Es el caso Dan Tepfer: este pianista programa su instrumento para que responda a la música que él interpreta según ciertas pautas. Por ejemplo: el piano puede invertir la melodía, o ejecutarla cierto tiempo después, o introducir ciertas disonancias. De este modo, sus improvisaciones se convierten en un canon, en el sentido más estricto de la palabra: es el mismo código el que dicta la regla.

El puzle que nos ofrece Bach es ligeramente distinto. No se trata de generar música a partir de una norma dada. Al revés: en este caso, es el canon lo que se plantea como incógnita y el reto consiste en jugar con las voces ausentes hasta lograr un dibujo simétrico que además, suene bien. Son los oídos los que deben validar el resultado final. Las tres voces escritas, de hecho, ya son armónicas entre sí. Por esto decimos que es un canon triple. Pero faltan otras tres voces y cada una debe originarse mediante alguna simetría a partir de las ya hay. Para ello, la única pista que nos ofrece Bach es una pequeña indicación sobre cuándo estas voces deben comenzar a sonar.

Bien, el problema es abrumador pero, si debemos creer a los musicólogos, su solución pasa por invertir las tres voces escritas y trasladarlas en altura. Es lo que se conoce como un canon en movimiento contrario, o en espejo y, que lo validen vuestros oídos, suena así:

Con todo, no es esta la única sorpresa escondida en estos tres pentagramas. El último encierra una melodía familiar para cualquier fan de la música de Bach: se trata del bajo Goldberg, el mismo sobre el que se construyen las variaciones que llevan su nombre.

Extrañamente, el canon del retrato no forma parte de esta partitura de Bach. Se diría que, después de 30 variaciones (más de una hora de música, que se dice pronto), 9 de ellas cánones, Bach se quedó con ganas de más: aún le quedaban ideas en el tintero, aún había simetrías por explorar.

Así debió de ser, efectivamente. En 1974, de manera inesperada, se encontró una copia impresa de las variaciones Goldberg que debió de pertenecer a su compositor. La última página del libro estaba cubierta de anotaciones a mano: tras su publicación, Bach había añadido otros 14 cánones basados en el mismo bajo y en la esquina inferior derecha, al más puro estilo Fermat, un “etcétera”. De esos 14 cánones, el número 13 llevaba más de dos siglos posando junto a Bach en su retrato.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El último puzle de Bach se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Tema y variaciones
  2. El meme más antiguo de la historia
  3. Otra pieza en el puzle de la fotosíntesis
Catégories: Zientzia

Sobre fracciones egipcias

mer, 2019/02/27 - 11:59

Una fracción egipcia es una suma de fracciones unitarias positivas distintas, por ejemplo 1/2+1/3+1/12 es una de ellas. ¿Por qué ese nombre? Porque los antiguos egipcios calculaban precisamente usando ese tipo de fracciones-

El ojo de Horus contiene los símbolos jeroglíficos de los primeros números racionales. Imagen: Wikimedia Commons.

El famoso papiro del Rhind contiene una tabla de representaciones de 2/n en forma de fracciones egipcias para números impares n entre 5 y 101.

Puede probarse que cualquier número racional r=p/q (donde p es un entero y q es un entero positivo) puede escribirse como fracción egipcia, y además de infinitas maneras. En efecto, cualquier fracción puede expresarse como suma de fracciones unitarias de manera trivial siempre que se permitan repetir términos. Por ejemplo: 2/5=1/5+1/5. Si se exige que todos los denominadores sean distintos, esta representación siempre es posible gracias a la siguiente identidad descubierta por los antiguos egipcios:

1/q= 1/(q+1) + 1/(q(q+1)).

Así, en el caso anterior: 2/5=1/5+1/6+1/30. Y aplicando el mismo procedimiento a cada una de las fracciones unitarias, 2/5 posee una infinidad de representaciones en fracción egipcia.

La sucesión de Sylvester proporciona un algoritmo voraz para representar un número racional r=p/q entre 0 y 1 como fracción egipcia. ¿Cómo se utiliza? Se empieza encontrando la mayor fracción unitaria 1/a que es menor que r. Basta con dividir q entre p (observar que si r está entre 0 y 1, q es mayor o igual a p), ignorar el resto, y sumar 1. Así se obtiene el denominador d de esta fracción unitaria. Se vuelve a realizar este proceso para r-(1/d), y se repite hasta que el resto resulte ser nulo. Veamos un ejemplo. Vamos a expresar 19/20 en fracción egipcia:

  1. 20/19=1,05…, así que la primera fracción unitaria es 1/2.

  2. Ahora hacemos lo mismo con 19/20-1/2=9/20. Tenemos 20/9=2,22…,. Así, la segunda fracción unitaria es 1/3.

  3. Ahora 9/20-1/3=7/60. Calculamos 60/7=8,57…, con lo que la tercera fracción unitaria es 1/9.

  4. Continuamos con 7/60-1/9=1/180, que ya es una fracción unitaria.

Concluimos que 19/20 puede representarse en fracción egipcia como

19/20=1/2+1/3+1/9+1/180.

El sistema de Sylvester no siempre proporciona la fracción más corta o más sencilla: por ejemplo 19/20=1/2+1/4+1/5.

Hemos cambiado de ejemplo para que se entendiera mejor el proceso. En efecto, en el caso de 2/5 aludido al principio, con este procedimiento se obtiene el resultado en un paso: 5/2=2,5, así que la primera fracción unitaria sería 1/3. Y como 2/5-1/3=1/15, ya tendríamos directamente la igualdad 2/5=1/3+1/15.

Un número práctico (su nombre se debe Srinivasan, ver 4.) es un número entero positivo ntal que todos los enteros positivos menores que él se pueden escribir como sumas de distintos divisores de n. Por ejemplo, 12 es un número práctico, porque todos los números entre el 1 y el 11 pueden escribirse como sumas de los divisores de 12 (1, 2, 3, 4 y 6). En efecto:

1=1, 2=2, 3=3, 4=4, 5=3+2, 6=6, 7=6+1, 8=6+2, 9=6+3, 10=6+3+1 y 11=6+3+2.

Fibonacci usó estos números en su Liber Abaci al tratar el problema de representación de números racionales en fracción egipcia. Aunque no los definió de manera formal, dio una tabla de expansiones en fracción egipcia con denominadores números prácticos

En teoría de números existen diferentes problemas ligados a fracciones egipcias, incluyendo problemas de cotas para la longitud o de denominadores máximos en las representaciones en fracciones egipcias, la búsqueda de algunas formas especiales de desarrollo o con denominadores de cierto tipo. Pueden encontrase algunos problemas y conjeturas sobre este tema en la referencia 2.

Referencias

  1. Fracción egipcia, Wikipedia (consultado el 24 de febrero de 2019)

  2. Fraction egyptienne, Wikipédia (consultado el 24 de febrero de 2019)

  3. Eric W. Weisstein, Egyptian Fraction, MathWorld

  4. A.K. Srinivasan, Practical numbers, Current Science 17,179-180, 1948

  5. Practical numbers, Wikipedia (consultado el 24 de febrero de 2019)

  6. Listado de los primeros números prácticos en A005153 de la OEIS

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Sobre fracciones egipcias se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Fracciones sorprendentes
  2. Una conjetura sobre ciertos números en el ‘sistema Shadok’
  3. La insoportable levedad del TRES, o sobre la existencia de sistemas numéricos en base 3
Catégories: Zientzia

Pages