Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 1 hour 16 min ago

El hígado y la vesícula biliar

Mon, 2019/03/11 - 11:59

Además de las secreciones pancreáticas, el intestino delgado también recibe secreciones procedentes del sistema biliar, que está formado por el hígado y la vesícula biliar. Nos referimos, en concreto, a la bilis y, en particular, a las sales biliares. Es este el principal asunto que trataremos en esta anotación.

Higado y vesícula biliar humanos. Imagen: cancer.org

Pero eso será algo más adelante, porque al hígado corresponden funciones adicionales de gran relevancia que queremos consignar aquí para dejar constancia de ellas. Para empezar, es el órgano que gobierna el metabolismo del conjunto del organismo; podría decirse que es el órgano metabólico maestro, su director. Se ocupa del procesamiento metabólico de proteínas, carbohidratos y lípidos, tras su absorción en el intestino, incluyendo también la gluconeogénesis (síntesis metabólica de glucosa a partir de precursores no glucídicos). Y almacena glucógeno y grasas, a la vez que otras sustancias de menor relevancia cuantitativa, como hierro, cobre y varias vitaminas.

El hígado también se ocupa de degradar productos residuales y hormonas, además de eliminar agentes tóxicos y sustancias, procedentes del exterior, sin utilidad biológica o potencialmente peligrosas (fármacos, por ejemplo). También sintetiza proteínas y lipoproteínas plasmáticas, entre las que se encuentran las que participan en la coagulación de la sangre y las que transportan fosfolípidos, colesterol y hormonas esteroideas y tiroideas.

A las tareas anteriores, hay que añadir que activa la vitamina D (tarea compartida con el riñón); elimina, mediante el concurso de sus macrófagos (células de Kupffer), bacterias y glóbulos rojos que ya han finalizado su vida útil; secreta las hormonas trombopoietina (estimula la producción de plaquetas), hepcidina (regula el metabolismo del hierro en mamíferos), IGF 1 o factor de crecimiento insulínico 1 (estimula el crecimiento); excreta el colesterol y la biliverdina y bilirrubina, que son productos derivados de la degradación de la hemoglobina; y en algunas especies de mamíferos (no en primates y conejillos de India) y de aves sintetiza ácido ascórbico (vitamina C).

Es de destacar que con la excepción de las células de Kupffer, todas las funciones aquí consignadas son realizadas por un mismo tipo celular, el hepatocito. Por lo tanto, no hay diferenciación de funciones con arreglo a tipos celulares (puesto que solo hay los dos citados), sino en virtud de los orgánulos en que se desarrolla cada una de ellas. En ellos radica la función y esta se diferencia de unos orgánulos a otros.

El hígado es un órgano muy irrigado, y el flujo sanguíneo en su interior está organizado de tal modo que cada hepatocito está en contacto con sangre venosa proveniente del tubo digestivo y sangre arterial procedente de la aorta. Los capilares procedentes del intestino se van agrupando hasta confluir en la vena porta hepática que penetra en el hígado donde se vuelve a ramificar en múltiples capilares, formando una red de (los denominados) sinusoides hepáticos. Esos sinusoides son los que permiten que la sangre procedente directamente del estómago e intestino delgado difunda a todas las células del hígado para que provean a estos de las sustancias absorbidas. La sangre sale del órgano con los productos elaborados o expulsados para su eliminación (como la urea, por ejemplo) y lo hace a través de la vena hepática, en la que confluyen los capilares que lo drenan. Además de la sangre procedente del digestivo, al hígado también le llega sangre arterial con oxígeno y otras sustancias procedentes del conjunto del organismo para su procesamiento en los hepatocitos.

El hígado se organiza en lóbulos, disposiciones hexagonales de tejido en torno a una vena central. A lo largo de los vértices exteriores de los lóbulos discurren una rama de la vena porta hepática, otra de la arteria hepática y un ducto biliar. De la vena y arteria citadas salen amplios sinusoides que se dirigen hacia la vena central. Las células de Kupffer tapizan los sinusoides, atrapan a cuantas bacterias y eritrocitos fuera de servicio se encuentran, y los eliminan. Los hepatocitos se disponen en placas de dos células cada una, de manera que todas se encuentran en contacto con los vasos sanguíneos, como hemos dicho antes. Las venas centrales de cada lóbulo convergen en la vena hepática que es la que sale del hígado y se une a la vena cava inferior.

El canalículo de la bilis discurre entre las dos células de cada placa, recibiendo secreción biliar de todas ellas. Los canalículos se dirigen hacia el exterior del lóbulo y transportan así la bilis hasta los ductos que se encuentran en los vértices de los hexágonos (lóbulos hepáticos); los ductos de cada lóbulo acaban agrupándose en el ducto hepático común, que es el que lleva la bilis al duodeno.

El hígado produce bilis de forma permanente, pero el acceso de la bilis al duodeno se encuentra controlado por el esfínter de Oddi, que solo permite su paso cuando hay quimo en el duodeno y puede, por lo tanto, ser utilizado. Cuando el esfínter se encuentra cerrado las sales biliares se acumulan en la vesícula biliar, que hace las veces de depósito. Con cada comida la bilis entra en el duodeno debido al vaciado de la vesícula y al aumento en la producción a cargo del hígado. Los seres humanos producimos entre 250 ml y 1 l de bilis cada día. El mensajero que desencadena la contracción de la vesícula y la relajación del esfínter de Oddi es la hormona CCK (la colecistoquinina que vimos en El páncreas) y que se libera por efecto de la presencia de grasa en el duodeno.

Imagen: Wikimedia Commons

La bilis contiene colesterol, lecitina, sales biliares, y bilirrubina y biliverdina, y estas sustancias se encuentran en una solución ligeramente básica, similar a la producida por las células de los ductos del páncreas. Las sales biliares son derivados del colesterol y participan en la digestión y absorción de las grasas debido a su acción detergente y a la formación de micelas. Tras su intervención la digestión de lípidos, son reabsorbidas mediante transporte activo en el íleon, la zona terminal del intestino delgado. De allí, a través del sistema porta, vuelven al hígado. Se calcula que en promedio, en cada comida unas mismas sales circulan dos veces por el duodeno e intestino delgado, y que cada día se pierden con las heces un 5% de las sales biliares. Su pérdida es repuesta por los hepatocitos de manera que el total se mantiene constante.

Emulsificación de los lípidos por las sales biliares. Imagen: Wikimedia Commons

Las sales biliares intervienen en la digestión de las grasas favoreciendo su emulsificación. Convierten gotas grandes de lípidos en gotas de muy pequeño tamaño suspendidas en el quimo acuoso. De esa forma aumenta muchísimo la relación superficie/volumen y exponiendo una mayor superficie micelar a la acción de la lipasa pancreática, de manera que esta puede atacar las moléculas de triglicéridos. Sin la formación de emulsiones, la mayor parte de esos triglicéridos quedarían en el interior de las gotas grandes lejos del alcance enzimático.

Las sales biliares actúan como los jabones. Ambos son anfipáticos: contienen una porción hidrofóbica (un esteroide derivado del colesterol) y otra hidrofílica con carga negativa (una taurina o glicina) . Las sales se adsorben a la superficie de una gota de grasa, con una orientación acorde a su naturaleza; esto es, la porción liposoluble interactúa con la superficie de la gota lipídica, mientras que la porción cargada queda orientada hacia el exterior y disuelta en agua. Los movimientos intestinales ayudan a fragmentar esas gotas lipídicas y hacer que sean cada vez más pequeñas. En ausencia de sales biliares (detergente), las pequeñas gotas tenderían a caolescer, volviéndose a formar grandes gotas. Pero eso no ocurre porque las cargas negativas solubles en agua lo impiden; forman una especie de capa de cargas negativas que se repelen unas a otras, de manera que no llegan a entrar en contacto. Las gotas lipídicas pequeñas tienen un diámetro que varía entre 200 y 5000 nm.

Para la digestión de las grasas es esencial el concurso de la lipasa procedente del páncreas. La acción de esta enzima es efectiva porque el páncreas secreta la coenzima colipasa, también un péptido alifático, que ocupa el lugar de algunas sales biliares en la superficie de las gotas lipídicas y desde esa posición se une a la lipasa de manera que esta pueda hacer su trabajo. La enzima queda así enganchada a la superficie de las gotas, rodeada de sales biliares, pero de tal forma que puede actuar directamente sobre las moléculas lipídicas.

La absorción de lípidos en el intestino se produce gracias a la formación de micelas. Las micelas son estructuras de entre 3 y 10 nm de diámetro en las que intervienen, además de las sales biliares, el fosfolípido lecitina y el colesterol. La lecitina, como las sales biliares, es anfipática, de manera que se asocia con las sales formando agrupaciones cuya porción hidrofóbica se dispone en el interior, junto al colesterol, y la porción hidrofílica en el exterior. De esa forma, moléculas hidrofóbicas que resultan de la digestión de los lípidos (monoglicéridos, ácidos grasos libres y vitaminas liposolubles) son transportados en emulsión acuosa, gracias a la cubierta hidrofílica, hasta los enclaves del epitelio intestinal donde son absorbidos.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El hígado y la vesícula biliar se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Avances contra la enfermedad de hígado graso no alcohólica
  2. Una ecuación para determinar la grasa en el hígado a partir de una resonancia
  3. Proteínas plasmáticas
Categories: Zientzia

La adaptación a los incendios forestales

Sun, 2019/03/10 - 11:59

Para empezar y como ejemplo nos sirve la Comunidad Autónoma del País Vasco. El 27 de diciembre de 2016 aprobó el Consejo del Gobierno Vasco el Plan Especial de Emergencias por Riesgo de Incendios Forestales. En el texto, en la página 9, aparece un cuadro con la superficie quemada en la Comunidad entre 1985 y 2012. El máximo está en el catastrófico 1989, en el mes de diciembre, con más de 27000 hectáreas de superficie arbolada. Fue una sequía en invierno, después de una larga sequía estival, y con fuertes vientos que dificultaban la extinción de los incendios.

El siguiente año en superficie quemada fue 1985, con casi 2600 hectáreas, seguido de 2002 con 700 hectáreas y 1995 con 600 hectáreas. En 2011 fueron 140 hectáreas y en 2012, último año con datos en este Plan, fueron 175 hectáreas. En España, y según datos del Ministerio de Medio Ambiente, los años recientes con más de 400000 hectáreas quemadas fueron 1985, 1989 y 1994.

Estos son los datos para la Comunidad y para España y no hay que olvidar que a nivel del planeta, más o menos el 3% de su superficie se quema cada año. Los incendios forestales aparecen cuando las plantas colonizan la tierra, en bosques de entre 350 y 400 millones de años de antigüedad. Hay restos de carbón de incendios tan antiguos como del Silúrico, hace unos 400 millones de años.

Cada fuego es una combinación particular de frecuencia, intensidad, tamaño, estación, tipo de propagación y extensión. Pero, también es evidente que los incendios influyen, además de todo lo que significan como suceso público, en nuestra percepción del entorno, en concreto, del paisaje. Francisco Lloret y sus colegas, de la Universitat Autònoma de Barcelona, han estudiado los cambios en el paisaje en el municipio de Tivissa, en Tarragona, entre 1956 y 1993.

Tivissa. Imagen: Wikimedia Commons

Es un municipio agrícola con zonas difíciles y poco productivas que se han abandonado en los últimos años, y se han cubierto de matorrales que han homogeneizado el paisaje. Además, ha disminuido la superficie de bosques. Los autores encuentran que los incendios son más probables en áreas homogéneas con árboles, y provocan que el paisaje posterior también sea homogéneo.

Concluyen que, en las zonas con actividad humana el paisaje es más heterogéneo, por ejemplo, con distintas actividades agrícolas y modelos de explotación de la tierra, y los incendios se controlan mejor quizá por ser heterogéneas, con diferentes plantaciones que, a su vez, tienen diferente capacidad de incendiarse. Y, además, los que se aprovechan de las actividades agrícolas procuran defenderlas del fuego y no provocar incendios.

En las zonas sin actividad agrícola, muy iguales, con árboles y arbustos, los incendios se extienden con más facilidad y provocan, después y en primer término, mayor diversidad.

Es evidente que, sea a más o a menos diversidad, los incendios influyen en el paisaje y en nuestra precepción del mismo.

El incendio acercándose al complejo de Old Faithful en el Parque Nacional de Yellowstone (Estados Unidos) en 1988. Imagen: Wikimedia Commons

Sin embargo, un paisaje quemado se puede recuperar, quizá no exactamente igual al que existía antes del fuego, y puede convertirse en un área ecológicamente saludable. Fue el año 1988, en una gran sequía que, al año siguiente, en 1989, provocaría los incendios en el País Vasco, cuando ocurrió el gran incendio en Estados Unidos, en el Parque Nacional de Yellowstone, en el que ardieron más de 600000 hectáreas, algo así como Gipuzkoa, Bizkaia y gran parte de Álava. Fue uno de los mayores incendios forestales en una zona templada que aparece en la historia escrita. Daniel Donato y su grupo, del Departamento de Recursos Naturales del Estado de Washington en Olympia, nos cuentan cómo está el parque 24 años después.

Las zonas centrales del bosque, más tupidas y con más árboles, se han regenerado con fuerza y no ha influido la severidad del incendio. Las zonas más secas, con menos árboles, se han recuperado peor, en más tiempo, y, sobre todo, lo hacían con más eficacia si cerca habían quedado parcelas pequeñas sin quemar que pueden funcionar como reserva de semillas.

Una de las zonas de pino de Yellowstone que ardieron en 1988 tal y como se encontraba en 2006. El pino que sobrevivió (a la izquierda) es un Picea engelmannii, los jóvenes, Pinus contorta. Imagen: Wikimedia Commons

La regeneración culminó, en general, a los 15 años del incendio aunque, en las mejores zonas, el crecimiento ha continuado. A los 24 años, en esas zonas de bosque más maduro, el reemplazamiento de los árboles anteriores al incendio está completo. En las áreas más secas y con menos bosque, ha quedado, en muchos lugares, una estepa herbácea que necesitará varias décadas o, incluso, teniendo en cuenta el calentamiento global, nunca volverá a ser bosque.

Los resultados sobre incendios en la Península Ibérica son parecidos, tanto en Galicia, según el grupo de Otilia Reyes, de la Universidad de Santiago de Compostela, como en Cataluña, según Santiago Martín y Lluis Coll, del Centro de Ciencias Forestales de Solsona.

Son dos paisajes diferentes en dos climas distintos, en el oeste y este de la Península. En ambos casos, los incendios fueron en bosques de pinos, con el pino marítimo (Pinus pinaster), en Serres, en la costa de A Coruña y en 2014, un año antes del estudio, y pino laricio (Pinus nigra) en el centro de Cataluña y en 1998, siete años anterior al estudio.

Los resultados son parecidos y, como en Yellowstone, cuanto más potente es el bosque original, mejor se recupera. Y, también, ayuda la presencia de pequeñas parcelas no quemadas como origen de semillas para repoblar. Solo en las zonas más secas aparecen áreas con arbustos o praderas. Para la recuperación de las zonas con buen bosque original no se necesita ninguna intervención.

Como nos cuentan William Bond y John Keeley, de las universidades de El Cabo, en Sudáfrica, y de California en Los Angeles, grandes áreas del mundo arden de manera regular y, por tanto, los ecosistemas se han incendiado durante cientos de millones de años. Hay evidencias de incendios de hace 420 millones de años, desde la aparición de las plantas terrestres. Así se ha construido el paisaje que conocemos y se mantienen la estructura y la función de esos ecosistemas, muy adaptados a los incendios periódicos. Por tanto, los incendios son una fuerza evolutiva de selección natural lo que implica que los bosques que ahora conocemos se han seleccionado y aguantan y se recuperan de los incendios porque así se han formado. Y el fuego estimula la regeneración con, por ejemplo, semillas que germinan estimuladas por el calor o por sustancias químicas emitidas por la madera quemada o, también, la floración acelerada por el fuego.

Después de revisar incendios y diversidad de plantas en todo el planeta, excepto la Antártida, y desde finales del siglo XX hasta inicios de XXI, Juli Pausas y Eloi Ribeiro, del CIDE-CSIC de Montcada, en Valencia, y del ISRIC de Wageningen, en Holanda, han recopilado casi 200 millones de citas. Sus resultados demuestran que la mayor diversidad de plantas se da con la mayor productividad y, también, con la actividad de incendios. Así, el fuego explica una proporción significativa de la diversidad de las plantas. En conclusión, el fuego aumenta la heterogeneidad del paisaje y crea nuevos nichos con oportunidades para una gran variedad de especies.

Paisaje un año después de un incendio en un bosque de pinos. Imagen: Wikimedia Commons

Las plantas adaptadas al fuego han seleccionado determinadas características que les benefician en caso de incendio. En las áreas con clima mediterráneo, como la propia cuenca del Mediterráneo, California, región de El Cabo en Sudáfrica y Chile, el grupo de Philip Rundel, de la Universidad de California en Los Angeles, han revisado el número de especies vegetales adaptadas al fuego. En el Mediterráneo abundan las plantas que rebrotan después del incendio; tienen germinación estimulada por el fuego, sea por el calor, o por el humo; y florecen estimuladas por el fuego. Para estas especies, el fuego ha sido un estímulo importante para la diversificación y aparición de nuevas especies.

Como resumen final sirve la publicación de Juli Pausas y Jon Keeley, del Centro de Investigación sobre Desertificación del CSIC en Valencia y del Servicio Geológico de Estados Unidos respectivamente, cuando escriben que no solo el clima y el suelo explican la distribución de las especies animales y vegetales en el planeta, también interviene el fuego. Desde hace mucho tiempo, unos 400 millones de años, impulsando la aparición de especies nuevas adaptadas a los incendios periódicos. Sin embargo, nuestra especie ha cambiado la relación entre el fuego y los seres vivos. Primero, Homo utilizó el fuego para adaptar el entorno a sus necesidades. Pero, y en segundo lugar, lo hace con tal intensidad y extensión que cambió muchos ecosistemas y pone en peligro la sostenibilidad.

Referencias:

Archibald, S. et al. 2018. Biological and geophysical feedbacks with fire in the Earth system. Environmental Research Letters 13: 033003.

Bond, W.J. & Keeley, J.E. 2005. Fire as a global “herbivore”: the ecology and evolution of flammable ecosystems. Trends in Ecology and Evolution 20: 387-394.

Bowman, D.M.J.S. et al. 2009. Fire in the Earth system. Science 324: 481-484.

Donato, D.C. et al. 2016. Regeneration of montane forests 24 years after the 1988 Yellowstone fires: A fire-catalyzed shift in lower treelines? Ecosphere 7: e01410

Pausas, J.G. & Keeley, J.E. 2009. A burning story: The role of fire in the history of life. BioScience 59: 593-601.

Pausas, J.G. & Ribeiro. E. 2017. Fire and plant diversity at the global scale. Global Ecology and Biogeography DOI: 10.1111/geb.12596

Rundel, P.W. et al. 2018. Fire and plant diversification in Mediterranean-climate regions. Frontiers in Plant Science 9: 851.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo La adaptación a los incendios forestales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Incendios, los grafos de visibilidad y la conjetura de Collatz
  2. “El bien común como adaptación” por Antonio Lafuente
  3. Las aves de Prometeo
Categories: Zientzia

¿Existe el geoturismo?

Sat, 2019/03/09 - 11:59

Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.

Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.

La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.

Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.

Asier Hilario, director científico del Geoparque de la Costa Vasca, se encarga de ahondar en la geología como recurso. Algunos de los principales destinos turísticos del mundo son pura geología, tienen millones de visitantes y aunque muchos no lo sepan, hay algo de esa geología que les interesa. Desde su experiencia, expone las principales claves y oportunidades del geoturismo para crear destinos de turismo innovadores y sostenibles que fomenten el disfrute y conocimiento de las ciencias de la Tierra.

Edición realizada por César Tomé López

El artículo ¿Existe el geoturismo? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Geología, ver más allá de lo que pisamos
  2. Patrimonio geológico: la otra mitad del ambiente
  3. Geología: la clave para saber de dónde venimos y hacia dónde vamos
Categories: Zientzia

Proteómica: cuando las proteínas y la espectrometría de masas van de la mano

Fri, 2019/03/08 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebrará dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Durante las próximas semanas en el Cuaderno de Cultura Científica y en Zientzia Kaiera se publicarán regularmente artículos que narren algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas. Comenzamos con la serie “Espectrometría de masas”, técnica analítica que supone el ejemplo perfecto del incesante avance de la Ciencia y la Tecnología.

La espectrometría de masas (MS) es una técnica habitual entre los químicos desde hace ya 100 años, pero no fue hasta hace 3 décadas que se empezó a utilizar como técnica de análisis de proteínas. Para analizar un analito mediante espectrometría de masas (MS) es necesario ionizar dicho analito y pasarlo a fase gaseosa. Durante mucho tiempo, la posibilidad de ionizar macromoléculas como las proteínas o fragmentos de proteínas, es decir péptidos, y pasarlos a fase gaseosa se consideraba una tarea tan posible como hacer volar a un elefante. Sin embargo, el desarrollo y comercialización de dos métodos de ionización a los que se denominó ionización “suave”, demostraron que era posible analizar macromoléculas del tamaño de las proteínas, tanto en disolución como en estado seco cristalino; éstos métodos de ionización se conocen hoy día como ionización electrospray (ESI) y ionización por desorción láser asistida por matriz, (matrix assisted laser desorption ionization) (MALDI). En ESI, se aplica un alto voltaje a la solución que contiene el analito a su paso por una fina aguja perforada. A medida que se va evaporando la solución con las moléculas cargadas, se va reduciendo el tamaño de las gotas, hasta conseguir que pasen a estado gaseoso. Por su parte, en MALDI se dispara con láser a una placa de acero en la que se ha secado el analito junto con una matriz. La matriz absorbe la energía del láser que a su vez se transfiere a la muestra, haciendo que cambie a estado gaseoso.

Pero, ¿por qué las proteínas? ¿a qué viene ese interés por analizarlas? La razón es que las proteínas son las moléculas fundamentales de todos los seres vivos. Las proteínas son las encargadas de realizar diversas tareas en nuestras células; entre otras, catalizan reacciones químicas, transportan moléculas, mantienen la estructura celular y nos protegen frente a los patógenos. Nuestro cuerpo está formado por trillones de células, y cada una de ellas cuenta con miles de proteínas diferentes. De hecho, dependiendo del catálogo o conjunto de proteínas que contenga un tipo de célula, llevará a cabo unas u otras funciones y tendrá unas u otras características. Todas las células de un ser vivo contienen la misma información genética, es decir, el genoma de todas sus células es idéntico. La información necesaria para producir cada proteína está escrita en los genes. Dicho de otro modo, los genes son las recetas que se siguen para crear las proteínas, y dependiendo de las recetas que se utilicen en cada momento, se producirán unas proteínas u otras. Se denomina proteoma a la colección de proteínas de las que dispone una célula en un momento concreto. A diferencia del genoma, el proteoma celular varía continuamente; en respuesta a cualquier estímulo que llegue a las células, o cuando deben hacer frente a cualquier ataque, es decir, con el fin de adaptarse al entorno, las células producirán diferentes proteínas que trabajarán conjuntamente. Esto explica cómo, contando ambas con el mismo genoma, una oruga se convierta en mariposa (Imagen 1).

Imagen 1. Papilio machaon oruga (a) y mariposa (b). Fuente: Wikimedia Commons.

Las proteínas, al igual que nosotros, tienen sus propias «redes sociales». Cumplen sus funciones interaccionando entre ellas más que individualmente. A pesar de ello, estas interacciones suelen ser, en la mayoría de los casos, temporales. Se crean y se destruyen según las necesidades celulares. Habiendo millones de proteínas en la células, la red de interacciones intracelulares es tan compleja como la que puede haber entre todas las personas del planeta. El funcionamiento de esa red de proteínas condicionará la salud de la célula y, en consecuencia, la de todo el organismo. Por eso es tan importante estudiar las proteínas y sus interacciones, es decir, los proteomas, e intentar interpretarlos en su conjunto. En consecuencia, uno de los retos fundamentales de la biología actual es describir los proteomas cualitativamente y cuantitativamente. Dicho objetivo parece alcanzable y pocos dudan del liderazgo que ha tomado la proteómica en este camino.

La proteómica estudia los proteomas. Fue en 1975 cuando por primera vez se separaron miles de proteínas de la bacteria Escherichia coli mediante electroforesis bidimensional en gel (2DE). Sin embargo, la identificación de dichas proteínas, concretar cuáles eran exactamente, constituía otro reto diferente. Para abordarlo, fue necesario, tanto desarrollar técnicas de secuenciación parcial, léase degradación de Edman, como ajustar la propia técnica de espectrometría de masas (MS) al análisis de proteínas. La MS es, a día de hoy, el método que se utiliza habitualmente para identificar proteínas. Para poder interpretar los proteomas en su conjunto, además de identificar las proteínas, hay que cuantificarlas. Los primeros pasos para la cuantificación de proteínas se dieron mediante el análisis de imágenes de los geles de 2DE. Si bien sigue siendo una técnica adecuada para el análisis proteómico, hoy en día ocupa un segundo lugar, muy por detrás de la proteómica basada en la espectrometría de masas (MS-based proteomics). De hecho, actualmente, la MS es el método habitual para identificar y cuantificar las proteínas en muestras proteicas complejas. Se ha convertido pues en una técnica fundamental para interpretar la información codificada en el genoma.

Tal y como se ha mencionado anteriormente, las técnicas habituales utilizadas para ionizar y evaporar proteínas y péptidos son ESI y MALDI. La técnica MALDI-MS se utiliza para analizar mezclas de péptidos relativamente simples. En cambio, los sistemas ESI-MS acoplados a la cromatografía líquida (LC-MS), son los más adecuados para el análisis de muestras complejas. Siendo los proteomas, por definición, complejos, las técnicas de LC-MS han prevalecido en la proteómica. La precisión, sensibilidad y resolución de masas, junto con su velocidad, son las claves del éxito de las técnicas de LC-MS. Durante los últimos años, se ha podido identificar, cuantificar y caracterizar un enorme número de proteomas mediante diferentes procedimientos de LC-MS. Entre los logros conseguidos a nivel de proteómica, cabe destacar dos borradores del proteoma humano publicados en 2014, y el actual Proyecto Proteoma Humano (HPP) dirigido por la Organización Mundial del Proteoma Humano (HUPO)

Pero, ¿qué es lo que hacemos exactamente en un laboratorio de proteómica? Sea cual sea la muestra recibida (muestra obtenida de una biopsia, células animales o vegetales, bacterias, secreción biológica…), habitualmente se aplica el flujo de trabajo denominado proteómica bottom-up o proteómica ascendente, de abajo hacia arriba (Imagen 2). En primer lugar, se extraen las proteínas de la muestra. A continuación, se utiliza una enzima que digiere las proteínas, habitualmente la tripsina, para trocear las proteínas en trozos pequeños denominados péptidos. Los péptidos de la mezcla se separan en la cromatografía líquida de fase inversa acoplada a la ionización por electrospray. A medida que los péptidos eluyen de la columna, se van ionizando y pasan al espectrómetro de masas. Allí, los iones de los péptido se van separando y detectando en función de su relación masa-carga (m/z). Los péptidos más abundantes se aíslan del resto, y se fragmentan, dando lugar a espectros de fragmentación. Estos espectros son los que contienen la información que permite identificar y cuantificar los péptidos. Finalmente, los datos obtenidos por el espectrómetro de masas se analizan mediante herramientas informáticas específicas. De esta manera, es posible saber qué proteínas hay en la muestra analizada y en qué cantidad.

Imagen 2. Proteómica bottom-up Fuente: Autores.

Durante la última década, la proteómica basada en la MS se ha convertido en una de las principales herramientas analíticas para las biociencias. Ha permitido estudiar las proteínas desde diversas vertientes, y ha facilitado el camino para conocer sus estructuras, variaciones, cantidades, modificaciones postraduccionales e interacciones. Además, gracias a la proteómica nos encontramos más cerca de identificar las proteínas implicadas en el desarrollo de diversas enfermedades y los biomarcadores necesarios para el diagnóstico de las mismas. Durante los próximos años, se irán completando los catálogos proteicos de diferentes condiciones celulares. Junto a los resultados obtenidos a partir de la genómica, epigenómica, metabolómica y otras «ómicas» a gran escala, los descubrimientos obtenidos gracias a la proteómica contribuirán a la construcción de modelos celulares. De hecho, esa es la tendencia actual: trabajar desde un punto de vista multidisciplinar con el fin de construir modelos matemáticos y estadísticos que ayuden a aclarar la complejidad de los procesos biológicos; y es precisamente ahí donde la proteómica jugará un papel relevante.

Más información

  • Fenn JB (2003) “Electrospray wings for molecular elephants (Nobel lecture)” Angew Chem Int Ed Engl. 42(33), 3871-94. DOI:10.1002/anie.200300605
  • Fenn JB et al. (1989) “Electrospray ionization for mass spectrometry of large biomolecules” Science 246(4926), 64-71. DOI: 10.1126/science.2675315
  • Tanaka K et al. (1988) “Protein and polymer analyses up to m/z 100 000 by laser ionization time-of-flight mass spectrometry” Rapid Communications in Mass Spectrometry 2(8), 151–153. DOI:10.1002/rcm.1290020802
  • Karas M and Hillenkamp F (1988) “Laser desorption ionization of proteins with molecular masses exceeding 10,000 daltons” Anal Chem. 60(20), 2299-301. DOI: 10.1021/ac00171a028
  • O’Farrell (1975) “High resolution two-dimensional electrophoresis of proteins” J Biol Chem 250(10), 4007-21.
  • Kim MS et al. (2014) “A draft map of the human proteome” Nature 509(7502), 575-81. DOI: 10.1038/nature13302
  • Wilhelm M et al. (2014) “Mass-spectrometry-based draft of the human proteome” Nature 509(7502), 582-7. DOI: 10.1038/nature13319
  • HUPO: https://hupo.org/human-proteome-project

Sobre los autores: Miren Josu Omaetxebarria, Nerea Osinalde, Jesusmari Arizmendi y Jabi Beaskoetxea, miembros del departamento de Bioquímica y Biología Molecular, y Kerman Aloria, técnico de SGIker.

El artículo Proteómica: cuando las proteínas y la espectrometría de masas van de la mano se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cartografiando territorio inexplorado: imagen por espectrometría de masas
  2. Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
  3. A new hero is born: La espectrometría de masas al servicio de la justicia
Categories: Zientzia

El orden es una fantasía

Thu, 2019/03/07 - 11:59
Damian Ucieda Cortes. Demolition, Glasgow, Reino Unido, 2015

Uno de los cometidos más sofisticados de las ciencias es mostrar el conocimiento de forma elegante. Pensemos en las fórmulas matemáticas que describen las leyes físicas. En los modelos de moléculas y cristales. En el enunciado de hipótesis. Con qué precisión del lenguaje y con qué precisión plástica describimos cómo es lo que nos rodea. Con qué elegancia.

Para muchos, entre los que me incluyo, el paradigma de todo esto es la Tabla Periódica de los Elementos.

A lo largo de la historia se han sucedido varios intentos de ordenar los elementos químicos. Una vez tuvimos la certeza de que algunas sustancias eran elementos químicos, es decir, que estaban formadas por un solo tipo de átomos; comenzamos a ordenarlos de acuerdo con sus propiedades: peso atómico, tipo y número de elementos con los que enlaza, estado natural… Teníamos la intuición y el deseo de que los elementos que lo conforman todo, el aire, la piel, la arena, todo, respondiesen a un orden mayor, como si este orden nos hubiese venido dado.

Hubo intentos bellísimos, como el del tornillo telúrico. Para ello se construyó una hélice de papel en la que estaban ordenados por pesos atómicos los elementos químicos conocidos, enrollada sobre un cilindro vertical, y al hacer coincidir elementos químicos similares sobre la misma generatriz se apreciaba que el resto de las generatrices surgidas también mostraban relación entre los elementos químicos unidos, lo que claramente indicaba una cierta periodicidad. Era tan bonito que era una pena que no fuese cierto. El tornillo telúrico no funcionaba con todos los elementos químicos, solo servía para los más ligeros.

Hubo otro intento especialmente refinado de ordenar los elementos químicos que tenía relación con la música. Qué fabulosa la relación entre la música y la química. Al ordenar los elementos de acuerdo con su peso atómico creciente -exceptuando el hidrógeno y los gases nobles, que todavía no se conocían- el que quedaba en octavo lugar tenía unas propiedades muy similares al primero. Se le llamó ley de las octavas. Era bonito ver tal relación entre la naturaleza de los elementos químicos y la escala de las notas musicales. Lamentablemente la ley de las octavas empezaba a fallar a partir del elemento calcio. Con lo bonita que era. Una lástima.

Cuando ya se conocían 63 elementos químicos -en la actualidad conocemos 118- se ordenaron en grupos de acuerdo con sus propiedades químicas. Y dentro del grupo, se organizaron por peso atómico creciente. Quien lo hizo por primera vez, hace 150 años, tuvo la osadía de corregir algunos pesos atómicos que hacían peligrar la estética de aquella tabla. Dejó huecos para elementos que, según él, se descubrirían en el futuro. Y es que la tabla, ante todo, tenía que ser bonita, porque la realidad es bonita y tiene que responder a algún orden. Qué locura si no. Pues la tabla de los elementos químicos también.

Aquella tabla fue el origen de la actual Tabla Periódica de los Elementos. Con el tiempo, efectivamente descubrimos más elementos químicos. Rellenamos los huecos, tal y como era de esperar. Y hasta descubrimos que aquel orden no respondía a pesos atómicos crecientes, o al menos no siempre, y de ahí los cambios propuestos. Aquel orden respondía al número de protones que cada elemento químico contiene en su núcleo. Lo llamamos número atómico, pero hace 150 años no se sabía nada de esto. Era bonito, era ordenado, era elegante. Tenía que ser verdad.

En las ciencias, y en cualquier otra forma de conocimiento, la belleza es criterio de verdad. Las leyes físicas que conseguimos expresar con fórmulas matemáticas, cuanto más bellas, más ciertas. Cuanto más y mejor comprimamos su verdad en estilosos caracteres del alfabeto griego, más ciertas. Nos brindan esa sensación tan placentera de tenerlo todo bajo control. Nos hacen creer que, si está ordenado, es que lo hemos entendido.

Las ciencias describen la realidad. Lo hacen a su manera, con su lenguaje propio. El de los números, las palabras, las ilustraciones. Esa descripción nos satisface cuando es lo suficientemente elegante. Podríamos tener un conjunto de 118 elementos químicos de los que conocer absolutamente todo, de forma individual, y no haberlos ordenado jamás. Y sabríamos lo mismo, pero nos daría la impresión de que, sin orden, los datos son solo datos. No hay conocimiento sin orden.

El orden es una fantasía. Esto puede interpretarse de dos formas de fácil convivencia. Es una fantasía porque es una ilusión. La realidad es un caos y somos nosotros con nuestras leyes y nuestras tablas los que creamos la ficción de orden. Es un deseo. Y es una fantasía porque es bonito. Porque así entendemos la belleza. Por eso el orden es un deseo de belleza autocumplido.

Los grandes hitos del conocimiento, entre ellos la Tabla Periódica de los Elementos, tienen algo en común: nos hablan de nosotros. Todos ellos revelan la pasta de la que estamos hechos.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo El orden es una fantasía se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los cuantificadores se aprenden en el mismo orden, sea cual sea la lengua
  2. Los 880 cuadrados mágicos de orden 4 de Frénicle
  3. #Naukas15 Fantasía en la divulgación: una estrella para Cervantes
Categories: Zientzia

Personas famosas que estudiaron matemáticas: música y deporte

Wed, 2019/03/06 - 11:59

En mi anterior entrada de la sección Matemoción del Cuaderno de Cultura Científica estuvimos hablando de personas que han sido famosas en diferentes ámbitos de la sociedad y la cultura, en concreto, nos centramos en el mundo de la literatura y el cine, pero que se graduaron en matemáticas, e incluso realizaron un doctorado, Personas famosas que estudiaron matemáticas: literatura y cine. En esta entrada vamos a continuar mostrando ejemplos de otros dos ámbitos de la sociedad muy alejados el uno del otro, y a priori también del mundo de las matemáticas, como son la música y el deporte.

Efectivamente, dentro de la música también nos encontramos personas que sorprendentemente están relacionadas con las matemáticas. Uno de los más conocidos es el músico estadounidense Art Garfunkel, del famoso dúo musical Simon and Garfunkel, que fueron muy populares en la década de 1960. Algunas de sus canciones más conocidas son The sound of silence (el sonido del silencio), Mrs Robinson (Señora Robinson) o Bridge over troubled water (Puente sobre aguas turbulentas). Simon y Garfunkel empezaron a cantar juntos en 1955, bajo el nombre de Tom y Jerry (como los dibujos animados), pero fue en 1963 cuando inician el dúo Simon and Garfunkel, con el que estuvieron en activo hasta su separación en 1970, aunque se volverían a reunir para conciertos puntuales en varias ocasiones.

Fotografía de Simon and Garfunkel en un concierto en Rotterdam (Holanda) en 1982, realizada por Rob Bogaerts, de la Agencia de Fotografía ANEFO. Imagen de Wikimedia Commons

Arthur (Art) Garfunkel (Nueva York, 1941) estudió en la Universidad de Columbia. Se graduó en Historia del Arte y obtuvo el master en Matemáticas, en 1967. Empezó a realizar su tesis doctoral sobre enseñanza de las matemáticas, pero la música le desvió de ese camino. Tras la ruptura del dúo, en 1970, Garfunkel además de intentar iniciar su carrera en solitario en la música, estuvo dando clase de geometría en un instituto de secundaria en Connecticut durante dos años. Fue una pequeña laguna docente en su larga vida profesional, en la que compaginaría su trabajo como cantante, actor y poeta. En algunas entrevistas habla de ese corto período como docente de geometría, como un momento “extraño”, ya que había alcanzado un enorme éxito en el mundo de la música, con Simon and Garfunkel, y ahora enseñaba matemáticas en un instituto. Por ejemplo, comenta “Yo intentaba explicarles un problema de matemáticas y cuando les decía si tenían alguna pregunta, ellos me preguntaban cómo eran los Beatles”.

Pero vayamos a un cantante más actual, el músico inglés Jon Buckland¸ guitarrista y fundador del grupo Coldplay, conocido por álbumes como Parachutes (2000), A Rush of Blood to the Head (2002), X&Y (2005) o Viva la Vida or Death and all his Friends (2008).

Jon Buckland (Londres, 1977) estudió astronomía y matemáticas en el University College de Londres, allí conoció al otro miembro de la banda Chris Martin, quien estudiaba Cultura Antigua, se hicieron amigos y juntos montarían la banda Coldplay. Algunos títulos de la banda hacen referencia a las matemáticas, como Twisted Logic, Square One, Proof, Major Minus y 42.

Jonny Buckland, en el concerto de Coldplay en el Fuji Rock Festival (2011), en Niigata (Japan). Fotografía de Christopher Johnson, en Wikimedia Commons, originalmente en Flickr

Otro de los músicos muy conocidos relacionados con las matemáticas, aunque más con la astrofísica, es el músico británico Brian May, guitarrista y compositor de la banda de rock QUEEN. Algunas de las grandes canciones de esta mítica banda están firmadas por Brian May, como “Now I’m Here”, “We Will Rock You”, “Fat Bottomed Girls”, “Save Me”, “Flash”, “Hammer to Fall”, “Who Wants to Live Forever”, “I Want It All”, “The Show Must Go On”, “Headlong”, “Too Much Love Will Kill You” o “No-One but You (Only the Good Die Young)”.

Brian May, junto a Freddy Mercury y John Deacon, en el concierto de New Heaven de noviembre de 1977. Fotografía de Carl Lender, en Wikimedia Commons, originalmente en Flickr

Brian H. May (Londres, 1947) estudió matemáticas y física en el Imperial College de Londres, graduándose en física en 1968. Empezó su tesis doctoral en astrofísica en 1971 (realizó sus primeras observaciones del espacio, para su tesis, en el observatorio del Teide en Tenerife), pero la música se cruzó en su camino y abandonó su carrera científica. Aunque no de forma definitiva, ya que la retomaría treinta años más tarde, terminando su tesis doctoral en 2007.

Participó en varias ocasiones en el programa de televisión The Sky at Night, presentado por Sir Patrick Moore, con quien ha publicado un libro de astronomía en 2012, Bang! The complete history of the Universe.

Seguimos añadiendo personajes dentro del mundo de la música. El compositor minimalista estadounidense Philip Glass, quien ha compuesto más de 20 óperas, entre ellas La Bella y la Bestia (1994), Einstein on the Beach (1976), en la cual los números son muy importantes, solo se cantan en ella números y nombres de notas musicales, o sus óperas Galileo Galilei (2002) y Kepler (2009), un montón de bandas sonoras de películas, entre ellas Kundun (1997), de Martin Scorsese, El show de Truman (1998), de Peter Weir, Las horas (2002), de Stephen Daldry o El ilusionista (2006), de Neil Burger, así como muchos otros álbumes, por ejemplo, de composiciones para piano, entre otras. Su música se enmarca dentro del estilo de música New Age.

Philip Glass, en cuatro momentos, durante un concierto en Aarhus (Dinamarca), en 2017. Fotografía de Hreinn Gudlaugsson, en Wikimedia Commons

Con 15 años, Philip Glass (Baltimore, Maryland, 1937) empezó a estudiar matemáticas y filosofía en la Universidad de Chicago, y se graduó a los 19 años. En una entrevista sobre la ópera Einstein on the Beach a Philip Glass, quien compuso la música y el texto, y a Robert Wilson, director y productor de la ópera, este contó que cuando se conocieron le preguntó a Philip Glass como componía y este le puso un ejemplo de una fórmula matemática. Y es que las matemáticas son importantes en la obra de Philip Glass, puesto que suele utilizar estructuras matemáticas para componer algunas de ellas.

La cantante estadounidense Barbara Hendricks, soprano lírica y también cantante de jazz, que en los últimos 20 años es también conocida por su activismo por los derechos humanos, se graduó en matemáticas y en química en la Universidad de Nebraska-Lincoln. Cuando en 2009 estuvo en Bilbao, en una entrevista afirmó lo siguiente:

Las matemáticas sirven para todo en la vida, ya que te enseñan a razonar, a resolver problemas. Pero sobre todo me han dado disciplina para mí misma, una disciplina que no es para nada opresiva, sino que me facilita ser libre”.

Fotografía, realizada por Anders Henrikson, de Barbara Hendricks en un concierto en Estocolmo (Suecia), en 2014. Imagen de Wikimedia Commons

Una opinión diferente de las matemáticas tiene la cantante británica ESKA. Nacida en Londres (1971), pero cuya familia procedía de Zimbabue, Eska Mtungwazi estudió el grado de matemáticas en la prestigiosa London School of Economics. En esa época ya empezó a adentrarse en el mundo de la música, pero la presión por tener una carreara más convencional la llevó a empezar un master en matemáticas y estadística, después en enseñanza de las matemáticas, antes de empezar a trabajar como maestra de educación primaria.

Ella les da poca importancia a sus estudios de matemáticas. En una entrevista en la Revista Yorokobu afirma:

La educación superior no tiene por qué ser ilustradora, esa educación sirve si ayuda a la persona a seguir interesada en aprender. Yo estoy agradecida a mis padres por haberme facilitado esa educación superior, eso lo llevo conmigo, pero, claro, ¿hasta qué punto tiene esto que ver con lo que estoy haciendo ahora?”.

Portada del álbum ESKA (2015), de la cantante británica ESKA

El compositor y letrista estadounidense Stephen Sondheim, conocido y premiado, en particular, por sus contribuciones al género del musical, aunque no posee un título en matemáticas, si está muy relacionado con esta ciencia. Stephen Sondheim ha recibido un Oscar de la Academia (por la canción Sooner or Later de la película Dick Tracy, interpretada por Madonna), 8 premios Tony de teatro (por musicales como A Funny Thing Happened on the Way to the Forum, Companies, Follies, A Little Night Music o Sweeney Todd, y uno a toda su carrera), 8 premios Grammy de la academia de la música, un Pulitzer (por el drama Sunday in the Park with George), y muchos premios más.

Fotografía de Stephen Sondheim de alrededor de 1970 y cartel de la obra musical Sweeney Todd, el barbero diabólico de la calle Fleet, de la producción del National Youth Music Theatre, en el Teatro Rose de Kingston, Nueva York, en 2011. Imágenes de Wikimedia Commons

Las matemáticas, así como los problemas y juegos de ingenio, fueron su primera pasión en su juventud, antes que la música, aunque ya tocaba el piano desde niño, y la literatura.

Stephen Sondheim empezó a estudiar el grado de matemáticas en el Williams College, de Williamson, Massachusetts, pero pronto empezó a interesarse solo por la música a raíz de un curso de música del primer cuatrimestre en el que se había matriculado y abandonó las matemáticas. En una entrevista sobre esos años afirma “Yo era matemático por naturaleza, y aún lo soy, pero sabía que no quería ser matemático”. Aunque en otra entrevista afirma en relación a las matemáticas, quizás por esa parte natural matemática que llevaba dentro, “me habría encantado trabajar en el teorema de Fermat”.

Y existen muchos más ejemplos, como el trompetista estadounidense de los años 1950, Clifford Brown, quien se graduó en matemáticas en el Delaware State College y en música en el Maryland State College; el músico canadiense Dan Snaith, cuyos nombres artísticos son Caribou, Manitoba o Daphni, realizó su tesis doctoral (cuyo título era Overconvergent Siegel Modular Symbols) sobre temas de álgebra, bajo la dirección del matemático Kevin Buzzard, en el Imperial College de Londres; el guitarra y vocalista del grupo de punk californiano Angry Samoans, Greg Turner, se graduó en matemáticas Claremont Graduate University e imparte clases de matemáticas en la New Mexico Highlands University; o el cantante y compositor, Phil Alvin, de la banda de rock and roll formada en 1978 en California, The Blasters, obtuvo su grado de master en matemáticas e inteligencia artificial en la California State University, en Long Beach, y después realizó su tesis doctoral en UCLA, donde también impartió clases de matemáticas. Incluso, hubo quien empezó, pero se quedó en el camino, como la cantante Carole King, que realizó solo un año de matemáticas.

La cantante Carole King interpretando la canción “(You Make Me Feel Like) A Natural Woman” en el Madison Square Garden de Nueva York. Fotografía de Jonathan Schilling, en Wikimedia Commons

Para terminar con la música me gustaría añadir a la pionera de la música electrónica Delia Derbyshire. La música y compositora británica Ann Delia Derbyshire (1937-2001) obtuvo una beca para estudiar matemáticas en el Girton College de la Universidad de Cambridge, y finalmente se graduaría en matemáticas y música. Y salvo tres meses dando clases de matemáticas y música para el cónsul general británico en Ginebra, no volvería a tener relación con el mundo académico matemático.

Sin embargo, su relación con las matemáticas no termina ahí, ya que estas eran fundamentales para la composición de sus obras, como ella misma afirmaba en una de las pocas entrevistas que concedió. Por ejemplo, utilizó la sucesión de Fibonacci 1, 1, 2, 3, 5, 8, 13, 21, 34, … para la creación de sus composiciones (para información sobre esta sucesión pueden leerse las entradas Póngame media docena de fibonaccis o El origen poético de la sucesión de Fibonacci, entre otras).

La música y compositora Delia Derbyshire. Imagen de la página web Mujeres y música

También nos encontramos en este grupo de personas relacionadas con las matemáticas a algunos deportistas.

Empecemos con un ejemplo curioso, ya que fue una persona conocida tanto dentro del fútbol, como de las matemáticas, es el danés Harald Bohr (1887-1951), hermano del premio Nobel de Física, Niels Bohr.

Harald Bohr estudió matemáticas en la Universidad de Copenhague, donde se licenció en 1909 y obtuvo su doctorado un año más tarde. Su área de trabajo fue el Análisis Matemático. Empezó estudiando, para su tesis doctoral, la conocida serie de Dirichlet, luego en colaboración con el matemático alemán Edmund Landau obtuvo el conocido como teorema de Bohr-Landau y fundó, junto con el matemático inglés G. H. Hardy, el campo de las funciones casi periódicas. Entre 1915 y 1930 fue profesor en Universidad Tecnológica de Dinamarca y después catedrático en la Universidad de Copenhague, durante 21 años, hasta su muerte.

Fotografía de la asistencia al International Congress of Mathematicians de Zurich en 1932, entre la que se encuentra Harald Bohr (rodeado en azul). Imagen de Wikimedia Commons

Pero resulta que además de un buen matemático, fue un buen jugador de fútbol. En 1903, con dieciséis años, debutó en el club Akademisk Boldklub, del norte de Copenhague. En 1908 fue seleccionado para jugar con la selección danesa de fútbol en los Juegos Olímpicos de Londres, donde obtuvieron la medalla de plata. Volvería a jugar con la selección danesa en 1910 contra Inglaterra. Se convirtió en una celebridad como jugador de fútbol, hasta el punto de que cuando defendió su tesis doctoral dentro del público asistente a la misma había más fans de fútbol que personas del ámbito de las matemáticas.

Fotografía del equipo danés de fútbol que compitió en los Juegos Olímpicos de Londres en 1908. El matemático Harald Bohr es el segundo, empezando por la izquierda, de la fila superior. Imagen de Wikimedia Commons

El jugador inglés de fútbol Glen Johnson (Greenwich, Londres, 1984), quien jugó, entre los años 2002 y 2019, en seis clubs ingleses distintos, entre ellos el Chelsea y el Liverpool, y fue internacional en 54 partidos, entre ellos, los mundiales de Sudáfrica (2010) y Brasil (2014), empezó en 2012, en paralelo a su carrera en el fútbol, a estudiar el grado de matemáticas en la Open University, la universidad a distancia.

Fotografía del jugador inglés Glen Johnson en 2011, cuando jugaba con el Liverpool. Imagen de Badudoy en Wikimedia Commons

El exfutbolista camerunés, nacionalizado francés, Jean-Alain Boumsong (Douala, Camerún, 1979), que jugó en diferentes clubes europeos, como el francés Le Havre, el Glasgow Rangers escocés, el Newcastle United inglés, la Juventus de Turín, el Olympique de Lyon, y el Panathinaikos, así como en la selección francesa, se graduó en matemáticas por la Universidad de Le Havre.

Casi podríamos decir que también se graduó en matemáticas el mítico jugador de baloncesto de la NBA Michael Jordan (Nueva York, 1963), jugador de los Chicago Bulls, quizás el mejor jugador de baloncesto de la NBA de la historia, ya que empezó el grado de matemáticas, pero lo abandonó en su penúltimo año. Aunque sí terminó sus estudios de matemáticas el también jugador de baloncesto de la NBA David Robinson, apodado “el almirante”, que jugó durante 14 temporadas en los San Antonio Spurs. Al terminar del instituto, David Robinson ingresó en la Academia Naval de Estados Unidos, donde se graduó en matemáticas.

Fotografía de uno de los míticos mates del jugador de Baloncesto de la NBA, de los Chicago Bulls, Michael Jordan

Un jugador de baloncesto español que también es matemático es el alicantino Sergio Olmos (Elda, 1986). En un curso de verano Xpheres College, para profesionales del Baloncesto, Sergio Olmos se presentaba como “el matemático más alto del mundo” y es que este jugador de baloncesto, de 2,13 metros de altura, se graduó en matemáticas en la Universidad de Temple en Philadelphia, a donde se marchó con 17 años para continuar su carrera dentro del baloncesto. Después de los cuatro años jugando a baloncesto en la Universidad de Temple, y estudiando matemáticas, continuó su carrera de baloncesto en España, jugando en diferentes clubs, como el Valencia Basket, el Club Basquet Coruña o la Fundación Club Baloncesto Granada, en el que juega en la actualidad. Sin embargo, no abandonaría su carrera académica. Interesado por la estadística se graduó en Ciencias Económicas y Matemáticas en la británica Open University y realizó Máster de Bioestadística y Bioinformática de la Universitat de Barcelona. La empresa de bioestadística y estadística aplicada Biostatech, le incluye en su página web como uno de sus colaboradores. Y recientemente ha empezado a escribir un blog sobre matemáticas llamado Mínimos cuadrados.

El jugador de Baloncesto Sergio Olmos, hacia el año 2016, jugando en el Club Basquet Coruña

El jugador de fútbol americano John Urschel que jugó en la NFL en los Baltimore Ravens, durante tres temporadas hasta que se retiró en 2017. Por otra parte, se graduó en matemáticas en la Universidad Estatal de Pensilvania (Penn State University) en 2012, y obtuvo el grado de master en 2013. En 2014 entró como profesor adjunto en esa misma universidad, donde continúa trabajando y en 2016 empezó a realizar su tesis doctoral en el MIT (Instituto Tecnológico de Massachusetts), sobre teoría de grafos espectral, álgebra lineal numérica y machine learning (aprendizaje automático).

Su primer artículo fue “Inestabilidades en el problema de los tres cuerpos de Sol-Jupiter-Asteroide” publicado en 2013 en la revista Celestial Mechanics and Dynamical Astronomy. Ha día de hoy, ya tiene 11 artículos publicados en revistas de investigación. Tiene número de Erdös 4. Recordemos que el número de Erdös es la distancia, en co-autoría de artículos de investigación matemática entre una persona que investiga en esta ciencia y el matemático húngaro Paul Erdös (1913-1996), así él mismo tiene número de Erdös 0, alguien que ha publicado un artículo con Erdös tiene número de Erdös 1, quien ha publicado con una persona con número de Erdös 1, tiene número de Erdös 2, y así se continúa (para más información El número de Erdös-Bacon-Sabbath).

Fotografías de John Urschel, una como jugador de futbol americano en los Baltimore Ravens en 2015 (fotografía de Jeffrey Beall en Wikimedia Commons) y la otra frente a una pizarra en la Tufts University en 2018 (fotografía del propio John Urschel, en Wikimedia Commons)

Aunque no es el único jugador de fútbol americano con un grado en matemáticas. Por ejemplo, el jugador de los New York Giants y los Carolina Panthers, y en la actualidad entrenador de este último equipo, Chase Blackburn (Ohio, 1983), se graduó en matemáticas en la Universidad de Akron, en Ohio. O el jugador de las décadas de 1950 y 1960, Frank Ryan (Texas, 1936), que jugó en los equipos Los Ángeles Rams, Cleveland Browns o Washington Redskins, no solo es doctor en matemáticas por la Universidad de Rice (el título de su tesis doctoral es “A Characterization of the Set of Asymptotic Values of a Function Holomorphic in the Unit Disc”), sino que continuó su carrera como profesor e investigador en matemáticas, y tiene número de Erdös igual a 3.

Terminamos con otro deporte, como es el tenis. La tenista británica Virginia Wade, que ganó el torneo abierto de EEUU en 1968, el abierto de Australia en 1972 y el torneo de Wimbledon en 1977, estudió matemáticas y física en la Universidad de Sussex.

Fotografía de Virginia Wade jugando al tenis. Imagen de la página web de la BBC

Estos no son todos los ejemplos que existen, pero es una buena muestra.

Bibliografía

1.- Entrada en la Wikipedia sobre Art Garfunkel

2.- Página web de Art Garfunkel

3.- Entrada en la Wikipedia sobre Jon Buckland

4.- Entrada en la Wikipedia sobre Brian May

5.- Página web de Philip Glass

6.- Entrada en la Wikipedia de Philip Glass

7.- Marta Macho, Barbara Hendricks y las matemáticas, Mujeres con ciencia, 2014.

8.- Página web de ESKA

9.- Entrada en la Wikipedia de Delia Derbyshire

10.- Página web de Delia Derbyshire

11.- Entrada en la Wikipedia de Harald Bohr

12.- Entrada en la Wikipedia de Glen Johnson

13.- Entrada en la Wikipedia de Jean-Alain Boumsong

14.- Entrada en la Wikipedia de Michael Jordan

15.- Entrada en la Wikipedia de John Urschel

16.- Entrada en la Wikipedia de Sergio Olmos

17.- Entrada en la Wikipedia de Virginia Wade

18.- David Richeson, Look who majored in mathematics, blog Division by zero, 2009.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Personas famosas que estudiaron matemáticas: música y deporte se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Personas famosas que estudiaron matemáticas: literatura y cine
  2. Con ‘n’, música ‘casi’ infinita
  3. Las dos culturas de las matemáticas: construir teorías o resolver problemas
Categories: Zientzia

La velocidad finita de la luz

Tue, 2019/03/05 - 11:59
Ío con Júpiter de fondo. Fuente: NASA

Dado que podemos considerar que la luz viaja en línea recta, ¿podemos decir a qué velocidad lo hace? Galileo abordó este problema en sus Discorsi e Dimostrazioni Matematiche Intorno a Due Nuove Scienze, publicado en 1638. Señaló que las experiencias cotidianas podrían llevarnos a concluir que la luz se propaga instantáneamente. Pero que estas experiencias, cuando se analizan más de cerca, solo muestran que la luz viaja mucho más rápido que el sonido. Por ejemplo, “cuando vemos disparar una pieza de artillería a gran distancia el destello llega a nuestros ojos sin que transcurra tiempo; pero el sonido llega al oído solo después de un intervalo perceptible”.

Pero, ¿cómo sabemos realmente si la luz se movió “sin que transcurra tiempo” a menos que tengamos alguna forma precisa de medir el lapso de tiempo? Galileo continúa describiendo un experimento mediante el cual dos personas que se encontrasen en colinas distantes y usando linternas podrían medir la velocidad de la luz. Concluyó que la velocidad de la luz era probablemente finita, no infinita. Galileo, sin embargo, no estima un valor definido concreto.

Las pruebas experimentales se relacionaron con éxito por primera vez con una velocidad finita para la luz por un astrónomo danés, Ole Rømer. Las observaciones detalladas de los satélites de Júpiter habían mostrado una irregularidad inexplicable en los tiempos registrados entre los eclipses sucesivos de los satélites por el planeta. Se esperaba que un eclipse del satélite Ío ocurriera exactamente 45 s después de las 5:25 de la mañana del 9 de noviembre de 1676 (calendario juliano). En septiembre de ese año, Rømer anunció a la Academia de Ciencias de París que el eclipse observado llegaría 10 minutos tarde. El 9 de noviembre, los astrónomos del Observatorio Real de París estudiaron cuidadosamente el eclipse. Aunque escépticos, informaron que el eclipse ocurrió tarde, tal como lo había previsto Rømer.

Ilustración empleada por Rømer en su informe Demonstration tovchant le mouvement de la lumiere trouvé par M. Römer de l’ Academie Royale des Sciences, fechado el 7 de diciembre de 1676. A: Sol; B: Júpiter; DC: Ío

Más tarde, Rømer reveló la base teórica de su predicción a los desconcertados astrónomos en la Academia de Ciencias. Explicó que el tiempo originalmente esperado del eclipse se había calculado a partir de observaciones hechas cuando Júpiter estaba cerca de la Tierra. Pero ahora Júpiter se estaba más lejos. El retraso en el eclipse ocurrió simplemente porque la luz procedente de las inmediaciones de Júpiter, donde ocurría el eclipse, necesita un tiempo para llegar a la Tierra. Obviamente, este intervalo de tiempo debe ser mayor cuando la distancia relativa entre Júpiter y la Tierra en sus órbitas es mayor. De hecho, Rømer estimaba que la luz necesita alrededor de 22 minutos para cruzar la propia órbita de la Tierra alrededor del Sol.

Poco después, el físico holandés Christian Huygens utilizó los datos de Rømer para realizar el primer cálculo de la velocidad de la luz. Huygens combinó el valor de Rømer de 22 minutos para que la luz cruzara la órbita de la Tierra con su propia estimación del diámetro de la órbita de la Tierra. Huygens obtuvo un valor para la velocidad de la luz en el espacio que, en unidades modernas, es de aproximadamente 200.000 km/s. Esto es, aproximadamente dos tercios del valor actualmente aceptado. El error en el valor de Huygens se debió principalmente a que Rømer sobrestimó el intervalo de tiempo. Ahora sabemos que la luz solo necesita unos 16 minutos para cruzar la órbita de la Tierra.

La velocidad de la luz se ha medido de muchas maneras diferentes desde el siglo XVII. El desarrollo de dispositivos electrónicos en el siglo XX permitió mediciones muy precisas, haciendo de la velocidad de la luz una de las constantes físicas medidas con mayor precisión. Debido a la importancia del valor de la velocidad de la luz en las teorías físicas modernas*, en la actualidad su valor no se mide, sino que está definido a consecuencia de la definición de metro y es, exactamente, de 299,792,458 metros por segundo. La velocidad de la luz suele estar representada por el símbolo c.

Nota:

* Sobre esto puedes leer La velocidad de las ondas electromagnéticas y la naturaleza de la luz de la serie Electromagnetismo y El principio de constancia de la velocidad de la luz de la serie Teoría de la invariancia

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo La velocidad finita de la luz se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El principio de constancia de la velocidad de la luz
  2. La velocidad de las ondas electromagnéticas y la naturaleza de la luz
  3. La relatividad del tiempo (y 3)
Categories: Zientzia

¿Por qué son tan grandes las ballenas?

Mon, 2019/03/04 - 11:59
Escultura metálica de “Bluebelle”, una ballena azul capturada en el Atlántico sur en 1912, expuesta en la ribera del Sena durante la Cumbre del Clima de París en 2015. Fuente: Bluebird Marine Systems

Como miembro de una especie que habitualmente se cree el centro del universo, considero personalmente muy importante recibir de vez en cuando una bofetada de humildad ecológica. Una cosa que nunca falla, son las ballenas. Pensar en esos enormes mamíferos viviendo (o, bueno, sobreviviendo) en la inmensidad del océano siempre me recuerda lo insignificante que soy.

Y sin embargo, no tenía ni idea hasta hace poco de cómo las ballenas se hicieron tan grandes, ni por qué. Ni siquiera me lo había preguntado hasta que me topé con la respuesta. Por eso yo soy periodista científica, y no científica, supongo. No me hago las preguntas, pero me encanta contar las respuestas. Aquí voy con esta respuesta, por si ustedes tampoco la conocen.

¿Cuándo se hicieron enormes las ballenas?

No tenemos del todo claro cómo las ballenas se hicieron tan enormes, si les tengo que ser sincera, aunque es un debate abierto desde hace tiempo. En 2010, Graham Slater, biólogo evolucionista de la Universidad de Chicago, propuso una hipótesis según la cual los cetáceos (ballenas y delfines) se dividieron en grupos de distintos tamaños muy pronto en su evolución, hace aproximadamente 30 millones de años. En ese momento, los delfines quedaron como los más pequeños de la familia, las ballenas barbudas se convirtieron en gigantes y los zifios evolucionaron a un tamaño intermedio. Los tres grupos y sus descendientes se han mantenido más o menos estables en esos rangos de tiempo.

No todo el mundo está de acuerdo con esta teoría. Nicholas Pyenson, del Museo de Historia Natural perteneciente al Smithsonian, en Washington, decidió utilizar la enorme colección de fósiles del museo para aclarar las dudas. Tras determinar que el tamaño total de una ballena se puede inferir del tamaño de los huesos de su mandíbula, midió o obtuvo ese dato de los cráneos de 63 especies de ballena ya extinta, además de 13 especies actuales, y las fue colocando en una línea temporal que mostrase la evolución del árbol familiar de las ballenas.

Los datos obtenidos demostraban que las ballenas no aumentaron de tamaño tan pronto como Slater había sugerido en un principio, y también que no fue algo progresivo en el tiempo, sino que se habían vuelto moderadamente grandes y se habían mantenido así durante millones de años hasta hace unos 4,5 millones de años, según un estudio que publicaron después conjuntamente Pyenson, Slater y Jeremy Goldberg, de la Universidad de Stanford en Palo Alto.

En ese momento pasaron de relativamente grandes a gigantescas. La ballena azul que conocemos a día de hoy mide hasta 30 metros de largo, mientras que hace 4,5 millones de años las ballenas más grandes que existían medían solamente 10 metros.

¿Cómo fue posible?

Vale, ya sabemos cuándo. ¿Cómo pasó esto? Slater y compañía pasaron entonces a estudiar qué estaba ocurriendo en el mundo en aquel momento para que tuviese lugar este importante cambio de tamaño en las ballenas. Descubrieron que el estirón coincidió con el principio de la primera edad de hielo. En ese momento en que los glaciares se expandían, los deshielos de primavera y verano vertían enormes cantidades de nutrientes a las costas oceánicas que causaron una proliferación masiva del krill, los organismos microscópicos de los que se alimentan las ballenas.

Esto creó un nuevo patrón de alimentación: los deshielos estacionales creaban épocas de comida abundante separadas a lo largo del año, disponible para aquellos que pudiesen aprovecharla y con menos competencia debido a la desaparición de muchos otros peces y animales marinos.

Esto fue una ventaja para las ballenas: las ballenas que se alimentan cazando krill y filtrando el agua a través de sus barbas podían en este ambiente alimentarse de forma más eficiente que otros competidores. Y cuando mejor alimentadas, más grandes y rápidas eran para desplazarse de una zona de caza a otra.

¿Por qué ese tamaño gigantesco?

Quizá ahora sepamos un poco mejor, aunque todavía no de forma definitiva, cuándo y cómo las ballenas se hicieron descomunales, pero ¿por qué?

Tampoco aquí la respuesta está del todo clara. Algunos expertos postulan que pudo ser una respuesta evolutiva a los ataques de los megatiburones que poblaron los océanos hace millones de años. Pero la mayoría de las hipótesis se centran en el agua como un medio liberador: con la gravedad atenuada, los cuerpos de los mamíferos marinos, especialmente los de las ballenas, son capaces de manejar muchas más toneladas de peso. Además, es más fácil acceder a grandes territorios donde alimentarse y el menú es más variado.

Sin embargo, esta idea del océano como liberación también tiene sus detractores, y en 2018, William Gearty, de la Universidad de Stanford, propuso una explicación diferente: las ballenas y otros mamíferos marinos son tan grandes no por el alivio que el agua pone a sus limitaciones, sino porque impone otras nuevas.

A medida que entras en el agua, empiezas a perder un calor corporal que no estabas perdiendo sobre la tierra, y la forma más eficiente contrarrestar esa pérdida de temperatura es volverse más grande: a medida que crece cuerpo de un animal (de estos animales marinos concretamente cuyo cuerpo tiende a adoptar la forma de un globo), el volumen aumenta más rápido que su superficie, de forma que se genera más calor, pero se pierde menos en comparación. Claro que el volumen de un animal no puede aumentar infinitamente, ya que un cuerpo mayor también requiere más alimento, y hay un límite en la comida que un animal puede encontrar, atrapar y comer.

Según esta teoría, el tamaño de una especie se encuentra limitada por abajo por su necesidad de mantenerse caliente (demasiado pequeño y perderá demasiado calor) y por arriba por su necesidad de alimentarse (demasiado grande y no podrá comer lo suficiente). Y ese límite es mucho más estrecho en el mar que en la tierra, según el científico, que calculó que los mamíferos marinos (focas, cetáceos, manatíes…) han alcanzado de forma independiente una masa media óptima de unas 5 toneladas.

Las ballenas y las focas, en los extremos

Espera, ¿qué? ¿5 toneladas? Pero eso está muy, muy lejos de las 140 toneladas que puede pesar una ballena azul adulta, el animal más grande del mundo y con el que hemos abierto esta historia.

Sí, bueno, recordemos que se trata de una media. En el otro extremo estarían las focas, que pueden pesar, dependiendo de la especie, entre 100 y 250 kilos aproximadamente en su edad adulta. Diferencias evolutivas y de características podrían explicar como ambas especies han conseguido saltarse esos límites que propone Gearty, cada una por un lado. Las focas tienen una gruesa piel y pelo, y pasan mucho tiempo fuera del agua. Así podrían hacer frente a una pérdida de calor que en principio su pequeño tamaño facilita.

Y las ballenas azules y otras barbadas son los cazadores más eficaces del mundo y, si la explicación de Slater y sus colegas es cierta, supieron aprovechar una oportunidad que pocas especies coetáneas pudieron ver en un momento de rápidos cambios climáticos. Así han podido evolucionar y mantener esos cuerpos masivos allí donde los demás mamíferos marinos han conseguido ser grandes, pero no tanto. Gigantes de verdad, solo ellas.

Referencias:

Diversity versus disparity and the radiation of modern cetaceans – The Royal Society Publishing

Independent evolution of baleen whale gigantism linked to Plio-Pleistocene ocean dynamics – Proceedings of the Royal Society B

Why whales grew to such monster sizes – Science

Energetic tradeoffs control the size distribution of aquatic mammals – Proceedings of the National Academy of Science

Why whales got so big – The Atlantic

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo ¿Por qué son tan grandes las ballenas? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El pueblo que hablaba con las ballenas, ¿podría enseñarnos su idioma a los demás?
  2. Cómo usar a las ballenas como detectores de radiación
  3. Eran nuestras ballenas
Categories: Zientzia

El Brexit dañará el sistema cardiovascular de los británicos

Sun, 2019/03/03 - 11:59
Fuente: REUTERS / Peter Nicholls

Una investigación dirigida por Christopher Millett del Imperial College de Londres y publicada en la revista British Medical Journal, ha llegado a la conclusión de que la salida del Reino Unido de la Unión Europea provocará un aumento del número de muertes debidas a enfermedades cardiovasculares. El estudio analiza los efectos que tendría sobre la salud cardiovascular la previsible disminución del consumo de frutas y verduras que ocasionará el también previsible encarecimiento de esos alimentos. Dependiendo de la forma en que se produzca la salida, las estimaciones de fallecimientos adicionales entre los años 2.021 y 2.030 se encuentran entre un 0,6 y un 1,7% del total de muertes por enfermedad cardiovascular.

Los investigadores han analizado cuatro posibles escenarios. El primero es el que se derivaría de un acuerdo con la UE y terceros países en virtud del cual no se aplicarían tarifas aduaneras a los estados de la Unión ni a la mitad de aquellos con los que existen acuerdos comerciales en la actualidad. En el segundo también se produciría un acuerdo de libre comercio con la UE, pero sí se aplicarían aranceles a los vegetales procedentes de terceros países. El tercer escenario es el más desfavorable pues supondría una salida sin acuerdo y la implantación de barreras comerciales con los países de la Unión y aquellos con los que esta mantiene tratados de libre comercio. El cuarto es el que se produciría si el Reino Unido eliminase los aranceles comerciales con todos los países. En todos los casos se asume que se producirían subidas de precios derivados de un aumento en los costes de transacción originados por los mayores controles fronterizos. Los costes arancelarios variarían en función de los acuerdos que se alcanzasen.

Los investigadores han contado con las herramientas estadísticas necesarias para estimar la magnitud de la reducción en el consumo de los alimentos frescos de origen vegetal en función de los aumentos de precios. Y también disponen de modelos que relacionan el riesgo cardiovascular con el consumo de esos alimentos. A partir de todo ello han estimado que se producirían entre 4160 muertes adicionales (0,6% de las provocadas por enfermedad cardiovascular) en el supuesto de una eliminación de todos los aranceles (mejor escenario), y 12400 (1,7% de las debidas a enfermedad cardiovascular) en el de un Brexit sin acuerdo y con barreras arancelarias a la importación de alimentos vegetales (peor escenario).

Habrá quien ponga en duda que el precio de los alimentos tenga efectos sobre la salud. Pero los tiene. De hecho, ya sabíamos, por ejemplo, que los aumentos del precio de frutas y verduras provocan elevaciones en la concentración sanguínea del colesterol de baja y muy baja densidad, el conocido como “colesterol malo”. Esto no es anecdótico. Y no debe extrañar que esos efectos tengan incluso mayor alcance.

Como era previsible, el estudio ha generado debate entre los partidarios del Brexit y sus adversarios, y los propios autores han opuesto sus argumentos a las críticas recibidas. No obstante, consideraciones de este tipo no van a provocar cambios en la opinión del público británico y sus representantes políticos acerca del Brexit.

Con todo, lo interesante del estudio es el constatar que los sistemas de salud y la comunidad científica disponen de información sobre el efecto que pueden tener las decisiones políticas y económicas que toman los gobiernos en aspectos relevantes de la salud y la vida de las personas. Las políticas sanitarias afectan a la salud de la población, por supuesto. Pero las decisiones que inciden en el precio de los alimentos también lo hacen. Constatar este hecho es importante.

Referencias:

Seferidi P, Laverty AA, Pearson-Stuttard J, et al: Impacts of Brexit on fruit and vegetable intake and cardiovascular disease in England: a modelling study. BMJ Open 2019; 9:e026966. doi: 10.1136/bmjopen-2018-026966

Rahkovsky I & Gregory C A: Food prices and blood cholesterol. Economics and Human Biology 2013; Vol 11 (1): 95-107. https://doi.org/10.1016/j.ehb.2012.01.004

El artículo El Brexit dañará el sistema cardiovascular de los británicos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Regulación de la circulación (1): control del sistema cardiovascular
  2. Respuesta de los sistemas respiratorio y cardiovascular al ejercicio físico
  3. ¿Demuestran el Brexit y Trump que vivimos en una simulación por ordenador?
Categories: Zientzia

Geomorfología y paisaje: la piel del territorio

Sat, 2019/03/02 - 11:59

Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.

Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.

La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.

Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.

Raoul Servert, geógrafo y paisajista, consultor privado (Araudi), perito judicial en medio ambiente y ordenación del territorio, y miembro de la junta directiva de Fundicot, trata en esta ponencia sobre el papel de la geomorfología como base para los estudios integrales del paisaje.

Edición realizada por César Tomé López

El artículo Geomorfología y paisaje: la piel del territorio se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Geología, ver más allá de lo que pisamos
  2. Geología: la clave para saber de dónde venimos y hacia dónde vamos
  3. Patrimonio geológico: la otra mitad del ambiente
Categories: Zientzia

Cartografiando territorio inexplorado: imagen por espectrometría de masas

Fri, 2019/03/01 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebrará dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Durante las próximas semanas en el Cuaderno de Cultura Científica y en Zientzia Kaiera se publicarán regularmente artículos que narren algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas. Comenzamos con la serie “Espectrometría de masas”, técnica analítica que supone el ejemplo perfecto del incesante avance de la Ciencia y la Tecnología.

La espectrometría de masas es una poderosa técnica analítica que permite determinar la identidad de las moléculas a partir del dato de su masa. Para la aplicación de la técnica de espectrometría de masas, la muestra, independientemente del estado en que se encuentre, debe ser transferida intacta y cargada eléctricamente a fase gas. Por supuesto, esta definición es una supersimplificación de los principios físico-químicos que subyacen a la técnica. Sin embargo, de ella se desprenden varios datos importantes: la técnica permite analizar muestras muy complejas sin marcado previo (es decir, sin necesidad de marcar las moléculas que se quieren detectar). Estas dos características, junto con la de su enorme precisión, sensibilidad y velocidad, la hacen especialmente útil para el análisis de muestras biológicas. Sin embargo, se necesitó del desarrollo de las denominadas técnicas de ionización blanda, para poder transferir las moléculas biológicas intactas a fase gas.

La técnica de MALDI (Matrix Assisted Laser Desoption/Ionization, Figura 1) es una de las más utilizadas para la introducción de moléculas termolábiles en un espectrómetro de masas. Comienza depositando una porción representativa de la muestra biológica en una placa de acero y recubriéndola con una sustancia orgánica (la matriz), que absorbe la luz en la zona de emisión de los láseres comerciales (normalmente en el UV, en torno a los 335-350 nm). Las moléculas biológicas son, normalmente, transparentes a esta radiación, por lo que no se ven afectadas por el láser. Sin embargo, la matriz sí absorbe la radiación láser, se fragmenta, y libera el analito ionizado en fase gas.

Figura 1. Esquema de la espectrometría de masas por MALDI. Fuente: José A. Fernández

En los años 90, surge un refinamiento de esta técnica: la imagen por espectrometría de masas, que permite la exploración directa de tejidos (Figura 2). Efectivamente, la aplicación de la metodología MALDI no tiene por qué restringirse a muestras sólidas, sino que se puede aplicar directamente sobre secciones de tejido congelado en fresco. De este modo, se obtienen los mapas de distribución de todas las moléculas biológicas (detectables) a lo largo del tejido. La técnica de MALDI-IMS (MALDI-Imaging Mass Spectrometry), es capaz no sólo de dar la identificación de cientos de biomoléculas en un solo experimento, sino que aporta su localización dentro del tejido (información espacial), permitiendo asociar los cambios a estructuras histológicas o incluso a células individuales.

Figura 2. Protocolo de un experimento de MALDI-IMS. Fuente: José A. Fernández

Estudio de células de colon

En metabolómica la información espacial es de enorme relevancia, ya que cada tipo celular presenta un perfil metabólico propio, que cambia con el ciclo celular. Por ejemplo, la técnica de IMS ha sido de gran utilidad para estudiar la maduración de células en el colón, la última parte del sistema digestivo. La pared de este órgano (Figura 3), está recubierta de unas invaginaciones, denominadas criptas, que están formadas por una única capa de células epiteliales (vamos, de piel). Como todos los epitelios, el del colon también sufre un desgaste, por lo que las células deben reemplazarse continuamente. En el fondo de las criptas, existe un nicho de células madre en constante división, que son las encargadas de abastecer de nuevas células a la cripta. La presión de estas nuevas células, empuja hacia arriba a la anteriores, que van madurando para adoptar papeles especializados, hasta que, al llegar a la parte exterior, descaman.

Figura 3. A) Esquema de una cripta colónica. B) Imagen óptica de una sección de colon humano, donde se aprecian varias criptas; C) Imágenes de distribución de algunas especies representativas de lípidos en secciones de biopsias de colon humano sano y adenomatoso. Fuente: José A. Fernández

Gracias a nuestros experimentos de MALDI-IMS en colaboración con el grupo de la Dra. Barceló-Coblijn (IdisPa, Palma), hemos demostrado que todo el proceso de división y maduración de las células, está acompañado por un cambio en su perfil lipídico o lipidoma (el conjunto de los lípidos que contiene la célula): a medida que el colonocito va madurando, las especies lipídicas que contienen ácido araquidónico (un ácido graso con funciones señalizadoras), van reemplazándolo por otros ácidos grasos de cadena más corta y con menor número de insaturaciones. En resumen, los lípidos están tan estrictamente regulados, que se puede deducir a qué altura de la cripta se encuentra un colonocito, simplemente observando su perfil lipídico. Más aún, las imágenes nos permitieron determinar que este cambio en el lipidoma se da en la parte central y terminal del colonocito, mientras que el núcleo del mismo no presenta cambio alguno en su lipidoma con la maduración.

Las criptas colónicas se encuentran rodeadas de otro tejido denominado lámina propia, que le da soporte y que está altamente infiltrado por células del sistema inmune, siempre vigilantes ante posibles invasiones bacterianas. No debemos olvidar que, del otro lado del epitelio, existe una inmensa población bacteriana que nos ayuda a procesar los alimentos y a aprovechar los nutrientes. Mientras las bacterias estén del lado correcto, son beneficiosas. Lo impresionante de la técnica de MALDI-IMS es que nos permitió demostrar que las células de la lámina propia siguen un patrón completamente diferente: presentan una enorme cantidad de ácido araquidónico, que está relacionado con la inflamación, y que éste es más abundante cerca de la parte luminal del colon. Es decir, células contiguas, colonocito y fibroblasto, presentan lipidomas completamente distintos y regulan su expresión lipídica de manera independiente. Es decir, cada célula tiene una composición de lípidos propia y exclusiva, que permite su identificación

Una aplicación directa y evidente de todo este conocimiento es la detección temprana del cáncer de colon. Si el perfil lipídico de una célula está tan estrictamente regulado, la alteración metabólica que el proceso de malignización produce, debería tener un impacto dramático en el perfil lipídico celular. De hecho, nuestros resultados demuestran que el tejido alterado de colon, presenta alteraciones significativas, tanto morfológicas como metabólicas. La Figura 3 muestra imágenes histológicas de una sección de biopsia de colon neoplásico. Claramente, las criptas han perdido su morfología típica, debido a que las células madre se reproducen descontroladamente, produciendo demasiados colonocitos, que además no maduran. Tal y como esperábamos, la huella lipídica de estos colonocitos coincide con la huella lipídica de las células madre en el fondo de la cripta, demostrando desde un punto de vista molecular, que son colonocitos inmaduros que se siguen reproduciendo y que no llegan a diferenciarse. Mientras tanto, las células de la lámina propia, siguen ajenas al proceso de malignización y siguen presentando un perfil lipídico similar al que presentan en tejido sano.

Este ejemplo demuestra la importancia de la utilización de técnicas con localización espacial para el estudio del metaboloma, y más concretamente, del lipidoma, ya que los cambios se producen a nivel celular. Sin la resolución espacial, los cambios producidos en los colonocitos, quedarían diluidos entre el lipidoma del resto de las células.

Estudio del cerebro

La aplicación de la técnica de MALDI-IMS está suponiendo una revolución no sólo en el campo de la lipidómica, sino también en proteómica y en campos más aplicados como la anatomía patológica. Efectivamente, del mismo modo que en los ejemplos expuestos en este artículo se presentan mapas de distribución de lípidos, también es posible la detección de proteínas y péptidos directamente en tejido y realizar las imágenes correspondientes. Realmente, la técnica es aplicable a cualquier molécula detectable por MALDI y permite al patólogo ver la histología de un tejido, desde un punto de vista molecular. Como cada tipo de tejido o incluso de célula tiene su perfil lipidómico/proteómico propio, se pueden utilizar herramientas de análisis estadístico para visualizar los píxeles en base a su huella molecular, como se muestra en la Figura 4, donde se muestra el resultado de un experimento de MALDI-IMS sobre una sección sagital (a lo largo, desde el bulbo olfatorio hasta el cerebelo) de cerebro de rata: los espectros de cada pixel se han analizado mediante un algoritmo de análisis estadístico y se han proyectado después sobre una red neuronal, utilizando el patrón de colores mostrado en la imagen: aquellos píxeles con un perfil metabólico más parecido, presentan colores más próximos en la escala. Se observa que la imagen resultante reproduce fielmente la histología del tejido. Cualquier alteración del metabolismo de un tipo de célula, resultaría en la alteración del patrón de colores, permitiendo fácilmente su identificación.

Figura 4. Análisis estadístico de la huella lipídica de una sección sagital de cerebro de rata, con un tamaño de píxel de 100 μm.

En resumen, la técnica de MALDI-IMS permite añadir una dimensión extra al análisis de muestras biológicas: la localización espacial dentro de un tejido de los metabolitos y proteínas que lo componen, abriendo un abanico de futuras aplicaciones en el estudio de las enfermedades metabólicas.

Sobre el autor: José A. Fernández es investigador en el Departamento de Química Física de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Cartografiando territorio inexplorado: imagen por espectrometría de masas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
  2. A new hero is born: La espectrometría de masas al servicio de la justicia
  3. Metabolómica: el todo sobre la suma de las partes
Categories: Zientzia

El último puzle de Bach

Thu, 2019/02/28 - 11:59

En el antiguo Ayuntamiento de Leipzig se encuentra el que es, sin duda, el retrato más conocido de Johann Sebastian Bach. Fue pintado en 1746 por Elias Gottlob Haussmann. En él, Bach posa vestido de gala, con su mejor peluca, mirando fijamente al espectador. Su expresión es bastante seria, sí… pero, a la vez, parece contener una medio sonrisa, como si fuese a levantar una ceja. Es más me gustaría argumentar el siguiente parecido expresivo razonable:

Esa es la sonrisilla de “ya sabes a qué me refiero” aquí, en Leipzig y en Pekín. O igual no, y me lo estoy inventando yo. Quizás sea todo pura sugestión pero enseguida entenderéis por qué.

Resulta que, en este cuadro, Bach no posa solo. Si uno baja la mirada, descubre que hay un trozo de papel entre sus manos. Y ese trozo de papel está caído casualmente de manera que el espectador puede leer perfectamente su contenido:


Canon triple a 6 voces. Ya sabes a qué me refiero.

El subtítulo es mío. El hecho de que faltan la mitad de las voces del dichoso canon, no: eso forma parte del retrato (podéis contar los 3 pentagramas de la partitura). Bach mira a cámara y nos reta con su último puzle: ya sabes a qué me refiero, a ver si puedes sacarlo.

Pero es que esta era, precisamente, la gracia del canon como forma musical. Hoy todos conocemos los cánones como melodías que se copian a sí mismas después de cierto número de compases. Pero si está sonando “arde Londres” ahora mismo en tu cabeza, dale al pause. Los cánones de los que voy a hablarte eran mucho más interesantes.

Veréis, hemos dicho que la repetición y los patrones forman parte indisoluble de eso que percibimos como música. En general, estos patrones operan a nivel inconsciente. No necesitamos prestar atención a qué partes de una melodía se repiten, o medir la duración de ciertos sonidos para saber si siguen algún orden regular. Simplemente, hay ciertas melodías que nos parecen pegadizas y hay ciertos sonidos que llamamos ritmo. Simplemente, funciona porque nos suena musical. Del mismo modo, un compositor no necesita dictar cada patrón o repetición que va a regir la estructura de su obra. A veces, sólo un análisis posterior puede encontrar todos los espejos que se esconden en una partitura. Y hay veces que sucede exactamente lo contrario.

Hay veces que el patrón no surge de la música sino que da lugar a la música de manera prescriptiva. Este es el caso del canon y esto es, de hecho, lo que significa su nombre: canon era la regla (las instrucciones) que permitía a los cantantes generar distintas voces a partir de una única melodía escrita. “Arde Londres” es, efectivamente, un canon: hay varias personas cantando distintas voces que se coordinan entre sí. En este caso, la melodía de todos ellos es exactamente la misma solo que desplazada en el tiempo (la regla sería “empieza un compás más tarde”). Pero este es el tipo más sencillo de canon, existen muchos otros: se pueden generar voces no sólo desplazadas en el tiempo, sino también en la escala (“empieza más tarde, desde otra nota”), o invertidas de arriba a abajo (“si la melodía sube, tú baja”), o de atrás a adelante (“lee la melodía desde el final”), o cambiando su duración (“canta lo mismo más despacio”), o cualquier combinación de las anteriores. Las posibilidades son ilimitadas.

Este tipo de juegos existen, probablemente, desde que la música es música, pero en el Renacimiento se hicieron especialmente populares. En muchas ocasiones, el canon ni siquiera se hacía explícito: la simetría se ocultaba en la música, como un tesoro por descubrir para el analista atento. Pero la propia música no debía perder expresividad a costa de este juego de ingenio. Hoy, por otra parte, es posible generar cánones por ordenador con música ejecutada en el momento. Es el caso Dan Tepfer: este pianista programa su instrumento para que responda a la música que él interpreta según ciertas pautas. Por ejemplo: el piano puede invertir la melodía, o ejecutarla cierto tiempo después, o introducir ciertas disonancias. De este modo, sus improvisaciones se convierten en un canon, en el sentido más estricto de la palabra: es el mismo código el que dicta la regla.

El puzle que nos ofrece Bach es ligeramente distinto. No se trata de generar música a partir de una norma dada. Al revés: en este caso, es el canon lo que se plantea como incógnita y el reto consiste en jugar con las voces ausentes hasta lograr un dibujo simétrico que además, suene bien. Son los oídos los que deben validar el resultado final. Las tres voces escritas, de hecho, ya son armónicas entre sí. Por esto decimos que es un canon triple. Pero faltan otras tres voces y cada una debe originarse mediante alguna simetría a partir de las ya hay. Para ello, la única pista que nos ofrece Bach es una pequeña indicación sobre cuándo estas voces deben comenzar a sonar.

Bien, el problema es abrumador pero, si debemos creer a los musicólogos, su solución pasa por invertir las tres voces escritas y trasladarlas en altura. Es lo que se conoce como un canon en movimiento contrario, o en espejo y, que lo validen vuestros oídos, suena así:

Con todo, no es esta la única sorpresa escondida en estos tres pentagramas. El último encierra una melodía familiar para cualquier fan de la música de Bach: se trata del bajo Goldberg, el mismo sobre el que se construyen las variaciones que llevan su nombre.

Extrañamente, el canon del retrato no forma parte de esta partitura de Bach. Se diría que, después de 30 variaciones (más de una hora de música, que se dice pronto), 9 de ellas cánones, Bach se quedó con ganas de más: aún le quedaban ideas en el tintero, aún había simetrías por explorar.

Así debió de ser, efectivamente. En 1974, de manera inesperada, se encontró una copia impresa de las variaciones Goldberg que debió de pertenecer a su compositor. La última página del libro estaba cubierta de anotaciones a mano: tras su publicación, Bach había añadido otros 14 cánones basados en el mismo bajo y en la esquina inferior derecha, al más puro estilo Fermat, un “etcétera”. De esos 14 cánones, el número 13 llevaba más de dos siglos posando junto a Bach en su retrato.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El último puzle de Bach se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Tema y variaciones
  2. El meme más antiguo de la historia
  3. Otra pieza en el puzle de la fotosíntesis
Categories: Zientzia

Sobre fracciones egipcias

Wed, 2019/02/27 - 11:59

Una fracción egipcia es una suma de fracciones unitarias positivas distintas, por ejemplo 1/2+1/3+1/12 es una de ellas. ¿Por qué ese nombre? Porque los antiguos egipcios calculaban precisamente usando ese tipo de fracciones-

El ojo de Horus contiene los símbolos jeroglíficos de los primeros números racionales. Imagen: Wikimedia Commons.

El famoso papiro del Rhind contiene una tabla de representaciones de 2/n en forma de fracciones egipcias para números impares n entre 5 y 101.

Puede probarse que cualquier número racional r=p/q (donde p es un entero y q es un entero positivo) puede escribirse como fracción egipcia, y además de infinitas maneras. En efecto, cualquier fracción puede expresarse como suma de fracciones unitarias de manera trivial siempre que se permitan repetir términos. Por ejemplo: 2/5=1/5+1/5. Si se exige que todos los denominadores sean distintos, esta representación siempre es posible gracias a la siguiente identidad descubierta por los antiguos egipcios:

1/q= 1/(q+1) + 1/(q(q+1)).

Así, en el caso anterior: 2/5=1/5+1/6+1/30. Y aplicando el mismo procedimiento a cada una de las fracciones unitarias, 2/5 posee una infinidad de representaciones en fracción egipcia.

La sucesión de Sylvester proporciona un algoritmo voraz para representar un número racional r=p/q entre 0 y 1 como fracción egipcia. ¿Cómo se utiliza? Se empieza encontrando la mayor fracción unitaria 1/a que es menor que r. Basta con dividir q entre p (observar que si r está entre 0 y 1, q es mayor o igual a p), ignorar el resto, y sumar 1. Así se obtiene el denominador d de esta fracción unitaria. Se vuelve a realizar este proceso para r-(1/d), y se repite hasta que el resto resulte ser nulo. Veamos un ejemplo. Vamos a expresar 19/20 en fracción egipcia:

  1. 20/19=1,05…, así que la primera fracción unitaria es 1/2.

  2. Ahora hacemos lo mismo con 19/20-1/2=9/20. Tenemos 20/9=2,22…,. Así, la segunda fracción unitaria es 1/3.

  3. Ahora 9/20-1/3=7/60. Calculamos 60/7=8,57…, con lo que la tercera fracción unitaria es 1/9.

  4. Continuamos con 7/60-1/9=1/180, que ya es una fracción unitaria.

Concluimos que 19/20 puede representarse en fracción egipcia como

19/20=1/2+1/3+1/9+1/180.

El sistema de Sylvester no siempre proporciona la fracción más corta o más sencilla: por ejemplo 19/20=1/2+1/4+1/5.

Hemos cambiado de ejemplo para que se entendiera mejor el proceso. En efecto, en el caso de 2/5 aludido al principio, con este procedimiento se obtiene el resultado en un paso: 5/2=2,5, así que la primera fracción unitaria sería 1/3. Y como 2/5-1/3=1/15, ya tendríamos directamente la igualdad 2/5=1/3+1/15.

Un número práctico (su nombre se debe Srinivasan, ver 4.) es un número entero positivo ntal que todos los enteros positivos menores que él se pueden escribir como sumas de distintos divisores de n. Por ejemplo, 12 es un número práctico, porque todos los números entre el 1 y el 11 pueden escribirse como sumas de los divisores de 12 (1, 2, 3, 4 y 6). En efecto:

1=1, 2=2, 3=3, 4=4, 5=3+2, 6=6, 7=6+1, 8=6+2, 9=6+3, 10=6+3+1 y 11=6+3+2.

Fibonacci usó estos números en su Liber Abaci al tratar el problema de representación de números racionales en fracción egipcia. Aunque no los definió de manera formal, dio una tabla de expansiones en fracción egipcia con denominadores números prácticos

En teoría de números existen diferentes problemas ligados a fracciones egipcias, incluyendo problemas de cotas para la longitud o de denominadores máximos en las representaciones en fracciones egipcias, la búsqueda de algunas formas especiales de desarrollo o con denominadores de cierto tipo. Pueden encontrase algunos problemas y conjeturas sobre este tema en la referencia 2.

Referencias

  1. Fracción egipcia, Wikipedia (consultado el 24 de febrero de 2019)

  2. Fraction egyptienne, Wikipédia (consultado el 24 de febrero de 2019)

  3. Eric W. Weisstein, Egyptian Fraction, MathWorld

  4. A.K. Srinivasan, Practical numbers, Current Science 17,179-180, 1948

  5. Practical numbers, Wikipedia (consultado el 24 de febrero de 2019)

  6. Listado de los primeros números prácticos en A005153 de la OEIS

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Sobre fracciones egipcias se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Fracciones sorprendentes
  2. Una conjetura sobre ciertos números en el ‘sistema Shadok’
  3. La insoportable levedad del TRES, o sobre la existencia de sistemas numéricos en base 3
Categories: Zientzia

La luz se propaga en línea recta pero los rayos de luz no existen

Tue, 2019/02/26 - 11:59
Una prueba de que la luz se propaga en línea recta. Las sombras que produce un objeto que interfiere con la luz del Sol están tan definidas que se puede construir un reloj de sol como este de Bütgenbach (Bélgica) con una precisión de 30 segundos. Fuente: Wikimedia Commons

Existen muchas pruebas de que la luz viaja en línea recta. Una sombra proyectada por un objeto que intercepta la luz del sol tiene contornos bien definidos, por ejemplo. Del mismo modo, las fuentes de luz más cercanas y mucho más pequeñas también provocan sombras nítidas. Tanto el Sol distante y como la pequeña fuente cercana son aproximadamente fuentes puntuales de luz. Por tanto, el que las fuentes puntuales produzcan sombras nítidas indica que la luz se desplaza en línea recta.

El efecto de camara oscura del que hablaba Leonardo pero producido por un agujero en una teja, que tiene como resultado la proyección en la pared de la habitación de una imagen del Castillo de Praga, situado enfrente del edificio donde está la habitación. Fuente: Wikimedia Commons

Las imágenes también pueden demostrar que la luz viaja en línea recta. Antes de la invención de la cámara moderna con su sistema de lentes, estaba relativamente extendido 3l uso de una caja hermética con un agujero en el centro de una de las caras. Conocido como cámara oscura, el dispositivo fue muy popular en la Edad Media. Leonardo da Vinci y otros muchos pintores después de él, probablemente lo usó como ayuda para confeccionar sus bocetos. En uno de sus manuscritos, dice que “una pequeña abertura en una persiana de la ventana proyecta en la pared interior de la habitación una imagen de los cuerpos que están más allá de la apertura”. Incluye un boceto para mostrar cómo la propagación de la línea recta de la luz explica la formación de una imagen.

Los principios de la cámara oscura que Leonardo recogió en el Codex Atlanticus (1515). Fuente: Massimo Guarnieri (2016) The Rise of Light—Discovering Its Secrets Article Proceedings of the IEEE 104(2):467-473 doi: 10.1109/JPROC.2015.2513118

Si bien la luz se propaga en línea recta es necesario tener algunas ideas muy claras para no confundir representación con realidad. Así, el recurso gráfico de un rayo de luz infinitamente delgado es útil para pensar en la luz. Pero en realidad no los rayos no existen. Un haz de luz que emerge de un agujero de buen tamaño en una pared es tan ancho como el agujero. Podríamos esperar que si hacemos el agujero extremadamente pequeño obtendríamos un rayo de luz muy estrecho y, en última instancia, únicamente un solo rayo. Esto ya sabemos que no es así.

La difracción de las ondas, como la que se observan en el agua y las ondas de sonido, se hace evidente cuando el haz de luz pasa a través de un pequeño agujero. Por lo tanto, un rayo de luz infinitamente delgado, aunque es gráficamente útil, no se puede producir en la práctica. Pero la idea todavía se puede utilizar para representar la dirección en la que viaja un tren de ondas en un haz de luz.

Un haz láser en dirección a la Luna emitido desde el Apache Point Observatory. Fuente: Jack Dembicky / Apache Point Observatory

El haz de luz producido por un láser es lo más cerca que podemos estar del caso ideal de un haz de rayos fino y paralelo. La luz se produce en muchos casos por la acción de los electrones dentro de los átomos de la fuente. Los láseres están diseñados de tal manera que sus átomos producen luz al unísono, en lugar de individual y aleatoriamente como ocurre en otras fuentes de luz. Como resultado un láser puede producir un haz de intensidad considerable, y uno que es mucho más monocromático, es decir, de un solo color (de una sola longitud de onda), que la luz producida por cualquier fuente convencional. Además, dado que las ondas individuales de los átomos de un láser se producen simultáneamente, pueden interferir entre sí de manera constructiva para producir un haz de luz que es fino y casi paralelo. De hecho, una luz así se dispersa tan poco que los rayos emitidos por láseres en la Tierra hacia la superficie lunar, a unos 400,000 km de distancia, producen manchas de luz de solo 1 m de diámetro en la Luna.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo La luz se propaga en línea recta pero los rayos de luz no existen se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Reflexión de ondas: rayos
  2. Leyes, teorías y modelos (y III): ¿Existen los paradigmas?
  3. Reflexiones sobre la gravedad
Categories: Zientzia

El páncreas

Mon, 2019/02/25 - 11:59
Esquema anatómico del páncreas humano. Fuente: Don Blis / Wikimedia Commons

En vertebrados el páncreas es un órgano glandular mixto. En su mayor parte (el 98%) cumple una función exocrina, o sea, produce sustancias que son evacuadas al intestino y que ayudan a la digestión. Las células secretoras exocrinas se organizan en acinos, que son estructuras en forma de saco conectadas a ductos que conducen al duodeno los productos de la secreción.

El resto del páncreas cumple una función endocrina. Las células que lo forman se disponen en grupos dispersos por todo el órgano. Esos grupos se denominan islotes de Langerhans y producen insulina y glucagón, hormonas que intervienen en la regulación del metabolismo de los carbohidratos.

Imagen superior: Estructura del tejido pancreático. Imagen inferior: Imagen por microscopía de inmunofluorescencia de un islote de ratón en su posición típica, junto a un vaso sanguíneo (banda negra). La insulina marcada en rojo y los núcleos celulares en azul. Fuentes: Modificado de Blausen.com staff (2014). “Medical gallery of Blausen Medical 2014”. WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010. ISSN 2002-4436. | Jackob Sukale / Solimena lab, Paul Langerhans Institute Dresden. Wikimedia Commons

El jugo pancreático que secreta la porción exocrina está formado por enzimas producidas por las células de los acinos a que hemos hecho referencia antes, y por una solución alcalina que es secretada activamente por las células de los ductos. La solución alcalina es rica en bicarbonato sódico. Las enzimas pancreáticas se almacenan en las células acinares en el interior de gránulos de zimógeno y se liberan cuando son necesarias. El páncreas secreta un amplio abanico de enzimas, que incluye proteasas, carbohidrasas (amilasa pancreática y, en algunos casos, quitinasa) y lipasa pancreática.

Las tres principales proteasas producidas por el páncreas son tripsinógeno, quimotripsinógeno y procarboxiaminopeptidasa. Como se deduce de sus nombres, se trata de formas inactivas, que es como se secretan. La razón para que se almacenen así es que, de otro modo, digerirían las propias proteínas celulares de los acinos. El tripsinógeno se activa una vez vertido al duodeno debido a la acción de la enteroquinasa, una enzima que se encuentra en las células epiteliales de la mucosa duodenal; pasa así a ser tripsina. Esta activa, de forma autocatalítica, más tripsinógeno. Y hace también lo propio con los otros dos zimógenos proteolíticos, el quimotripsinógeno y la procarboxipeptidasa. Cada una de estas enzimas actúan sobre diferentes enlaces en las cadenas peptídicas dando como resultado una mezcla de aminoácidos y péptidos de pequeño tamaño. El epitelio intestinal se encuentra a salvo de la acción de estas proteasas gracias a la protección que le brinda el moco secretado por células de la pared del intestino.

La amilasa pancreática degrada polisacáridos y los convierte en disacáridos. O sea, actúa del mismo modo a como lo hace la amilasa salivar. La otra carbohidrasa pancreática es la quitinasa, aunque solo se halla presente en peces y algunas aves marinas. La quitina es un polisacárido estructural que forma parte de la cutícula de los artrópodos y de la pared celular de los hongos, cumpliendo en estos una función similar a la que cumple la celulosa en las plantas.

Por último, tenemos la lipasa pancreática. Hidroliza triglicéridos y los convierte en monoglicéridos y ácidos grasos libres.

La secreción acuosa rica en NaHCO3 cumple la función de neutralizar los jugos ácidos recién salidos del estómago. De esa forma se evita que dañen el epitelio intestinal y, por otro lado, el pH pasa a ser neutro o levemente alcalino, que es el óptimo para las enzimas pancreáticas. El páncreas produce importantes volúmenes de secreción acuosa; en el ser humano varía entre 1 y 2 l diarios, pero en otros mamíferos esos volúmenes pueden llegar a ser muy superiores incluso.

El mecanismo mediante el que se produce el bicarbonato sódico es semejante al que produce el ácido clorhídrico en el estómago, solo que la dirección de los flujos es la opuesta. Veámoslo. El CO2 se combina con H2O en las células de los ductos para dar HCO3– mediante una reacción catalizada por la enzima anhidrasa carbónica. El ión bicarbonato sale a la luz del ducto mediante un antiporter que, a la vez, introduce Cl– en la célula. Por su parte, el Na+ sale a través de los espacios intercelulares que dejan las zonulae occludentes (uniones estrechas). Los H+ procedentes de las moléculas de agua que aportan los grupos hidroxilo que se combinan con el CO2 para producir bicarbonato, son transferidos a la sangre mediante el concurso de antiporters de H+/Na+. Así, las células de los ductos pancreáticos secretan HCO3– y transfieren H+ a la sangre, mientras las parietales del estómago secretan H+ y transfieren HCO3– a la sangre; de esa forma, el balance ácido-base total se mantiene neutro sin afectar estos procesos al pH sanguíneo.

La regulación de la secreción exocrina pancreática corre a cargo de hormonas. Durante la fase cefálica de la digestión se produce una pequeña secreción provocada por la acción de terminales parasimpáticos y durante la fase gástrica hay otra producción mínima por efecto de la gastrina. Pero la principal estimulación de la secreción pancreática se produce durante la fase intestinal de la digestión, cuando el quimo accede al duodeno. En ese momento entran en juego dos importantes enterogastronas, secretina y colecistoquinina (CCK).

La acidificación del duodeno por la llegada de los jugos gástricos es la señal que desencadena la liberación de la secretina desde la mucosa duodenal a la sangre, a través de la cual llega al páncreas. Provoca una fuerte elevación de la producción de la solución acuosa rica en bicarbonato, lo que permite neutralizar el contenido del intestino delgado. De hecho, la cantidad de secretina liberada es proporcional a la acidez del contenido duodenal y el volumen de solución bicarbonatada es proporcional a la cantidad de secretina liberada.

La otra enterogastrona, la CCK, regula la secreción de enzimas digestivas. La señal para su liberación, en este caso, es la presencia de grasa en el duodeno y, en una menor medida, de sustancias proteicas. Como la secretina, también la colecistoquinina es transportada al páncreas a través de la sangre. Lipasa, amilasa y proteasas son liberadas simultáneamente porque todas ellas se encuentran en los gránulos de zimógeno. Se produce una curiosa consecuencia, por ello, ya que de una comida a otra puede variar la cantidad total de enzimas liberadas (más cuanto mayor es la cantidad de grasa en el duodeno), pero la proporción relativa de unas y otras enzimas no varía. No obstante, parece que si se producen cambios a largo plazo en la composición de la dieta, también se modifica la proporción de las enzimas para ajustarse a las necesidades, pero ese ajuste se produce también a largo plazo, no de una comida a la siguiente.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El páncreas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Seguridad diagnóstica en el cáncer de colon y tratamiento del de páncreas
  2. Digestión estomacal (y II): regulación
  3. Actividades digestivas y su regulación
Categories: Zientzia

La tabla periódica en el arte: ¿Qué átomos hay en una obra?

Sun, 2019/02/24 - 11:59

Hace 150 años un ruso de prominente barba llamado Dmitri Ivánovich Mendeléyev propuso un elegante sistema para ordenar los elementos químicos en función de su peso atómico y sus propiedades químicas. Su trabajo sigue ofreciendo hoy un marco común en el ámbito de la Química y, no en vano, 2019 ha sido declarado el Año Internacional de la Tabla Periódica. Esta sección del Cuaderno de la Cátedra Científica se quiere unir a tan especial celebración y para ello, a lo largo de este año, haremos un recorrido por los elementos químicos que mayor importancia han tenido en la Historia del Arte. No olvidemos que conocer la composición química de los materiales artísticos es vital tanto para el proceso creativo como para la conservación y restauración de nuestro patrimonio cultural. Pero, antes de entrar de lleno con la tabla periódica, dedicaremos este artículo a una pregunta de vital importancia: ¿Cómo podemos saber qué elementos químicos hay en una obra de arte?

Imagen 1. La tabla periódica más grande del mundo está en Murcia, no en Bilbao. Fuente: Cortesía de Daniel Torregrosa.

En entradas anteriores hemos hablado largo y tendido sobre numerosas técnicas analíticas que nos ayudan a conocer la composición química de los materiales artísticos. Hoy nos detendremos en una que, de una manera relativamente sencilla, nos permite saber qué tipo de átomos forman una obra de arte: la fluorescencia de rayos X. Es importante recalcar que esta técnica no nos ofrecerá una fórmula molecular exacta de una sustancia, tan solo nos dará información sobre los átomos que la forman. Por ejemplo, en una pintura que contenga amarillo de Nápoles, no nos revelará que la composición química es Pb2Sb2O7, pero sí que nos desvelará que hay plomo (Pb) y antimonio (Sb). En muchas ocasiones eso es más que suficiente para descifrar qué compuesto químico tenemos entre manos. Veamos brevemente en qué consiste la fluorescencia de rayos X antes de conocer algunas de sus aplicaciones en el mundo del arte.

De electrones y rayos X

La fluorescencia de rayos X se basa en la interacción de la materia con una radiación como los rayos X o los rayos gamma. En la Imagen 2 (izquierda) vemos una representación esquemática del proceso que nos ayuda a descubrir la identidad de los átomos de una muestra (aunque la realidad de los orbitales difiere bastante de la de ese modelo planetario). Empleando una radiación de alta energía se expulsa un electrón de un orbital cercano al núcleo, es decir, un electrón de un nivel energético bajo. Esto provoca que un electrón de un nivel energético superior ocupe esta “vacante”, ya que el átomo tiende a minimizar su energía. En ese proceso el exceso de energía se libera también en modo de radiación (rayos X). Y, precisamente, esta radiación liberada es la clave que nos permite descubrir de qué elemento químico se trata. Esto es posible gracias a que los electrones sólo pueden tener ciertos valores de energía concretos que variarán en función del átomo y del orbital que ocupen. Haremos otra simplificación valiéndonos de nuevo de la Imagen 2 (derecha). Según la física clásica un electrón podría tener cualquier valor energético (podría estar en cualquier punto de la rampa), pero gracias a la mecánica cuántica sabemos que sólo puede tener unos valores discretos (los escalones). Al pasar de un nivel energético a otro (pasar de un escalón a otro), se libera una energía característica que nos permite conocer que elemento químico estamos analizando (la altura entre escalones depende del átomo). La fluorescencia de rayos X se puede aplicar a la mayoría de los elementos que forman la tabla periódica, con excepción de los que tienen un número atómico menor que el sodio (carbono, oxígeno, etc.) que son difíciles de detectar, especialmente con los instrumentos portátiles.

Imagen 2. Esquematización del proceso de fluorescencia de rayos X (Fuente: Adaptación de Wikimedia Commons. Fotografía cedida por Jon Mattin Matxain cuya explicación sobre los niveles energéticos podéis escuchar aquí (en euskara).

De átomos y colores

Ahora ya sabemos que la fluorescencia de rayos X nos descubre los elementos químicos presentes en una obra de arte, gracias a lo cual podemos deducir su composición química empleando ciertos conocimientos sobre materiales artísticos. Por ejemplo, si analizásemos la cerámica griega de figuras negras de la Imagen 3 detectaríamos hierro por toda la superficie. ¿Significaría eso que está formada por un solo tipo de compuesto químico? En tal caso sería difícil explicar la existencia de dos colores. La realidad es que las zonas rojizas están compuestas por hematita (Fe2O3) y las negras por magnetita (Fe3O4), colores que los griegos lograban mediante una hábil combinación de reacciones de oxidación y de reducción del hierro presente en la arcilla.

Imagen 3. Ánfora de Ayax y Aquiles jugando a los dados, de Exequías (ca. 530 AEC) Fuente: Wikimedia Commons.

Obviamente, identificar los compuestos no siempre es tan sencillo como hemos visto en este caso. A alguien ya se le habrá ocurrido que la fluorescencia de rayos X ofrece ciertas limitaciones a la hora de discernir la composición química exacta y diferenciar entre sustancias. Efectivamente, podría darse el caso en que dos pigmentos que tengan el mismo color estén compuestos por los mismos elementos químicos, pero en diferentes proporciones. Por ejemplo, si en una pintura verde se detecta cobre, podría estar formada por malaquita (Cu2CO3(OH)2) o por verdigrís (Cu(CH3COO)2). Afortunadamente esos casos no son tan abundantes, ya que la química de los pigmentos no es tan compleja como podríamos pensar, especialmente si nos referimos a las pinturas que se empleaban antes de la aparición de la síntesis orgánica. Además, cuando se detectan varios elementos químicos en una muestra la cosa se puede simplificar. Para entender esto mejor, pongamos que en otra pintura verde detectamos cromo. Bien podría tratarse de un óxido de cromo (Cr2O3·2H2O) o de una combinación de amarillo de cromo (PbCrO4) y otro pigmento azul como el azul cobalto (CoO·Al2O3). ¿Cómo diferenciarlos? Pues, porque de darse la segunda opción, también encontraríamos cobalto (del azul) y plomo (del amarillo). En este último caso no habría que sacar conclusiones precipitadas, ya que el plomo también podría venir del blanco de plomo, tan empleado históricamente en mezclas de pinturas y preparaciones de soportes.

De pigmentos que (casi) se pierden

Una de las grandes ventajas de la fluorescencia de rayos X es que nos permite trabajar con rastros mínimos de pintura. Así, podremos conocer los pigmentos empleados en esculturas que hayan perdido la mayoría de su policromía. Dos casos célebres que reflejan este uso son la columna de Trajano (de la que ya hablamos en su momento) y la Dama de Elche. Gracias a los análisis realizados sobre la más famosa de las esculturas iberas, conocemos los pigmentos que una vez le dieron color (sí, estaba pintada), información que se ha empleado para realizar diferentes reconstrucciones (Imagen 4). Quizás lo más llamativo de este estudio es la presencia de azul egipcio (CuAlSi4O10), que refleja el intercambio cultural entre los iberos y el país del Nilo.

Imagen 4. Dama de Elche (s.V-IV AEC) y reconstrucción realizada por Francisco Vives en base a los pigmentos encontrados. Fuentes: Museo Arqueológico Nacional / Cortesía de Francisco Vives

Un caso mucho más reciente de identificación de pigmentos lo encontramos en “El jardín de Daubigny” de Vincent van Gogh. Aunque en este caso la pintura no estaba perdida, sino oculta. Durante los últimos meses de vida el genio holandés pintó tres versiones de este jardín, entre ellas las dos que podéis observar en la Imagen 5. Como veis, hay claras diferencias compositivas entre las que destaca la presencia de un gato en la versión superior. Si observamos la misma zona en el otro cuadro podremos observar que van Gogh sepultó al gato con pinceladas de hierba. Pues bien, dicha zona se analizó mediante fluorescencia de rayos X y se encontró hierro y cromo, lo que permite pensar que el gato había sido pintado con una mezcla de amarillo de cromo (PbCrO4) y azul de Prusia (Fe7C18N18).

Imagen 5. Jardín de Daubingy (56x 101 cm) de van Gogh (1890). Arriba la versión del Museo de Arte de Basilea y debajo la del Museo de Arte de Hiroshima. Fuente: Wikimedia Commons.

De mapas de pigmentos

La fluorescencia de rayos X no se limita al estudio de un solo punto de una obra de arte, sino que permite analizar toda la superficie para obtener una especie de mapas de abundancia de elementos químicos. Un ejemplo perfecto es el de La Joven de la Perla (Imagen 6). En la imagen vemos mapeo del mercurio en blanco y negro, de modo que las zonas más blancas indican una mayor cantidad de este elemento. El mercurio proviene del uso que Vermeer hizo del pigmento bermellón (HgS) que, como vemos, abunda en los labios de la muchacha. También podemos observar la presencia de mercurio en el rostro de la joven, aunque con una menor intensidad. En cambio, el turbante y el fondo son completamente oscuros. La explicación es simple: Vermeer empleó bermellón para ajustar la tonalidad que deseaba lograr en la pintura con la que pintó la cara.

Imagen 6. Mapeo de mercurio obtenido mediante fluorescencia de rayos X (detalle). Fuente: Imagen cedida por el Mauritshuis.

Aunque la última imagen que os he mostrado está en blanco y negro, estos mapeos se obtienen empleando programas informáticos que permiten lograr resultados mucho más visuales. Esto lo ilustra perfectamente el mapeo de pigmentos del manuscrito tibetano que tenéis en la Imagen 7. Sabiendo qué elementos abundan en cada zona no es complicado saber que pigmentos fueron usados: bermellón (HgS) para el borde rojo, pan de oro (Au) para la piel y la mandorla, minio (Pb3O4) para el traje, y compuestos con cobre para los azules y los verdes, posiblemente azurita (Cu3(CO3)2(OH)2) y malaquita (Cu2CO3(OH)2) respectivamente.

Imagen 7. A la derecha fotografía de un manuscrito nepalés. A la izquierda mapeo de diferentes elementos químicos (Hg: mercurio, Au: oro, Cu: cobre, Pb: plomo). Fuente: Data Courtesy of HORIBA Scientific. Sample provided by Ryukoku University library, Ryukoku University old books Digital Archives Research Center, Japan.

Con este artículo hemos realizado un primer acercamiento a la tabla periódica desde el punto de vista de los materiales artísticos. A lo largo de este año iremos profundizando en aquellos elementos químicos que mayor trascendencia han tenido a lo largo de la historia del arte. ¡No os lo perdáis!

Para saber más:

Simon Fitzgerald. Non-destructive micro-analysis of Art and Archaeological objects using micro-XRF [PDF]. Acheometriai Műhely 2008/3.

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

El artículo La tabla periódica en el arte: ¿Qué átomos hay en una obra? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Deconstruyendo la tabla periódica
  2. Ciencia, arte y cultura callejera: materiales y obra artística
  3. ¿De quién es esta obra?
Categories: Zientzia

Geología, ver más allá de lo que pisamos

Sat, 2019/02/23 - 11:59

Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.

Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.

La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.

Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.

El catedrático d hidrogeología de la UPV/EHU, Iñaki Antigüedad, destaca en este charla que la geología es mucho más que las rocas y que para valorarla hay que aprender a mirar de otra manera, por ejemplo, el paisaje.

Edición realizada por César Tomé López

El artículo Geología, ver más allá de lo que pisamos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Otra mirada al planeta: arte y geología
  2. Geología: la clave para saber de dónde venimos y hacia dónde vamos
  3. Arquitectura y geología: materialidad y emplazamiento
Categories: Zientzia

Metabolómica: el todo sobre la suma de las partes

Fri, 2019/02/22 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebrará dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Durante las próximas semanas en el Cuaderno de Cultura Científica y en Zientzia Kaiera se publicarán regularmente artículos que narren algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas. Comenzamos con la serie “Espectrometría de masas”, técnica analítica que supone el ejemplo perfecto del incesante avance de la Ciencia y la Tecnología.

Durante la última mitad del siglo pasado se vivió una gran revolución en la biología. Importantes avances tecnológicos y científicos (con el descubrimiento de la doble hélice de ADN como el ejemplo más conocido) hicieron del reduccionismo la máxima de esta ciencia, descomponiendo organismos complejos para estudiar sus partes constituyentes aisladamente, lo que dio lugar a una gran expansión de la biología molecular. Sin embargo, en los últimos años la biología está viviendo un nuevo cambio de rumbo, en parte experimental y en parte filosófico, hacia una visión holística o integral del sistema, tomando el conjunto de componentes individuales y su interacción como objeto de estudio. En palabras de Aristóteles, el todo es más que la suma de las partes. Estas diferencias entre la visión reduccionista del siglo pasado y la actual biología de sistemas pueden compararse con la leyenda india de los sabios ciegos y el elefante, en la que se representan las limitaciones de una visión individual, o reducida, en la aproximación a un problema desconocido.

Imagen 1. Ilustración del libro From The Heath readers by grades, D.C. Heath and Company (Boston), 1907. Fuente: Wikimedia Commons.

En esta leyenda seis sabios ciegos que nunca habían visto un elefante deciden buscar uno y tocarlo para poder hacerse una imagen mental del animal. El primero de ellos al acercarse tropieza y cae de bruces contra el costado del animal. De esta experiencia deduce que un elefante debe ser algo parecido a una pared de barro. El segundo sabio toca el colmillo del elefante y de su forma redonda y afilada infiere que un elefante es algo parecido a una lanza. De un modo similar, los otros cuatro sabios tocando la trompa, la cola, una pata y una oreja, deciden individualmente que ese animal, para ellos hasta ahora desconocido, es similar a una serpiente, una cuerda, el tronco de un árbol o un abanico, respectivamente. Al discutir sus descubrimientos no llegan a un acuerdo sobre la forma del elefante, ya que, como dice John Godfrey Saxe en su poema sobre esta leyenda “aunque todos estaban parcialmente en lo cierto, todos estaban equivocados”. Del mismo modo, pretender comprender la totalidad de sistemas biológicos complejos basándose solamente en observaciones parciales puede llevarnos a conclusiones que sean, si no incorrectas, incompletas.

En la rápida expansión de la biología de sistemas ha tenido gran influencia la aparición de las tecnologías ómicas. Entre ellas la más conocida hasta ahora ha sido la genómica, con el Proyecto Genoma Humano como gran desafío tecnológico de finales del siglo XX y comienzos del XXI. Este proyecto, en el cual se pretendía la secuenciación total del genoma humano, fue completado en 2003, dos años antes de lo previsto, ofreciendo a la comunidad científica información detallada sobre la estructura, organización y función del conjunto completo de genes humanos: el genotipo.

El genotipo es, en gran parte, responsable del estado final de un organismo. No obstante, el fenotipo, es decir, la descripción del total de las características físicas de un sistema biológico incluyendo su morfología, desarrollo y metabolismo, está también fuertemente influenciado por factores ambientales. La metabolómica se considera la última disciplina en la cascada de las ómicas, la más cercana al fenotipo, y por tanto la más representativa del estado del organismo en un momento puntual.

Imagen 2. Cascada ómica: de los genes a los metabolitos, desentrañando los misterios del fenotipo. Fuente: M.E. Blanco.

La importancia del estudio de los metabolitos en fluidos biológicos se remonta al 1500-2000 antes de la era actual, cuando tanto en la medicina tradicional china como en la Ayurveda practicada en la India se utilizaban insectos para detectar niveles altos de glucosa en la orina de los pacientes. Los primeros experimentos en metabolómica pueden considerarse los del doblemente laureado por los premios Nobel Linus Pauling, que en 1971 analizó alrededor de 250 metabolitos en muestras de aliento y vapor de orina, dando lugar a la idea de que a partir de un patrón generado por un elevado número de metabolitos en un fluido biológico se puede recoger información sobre el estado de un sistema biológico complejo. Sin embargo, el gran boom de la metabolómica tuvo lugar a final de los años 90. Fue en 1999 cuando Nicholson acuñó el término metabonómica para describir “la medida cuantitativa de la respuesta dinámica y multiparamétrica de los sistemas vivos a estímulos patofisiológicos o genéticos”, es decir, cuantificar a través del estudio del conjunto de metabolitos el estado de un ser vivo debido a su información genética o a un cambio externo. Desde entonces el uso de la metabolómica ha crecido exponencialmente (llegando a más de 4000 publicaciones con el término metabolomics en PubMed en 2018) y se aplica en áreas tan diversas como el estudio de enfermedades, el desarrollo de fármacos, la ciencia forense, el análisis medioambiental, la nutrición o la toxicología, entre otros.

La metabolómica es una disciplina amplia y compleja, que requiere de diversos pasos para llegar desde la cuestión biológica, es decir, el planteamiento del problema (por ejemplo, qué diferencia un individuo sano de uno enfermo, qué cambios provoca en el metabolismo un cambio de dieta, qué relación hay entre el desarrollo de un niño y el efecto en él de un fármaco, o cómo afecta a un sistema un compuesto tóxico, entre muchas otras) a la interpretación de los resultados. El primero, y uno de los más importantes, es el diseño del estudio. Éste debe realizarse con la colaboración de todas las personas implicadas a lo largo de todos los pasos, desde la toma de muestra al análisis estadístico y la interpretación biológica. Como bien dijo Sir Ronald Aylmer Fisher: “consultar al especialista en estadística después de realizar el experimento es como pedirle que realice un análisis post-mortem: posiblemente pueda decir de qué murió el experimento”. Antes de comenzar el experimento deben definirse perfectamente el resto de pasos (toma y tratamiento de muestra, análisis de las muestras, tratamiento y procesado de los datos) para llegar a la interpretación de resultados.

Imagen 3. Flujo de trabajo en metabolómica, de la cuestión biológica a la interpretación de resultados. Fuente: M.E. Blanco.

El objetivo de la metabolómica es estudiar el metaboloma completo, aunque en contraste con el genoma o el proteoma, el metaboloma no es fácilmente definible. En ocasiones se define como el conjunto de metabolitos sintetizados por un sistema biológico, siendo este sistema un organismo, órgano, tejido, fluido, célula… Pero entre los metabolitos presentes en el cuerpo humano no encontramos solo compuestos endógenos, sino que también se encuentran los productos de aquello que ingerimos o con lo que estamos en contacto, es decir, los metabolitos exógenos.

Los metabolitos, tanto endógenos como exógenos, constituyen una familia muy heterogénea de moléculas, con muy diversas estructuras, propiedades físico-químicas y concentraciones. Esta heterogeneidad hace que, por el momento, nos sea imposible medir simultáneamente todo el metaboloma usando una única técnica. Es por ello que para poder cubrir el máximo rango posible del metaboloma debemos usar diferentes plataformas analíticas. Especialmente durante los inicios de la metabolómica primaba el uso de la resonancia magnética nuclear (RMN). Sin embargo, la metabolómica basada en la espectrometría de masas (MS) ha ido ganando en popularidad con el tiempo. El desarrollo de instrumentos de alta resolución como la resonancia ciclotrónica con transformada de Fourier (FTICR), el Orbitrap o el tiempo de vuelo (TOF), junto a los bajos límites de detección y la rapidez del análisis han hecho que actualmente la MS sea la técnica elegida en la mayoría de estudios metabolómicos.

Aunque existen algunos estudios en los que la muestra se introduce al MS por infusión directa (DI-MS), lo más común es que se acople al espectrómetro una técnica de separación que ayude a reducir la complejidad de los espectros y a disminuir la supresión iónica debida a la competición por la ionización de las miles de moléculas distintas presentes simultáneamente en la muestra. Dependiendo de los analitos de interés usamos distintas técnicas. Para estudiar compuestos volátiles la técnica de elección es la cromatografía de gases acoplada a MS (GC-MS). Ésta fue la técnica más empleada en los inicios de la metabolómica basada en MS, especialmente aplicada al estudio de las plantas, pero tiene el inconveniente de que para analizar metabolitos no volátiles debemos derivatizarlos, lo que requiere un tratamiento de muestra complejo y tedioso. En el caso de metabolitos cargados, es común el uso de la electroforesis capilar (CE-MS). Hoy en día la cromatografía líquida acoplada a la MS (LC-MS) es sin duda la técnica de primera elección, que permite el estudio de compuestos tanto polares como apolares. Dado que ninguna de las técnicas es capaz por si sola de analizar el metaboloma completo, el uso de técnicas complementarias es altamente recomendable.

Los análisis metabolómicos producen gran cantidad de datos que necesitan software y metodologías específicas para su tratamiento. Del sistema de LC-MS obtenemos un set de datos tridimensional que debemos simplificar para poder trabajar con él, de modo que obtengamos una matriz bidimensional con una lista de “features” y sus intensidades. Aún simplificada, se trata de una matriz compuesta por miles de estos features hasta en cientos de muestras que debe someterse a varios tratamientos más (normalización, transformación, centrado, escalado…) hasta llegar a un set de datos adecuado para ser estudiado mediante estadística multivariante. El objetivo de este tratamiento de datos es obtener una lista de features responsables de las diferencias entre los distintos grupos estudiados (enfermos vs sanos, jóvenes vs ancianos, tratados vs no tratados…), seleccionados como posibles biomarcadores que nos ayuden a responder la hipótesis planteada.

Imagen 4. El tratamiento de datos nos permite transformar datos complejos en gráficos y tablas fácilmente interpretables. Fuente: M.E. Blanco.

El último paso antes de la interpretación biológica de los resultados es la identificación de los features seleccionados, sirviéndose de la información que nos da el instrumento de LC-MS (tiempo de retención, masa exacta, espectro de fragmentación) para buscar los nombres de los metabolitos seleccionados como biomarcadores. Dada la gran cantidad y diversidad química de metabolitos existentes la identificación es aún hoy en día el cuello de botella de la metabolómica basada en LC-MS. Existe un gran número de metabolitos en el cuerpo humano que no han sido aún identificados, a pesar de los grandes esfuerzos realizados por la comunidad científica. Sin embargo, bases de datos como METLIN, Lipid Bank, KEGG, Lipid Maps o HMDB continuamente registran nuevas entradas que amplían los metabolitos disponibles. En ocasiones la identificación de estos metabolitos responde por sí misma a la cuestión biológica planteada, pero generalmente abre nuevas vías de investigación hacia la solución del problema. Por ejemplo, si encontramos cambios en la concentración de varios compuestos de una misma ruta metabólica en individuos enfermos respecto a controles sanos, esto nos da una idea de la alteración de esta ruta, de modo que pueda ser estudiada de un modo más dirigido.

Un ejemplo concreto de aplicación de la metabolómica es el estudio de la toxicidad de materiales derivados del grafeno. El grafeno es uno de los grandes descubrimientos de la actualidad: una red de atomos de carbono bidimensional (con el espesor de un átomo) con unas prometedoras propiedades en cuanto a dureza, flexibilidad o conductividad entre muchas otras, que lo hacen muy atractivo para numerosas aplicaciones. Entre ellas se estudia su uso en biosensores o como conductor de fármacos. Sin embargo, por ser un compuesto apenas conocido el efecto que puede producir su contacto con las células es totalmente desconocido. En este caso es de gran utilidad el uso de las tecnologías ómicas, que nos permite buscar diferencias entre células expuestas a estos compuestos frente a células control, explorando de manera no dirigida, sin una hipótesis previa, los cambios producidos en el sistema.

Imagen 5. Estructura hexagonal de atomos de carbono formando una capa de grafeno. Fuente: Wikimedia Commons.

Los estudios metabolómicos son complejos y requieren un gran trabajo y esfuerzo, pero su gran atractivo reside en su utilidad en los casos en los que el problema planteado es apenas conocido y no existe información anterior que permita hacer un análisis dirigido. Si, como hemos dicho, son miles los metabolitos presentes en el cuerpo humano, estudiarlos dirigidamente pretendiendo encontrar el biomarcador justo puede considerarse una tarea prácticamente imposible, como encontrar una aguja en un pajar, pero sin saber que lo que buscamos es una aguja.

Sobre la autora: María Encarnación Blanco se doctoró en la Facultad de Ciencia y Tecnología de la UPV/EHU y actualmente es investigadora en el Istituto Italiano di Tecnologia. Trabaja en la aplicación de la metabolómica en el estudio de la toxicidad de compuestos de grafeno en el cerebro dentro del proyecto europeo EU Graphene Flagship Project Horizon 2020 Research and Innovation Programme (Grant agreement no. 785219).

El artículo Metabolómica: el todo sobre la suma de las partes se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Próxima estación: metabolómica
  2. Naukas Bilbao 2017 – Raúl Gay: Todo sobre mi órtesis
  3. #Naukas14 El tamaño sí importa…sobre todo en el nanomundo
Categories: Zientzia

Mamá, no quiero ser científica

Thu, 2019/02/21 - 11:59

El 11 de febrero es el Día Internacional de la Mujer y la Niña en la Ciencia. A lo largo de todo el mes se desarrollan actividades de visibilización de mujeres científicas con el fin de animar a las niñas a elegir carreras de ciencias si así lo desean. Si así lo desean.

  • Las niñas estudian menos ingenierías

Actualmente en España hay más estudiantes mujeres en la universidad que hombres. Son el 55%. En las carreras denominadas STEM (por las siglas en inglés de ciencias, tecnologías, ingenierías y matemáticas) el cómputo es paritario, pero si lo analizamos especialidad por especialidad, observamos que en las ingenierías hay un 30% de mujeres matriculadas. La ingeniería informática es la que menos mujeres estudian, el 20%.

Sin embargo, en las ciencias aplicadas a la salud, el 75% de las matriculadas son mujeres. En otras carreras como biología, química, matemáticas o física, hombres y mujeres están prácticamente al 50%.

Según estos datos, de haber un problema de infrarrepresentación femenina, estaría solo en las ingenierías.

  • Visibilizar a mujeres de ciencia y despertar vocaciones

Las actividades que se desarrollan a lo largo del mes de febrero intentan, entre otras cosas, fomentar vocaciones científicas entre las niñas, bajo la asunción de que estas vocaciones están adormecidas o están censuradas por su entorno. Padres que no quieren que sus hijas ejerzan trabajos tradicionalmente masculinos, personas que minusvaloran las capacidades de las mujeres, niñas con un injusto concepto de sí mismas.

Para reducir el impacto de estas actitudes en las decisiones de las niñas, sobre todo científicas y divulgadoras se presentan como referentes. No sabemos hasta qué punto las referentes femeninas influyen en las decisiones de las niñas, pero la intuición nos dice que cuanto más visibilicemos a las mujeres de ciencia, más normalizaremos la decisión de que las niñas quieran ser mujeres de ciencia. No sabemos si esto funciona así, pero por si acaso.

La visibilización de las mujeres de ciencia es un ejercicio de justicia. No se trata solo de tratar de despertar vocaciones, sino de dar nombre a tantas mujeres de ciencia que son borradas de la historia. Que por fin aparezcan en las publicaciones de ciencias, en los libros de texto, en los documentales, que dejen de aparecer como personajes secundarios y que se les coloque en el papel de protagonistas cuando lo hayan sido, que se relaten las injusticias que han soportado y que las han colocado en posiciones de segunda. La mujer de, la ayudante de, la técnico de. Las que no se llevan el reconocimiento por ser mujeres, que ahora merecidamente se lo demos.

Algunos ponen en duda que la visibilización sirva para despertar vocaciones. Es una duda razonable. Despertar vocaciones dota de un sentido de utilidad a corto y medio plazo a gran parte de las acciones que se acometen en relación con el 11 de febrero. No estamos acostumbrados a poner tanto empeño en acciones simbólicas si estas no tienen un sentido útil, una respuesta medible: más niñas que quieren ser mujeres de ciencia. Estrictamente no tenemos ni idea de si la consecuencia será esa. A mí no me preocupa que no lo sea, porque lo verdaderamente poderoso de todo esto es su valor simbólico. Como una suerte de performance colectiva que pretende colocar a las mujeres en el lugar que merecen. La visibilización de las mujeres de ciencia es un ejercicio de justicia, y esto tiene valor en sí mismo, independientemente de si sirve o no para animar a las niñas a convertirse en mujeres de ciencia.

  • Despertar vocaciones o animar a ser como los chicos

Generalizando, hay tantas chicas como chicos matriculados en carreras de ciencias. A excepción de algunas ingenierías, que hay más chicos, y a excepción de las ciencias de la salud, que hay más chicas. Si las cifras son estas, ¿por qué tanto empeño en animar a las chicas a estudiar ciencias? Si ya estudian ciencias.

Sí, pero no estudian ingenierías.

Que haya menos mujeres en ingenierías se percibe como un problema. Que haya más mujeres en ciencias de la salud se percibe como un problema. Es por eso de que se perpetúa un estereotipo, y como estereotipo da la impresión de que tiene que ser naturalmente malo. Aunque esto no sea así per se.

Si asumimos que estas cifras son un problema estamos dando por hecho que los chicos escogen bien sus carreras y que las mujeres escogen mal. Como si las carreras masculinizadas fuesen de primera y las feminizadas fuesen de segunda. No animamos a los chicos a estudiar ciencias de la salud. No animamos a los chicos a estudiar enfermería y magisterio, donde sí están infrarrepresentados. Animamos a las chicas a estudiar ingeniería. ¿Acaso estamos dando por hecho que los hombres son los que validan las carreras?

Incluso damos por hecho que los hombres son los que validan las profesiones. Pensemos en la cocina. Cocinar es un trabajo tradicionalmente femenino. Y parece que no se ha mostrado como profesión de prestigio hasta que no hubo cocineros famosos. Las cocineras y los cocineros. Lo mismo ha ocurrido con la moda. Las modistas y los modistos. Se desprende una clase diferente según el género de la profesión.

Por todo esto, en todas las acciones relativas al 11 de febrero en las que he participado mi mensaje ha sido «Chica, haz lo que te dé la gana».

  • Chica, haz lo que te dé la gana

Si como mujer de ciencia te he servido como referente, estupendo. Si no, estupendo también. Si quieres estudiar ciencias, adelante. Si quieres estudiar ciencias de la salud, enfermería, magisterio, carreras tradicionalmente femeninas, hazlo. Que nadie te haga sentir que tu elección no es libre. Que nadie te haga sentir que tu elección es menos importante. Que nadie te haga sentir que eres un estereotipo. Eres un individuo, no eres un engranaje más de un organismo femenino. Si nadie te ha obligado a tomar esa decisión, disfruta de ser un individuo que elige libremente su camino. Si quieres abanderar alguna lucha, que sea la tuya.

Si alguien te dice que tu elección no es libre porque está condicionada te diré que todas las elecciones están condicionadas, de una manera u otra. Las de los chicos y las de las chicas.

Que es igual de guay jugar con barbies que con robots. Y no me refiero a jugar con la Barbie laboratorio de ciencia, sino con la Barbie mil peinados, que es la mejor de todas. Disfrazarse de princesa es igual de divertido que disfrazarse de pirata. Y es lógico que no quieras disfrazarte de Marie Curie porque no era nada glamurosa. A ver si tampoco te vas a poder disfrazar de lo que te dé la gana. Que el problema no es a qué juegan las niñas. Solo faltaba.

Que si la ingeniería te da la turra, no estudies ingeniería. Si quieres estudiar ingeniería y te asusta que sea una «carrera de hombres» pues a pastar el cliché, que no hay nada que pueda hacer un hombre que no pueda hacer una mujer.

No tienes que demostrar nada ni ser adalid de nada. Que menuda responsabilidad. Que no defraudas a nadie si no quieres ser científica. Que hay algo más grande que formar parte de las mujeres de la ciencia, y eso más grande es tu vida.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Mamá, no quiero ser científica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Hacia la decisión compartida en los programas de cribado de cáncer de mama
  2. La humildad como virtud científica
  3. Verdad científica y verdad jurídica
Categories: Zientzia

Personas famosas que estudiaron matemáticas: literatura y cine

Wed, 2019/02/20 - 11:59

El día de Reyes de este año 2019, como todos los años, se concedía en Barcelona el Premio Nadal de novela, que la editorial Destino (ahora perteneciente al grupo Planeta) concede, desde el año 1944, a la mejor novela inédita. El ganador de esta 75ª edición era el escritor argentino Guillermo Martínez, por su novela Los crímenes de Alicia, una novela de intriga en la que dos matemáticos investigan una serie de crímenes relacionados con Lewis Carroll, el autor de Alicia en el País de las Maravillas.

Portada de la novela Los crímenes de Alicia (Destino, 2019), del escritor argentino Guillermo Martínez, ganadora del Premio Nadal 2019. Imagen de la página de Planeta de Libros

El escritor Guillermo Martínez (Buenos Aires, 1962), que muchas personas conocerán por su novela Los crímenes de Oxford (2003), que fue llevada al cine por el director bilbaíno Alex de la Iglesia, y que es el autor de otras novelas como Acerca de Roderer (1993), La muerte lenta de Luciana B. (2007) o Yo también tuve una novia bisexual (2011), de libros de cuentos, como Infierno Grande (1989) o Una felicidad repulsiva (2013), de libros de ensayos como La fórmula de la inmortalidad (2005) y La razón literaria (2016), muchos de ellos galardonados con diferentes premios, y que colabora con diferentes diarios argentinos, como La Nación o Clarín, es matemático.

Guillermo Martínez, se licenció en matemáticas por la Universidad Nacional del Sur, en Bahía Blanca, en 1984, se doctoró en Buenos Aires en Lógica en 1992 y posteriormente completó estudios posdoctorales en Oxford. Como podemos observar igual que el protagonista de sus dos novelas de intriga. De hecho, también tiene ensayos sobre matemáticas, como los libros Borges y la matemática (2006) o Gödel para todos (2009), este junto al matemático Gustavo Piñeiro. Ha sido profesor de Lógica Matemática y Álgebra en la Universidad de Buenos Aires, aunque ahora está de excedencia, dedicado por completo a la literatura.

Guillermo Martínez en el momento de recoger el Premio Nadal 2019 por su novela Los crímenes de Alicia. Fotografía de Planeta de Libros

Al igual que el escritor Guillermo Martínez, muchas otras personas que han sido conocidas, o famosas, en el mundo de la literatura, el arte, la música, el cine, el deporte o incluso la política, también estudiaron matemáticas, o más aún, se iniciaron en el mundo de esta ciencia, ya sea en la investigación, la empresa o la enseñanza.

En esta entrada del Cuaderno de Cultura Científica abrimos una pequeña serie dedicada a estas personas, que destacaron en otros ámbitos de la sociedad y la cultura, pero que se graduaron en matemáticas, e incluso realizaron un doctorado. Empezaremos, en la presente entrada, con la literatura y el cine.

Sin ir más lejos, el mencionado escritor inglés Lewis Carroll, autor de Alicia en el país de las maravillas, Alicia a través del espejo, Bruno y Silvia o La caza del Snark, entre otras, era también matemático. Trabajó en el campo de la lógica matemática, aunque publicó en muchos tópicos distintos. De hecho, Lewis Carroll era solo su seudónimo, y se llamaba realmente Charles Lutwidge Dogson (1832-1898).

Ilustración de John Tenniel de Alicia en el País de las Maravillas (1865), de Lewis Carroll

Charles Dogson siempre estuvo ligado a la Universidad de Oxford, primero como estudiante, en el college Christ Church, donde se graduó en matemáticas con el mejor expediente de ese curso, y después como profesor, también en el college Christ Church. Fue autor de varios libros de matemáticas, aunque no muy importantes, sobre geometría, trigonometría, aritmética o algebra. El más destacado por su interés histórico fue Euclides y sus rivales modernos (1879). Sobre lógica publicó dos libros: El juego de la lógica (1887) y Lógica simbólica (1896). Además, publicó libros de problemas de ingenio, como Problemas de almohada (que la editorial Nivola publicó en español en 2005) o Un cuento enmarañado (Nivola, 2002).

Autorretrato de Charles Dogson, conocido por el seudónimo, Lewis Carroll, de aproximadamente 1856. La fotografía era una de sus pasiones. Imagen de Wikimedia Commons

Pero hay más ejemplos, algunos fueron Premio Nobel de Literatura, como el español José de Echegaray (1832-1916), conocido por su carrera literaria como dramaturgo y poeta que le valió el Premio Nobel de Literatura en 1904, convirtiéndose en el primer español en obtener un Premio Nobel, y también por su paso por la política, fue Ministro de Fomento (1869-1870 y 1872) y de Hacienda (1872-1873).

Sin embargo, el madrileño José de Echegaray era ingeniero y matemático. Realizó importantes contribuciones a las matemáticas y a la física, de hecho, según algunos autores es considerado el mejor matemático del siglo XIX. Algunas de sus obras científicas fueron: i) Cálculo de Variaciones (1858), que era un tema casi desconocido en España; ii) Problemas de Geometría plana (1865); iii) Problemas de Geometría analítica (1865), calificada de obra maestra por el matemático Zoel García de Galdeano; iv) Teorías modernas de la Física (1867); v) Introducción a la Geometría Superior (1867), exponiendo en el mismo la geometría de Chasles; vi) Memoria sobre la teoría de los Determinantes (1868) , primera obra en España sobre este tema; vii) Tratado elemental de Termodinámica (1868), breve ensayo sobre una ciencia que estaba naciendo entonces.

Retrato de José de Echegaray, de principios del siglo XX, realizado por el pintor valenciano Joaquín Sorolla. Imagen de Wikimedia Commons

José de Echegaray fue presidente del Ateneo de Madrid (1888); director de la Real Academia Española (1896); senador vitalicio (1900) y dos veces presidente de la Real Academia de Ciencias Exactas, Físicas y Naturales (1894-1896 y 1901-1916); primer Presidente de la Sociedad Española de Física y Química, creada en 1903; catedrático de física matemática de la Universidad Central (1905); presidente de la sección de Matemáticas de la Asociación Española para el Progreso de las Ciencias (1908); y primer Presidente de la Sociedad Matemática Española (1911).

También fue premio Nobel de Literatura, en 1950, el inglés Bertrand Russell (1872-1970). Betrand Russell es conocido por ser uno de los más grandes filósofos del siglo XX, escritor, pacifista controvertido y singular que se opuso a prácticamente todas las guerras modernas, así como al uso y posesión de armas nucleares, aunque en ciertos momentos también defendió la guerra preventiva contra la URSS.

Fotografía de Bertrand Russell, de 1924, realizada por Lady Ottoline Morrell. Imagen de Wikimedia Commons

Sin embargo, Bertrand Russell estudió matemáticas en el Trinity College de Cambridge y destacó por su trabajo en lógica matemática, en particular, por su estudio de los fundamentos de las matemáticas. Su gran contribución, en la ciencia de Pitágoras, fue la indudablemente importante obra Principia Mathematica (1910-1913) con su profesor de Cambridge Alfred N. Whitehead (1861-1947), libro en tres volúmenes en donde a partir de ciertas nociones básicas de la lógica y la teoría de conjuntos se pretendía deducir la totalidad de las matemáticas, mostrando así el poder de los lenguajes formales. Un libro profundamente influyente e importante que contribuyó al desarrollo de la lógica, la teoría de conjuntos, la inteligencia artificial y la computación, y que causó un impacto importante en pensadores de la talla de David Hilbert, Ludwig Wittgenstein, que fue su estudiante, Alan Turing, Willard Van Orman Quine y Kurt Gödel.

Otro ejemplo de matemático que obtuvo el Premio Nobel de literatura, en 1970, es el ruso Aleksandr Solzhenitsyn (1918-2008), cuya obra más conocida es el ensayo Archipiélago Gulag (1973), en la que denuncia la represión política de la antigua Unión Soviética. Otras de sus obras son las novelas Un día en la vida de Iván Denísovich (1962), Pabellón del cáncer (1968) o Agosto de 1914 (1971).

Fotografía del matemático y escritor Aleksandr Solzhenitsyn, de 1974, realizada por la Agencia de Fotografía ANEFO. Imagen de Wikimedia Commons

Aleksandr Solzhenitsyn estudió matemáticas y física en la Universidad de Rostov. Se graduó en 1941. Poco antes se había casado con la matemática Natalia Dmitrievna Svetlova. Empezó a servir ese mismo año en el ejército soviético hasta 1945 en el cuerpo de transportes primero y más tarde de oficial artillero. Participó en la mayor batalla de tanques de la historia (Batalla de Kursk) y fue detenido en febrero de 1945 en el frente de Prusia Oriental, cerca de Königsberg (hoy Kaliningrado) poco antes de que empezara la ofensiva final del ejército soviético que acabaría en Berlín. Fue condenado a ocho años de trabajos forzados y a destierro perpetuo por las opiniones antiestalinistas que había escrito a un amigo. Lo encerraron en la Lubyanka y los primeros años de su cautiverio los pasó en varios campos de trabajo, gulags, hasta que gracias a sus conocimientos matemáticos fue a parar a un centro de investigación científica para presos políticos vigilado por la Seguridad del Estado; eso le inspiró su novela El primer círculo (1968).

Fue liberado en 1956 y empezó a trabajar como profesor de matemáticas, al tiempo que se dedicaba a escribir y a publicar sus novelas. Tras ser investigado y perseguido por la KGB, sería expulsado de la Unión Soviética en 1974.

Cartel de la película Drácula, de Bram Stoker, dirigida por el cineasta Francis Ford Coppola en 1992

Aunque no fue premio Nobel de literatura, Bram Stoker, el autor de la famosa novela Drácula (1897), también era matemático. El escritor irlandés Bram Stoker (1847-1912) se graduó en matemáticas en el Trinity College de Dublín en 1870 y, aunque parece ser que no era verdad, él empezó a decir con el tiempo que se “graduó con honores en matemáticas”. Sin embargo, cediendo a los deseos paternos, Bram Stoker siguió la carrera de funcionario público en el Castillo de Dublín, entre 1870 y 1878. Aunque conseguiría su Master of Arts (posgrado) en 1875. En 1878 empezaría a trabajar como asistente del actor Sir Henry Inving y también como gerente del Lyceum Theatre, que pertenecía al mencionado actor.

Entre sus obras nos encontramos un cuento infantil titulado Cómo se volvió loco en número 7(que publicó la editorial Nivola en 2010 y la editorial Gadir en 2013).

Portada del libro Cómo se volvió loco el número 7, de Bram Stoker, publicado por la editorial Gadir en 2013, con ilustraciones de Eugenia Ábalos

Seguimos con más escritores famosos. El argentino Ernesto Sábato (1911-2011), autor de las célebres novelas El túnel (1948), Sobre héroes y tumbas (1961) o Abbadón el exterminador (1874), y también libros de ensayo como Uno y el Universo (1945), Hombres y engranajes (1951), o El escritor y sus fantasmas (1963), estudió físicas y matemáticas en la Universidad Nacional de La Plata, universidad en la que se doctoró en 1937 investigando en temas de física. Después obtuvo una beca para investigar sobre las radiaciones atómicas en el Laboratorio Curie, iría al MIT en 1939 y finalmente regresaría en 1940 a la Universidad Nacional de La Plata, donde trabajó como profesor. En 1943, tras una crisis existencial, abandonó definitivamente su carrera científica y se centró en la literatura y la pintura.

Fotografía de Ernesto Sábato y Jorge Luis Borges, aparecida en la revista Gente, en 1975

La novelista, guionista y directora de cine francesa Marguerite Duras (1914-1996), autora entre otras de las novelas El amante (1984), El arrebato de Lol V. Stein (1964), El vicecónsul (1965) o Los ojos azules pelo negro (1986), o del guion de la película Hiroshima Mon Amour (1960), del director francés Alain Resnais, también está conectada con las matemáticas. Para empezar, Marguerite G. M. Donnadieu, que era su verdadero nombre, nació en Saigón, la Indochina francesa, su padre era profesor de matemáticas y su madre maestra. Según se cuenta en sus biografías, ella tuvo muy claro desde el principio que quería ser escritora, pero su madre quería que estudiara matemáticas como su padre (que falleció cuando Marguerite tenía cuatro años). Con diecisiete años Marguerite Donnadieu viajó a Francia, donde empezó a estudiar el grado de matemáticas, pero lo abandonó para concentrarse en Ciencias Políticas, y después Derecho. En una entrevista ella afirmaba que abandonó las matemáticas porque en ese momento tenía un novio, del que estaba muy enamorada, que quería casarse con ella y este le expresó que tenía sus dudas de que una matemática pudiese cuidar de sus hijos. Aunque ella se dio cuenta de la estupidez de su pensamiento, terminó dejando los estudios de matemáticas.

Fotografía de Marguerite Duras. Imagen de la página sobre cine IMDB

En poesía nos encontramos algunos poetas que son también matemáticos. El gran poeta chileno Nicanor Parra (1944-2018), creador de la antipoesía (en la entrada del Cuaderno de Cultura Científica Los números poéticos 2 [https://culturacientifica.com/2018/07/25/los-numeros-poeticos-2/] incluíamos algunos pequeños poemas relacionadas con las matemáticas), estudió matemáticas y ejerció de profesor de matemáticas. Aunque todos le conocemos como poeta, uno de los grandes de la poesía del siglo XX, tuvo una larga carrera científica.

En 1937 se graduó en matemáticas por la Universidad de Chile y empezó a trabajar como profesor, primero en el Liceo de Santiago, después como profesor de física y matemáticas en el Liceo de hombres de Chillán, de donde procedía él, y de nuevo en Santiago, tras el terremoto de Chillán, dando clases de física en un internado y de matemáticas en la Escuela de Artes y Oficios. Después, en 1943 consiguió una beca para hacer un posgrado en Mecánica Avanzada en la Universidad de Brown, en EEUU, y a su regreso a Chile, en 1946, se incorporó como profesor de Mecánica Racional en la Universidad de Chile. Posteriormente fue director de la Escuela de Ingeniería. En 1949 se fue a estudiar cosmología a la Universidad de Oxford (en Inglaterra).

Por supuesto que, durante todo ese tiempo, en paralelo, desarrolló una fructífera carrera literaria, que es la que lo hice conocido mundialmente. Las décadas de los años 1950 y 1960 se dedicó en cuerpo y alma a la literatura y el arte. Los primeros años de la década de 1970, fueron políticamente complicados en Chile. En 1973, tras el golpe de estado de Pinochet, entró a formar parte del Departamento de Estudios Humanísticos de la Facultad de Matemáticas de la Universidad de Chile. Y con el regreso de la democracia, abandonó completamente su carrera científica y docente.

El poema Pensamientos

Qué es el hombre
…………………….se pregunta Pascal:
Una potencia de exponente cero.
Nada
……… si se compara con el todo
Todo
……… si se compara con la nada:
Nacimiento más muerte:
Ruido multiplicado por silencio:
Medio aritmético entre el todo y la nada.

O, por ejemplo, en el mundo del teatro tenemos al dramaturgo español Juan Mayorga, autor de magníficas obras teatrales como El chico de la última fila (2006), La tortuga de Darwin (2008), El cartógrafo (2009), Reikiavik (2012), El arte de la entrevista (2014), o Intensamente azules (2018), que hemos podido disfrutar últimamente en nuestros teatros. Además, recibió el Premio Nacional de Teatro en 2007, Premio Nacional de Literatura Dramática en 2013 y en 2018 fue elegido Miembro de la Real Academia Española, letra M.

Cartel de la obra Intensamente azules (2018), del dramaturgo Juan Mayorga, interpretada por el actor César Sarachu

Este dramaturgo madrileño se licenció, en 1988, en Matemáticas en la Universidad Autónoma de Madrid y en Filosofía en la UNED. A partir de 1994 y durante cinco años fue profesor de matemáticas en diferentes institutos de Madrid y Alcalá de Henares. Desde entonces su carrera se ha centrado fundamentalmente en el teatro, como autor y como docente, pero también fundando compañías teatrales y teatros. Aunque, en 1997 se doctoró, por la UNED, en Filosofía.

A pesar de todo, como él mismo dice, las matemáticas son para él una pasión que descubrió en la adolescencia y nunca me le han abandonado, las matemáticas le han formado como hombre, pero también le forman como dramaturgo. Más aún, podemos encontrar rastros de matemáticas en algunas de sus obras, por ejemplo, en El chico de la última fila o en Intensamente azules. De esta última:

Siete pasos después me he cruzado con un hombre que llevaba puestas unas gafas de nadar intensamente amarillas. Lo he seguido con discreción hasta un bar de nombre El Número i desde cuyo exterior he observado el interior. […] “Este bar tiene forma de raíz cuadrada de menos uno”, me he dicho […]. En una pared del bar hay un retrato de Euler, inventor de los números imaginarios.

Bueno, hemos destacado algunos nombres dentro de la literatura, aunque hay más, como el novelista J. M. Coetzee, premio Nobel de Literatura en 2003, el escritor y guionista, por ejemplo, del programa de tv La bola de Cristal, Carlo Frabetti, el escritor Ricardo Gómez que escribe tanto literatura infantil y juvenil, como para adultos, el escritor de ciencia ficción Larry Niven, o la escritora Catherine Shaw (seudónimo de la matemática Leila Schneps) que ha escrito novelas de misterio relacionadas con las matemáticas como La incógnita Newton, entre otros.

Pero si pensamos en otros campos diferentes de la literatura y que podrían parecernos a priori más lejanos aún de las matemáticas, como puede ser el cine, ¿existirán también ejemplos de personas que se han hecho famosas dirigiendo o interpretando películas, pero que han estudiado matemáticas?

En esta parte, dedicada al cine, me gustaría empezar por una actriz que intervino en una maravillosa serie estadounidense de los años 1980, Aquellos maravillosos años. Entonces no me perdía un capítulo de esta serie cada semana. Los dos protagonistas principales eran un chico y una chica adolescentes. Ella estaba interpretada por la actriz Danica McKellar, que ha seguido apareciendo en diferentes series, como algunos capítulos de The Big Bang Theory, Cómo conocí a vuestra madre o Navy, Investigación criminal, en algunas películas para diferentes canales de televisión, o ha protagonizado la serie Proyecto MC2 de Netflix.

Imagen de los tres personajes adolescentes principales de la serie Aquellos maravillosos años y fotografía de 2018 de la actriz Danica McKellar. Imagen de Wikimedia commons

Danica McKellar se graduó, cum laude, en matemáticas por la Universidad de California, Los Ángeles (UCLA), en 1998, con 23 años (nació en 1975). Después empezó a investigar en matemáticas, llegando a publicar un artículo en el que se recoge el resultado conocido como “Teorema de Chayes-McKellar-Winn”.

Ha escrito cuatro libros, tres de los cuales han sido grandes éxitos. El libro Las matemáticas no apestan: cómo sobrevivir a las matemáticas en la educación secundaria sin perder la cabeza o romperte una uña (2008), fue todo un bestseller. También otros libros con títulos (en inglés) cuya traducción es más o menos… Besa mis matemáticas: enseñando quien manda en pre-álgebra (2009), X caliente: el álgebra al descubierto (2010) y Las chicas tienen curvas: la geometría da la forma (2012). En estos libros, la actriz y matemática busca acercar las matemáticas a las jóvenes adolescentes.

Portadas de prensa y algunos de los libros de la actriz y matemática estadounidense Danica McKellar

También ha publicado, en los últimos años, libros infantiles, como Buenas noches números (2017), Diez mariposas mágicas (2018) o Bathtime, Mathtime (Hora del baño, hora de las matemáticas, 2018) y No abras este libro de matemáticas, sumas y restas, (2018).

La actriz estadounidense Teri Hatcher (California, 1964) que muchas personas conocerán por su papel en la serie Mujeres desesperadas y que tiene una larga carrera entre el cine y la televisión, entre las que destacan, en popularidad, la serie Louis y Clark, Las nuevas aventuras de Superman, o la película El mañana nunca muere, también está conectada con las matemáticas.

Fotografía de las protagonistas de la serie Mujeres desesperadas, con la actriz Teri Hatcher en el medio de la imagen

Teri Hatcher estudió los grados de matemáticas e ingeniería en De Danza College en Cupertino (California), al mismo tiempo que estudiaba actuación en el American Conservatory Theather.

La actriz, escritora, productora y creadora de series web estadounidense Felicia Day (Alabama, 1979), que actuó en series como Buffy cazavampiros, Eureka o Sobrenatural, entre otras, se graduó en matemáticas y música en la Universidad de Texas en Austin. En una entrevista afirmó que siempre había adorado las matemáticas, pero que no eran su carrera definitiva y, de hecho, nunca se dedicó a esta ciencia tras sus estudios.

Felicia Day interpreta a la cazadora de vampiros Vi en la serie Buffy cazavampiros

También estudió Matemáticas en la Universidad de Chicago la actriz Morgan Saylor (Chicago, 1994), de la serie Homeland, en la cual interpreta a Dana Brody. En una entrevista cuenta una anécdota compartida por todas las personas que hemos estudiado matemáticas. Explica que muchas veces al salir con amigos y amigas le piden a ella que haga la cuenta, y explica que su respuesta suele ser “he estudiado matemáticas, no aritmética”.

Escena de la serie Homeland en la que aparecen tres de sus protagonistas, Claire Danes (Carrie), Damian Lewis (Nicholas Brody) y Morgan Saylor (Dana Brody, hija de Nicholas)

La actriz estadounidense Jane Alexander (Boston, 1939), que ha actuado en películas míticas como Todos los hombres del presidente (1976), Kramer vs Kramer (1979), Brubaker (1980) o Las normas de la casa de la sidra (1999), entre muchas otras, además de muchísimas series de televisión y obras de teatro, por las que ha recibido varias nominaciones y premios Tony, se graduó en matemáticas y también en teatro en el Sarah Lawrence College de Bronxville, Nueva York.

Jane Alexander junto a Dustin Hoffman en una escena de la película Kramer vs Kramer, dirigida por Robert Benton en 1979

En España, la actriz madrileña Sofía Nieto (Alcorcón, 1984), de las series Aquí no hay quien viva y La que se avecina, estudió matemáticas en la Universidad Autónoma de Madrid, y luego se especializó en probabilidad, área a la que pertenece su tesis doctoral.

Sofía Nieto en una de las escenas de la serie Aquí no hay quien viva

El año 2011, Sofia Nieto presentó uno de los desafíos matemáticos que se publicaron en la página web del periódico El País para celebrar el centenario de la Real Sociedad Matemática Española. Aquí tenemos el desafío que presentó:

Desafío 32: Partículas en movimiento

Solución del desafío 32 (el video de la solución está en la columna de la derecha)

El director de cine Paul Verhoeven (Amsterdam, 1938), que se hizo famoso con películas como Robocop (1987), Desafío Total (1990), Instinto Básico (1992), El hombre sin sombra (2000), entre otras, se graduó por la Universidad de Leiden en Matemáticas y Física. Se unió a la armada neerlandesa y fue allí donde empezó a rodar y a hacer sus primeros documentales, luego entró en la televisión y ya no dejaría su carrera de director.

Y como es bien conocido, dentro del equipo de guionistas y productores de Los Simpson y Futurama, hay muchas personas que han estudiado matemáticas, física u otras ciencias. En particular: A) J. Stewart Burns: Licenciado en Matemáticas por la Universidad de Harvard y Máster en Matemáticas por U.C. Berkeley. Productor y Guionista de Futurama (y de Los Simpsons desde 2002); B) Al Jean: Licenciada en Matemáticas por la Universidad de Harvard. Ha estado en el equipo de Los Simpsons desde el principio, aunque en la actualidad es Productora Ejecutiva y guionista de esta serie; C) Ken Keeler: Doctor en Matemática Aplicada por la Universidad de Harvard y Máster en Ingeniería Electrónica. Productor Ejecutivo y Guionista de Futurama, aunque antes había sido guionista para Los Simpsons.

Imagen de los personajes principales de la serie de tv Los Simpson

Bibliografía

1.- Página web del escritor Guillermo Martínez [http://guillermomartinezweb.blogspot.com/]

2.- Página de Wikipedia sobre José de Echegaray [https://es.wikipedia.org/wiki/Jos%C3%A9_Echegaray]

3.- Página de Wikipedia de Bertrand Russell [https://es.wikipedia.org/wiki/Bertrand_Russell]

4.- Página de Wikipedia de Aleksandr Solzhenitsyn [https://es.wikipedia.org/wiki/Aleksandr_Solzhenitsyn]

5.- Página de Wikipedia de Ernesto Sábato [https://es.wikipedia.org/wiki/Ernesto_Sabato]

6.- Jean Vallier, C’était Marguerite Duras: Tome 1, 1914-1945, Fayard, 2006.

7.- Página de Wikipedia de Nicanor Parra [https://es.wikipedia.org/wiki/Nicanor_Parra]

8.- Página web de Juan Mayorga [https://es.wikipedia.org/wiki/Juan_Mayorga]

9.- Página de Wikipedia de Danica McKellar [https://es.wikipedia.org/wiki/Danica_McKellar]

10.- Página de Wikipedia de Teri Hatcher [https://es.wikipedia.org/wiki/Teri_Hatcher]

11.- Página de Wikipedia de Felicia Day [https://es.wikipedia.org/wiki/Felicia_Day]

12.- Página de Wikipedia de Morgan Saylor [https://es.wikipedia.org/wiki/Morgan_Saylor]

13.- Página de Wikipedia de Jane Alexander [https://es.wikipedia.org/wiki/Jane_Alexander]

14.- Página de Wikipedia de Paul Verhoeven [https://es.wikipedia.org/wiki/Paul_Verhoeven]

15.- Simon Singh, Los Simpson y las matemáticas, Ariel, 2013

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Personas famosas que estudiaron matemáticas: literatura y cine se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El rostro humano de las matemáticas
  2. Las dos culturas de las matemáticas: construir teorías o resolver problemas
  3. Un kilogramo de novelas y matemáticas
Categories: Zientzia

Pages