S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 37 min 40 sec

Gustave Bémont, el fantasma de la rue Vauquelin

jeu, 2020/07/23 - 11:59
Foto: Erik Müller / Unsplash

En 1911 el comité Nobel concedía el premio de química a Marie Curie “como reconocimiento a sus servicios en el avance de la química por el descubrimiento de los elementos radio y polonio, por el aislamiento del radio y el estudio de la naturaleza y compuestos de este elemento extraordinario.”

Que Marie Curie merecía el premio nadie lo discute, ni lo haremos nosotros en lo que sigue. Ahora bien, también es cierto, que nada de lo relacionado con el descubrimiento del polonio y el radio hubiese sido posible sin los conocimientos químicos de Gustave Bémont.  Es nuestro objetivo en este breve texto exponer algo de la química del descubrimiento, la mejor forma, creemos, de comprender la verdadera dimensión de las aportaciones de Gustave Bémont. Por otra parte quizás también sería interesante desmitificar la imagen del trabajo aislado de la pareja Curie en sus primeros años de colaboración, por lo que mencionaremos a todo aquel que nos conste que ayudó de alguna manera relevante (que fueron, mire usted, mayoritariamente químicos).

El fantasma, Pierre y Marie Curie en el laboratorio de rue Vauquelin / Foto tal cual aparece en Wikimedia Commons

Un tema para la tesis

La anécdota de la vida de Marie Curie es tan conocida que no abundaremos en ella. Baste decir que Marie Curie obtuvo su segunda licenciatura (en matemáticas) en 1894, tras haber obtenido la de física en 1893 y haber comenzado a trabajar bajo la supervisión de Gabriel Lippmann (quien a la postre sería su director de tesis y su primera conexión con la Academia de Ciencias; curiosamente obtendría el Nobel en 1908, después de que su pupila lo consiguiese en 1903). En 1895 se casó con Pierre Curie, un físico conocido por sus estudios en magnetismo y simetría cristalina que, junto a su hermano Jacques, había descubierto el efecto piezoeléctrico en 1882. Pierre era en ese momento profesor en la Escuela Municipal de Física y Química Industriales (EMFQI), sita en el número 10 de la rue Vauquelin de la ciudad de París.

El descubrimiento de la radioactividad por parte de Becquerel había planteado un problema desconcertante: las sales de uranio mantenían en el tiempo, sin una fuente de energía externa, la capacidad de ennegrecer una placa fotográfica. Marie, que buscaba tema para su tesis decidió investigar el fenómeno.

El 11 de febrero de 1898 Marie comienza una búsqueda sistemática de elementos y compuestos con la capacidad de conferir conductividad eléctrica al aire (lo que hoy llamaríamos elementos y compuestos radioactivos). Comprobó, usando para ello una antigua leñera, luego sala de usos múltiples (vulgo, trastero), anexa a las instalaciones de la EMFQI, todas las muestras de que disponía en la escuela más las que pidió prestadas a distintos laboratorios de la ciudad. La lista de materiales analizados es bastante extensa y puede ser agrupada en tres grandes grupos:

1) Metales y metaloides disponibles habitualmente (de la colección mantenida por el profesor Etard, EMFQI)

2) Sustancias raras: galio, germanio, neodimio, praseodimio, niobio, escandio, gadolinio, erbio, samario y rubidio (proporcionadas por Demarçay); itrio, iterbio junto con un “nuevo erbio” (proporcionadas por Urbain)

3) Rocas y minerales (colección de la EMFQI)

Los resultados obtenidos fueron lo suficientemente interesantes como para que el profesor Lippmann presentase una nota de Marie (ella sola, sin Pierre como coautor) a la Academia de Ciencias y para que Pierre abandonase sus propias investigaciones cristalográficas para dedicarse de lleno al nuevo fenómeno.

El uranio y algo más

Marie descubrió que todos los minerales que eran activos contenían o bien uranio o bien torio (esto último lo había descubierto independientemente dos meses antes Gerhard Schmidt; en esta época de efervescencia los descubrimientos se atribuían por diferencias de meses, si no semanas, como bien supo un hoy olvidado Silvanus Thompson que descubrió la “hiperfosforescencia” del nitrato de uranio en febrero de 1896, exactamente a la vez que Becquerel, pero éste lo comunicó públicamente antes. De ahí la prisa de Marie y Lippmann por comunicar resultados parciales).

Pero el resultado más importante de Marie fue que la pechblenda, una variedad de uraninita (UO2), era (es) cerca de cuatro veces más activa que el uranio metálico, que la chalcolita (hoy metatorbernita), Cu(UO2)2(PO4)2·8 H2O, lo era alrededor de dos veces y que la autunita, Ca(UO2)2(PO4)2·12H2O, aunque menos marcado que los anteriores, también presentaba una actividad anómala. Tras sintetizar chalcolita en el laboratorio a partir de sus constituyentes puros, Marie comprobó que en la chalcolita sintética la actividad era proporcional al contenido de uranio. Esto la llevó a una conclusión que aparece en la nota a la Academia en una frase clave: “Este hecho es muy notable y sugiere que estos minerales podrían contener un elemento mucho más activo que el mismo uranio”.

De la física a la química

El matrimonio Curie se enfrentaba ahora a la necesidad de investigar la pechblenda. Si bien podía usar el dispositivo inventado por Pierre para medir la actividad de los compuestos y guiar el trabajo, los conocimientos necesarios de química sobrepasaban de manera notable los que la pareja pudiese tener.

Afortunadamente estaban en el lugar ideal para encontrar la ayuda que necesitaban. Como centro de formación en química industrial la EMFQI contaba con grandes especialistas en el tratamiento de minerales. Pierre recurrió al mejor: Gustave Bémont, el chef de travaux de chimie , el responsable de las prácticas de química en la Escuela. Él, tras muchas pruebas, terminó diseñando para ellos la siguiente marcha analítica (que es la que aparece en la nota de Pierre y Marie, no Bémont, que Becquerel presentó a la Academia con el descubrimiento del polonio):

Marcha analítica para el polonio. Véase el texto para una explicación / Tomado de Adloof & McCordick «The Dawn of radiochemistry» (1995) Radiochimica Acta 70/71, 13-22

El tratamiento de los primeros 100 g de pechblenda comenzó el 14 de abril de 1898. Lo que sigue da una idea de la pericia analítica necesaria para llevarlo a cabo.

La muestra se molió y fue tratada con HCl. Los residuos insolubles aún eran muy activos, por lo que tras fundirlos con una mezcla de carbonato potásico e hidróxido sódico se solubilizaron con ácidos.

El tratamiento de la disolución ácida con H2S fue un paso muy importante, digno de una gran experiencia química, ya que los sulfuros precipitados eran más activos que el resto de la disolución residual. La actividad en los sulfuros era insoluble en sulfuro de amonio, por lo que pudo separarse de As y Sb. El resto de sulfuros insolubles se disolvieron con nítrico tras la adición de sulfúrico y parte de la actividad acompañaba al sulfato de plomo. Finalmente se encontró la actividad mayoritariamente concentrada en la última fracción, que contenía “sólo” bismuto y plomo.

Separar la sustancia activa del bismuto y el plomo por métodos húmedos resultó tremendamente laborioso. Esta frase tan sencilla nos debe dar una idea de la inmensidad del trabajo llevado a cabo: cada ensayo significaba tratar una muestra no pequeña del residuo al que se llega tras todos los pasos anteriores. Finalmente encontraron que la precipitación fraccionada repetida podía ser una vía, angustiosamente lenta, pero segura. Al añadir agua a una disolución ácida del residuo las fracciones que precipitaban antes eran las que portaban la mayor parte de la actividad. De esta forma el 6 de junio tenían un sólido 150 veces más radioactivo que el uranio.

Mientras tanto Pierre probaba cosas nuevas, a ver si alguna podía ser útil. El mismo 6 de junio se le ocurrió calentar el residuo en un tubo de vacío a varios cientos de grados: los sulfuros de bismuto y plomo se quedaron en la parte caliente del tubo, mientras que en la parte fría (entre 250 y 300ºC) condensaba una capa negra con la actividad. Ese día el equipo consiguió una muestra 330 veces más activa que el uranio. Tras reiterar el proceso, purificando la muestra, consiguieron llegar a 400 veces.

La nota presentada por Becquerel, y firmada por Pierre y Marie (no por Bémont, reiteramos) termina diciendo: “Creemos que la sustancia que hemos recuperado de la pechblenda contiene un hasta ahora metal desconocido, similar al bismuto en sus propiedades analíticas. Si la existencia de este nuevo metal se confirma proponemos que se le llame polonio en honor de la tierra natal de uno de nosotros”.

Por primera vez en la historia se anunciaba el descubrimiento de un elemento sin aislarlo y sin medir sus propiedades físicas. Demarçay, renombrado espectroscopista, fue incapaz de detectarlo, lo que no es de extrañar habida cuenta de la bajísima concentración en la muestra (del orden de nanogramos). Hubo que esperar al tratamiento de varias toneladas de pechblenda en 1910 (cosa que hicieron Marie y André Debierne; ese mismo año Debierne, descubridor del europio, ayudó a Marie a obtener el radio metálico) para obtener una muestra de 2 mg de producto que contendría aproximadamente 0,1 mg de polonio.

Gustave Bémont, Pierre y Marie Curie en el laboratorio de rue Vauquelin

El equipo siguió trabajando en lo que después sería el descubrimiento del radio a finales de año. En esta ocasión la nota a la Academia sí aparece firmada por los Curie y Bémont, como era de justicia. Sin embargo, la historia ha querido que Gustave Bémont (1857-1937), que podría haber justamente compartido el Nobel de química con Marie, quedase reducido a una mención en una placa en el 10 de la rue Vauquelin que casi nadie termina de leer.

Fuente: Wikimedia Commons

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto se publicó originalmente el 12 de junio de 2013 y reeditado el 12 de febrero de 2018 en el blog personal del autor.

La historia de la radiactividad es el hilo conductor que permite introducirse fácilmente a los conceptos científicos básicos sobre la estructura nuclear en la serie El núcleo.

El artículo Gustave Bémont, el fantasma de la rue Vauquelin se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. No solo el uranio emite rayos
  2. Polonio y radio
  3. Primeros experimentos con el uranio
Catégories: Zientzia

Las emocionantes aventuras de Lovelace y Babbage

mer, 2020/07/22 - 11:59

 

Las emocionantes aventuras de Lovelace y Babbage (UOC, 2016) es una novela gráfica de Sydney Padua en la que se entremezclan texto e imagen, historia y ficción, ciencia y arte.

Portada del libro.

La autora comenzó a escribir las hazañas de Ada Lovelace y Charles Babbage en 2009, en formato webcómic, bajo el título de The Thrilling Adventures of Lovelace and Babbage. En 2015 recopiló esas ‘emocionantes aventuras’ en este divertido e informativo libro en el que puede encontrarse una pequeña crónica de la historia de la Inglaterra victoriana, un libro de aventuras que van más allá de lo real, una biografía de la matemática Ada Lovelace (1815-1852) y del ingeniero Charles Babbage (1791-1871), un repaso de algunas de las matemáticas que se hacían en ese momento en Inglaterra y, por supuesto, un bello libro ilustrado.

Cada página del libro consta de algunas viñetas que hablan sobre los esfuerzos de la matemática y el ingeniero para construir y hacer funcionar esa soñada Máquina Analítica y que se complementan con extensos y muy documentados pies de página que introducen la historia real de esa empresa científica. En estas ‘emocionantes aventuras’ se combinan las imágenes y el texto, la fantasía y la realidad, el humor y la precisión histórica.

El libro está dividido en diez capítulos, dos apéndices y un epílogo. En todos ellos la Máquina Analítica es el centro de la acción de una u otra manera:

  1. Ada Lovelace: ¡El origen secreto!

La autora presenta a Ada, el motivo por el que su madre –la aristócrata Annabella Milbanke (1792-1860)– optó por incluir las matemáticas en la educación de su hija, cómo conoció a Charles Babbage, y cómo trabajaron juntos hasta su triste final. Esta parte del tebeo va acompañada de numerosas notas sobre las personas que rodearon a Ada Lovelace y Charles Babbage.

  1. El Universo de bolsillo

De este modo denomina la autora las páginas de su libro, un mundo de dimensión dos en el que todo funciona de una manera un poco diferente a la del mundo real. En ese universo plano, es posible mezclar historias sucedidas en diferentes momentos; aunque «algo de la información real debe de conservarse sin renunciar al entretenimiento».

  1. La persona de Porlock

La autora se permite una licencia poética: ¿quizás fue Ada la persona –el visitante de Porlock– que interrumpió al poeta Samuel Taylor Coleridge (1772-1834) mientras redactaba su conocido poema Kubla Khan? Recordemos que, según el prefacio de Coleridge, concibió el poema durante un sueño, bajo la influencia del opio y tras haber leído una biografía del último Gran Kan del Imperio mongol Kublai Khan. Al despertar, comenzó a transcribir los 300 versos soñados hasta que fue interrumpido por un visitante procedente de Porlock. Cuando esa persona se marchó, el poeta solo consiguió escribir unos pocos versos más, olvidando el resto.

  1. ¡Lovelace y Babbage contra la clienta!

La clienta es la Reina Victoria (1819-1901), que financiaba el trabajo de Babbage.

  1. Fuentes principales

En este corto capítulo se habla de los diarios de la Reina Victoria.

Ada Lovelace y Charles Babbage se conocen. Imagen: Sydney Padua (Licencia CC BY-NC).

 

  1. ¡Lovelace y Babbage contra el modelo económico!

La autora habla de inventos, de modelos económicos y de la afición de Ada por las carreras de caballos –a finales de la década de 1840, Ada se volvió adicta a las carreras de caballos. Intentó crear un modelo matemático para ganar las apuestas en esas carreras. El evidente fracaso de ese proyecto generó cuantiosas deudas a la aristócrata–.

  1. ¡Luditas!

Los luditas eran los componentes de un movimiento de artesanos que protestaron contra los telares industriales que amenazaban sus empleos. La soñada máquina de Babbage se basaba precisamente en el sistema de tarjetas perforadas de los telares de Jacquard.

  1. ¡Experiencia de usuario!

Aparece en la historia la escritora George Eliot (1819-1880) como usuaria de la ‘Gran Máquina’ correctora de errores ortográficos.

  1. El Sr. Boole viene a tomar el té

El lógico George Boole (1815-1864) entra en la historia en el momento en el que se comienza a hablar de la programación de la Máquina Analítica.

  1. Cantidades imaginarias

Los números imaginarios y los cuaterniones –y la poesía– se introducen en la historia a través del matemático y astrónomo William Rowan Hamilton (1805-1865). En el ‘Universo de Bolsillo’, al mezclar las matemáticas con la poesía, Ada atraviesa un espejo para entrar en la dimensión tres –una más que la de su mundo plano, por analogía con el mundo de cuatro dimensiones respecto al universo real–. Allí vive aventuras como una Alicia en el País de las maravillas. La autora comenta cómo diferentes biógrafos alaban el intelecto de Ada, mientras que otros afirman que sus contribuciones no fueron tan importantes. Las cartas de Babbage no dejan lugar a dudas –al menos para Sydney Padua– de lo buena matemática que era Ada Lovelace. El ingeniero llega en un corcel mecánico al País de las maravillas para hacer regresar a Ada a su universo de dimensión dos. El capítulo finaliza con una inesperada visita del lógico y escritor Lewis Carroll (1832-1898), autor de Alicia en el País de las maravillas.

  1. Apéndice I: Algunos documentos originales entretenidos

Sydney Padua reproduce cartas, artículos y otros documentos hablando de Babbage, de su máquina, de Ada Lovelace, etc.

  1. Apéndice II. La Máquina Analítica

La autora describe y dibuja esa ansiada máquina que Babbage nunca llegó a construir.

  1. Epílogo

Ada y Babbage caminan juntos, conversando, entre los gigantescos engranajes de la ‘Gran Máquina’.

Ada Lovelace. Imagen: Sydney Padua (uso libre).

En el ‘Universo de Bolsillo’ –la parte de aventuras de esta historia sobre Ada Lovelace y Charles Babbage– se describen diversas máquinas de la época, algunas de las matemáticas relacionadas con Ada y todos los tutores que la acompañaron –como Mary Somerville (1780-1872) o Augustus de Morgan (1806-1871)–.

Las notas que acompañan al tebeo son una pequeña pero minuciosa recopilación de la historia –y la historia de la ciencia– que sucedía alrededor de los dos protagonistas del libro. Todos los personajes que aparecen convivieron realmente con Lovelace y Babbage, aunque en el ‘Universo de Bolsillo’ se hable de ellos con un poco de humor y grandes dosis de imaginación.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Las emocionantes aventuras de Lovelace y Babbage se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Desenmascarando al autómata
  2. Un convite matemático ‘de altura’
  3. El teorema de Morcom
Catégories: Zientzia

Polonio y radio

mar, 2020/07/21 - 11:59
Exterior del «laboratorio» de los Curie en la antigua leñera de la Escuela Municipal de Física y Química Industriales de París en 1898. Fuente: Musée Curie ; coll. ACJC / Cote MCP991

Para explorar la hipótesis de que tenía que existir otro elemento en la pechblenda, desconocido, que tenía que ser más radiactivo que el uranio mismo, los Curie aplicaron procesos de separación química [1] a una gran cantidad de pechblenda para tratar de aislar esta hipotética sustancia radiactiva. Después de cada proceso de separación, se comprobaban los productos, descartándose la parte inactiva y analizando de nuevo la parte activa. Finalmente, los Curie obtuvieron un producto altamente radiactivo que era de suponer que consistía principalmente en el elemento desconocido. En una comunicación titulada «Sobre una nueva sustancia radiactiva contenida en la pechblenda» que presentaron a la Academia de Ciencias de Francia en julio de 1898, decían:

Al llevar a cabo estas diferentes operaciones […]  finalmente obtuvimos una sustancia cuya actividad es aproximadamente 400 veces mayor que la del uranio. […] Creemos, por lo tanto, que la sustancia que extrajimos de la pechblenda contiene un metal hasta ahora desconocido, similar al bismuto en su propiedades químicas. Si se confirma la existencia de este nuevo metal, proponemos llamarlo polonio, por del nombre del país natal de uno de nosotros.

Seis meses después del descubrimiento del polonio, los Curie separaron químicamente otra sustancia de la pechblenda. Habían encontrado una emisión tan intensa que solo podía explicarse si si existía otro elemento nuevo, más radiactivo aún que el propio polonio. Esta sustancia tenía una actividad por unidad de masa novecientas veces mayor que la del uranio y era químicamente completamente diferente del uranio, del torio y del polonio.

El análisis espectroscópico de esta sustancia mostraba líneas espectrales características del elemento inactivo bario, pero también una línea en la región ultravioleta que no parecía pertenecer a ningún elemento conocido. Los Curie informaron de su creencia de que la sustancia, «aunque en su mayor parte consiste en bario, contiene además un nuevo elemento que produce radiactividad y, además, está muy cerca del bario en sus propiedades químicas». Para este nuevo elemento, tan extraordinariamente radiactivo, propusieron el nombre de radio.

Pero una cosa es predicar y otra dar trigo. Así que el siguiente paso para demostrar la existencia de estos elementos era determinar sus propiedades, especialmente sus masas atómicas. Los Curie aún no habían aislado ni el polonio ni el radio en forma metálica pura, ni habían obtenido una muestra pura de un compuesto de ninguno de los elementos.

De la sustancia que contenía eso fuertemente radiactivo que llamaban radio habían separado una parte que consistía en cloruro de bario mezclado con una cantidad muy pequeña de lo que debía ser cloruro de radio. Separaciones adicionales por medios químicos produjeron una proporción creciente de cloruro de radio. La dificultad de esta tarea está indicada por la observación de Curie de que el radio «está muy cerca del bario en sus propiedades químicas», ya que es muy difícil separar elementos cuyas propiedades químicas son similares [1].

Para obtener las sustancias altamente radiactivas en cantidades utilizables, tuvieron que comenzar con una gran cantidad de pechblenda. Con un envío inicial de 100 kg de pechblenda [2] los Curie se pusieron a trabajar en una leñera abandonada en la Escuela Municipal de Física y Química Industriales, donde Pierre Curie era profesor. Habiendo fracasado en su intento de obtener apoyo financiero, los Curie hicieron sus preparativos sin ayuda manual [1] de otras personas en este «laboratorio». Marie Curie escribiría más tarde:

Llegué a tratar hasta veinte kilogramos de material a la vez, lo que tuvo el efecto de llenar el cobertizo con grandes frascos llenos de precipitados y líquidos. Fue un trabajo agotador transportar los recipientes, verter los líquidos y remover, durante horas seguidas, el material hirviendo en un recipiente de fundición.

A partir de la mezcla de cloruro de radio y cloruro de bario que consiguieron producir produjeron, solo se pudo calcular la masa atómica promedio del bario y el radio. Al principio se obtuvo un valor promedio de 146 unidades de masa atómica [3], en comparación con 137 u para la masa atómica del bario. Después de muchas purificaciones adicionales que aumentaron la proporción de cloruro de radio, el valor promedio de la masa atómica aumentó a 174 u.

No era suficiente. El tedioso proceso de purificación duró 4 años más, durante los que Marie trato varias toneladas de ganga de pechblenda. Finalmente Marie Curie pudo informar, en julio de 1902, que había aislado 0,1 g [4] de cloruro de radio, tan puro que el examen espectroscópico no mostró presencia de bario. Marie calculó que la masa atómica del radio era 225 u. La actividad del radio es más de un millón de veces mayor que la de la misma masa de uranio.

Notas:

[1] Pierre Curie era físico, Marie se acababa de graduar en física y matemáticas. Es sabido que los físicos y matemáticos no saben química, por definición, y encontrar alguno que sepa está considerado milagro mayor de san Alberto el magno. ¿Cómo es posible que los Curie desarrollaran todo un complejísimo sistema químico de separación química de un mineral de la noche a la mañana? Solo hay una explicación: les ayudaron fantasmas.

[2] En puridad habría que hablar de ganga de pechblenda, que es lo que queda después de extraer de ella la mena, es decir, el óxido de uranio que se empleaba para producir vidrio de uranio.

[3] La unidad de masa atómica hoy es la doceava parte de la masa un átomo neutro en reposo de carbono-12. Su símbolo es u, y hay quien la llama Dalton, y la simboliza Da. De lo anterior se deduce que su uso es tolerado por el Bureau international des poids et mesures por tratarse de un submúltiplo de una unidad del sistema internacional de unidades, el kilogramo.

[4] No te engaña la vista ni es un error. Tras tratar toneladas de mineral obtuvo una décima de gramo.

[5] El valor hoy día es está establecido en 226,03 u para la mezcla natural de isótopos de radio.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Polonio y radio se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. No solo el uranio emite rayos
  2. Ondas de radio
  3. La ley del gas ideal a partir del modelo cinético
Catégories: Zientzia

Los riesgos de la exploración espacial

lun, 2020/07/20 - 11:59

David Barrado Navascués

Fuente: TELOS

 

El 4 de octubre de 1957 la extinta Unión Soviética lanzó el Sputnik-1, el primer satélite que orbitó alrededor de nuestro planeta. Los primeros sobrevuelos de los planetas Venus y Marte se realizaron en 1962 y 1964 (por las sondas Mariner 2 y Mariner 4), mientras que los primeros aterrizajes sobre estos planetas se produjeron en 1966 y 1971 (las naves Venera 3 y Mars 2, aunque ambas se estrellaron contra la superficie).

En el caso de la Luna, prácticamente carente de atmósfera, el primer aterrizaje de un objeto se produjo en 1959 (el ingenio Luna 2), mientras que un humano holló su superficie en 1969. Otros misiones posteriores han llegado a todos los planetas del Sistema Solar e incluso el módulo Huygens, transportado por la sonda Cassini, se posó en Titán, un satélite de Saturno con mares de hidrocarburos, en 2005.

Por otra parte, los cometas 9P/Tempel 1 y 67P/Churyumov-Gerasimenko han experimentado bien un impacto (por la sonda Deep Impact) o un aterrizaje (Rosetta/Philae). Estas misiones, y otras posteriores, han implicado ciertos riesgos por contaminación biológica. No son los únicos peligros que aparecen en la epopeya de la exploración espacial.

Planetas, planetas enanos y otros cuerpos del Sistema Solar. Fuente: Unión Astronómica Internacional.

El Planeta Rojo: el hermanastro de la Tierra

De todos los planetas del Sistema Solar, a pesar de ser considerablemente menor a la Tierra, el que posiblemente es más parecido desde el punto de vista astrobiológico es Marte. Por ello ha recibido una atención especial por parte de diversas agencias espaciales.

Entre los aterrizajes con éxito sobre su superficie se encuentran los de las sondas Mars 3 y 6 (1971 y 1973), Viking 1 y 2 (1976), Polar Lander y Deep Space 2 (1999), Phenix (2008), Schiaparelli (2016, un fallo) e Insight (2018), junto con los vehículos Sojouner (1997), Opportunity y Spirit (2004), y Curiosity (2018). En los próximos cuatro años al menos otras cinco misiones serán lanzadas y, de tener éxito, depositarán sobre la superficie de Marte artefactos humanos.

Aunque desde hace décadas existen protocolos para la esterilización de las naves espaciales, la posibilidad de contaminar biológicamente el planeta, lo que podría implicar la posibilidad de eliminar cualquier evidencia de actividad biológica autóctona, no se puede ignorar, como mostró el episodio de contaminación con la cámara de la sonda Surveyor 3, traída por la tripulación del Apollo 12 tras más de dos años sobre la superficie lunar.

Afortunadamente, modernas técnicas han conseguido minimizar esa posibilidad. La organización gubernamental norteamericana National Academies of Sciences, Ingineering and Medicine está llevando a cabo un análisis de múltiples aspectos de la exploración planetaria, incluyendo la perspectiva astrobiológica. La Agencia Espacial Europea (ESA) tiene protocolos análogos.

Las visitas a cometas y asteroides

Dos cometas y un asteoride han sido visitados por naves espaciales: 81P/Wild en 2004 por Stardust, 67P/Churyumov–Gerasimenko en 2014 por Rosetta y 25143 Itokawa en 2005 por Hayabusa. En el primer y último caso ambas naves enviaron muestras a la Tierra que llegaron en 2006 y 2010. La sonda Philae, a bordo de Rosetta, y Hayabusa aterrizaron en sus objetivos, mientras la Stardust tomó muestras del entorno del cometa. Hayabusa 2, que está investigando el asteroide 162173 Ryugu, tiene previsto devolver a la Tierra una muestra tomada de su superficie a finales de 2020.

Como revelaron los resultados de Stardust, los cometas contienen material orgánico, como glicina, un aminoácido esencial para la vida en la Tierra. En los tres casos se implementaron protocolos muy estrictos para evitar contaminación tanto de material terrestre como la posibilidad de traer algún improbable patógeno extraterrestre.

El regreso de muestras de otros cuerpos celestes es especialmente problemático porque el reingreso en la atmósfera terrestre, aterrizaje y recuperación pueden implicar una pérdida de control (desde un reentrada no controlada hasta un pérdida de la estanqueidad del contenedor que aloje la muestra), y por tanto entrañan un riesgo significativo.

Un importante factor a tener en cuenta es el experimento realizado a bordo de la sonda Fotón M3 por parte de las agencias espaciales rusa y europea en 2007. En esa ocasión, se expuso una muestra de tardígrados a las condiciones extremas del entorno espacial. Estos pequeños animales invertebrados, de unos 500 micras de tamaño de medio, sobrevivieron durante diez días a la exposición al vacío y a la intensa radiación ultravioleta del Sol.

Obviamente, los tardígrados son animales que han evolucionado a través de una larga cadena en la Tierra, en ecosistemas mucho más complejos que las situaciones presentes en asteroides y cometas, pero el experimento pone claramente de manifiesto que diferentes seres vivos poseen recursos para resistir incluso las condiciones más adversas. Ese también es el caso de los extremófilos, capaces de vivir y medrar en ambientes verdaderamente hostiles para la inmensa mayoría de seres vivos.

Lanzamientos registrados por United Nations Office for Outer Space Affairs. Nótese el gran incremento durante los últimos años. El histograma incluye datos hasta marzo de 2020.

Riesgos en la órbita terrestre

De diferente cariz son peligros generados por nuestras necesidades tecnológicas. Actualmente los satélites artificiales que orbitan alrededor de la Tierra se han convertido en parte indispensable de nuestra vida, proporcionándonos servicios clave en las comunicaciones (radio, televisión, internet), la logística (navegación por GPS, control de flotas de vehículos o reparto de productos) o la monitorización del planeta (gestión de recursos naturales, vigilancia, predicción meteorológica), además de ser parte integral de la investigación científica.

Según el registro de Naciones Unidas, hasta marzo de 2020 se han enviado al espacio casi 10 000 ingenios, muchos de los cuales siguen orbitando alrededor de nuestro planeta. La gran mayoría se encuentran inactivos y siguen ahí. En el futuro próximo, la empresa SpaceX prevé enviar más de 12 000 mini satélites en los próximos años, mientras que la flotilla de su rival OneWeb estará en el rango de los 650-2 500.

Basura espacial alrededor de la Tierra.
NASA Orbital Debris Program Office at JSC

Por si fuera poco, el mismo proceso de lanzamiento genera residuos y el entorno planetario esta plagado de la denominada “basura espacial”, en muchos casos en órbitas sin control. De hecho, existen varias decenas de miles objetos de tamaño superior a 10 cm orbitando alrededor de la Tierra y 2 000 que intersectan órbitas geoestacionarias, las más valiosas porque son las que albergan a los grandes satélites de telecomunicación.

Más aún, hay casi un millón de fragmentos de más de 1 cm. Por si fuera poco, se tiene constancia de unos 5 000 objetos de más de 1 metro de tamaño. La película Gravity, dirigida por Alfonso Cuarón en 2013, ilustra las consecuencias de impactos en cadena en la red de satélites y sus nefastas consecuencias para la civilización tal y como la concebimos actualmente.

Impacto de un micrometeorito en el transbordador Endeavour (5,5 mm).

De hecho, a lo largo de la historia de la exploración espacial ha habido una serie de incidentes muy significativos. En 1977 el satélite Cosmos-954 reentró accidentalmente con 50 kg de uranio enriquecido, afectando a 500 km² en el norte de Canadá. Se aplicó en esta ocasión la UN Space Liability Convention.

La estación espacial Skylab, de unas 170 toneladas, cayó sobre una región desértica de Australia en 1979. En 1996 el satélite Cerise fue golpeado por basura espacial de manera accidental. Por increíble que parezca, probablemente violando la ley internacional, en el año 2007 se produjo la destrucción intencionada del satélite Fengyun 1C por parte de China, generando aproximadamente 2 400 restos de tamaño mayor de 10 cm. La cuenta sigue ascendiendo y en 2009 un satélite de la serie Cosmos (el número 2251) colisionó de manera accidental con el Iridium-33, generando más de 2 000 fragmentos; y a comienzos de 2020 los satélites fuera de uso IRAS y Poppy VII-B se aproximaron a unos 47 m el uno del otro, sin llegar a colisionar en esta ocasión.

Las actividades militares, prohibidas en el espacio, que incluyen el desarrollo de misiones espía a otros satélites o para llegar a inutilizarlos, y que en ocasiones han provocado la posibilidad de impactos, no hacen sino exacerbar la situación de riesgo.

En resumen, nos enfrentamos esencialmente a tres tipos de peligros en la exploración del espacio más próximo, dentro del Sistema Solar: la posibilidad de contaminar con material terrestre otros cuerpos con Marte o los satélites con océanos bajo su superficie, como Europa o Encelado, que orbitan alrededor de Júpiter y Saturno, respectivamente; la llegada accidental e incontrolada de posible material orgánico desde estos cuerpos o de cometas o asteroides a la Tierra; o accidentes en órbita o impactos incontrolados entre la plétora de satélites que orbitan alrededor de la Tierra.

En los dos primeros casos se trata de peligros más hipotéticos que reales, aunque en cualquier caso toda precaución es poca. En el último, los riesgos son reales y los costes económicos y sociales pudieran ser extraordinariamente altos. Solo una gestión global puede ayudar minimizarlos. Nuevamente el multilateralismo y Naciones Unidas son los ámbitos adecuados para lidiar con estos problemas.

Sobre el autor: David Barrado Navascués es profesor de investigación en el Centro de Astrobiología (INTA-CSIC)

Este artículo fue publicado The Conversation (texto). La versión original se publicó en la revista TELOS, de Fundación Telefónica.

El artículo Los riesgos de la exploración espacial se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El sucesor del Hubble: el telescopio espacial James Webb
  2. La misión espacial Rosetta, por Agustín Sánchez Lavega
  3. La esponja de grafeno como propulsor espacial
Catégories: Zientzia

El precio ambiental de la moda rápida

dim, 2020/07/19 - 11:59
Venere degli stracci (Venus de los trapos), 1967-1974, de Michelangelo Pistoletto

A la industria de la moda cabe atribuir el 10% de la contaminación global mundial; es, tras la aviación, el segundo sector económico más contaminante. La razón de que su impacto sea tan grande es doble. Por un lado, su cadena de suministro es larga y compleja; empieza en la agricultura (fibras vegetales) o la fabricación petroquímica (fibras sintéticas), sigue por la manufactura para, pasando por la logística, terminar en la venta al por menor. Y, por otro lado, es un sector que ha experimentado un crecimiento enorme durante los últimos años, debido a la emergencia de lo que se puede denominar fast fashion (“moda rápida”), por analogía con la expresión “fast food”. Su impacto ambiental se produce a través de cuatro componentes: el agua que se consume, los materiales que se emplean (y se desechan), el uso y eliminación de productos químicos de potenciales efectos dañinos, y el gasto de energía.

Veamos unos datos para ilustrar la magnitud de sus efectos. La industria de la moda produce anualmente más de 1.700 millones de toneladas de CO2, lo que representa cerca del 10% de las emisiones globales de este gas. Su consumo de agua es el segundo más grande, con unos 1.500 millones de metros cúbicos; es responsable del 20% de la contaminación industrial de agua, debido a las actividades de tratamiento textil y de tintado. Contribuye en algo más de un tercio a la acumulación de microplásticos de los océanos, con una cantidad anual de 190.000 toneladas. Y genera unos deshechos textiles –incluida ropa que no se llega a vender- de más de 92.000 toneladas anuales, parte importante de las cuales termina en vertederos o es incinerada.

Si nos fijamos en el último medio siglo, la producción de ropa se elevó de forma paralela al aumento de la población hasta aproximadamente el año 2000. Sin embargo, en los veinte años transcurridos desde entonces, la producción textil ha crecido más que la población. De hecho, entre 1975 y 2018 la producción ha pasado de 6 a 13 kg por persona; en otras palabras, se ha más que duplicado. Se estima que la demanda de este tipo de moda crece en la actualidad a razón de un 2% anual.

Ese crecimiento tan grande se ha debido a la capacidad de la industria para ofrecer a los consumidores productos nuevos mucho más baratos y con más frecuencia que antes. Los principales productores han desplazado a compañías tradicionales basadas en la distribución a través de pequeños establecimientos y se han beneficiado de las posibilidades de comercialización a través de internet. Como consecuencia, las marcas de éxito ponen en el mercado hoy el doble de colecciones de las que ponían antes del 2000, cuando comenzó el fenómeno de la moda rápida.

Ha crecido tanto la eficiencia de la producción, que a pesar del aumento en el consumo, el gasto por persona en ropa ha pasado en Europa de representar el 30% de la cesta de la compra en los años 50 del siglo pasado, al 12% en 2009 y al 5% en 2020. Y esa reducción facilita que se compre más ropa porque se adquiere con mayor frecuencia. En los Estados Unidos se adquiere hoy una pieza de ropa cada 5’5 días. Y en Europa se ha reducido el tiempo de uso en un 36% en los últimos quince años.

La industria de la moda ha orientado sus esfuerzos a reducir costes y disminuir los tiempos de entrega, porque ello supone un elemento fundamental de su atractivo y éxito, pero la humanidad paga un precio por ello.

Fuente: Niinimäki, K., Peters, G., Dahlbo, H. et al. The environmental price of fast fashion. Nat Rev Earth Environ 1, 189–200 (2020).

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El precio ambiental de la moda rápida se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sin moda no hay futuro
  2. Agua cruda, la nueva moda antiprogreso del primer mundo
  3. Un método para la determinación rápida de especies bacterianas por su código de barras
Catégories: Zientzia

Ambrosio Liceaga – Naukas P4K 2019: Nunca quisimos coches voladores

sam, 2020/07/18 - 11:59
Imagen: Stephane Wootha Richard / Wikimedia Commons

Las leyes de la física limitan lo que la ingeniería puede ofrecer en términos de cosas que vuelen. Por ello, los coches voladores que se ofrecen desde hace décadas son fracasos comerciales. Porque no se parecen a los de las películas. Ambrosio Liceaga, ingeniero industrial y magnífico divulgador de la tecnología, nos explica las posibilidades reales de tener coches voladores.

La conferencia se impartió dentro del marco del festival Passion for Knowledge 2019 (P4K) organizado por el Donostia International Physics Center (DIPC).

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Ambrosio Liceaga – Naukas P4K 2019: Nunca quisimos coches voladores se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Francisco Villatoro – Naukas Bilbao 2019: El abrazo de la plata
  2. José Ramón Alonso – Naukas Bilbao 2019: Son nuestros amos y nosotros sus esclavos
  3. #Quantum13 Superhéroes de la ciencia
Catégories: Zientzia

Desmantelando metódicamente instalaciones nucleares

ven, 2020/07/17 - 11:59
La central nuclear Santa María de Garoña (Valle de Tobalina-Burgos) está a la espera de ser desmantelada.

En los últimos años se ha entrado en una fase de desmantelamiento de centrales e instalaciones nucleares, sobre todo en Europa. En 2015, estaban parados o en fase de desmantelamiento 156 reactores de plantas nucleares en todo el mundo, y para 2050 está programado que más de la mitad de la capacidad nuclear actual de 400 GW en todo el mundo tenga que ser clausurada para su desmantelamiento. “En Europa, esto resultará en un aumento de los residuos radiactivos, mientras que las actuales plantas de almacenamiento tienen una capacidad limitada. Es muy importante optimizar esa gestión”, indica la catedrática de ingeniería nuclear de la UPV/EHU Margarita Herranz.

El proyecto europeo H2020 INSIDER —con una financiación de casi cinco millones de euros para cuatro años— aborda la definición de la mejor estrategia para optimizar la producción de los residuos radiactivos durante el desmantelamiento de instalaciones nucleares y radiactivas, incluidas las centrales de producción de energía eléctrica. Se centra tanto en la estrategia de caracterización de los residuos, como en la metodología de desmantelamiento, sobre todo para entornos restringidos, buscando nuevas y mejores soluciones y la remediación del entorno, considerando también situaciones post-accidentales.

“El desmantelamiento de este tipo de instalaciones es un proceso muy caro, los residuos ocupan muchísimo espacio y, además, a la gente no le gusta tener cerca este tipo de repositorios. Y si además hablamos de desmantelar muchas instalaciones nucleares, es muy importante definir qué tiene que ser considerado residuo radiactivo dentro de una central nuclear y qué no, debido a que el coste de la gestión de estos residuos aumenta considerablemente en función de su nivel de actividad y del desmantelamiento de una central nuclear se pueden sacar toneladas y toneladas de residuos”, explica la investigadora de la UPV/EHU. Aunque los desmantelamientos realizados hasta el momento han cumplido exhaustivamente las normas vigentes, “una parte muy importante de lo que se ha considerado residuo nuclear y radiactivo realmente no lo es —afirma. Se está pecando de exceso en ese sentido”.

Margarita Herranz, líder del grupo de trabajo que se encarga de la organización y realización de medidas in situ y posterior análisis de los resultados,asegura que “es fundamental optimizar las medidas de radiactividad in situ de muros, tabiques, maquinaria, blindajes metálicos, etc., debido a la inviabilidad de trasladarlos, en su totalidad, hasta un laboratorio”. Cabe destacar que se trata de mediciones difíciles, “porque hay que buscar qué equipamiento está adaptado para ser utilizado y obtener buenos resultados en función de la atmósfera que hay en cada entorno: radiación, temperatura, presión, humedad, etc.”. En ese contexto, “hemos definido cuáles son los ambientes restrictivos desde el punto de vista de las mediciones in situ en instalaciones nucleares y radiactivas, cómo afectan estas restricciones al tipo de equipo que se va a utilizar y cómo estas restricciones pueden llegar a afectar a los resultados o a la evaluación de los resultados que se van a obtener”, detalla. Asimismo, trabajan en la descripción de diferentes zonas de una instalación nuclear/radiactiva y los problemas que puede haber en ellas, así como en recomendaciones de los tipos de instrumentación a utilizar en cada una de esas zonas.

Herranz indica que este proyecto “contribuye a optimizar los procesos de desmantelamiento, y a que la percepción pública de estos procesos y de estos sistemas mejore. Es decir, demostrar que se controlan y que se trabaja en ello. Hay mucha tecnología puesta al servicio de ese objetivo. Es un objetivo básicamente social”. En el marco del proyecto europeo INSIDER se están publicando numerosos artículos científicos con los que se da a conocer una extensa guía metodológica a la que se puede acceder a través de la página web de INSIDER. El proyecto espera perfeccionar la política de la UE: “Esperamos que este trabajo acabe influyendo en la elaboración de la normativa internacional”, concluye la investigadora.

Referencia:

Frederic Aspe, Raquel Idoeta, Gregoire Auge, Margarita Herranz (2020) Classification and categorization of the constrained environments in nuclear/radiological installations under decommissioning and dismantling processes Progress in Nuclear Energy doi: 10.1016/j.pnucene.2020.103347

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Desmantelando metódicamente instalaciones nucleares se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los residuos nucleares y la memoria de las arcillas
  2. Mortero reforzado con residuos industriales de acero
  3. Restos de ensayos nucleares del siglo XX en lo más profundo del océano
Catégories: Zientzia

Un fósil neuronal de 25 millones de años: los humanos también orientamos las orejas

jeu, 2020/07/16 - 11:59
Imagen: GIPHY

El caracal es una especie de felino con un oído extraordinario. Sus oscuras orejas con tilde son, sin duda, su característica más llamativa. También es la que le da su nombre: “Karrah-kulak” o “Kara-coulac” significa “gato con orejas negras” en turco. Más allá de su llamativo aspecto, como cuenta Juan Carlos Gil en Twitter “cada oreja cuenta con 20 músculos que le permiten orientarlas libremente para localizar a sus posibles presas”. Y hacer la ola, según parece. Cuando yo me concentro mucho, también puedo mover mis orejas. La izquierda, sobre todo, casi 2 milímetros enteros; la derecha, algo menos. No es que se note a simple vista, pero el truco gana bastante si me pongo gafas de sol.

Llama la atención que nuestras orejas estén tan tristemente grapadas a los lados de la cabeza. Muchas especies animales, incluidos perros y gatos, son capaces de dirigirlas hacia una fuente de sonido que les interesa escuchar. Las orejas, con su forma de embudo caprichosa y acaracolada tienen precisamente esta función: recoger la energía sonora y dirigirla hacia el canal auditivo. Sin embargo, los humanos y nuestros parientes evolutivos más cercanos parecemos haber perdido la habilidad de orientarlas. Solo algunos humanos podemos aún ladearlas sutilmente y, para los autores de un estudio publicado recientemente en eLife, esto podría ser lo verdaderamente interesante: el síntoma de que aún existen circuitos neuronales y músculos capaces de desempeñar esa función. Como ellos mismos explican “podría tratarse de una ‘característica vestigial’, una habilidad que se mantiene aunque ya no cumple su propósito original”.

Imagen: GIPHY

Lo que estos investigadores han descubierto es que, de hecho y sin saberlo ni intentarlo, los humanos también movemos las orejas todo el rato. El equipo dirigido por Daniel Strauss ha demostrado que los músculos alrededor de las orejas se activan en cuanto percibimos sonidos novedosos o sorprendentes. Para estudiar este tipo de reacción refleja, en un primer experimento, le pidieron a varios voluntarios que intentaran leer un texto aburrido, mientras hacían sonar todo tipo de señales para desviar su atención, como un como el sonido de un atasco de tráfico, un bebé llorando o pasos de otro ser humano. En un segundo experimento, les hicieron escuchar un podcast mientras sonaba otro desde una segunda dirección. El objetivo, en este caso, era analizar el comportamiento de los músculos durante una escucha voluntaria, donde la atención se dirige hacia un objetivo. En ambos casos, los investigadores pudieron registrar la actividad eléctrica de los músculos que controlan los diminutos movimientos, casi invisibles, de las orejas. Para ello utilizaron una técnica conocida como electromiografía, mediante electrodos colocados sobre la piel. También grabaron imágenes de vídeo de alta resolución, que luego se trataron digitalmente para amplificar cualquier posible movimiento.

https://culturacientifica.com/app/uploads/2020/07/elife-54536-video1.mp4

 

Los experimentos revelaron que inconsciente e imperceptiblemente, las orejas de los participantes se activaban en la dirección de los sonidos llamativos. Como explica Strauss “la actividad eléctrica de los músculos del oído indica la dirección en la que el sujeto está enfocando su atención auditiva”. Asimismo, cuando los participantes intentaban escuchar un podcast ignorando el segundo, orientaban inconscientemente sus orejas hacia la fuente de interés.

Nada comparable a las acrobáticas habilidades auriculares del caracal, eso sí. Es difícil saber por qué los humanos perdimos la habilidad de orientar nuestras orejas. La movilidad parece haber ido disminuyendo a lo largo de varios millones de años. Nuestras orejas se fueron volviendo más cortas y rígidas y la musculatura degeneró. Pero sin saberlo, como afirma Strauss, nuestra especie podría haber retenido algún recuerdo de esta habilidad de manera puramente vestigial, ”como un ‘fósil neuronal’ que ha sobrevivido en el cerebro durante unos 25 millones de años”.

Gracias Antonio J. Osuna Mascaró por descubrirme esta historia.

Referencia:

Daniel J Strauss, Farah I Corona-Strauss, Andreas Schroeer, Philipp Flotho, Ronny Hannemann, Steven A Hackley (2020) Vestigial auricular motor activity indicates the direction of auditory attention in humans. eLife, 2020; 9 DOI: 10.7554/eLife.54536

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Un fósil neuronal de 25 millones de años: los humanos también orientamos las orejas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Constantes durante al menos 12 mil millones de años
  2. Los meteoritos ya no son lo que eran desde hace 466 millones de años
  3. Los misterios que rodean al máximo térmico de hace 56 millones de años
Catégories: Zientzia

Las curiosas reglas de divisibilidad

mer, 2020/07/15 - 11:59

Las reglas de divisibilidad de la aritmética parecen pequeños trucos de magia que nos permiten conocer, de forma más o menos rápida, si un cierto número, por ejemplo, 1.056.475.343, es divisible por 2, 3, 4, 5, 7 u otros números. Aunque nos puedan parecer una tontería, e incluso una simple anécdota matemática, estas reglas son muy útiles. A continuación, mostramos a modo de ejemplo algunas sencillas aplicaciones de algunas de las reglas de divisibilidad.

En más de una ocasión hemos hablado en esta sección del Cuaderno de Cultura Científica de los números primos, aquellos que solamente son divisibles por el 1 y por ellos mismos, como el 2, el 3 o el 11, pero no el 6, divisible también por 2 y 3, como en la entrada Buscando lagunas de números primos o Poema de los números primos. Un resultado sobre números primos fruto de una de las reglas de divisibilidad es el siguiente.

Propiedad 1: No existe ningún número pandigital (recordemos que estos son aquellos que están formados por todas las cifras básicas, con o sin el cero, como 934.521.687 ó 6.054.392.187) que sea un número primo.

También hemos puesto nuestra atención en los números capicúas o palíndromos, en la entrada El secreto de los números que querían ser simétricos, de los que podemos obtener la siguiente propiedad.

Propiedad 2: Los números capicúas con un número par de dígitos son divisibles por 11. Por lo tanto, tampoco son números primos.

Las reglas de divisibilidad, como la del número 9, pueden utilizarse también para el diseño de trucos de magia como el que se explica en este video de la sección Una de mates del programa de televisión, dirigido por José A. Pérez, Órbita Laika, en su segunda temporada, y que me había enseñado mi compañero y amigo Pedro Alegría (UPV/EHU). Lo podéis ver aquí: Una de mates – magia matemática. Y la explicación la podéis encontrar también aquí: El número nueve en una noche de verano.

De la misma forma, hay problemas de ingenio o retos matemáticos relacionados con las reglas de divisibilidad, como el siguiente reto planteado por el matemático británico John Horton Conway (1937-2020), fallecido recientemente como consecuencia del covid-19.

Las diez divisibilidades: Sea el número de diez dígitos ABCDEFGHIJ con todos sus dígitos diferentes (es decir, es un número pandigital), que verifica que:

1. A es divisible por 1,

2. AB es divisible por 2,

3. ABC es divisible por 3,

4. ABCD es divisible por 4,

5. ABCDE es divisible por 5,

6. ABCDEF es divisible por 6,

7. ABCDEFG es divisible por 7,

8. ABCDEFGH es divisible por 8,

9. ABCDEFGHI es divisible por 9,

10. ABCDEFGHIJ es divisible por 10.

¿Cuál es el número ABCDEFGHIJ?

Rue 49 (2019), del artista francés Fernando da Costa. Imagen de la página Artprice

Pero vayamos a las reglas de divisibilidad. Vamos a empezar explicando las reglas en grupos de números relacionados entre sí, siguiendo la idea de Peter M. Higgins en su libro Number Story: From Counting to Cryptography.

Reglas de divisibilidad de 2, 5 y 10. Nuestro sistema de numeración es decimal, es decir, la base de numeración con la que trabajamos es 10. Los divisores de este número son 1, 2, 5 y el propio 10, de hecho, las reglas que vamos a mostrar aquí se podrían extender a cualquier base de numeración b y sus divisores, aunque en esta entrada no dejaremos la base 10 en ningún momento.

La regla de divisibilidad del 10: un número es divisible por 10 si su dígito de las unidades (el primero empezando por la derecha) es 0.

La regla de divisibilidad del 5: un número es divisible por 5 si su dígito de las unidades es 0 o 5.

La regla de divisibilidad del 2: un número es divisible por 2 si su dígito de las unidades es 0, 2, 4, 6 u 8.

De hecho, podríamos reescribir las tres reglas de la siguiente forma: Un número es divisible por 2, 5 o 10, respectivamente, si, y sólo si, lo es su dígito de las unidades. Notemos que decir que las unidades, que van de 0 a 9, son divisibles por 10 es lo mismo que decir que toman el valor 0.

Vamos a dar una pequeña justificación. En general, las reglas de divisibilidad se pueden demostrar utilizando la representación decimal de los números o la aritmética modular, aunque nosotros en esta entrada solo utilizaremos la primera.

Como sabemos, todo número N de n + 1 cifras, cuya representación decimal es N = an an–1 … a2 a1 a0, tiene el valor

Como todos los elementos de la derecha de la expresión anterior, salvo las unidades a0, son múltiplos de 10, entonces para que N sea múltiplo de 10 las unidades a0 tienen que tomar el valor 0. Más aún, como los múltiplos de 10, también lo son de 2 y 5, se deduce que N es múltiplo de 2 o 5, respectivamente, si, y sólo si, la cifra de las unidades a0 también lo es.

Claramente, el número 564.930 es divisible por 10, luego también por 2 y 5, el número 735 es divisible por 5, pero no lo es ni por 2, ni por 10, y el número 614 es divisible por 2, pero no por 5 o 10. Por otra parte, el número inicial 1.056.475.343 no se puede dividir por ninguno de los tres.

Reglas de divisibilidad de 4, 8, 16, … Los criterios de divisibilidad anteriores, para 2, 5 y 10, se pueden extender a las potencias de estos números de una forma sencilla. Empecemos con el número 4.

La regla de divisibilidad del 4: un número es divisible por 4 si, y sólo si, él número formado por los dos primeros dígitos de la derecha (decenas y unidades) es divisible por 4.

Así, el número 5.316 es divisible por 4, ya que el número formado por los dos primeros dígitos de la derecha -16- es divisible por 4, mientras que 3.414 no lo es, por no serlo 14.

La demostración de esta regla es similar a la vista en el apartado anterior. Si tenemos un número N = an an–1 … a2 a1 a0, entonces

Como 100 es divisible por 4, se tiene que N será divisible por 4 si, y sólo si, a1 x 10 + a0 (el número representado por a1a0) es divisible por 4.

Teniendo en cuenta que 100 = 4 x 25, el argumento es válido para 4 (22), 25 (52) y 100 (102). Es decir, un número es divisible por 4, 25 o 100, respectivamente, si, y sólo si, el número formado por los dos dígitos de la derecha del número original, también lo es. Aunque en el caso de 100 lo que quiere decir es que los dos dígitos de la derecha son ceros.

Por ejemplo, el número 4.200 es divisible por 100, luego por todos los divisores de 100, el número 763.475 es divisible por 25, pero no por 100, ni por 4.

El argumento de la demostración anterior nos sirve para obtener una familia de reglas de divisibilidad generales para todas las potencias de 2, 5 y 10, que podemos formular como:

Un número es divisible por 2k, 5k o 10k, respectivamente, si, y sólo si, el número formado por los k dígitos de la derecha del número original, también lo es.

Por ejemplo, el número 54.237.983.152 es divisible por 16 (= 24) ya que el número formado por los cuatro dígitos de la derecha, 3.152 también se puede dividir por 16 (3.152 = 197 x 16). Lo curioso es que podemos seguir añadiendo dígitos a la izquierda del número para obtener números más grandes y la divisibilidad por 16 se mantendrá en todos ellos. Así, el número 712.834.554.237.983.152 sigue siendo divisible por 16, ya que la regla estudiada nos dice que solo importan los cuatro dígitos de la derecha (3.152).

N.B. #5 (1989), del artista Craig Kauffman. Imagen de la publicación Craig Kauffman: The Numbers Paintings from 1989, de la Frank Lloyd Gallery

 

Reglas de divisibilidad de 3, 6, 9, 12 y 15. Las reglas de divisibilidad del 3 y el 9 suelen ser de las pocas reglas, además de las de 2, 5 y 10, que suelen aprenderse en la escuela.

Mientras que las reglas anteriores implicaban solo a una pequeña parte del número, formado por cierto grupo de dígitos de su parte derecha, en los criterios de divisibilidad que vamos a ver ahora están implicados todos los dígitos del número.

La regla de divisibilidad del 3: un número es divisible por 3 si, y sólo si, la suma de sus dígitos es divisible por 3.

La demostración, haciendo uso de la representación posicional decimal de los números, es también muy sencilla. Si tenemos, de nuevo, un número N con n + 1 dígitos, N = an an–1 … a2 a1 a0, y le restamos la suma de sus dígitos, queda lo siguiente:

Como el resultado es múltiplo de 3, de hecho, también es múltiplo de 9, entonces el número N = an an–1 … a2 a1 a0 es divisible por 3 si, y sólo si, lo es también la suma de sus dígitos (an + an–1+ + a2 + a1 + a0).

Veamos si el número del principio, 1.056.475.343, es divisible por 3. No lo es, ya que la suma de sus dígitos es 38, que no es divisible por 3. Por otro lado, el número 197.536.892.361 sí es divisible por 3, ya que a suma de sus dígitos es 60, claramente múltiplo de 3.

Como la condición que debe cumplir un número para ser divisible por 3 es que la suma de los dígitos del mismo también sea divisible por 3, se puede aplicar de nuevo la regla de divisibilidad a esta última cantidad, si fuese grande. Es decir, tenemos una regla que se puede aplicar de forma recursiva. Por ejemplo, para saber si el número 794.612.966.663.462.659.937 es divisible por 3, hay que sumar sus dígitos y esa suma es 116, pero a su vez para saber si este es divisible por 3 sumamos sus dígitos 1 + 1 + 6 = 8, cuyo resultado no es divisible por 3, luego tampoco el número enorme anterior.

Además, el argumento que se ha realizado para el número 3 demuestra lo mismo para el número 9.

La regla de divisibilidad del 9: un número es divisible por 9 si, y sólo si, la suma de sus dígitos es divisible por 9.

Ya estamos en condiciones de demostrar la propiedad 1 enunciada al principio de esta entrada del Cuaderno de Cultura Científica: No existe ningún número pandigital que sea un número primo. El motivo es que la suma de los dígitos de un número pandigital es 1 + 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9 = 45, que es múltiplo de 9, luego cualquier número pandigital es múltiplo de 9, luego no es primo.

Por otra parte, el truco de magia de la serie Una de mates (Órbita Laika) que mencionábamos antes, está basado en esta regla del 9, como se explicaba.

Veamos una variante de ese truco. Se pide a una persona que piense –y escriba en un papel– un número de cinco o seis dígitos, aunque puede ser otra cantidad de dígitos. Por ejemplo, el número 632.571. Se puede enseñar el número a las demás personas “al resto del público”, pero no a la persona que le hace el truco. Después se le pide que cambie, a su gusto, el orden de los dígitos del número. Por ejemplo, 521.736. Y, además, que reste el mayor del menor, 632.571 – 521.736 = 110.835. A continuación, se le pide que elija uno de los dígitos no nulos del número que ha resultado de la resta. Supongamos que elige el 1. Lo siguiente es que diga en alto el resto de los dígitos y la persona que hace el truco adivinará, por arte de magia, el dígito que falta. La clave está en que el número resultante de la resta, en el ejemplo, 110.835, es siempre divisible por 9 (es sencillo justificar esto utilizando la representación decimal de los números), luego verifica la regla de divisibilidad. Como ha elegido el 1, la suma del resto es 1 + 0 + 8 + 3 + 5 = 17, y aplicando la regla de nuevo 1 + 7 = 8. Como falta 1 para llegar a 9, entonces, ese es el dígito elegido y oculto.

The world of numbers, XL canvas Science art (2020), de la artista rusa Anastasia Vasilyeva. Imagen de Saatchi Art

Las reglas de divisibilidad de los números 6 = 2 x 3, 12 = 3 x 4 y 15 = 3 x 5 son consecuencia inmediata de las reglas anteriores, por ejemplo, un número es divisible por 6 si es divisible por 2 y 3.

La regla de divisibilidad del 6: un número es divisible por 6 si, y sólo si, el dígito de las unidades es 2, 4, 6, 8 o 0, y la suma de sus dígitos es divisible por 3.

La regla de divisibilidad del 12: un número es divisible por 12 si, y sólo si, la suma de sus dígitos es divisible por 3 y el número formado por los dos dígitos de la derecha del número es divisible por 4.

La regla de divisibilidad del 15: un número es divisible por 15 si, y sólo si, el dígito de las unidades es 0 ó 5, y la suma de sus dígitos es divisible por 3.

Reglas de divisibilidad de 7, 11 y 13. Empecemos por la regla de divisibilidad del 11, que es la más sencilla de formular y de explicar.

La regla de divisibilidad del 11: un número es divisible por 11 si, y sólo si, la suma alternada de sus dígitos (es decir, se va alternando suma y resta) es múltiplo de 11 (incluido el 0).

Veamos algún ejemplo. Empecemos por el número con el que abríamos esta entrada, el 1.056.475.343. Calculemos la suma alternada de sus dígitos 1 – 0 + 5 – 6 + 4 – 7 + 5 – 3 + 4 – 3 = 0, luego es múltiplo de 11. Otro ejemplo sería el número 2.519, cuya suma alternada de sus dígitos es 2 – 5 + 1 – 9 = – 11, luego efectivamente el divisible por 11.

Ahora veamos la propiedad 2 enunciada al principio de esta entrada: Los números capicúas con un número par de dígitos son divisibles por 11.

En los números capicúas con una cantidad par de dígitos, como 327.723, los dígitos que ocupan posiciones impares y pares son los mismos, e igual a los dígitos que están en la derecha y la izquierda del número (posiciones impares desde la izquierda, 3, 7, 2, mientras que en las pares 2, 7, 3), luego la suma alternada es cero, por lo que se cumple la regla de divisibilidad del 11.

Veamos la razón por la que este criterio de divisibilidad funciona. Si tenemos un número N con n + 1 dígitos, N = an an–1 … a2 a1 a0, cuyo valor será entonces

tenemos que tener en cuenta que, como buscamos la multiplicidad con el número 11, se producen las siguientes igualdades de las potencias de 10,

que llevadas a la formula anterior nos dicen que el número N es múltiplo de 11 si la suma alternada

es múltiplo de 11.

Número 11 (2012), del artista colombiano Oscar Murillo. Imagen de Art Sy

Terminemos este grupo expresando similares criterios de divisibilidad para los números 7, 11 y 13. Estos se pueden demostrar con un argumento similar al anterior, teniendo en cuenta el hecho de que 1001 = 7 x 11 x 13.

La regla de divisibilidad del 7, 11 y 13. Un número es divisible por 7, 11 o 13, respectivamente, si la suma alternada de los grupos de tres dígitos, empezando por la derecha, también lo es.

Por ejemplo, si tomamos la suma alternada de los grupos de tres dígitos del número 5.166.574.959 se obtiene 959 – 574 + 166 – 5 = 546. Como 546 es el producto de 6, 7 y 13, se deduce que el anterior número es divisible por 7 y 13, pero no por 11.

Serie “…. dos números ordinais: 9” (2018), del artista gallego Faustino Seijas Seoane. Imagen de la página web del artista

A lo largo de esta entrada del Cuaderno de Cultura Científica hemos visto los criterios de divisibilidad de los números de un dígito, es decir, de las cifras básicas de nuestro sistema de numeración, y de algún número más, como 11, 12, 13 o 15, por lo que estamos en condiciones de resolver el reto matemático de John H. Conway de “las diez divisibilidades”. Espero que os animéis a resolverlo por vuestra cuenta … la respuesta al mismo es 3.816.547.290, aunque lo interesante es el camino para llegar a ella, ¡que lo disfrutéis!

Bibliografía

1.- Alex Bellos, Did you solve it? John Horton Conway playful maths genius, The Guardian, 2020.

2.- Martin Gardner, The Unexpected Hanging and other Mathematical Diversions, University of Chicago Press, 1991.

3.- Peter M. Higgins, Number Story: From Counting to Cryptography, Springer-Verlag, 2008.

4.- Ellina Grigorieva, Methods of Solving Number Theory Problems, Birkhauser, 2018.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Las curiosas reglas de divisibilidad se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los números que proporcionan alegría
  2. Números primos gemelos, parientes y sexis (2)
  3. Los institutos Isaac Newton y Oberwolfach, dos curiosas instituciones de investigación matemática
Catégories: Zientzia

No solo el uranio emite rayos

mar, 2020/07/14 - 11:59
Pechblenda del depósito de Niederschlema-Alberoda (Alemania)

Uno de los colegas de Becquerel en París era el físico Pierre Curie, quien se había casado recientemente con una física nacida en Polonia, Maria Skłodowska, quien a partir de ese momento pasó a ser conocida como Marie Curie.

Marie Curie realizó un estudio sistemático de los rayos Becquerel y buscó otros elementos y minerales que pudieran emitirlos. Usando un tipo de electrómetro piezoeléctrico muy sensible que Pierre Curie y su hermano Jacques [1] acababan de desarrollar, midió la pequeña corriente eléctrica producida cuando los rayos ionizan el aire. Marie asumió que esta corriente era proporcional a la intensidad de los rayos [2]. Con esta nueva técnica, Curie podría dar un valor numérico al efecto ionizante producido por los rayos. Estos valores se reproducían [3] de un experimento al siguiente efectuados con la misma muestra.

Uno de los primeros resultados de Marie Curie fue el descubrimiento de que el elemento torio (Th) y sus compuestos emitían radiaciones con propiedades similares a las de los rayos de uranio [4]. El hecho de que el torio emita rayos como los del uranio era de gran importancia; demostraba que los rayos misteriosos no eran una propiedad característica de un solo elemento.

El descubrimiento estimuló la búsqueda de otros elementos que pudieran emitir rayos similares. El hecho de que el uranio y el torio fueran los elementos con las mayores masas atómicas conocidas apuntaba a que los elementos muy pesados podrían tener propiedades especiales diferentes de las de los elementos más ligeros.

La evidente importancia y transcendencia de los problemas que planteaba el descubrimiento de los rayos de uranio y torio llevó a Pierre a dejar de lado sus investigaciones en otros campos de la física y unirse a Marie Curie para trabajar en estos nuevos problemas.

La pareja no era consciente en ese momento que se embarcaba en una tarea titánica. Primero, descubrieron que la intensidad de la emisión de cualquier compuesto de torio era directamente proporcional a la fracción en peso del elemento metálico de torio presente. Además, la cantidad de radiación era independiente de las condiciones físicas o la combinación química de los elementos activos [5]. Estos resultados llevaron a los Curies a la conclusión de que la emisión de los rayos dependía solo de la presencia de átomos de cualquiera de los dos elementos: uranio o torio. Los átomos de otros elementos presentes simplemente estaban inactivos o absorbían parte de la radiación. Esta primera conclusión fue especialmente importante porque fue la que permitió a los Curies interpretar sus experimentos posteriores.

Comenzaron a estudiar la radiación de minerales de forma sistemática. Cuando examinaron la pechblenda, un mineral que contiene aproximadamente 80% de óxido de uranio (U3O8) [6], descubrieron que la emisión de rayos becquerel, medida por su efecto en el aire ionizante, era aproximadamente cuatro o cinco veces mayor que cabía esperar en función de la cantidad de uranio en el mineral. Comprobaron que los otros elementos conocidos en ese momento que estaban asociados con el uranio en la pechblenda, como el bismuto y el bario, no eran activos, o como Marie Curie se refería ahora al nuevo fenómeno, no eran «radiactivos«. Entonces, si la emisión de rayos es un fenómeno atómico, la radiactividad inesperada de la pechblenda solo podía explicarse por la presencia de otro elemento en la pechblenda, desconocido, que tenía que ser más radiactivo que el uranio mismo.

Notas:

[1] Los hermanos Curie pueden ser considerados los descubridores de la piezoelectricidad.

[2] Marie Curie asumió algo que resultó ser cierto. Podía perfectamente no haberlo sido.

[3] Se entiende que dentro de unas pequeñas variaciones.

[4] El mismo hallazgo se produjo independientemente y poco más o menos a la vez en Alemania por parte de Gerhardt C. Schmidt.

[5] Recordemos que Becquerel había encontrado algo similar para los compuestos de uranio.

[6] Si nos ponemos estupendos la pechblanda es en realidad una forma impura de la uraninita, que es mayoritariamente óxido de uranio UO2. Se puede interpretar que la pechblenda es en realidad uraninita que se ha oxidado, pasando de UO8/4 a UO8/3

Uraninita.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo No solo el uranio emite rayos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Primeros experimentos con el uranio
  2. El descubrimiento de Becquerel
  3. El descubrimiento de los rayos X
Catégories: Zientzia

Graciela Salicrup: una vida continua

lun, 2020/07/13 - 11:59

Alberto Mercado Saucedo

Ilustración de Constanza Rojas-Molina. Todos los derechos reservados; cesión en exclusiva para su publicación en el Cuaderno de Cultura Científica.

 

Inmóvil, sin siquiera parpadear, recorre los hexágonos del panal de abejas que la ha hipnotizado. Las figuras geométricas perfectas se extienden una al lado de la otra, hasta llenar toda la superficie. Por algunos instantes Graciela no presta atención a ninguna otra cosa, maravillada como una niña que descubre la simetría de la naturaleza.

Graciela Salicrup (1935-1982) fue profesora e investigadora de la UNAM en Ciudad de México. La imagen anterior quedó grabada en el recuerdo de sus amigos y familiares durante la visita que realizaron en grupo a un criadero de abejas que mantenía como aficionado uno de los colegas de la universidad. Hay varios testimonios de la dedicación con la que Graciela impartía clases e investigaba, como si contemplara aquellos hexágonos en cada página de su cuaderno, en cada pizarra, concentrada en un objetivo de manera total. Pero la verdad es que su trayectoria fue algo singular y no se dio precisamente en línea recta, sino que tuvo varios giros antes de llegar a las matemáticas.

Cuando terminó la educación media, al parecer no contó con el apoyo de su familia para seguir la disciplina que más la apasionaba: las matemáticas. No sabemos qué tan difícil fue para Graciela el que sus padres no compartieran su entusiasmo, pero lo cierto es que tomó entonces una opción más “tradicional” y estudió arquitectura. Se tituló en 1959 y, ya como arquitecta, escogió un camino algo peculiar: incursionó en la arqueología.

Colaboró con Laurette Séjourné, arqueóloga y antropóloga italiana que había llegado a México a sus 31 años y habría de quedarse por el resto de su vida. En equipo con otros colaboradores, estudiaron la arquitectura de Teotihuacan, la enorme ciudad cuyos restos incluyen las pirámides del Sol y de la Luna, y que forma el sitio arqueológico que en nuestros días es el más visitado de todo México. Esta ciudad fue el hogar de una civilización que tuvo su apogeo siglos antes del imperio mexica -también conocido como azteca- y por supuesto, antes de la llegada de los españoles al continente. Los aztecas creían que Teotihuacán, que significa ciudad de dioses, había sido construida por gigantes que todavía habitaban la tierra, ocultos de ellos en alguna parte.

El misterio de la cultura teotihuacana se mantuvo por mucho tiempo y no solo para los aztecas, pues a mitad del siglo XX no había casi ninguna certeza sobre su historia, y los trabajos de Séjourné se convirtieron en importante referencia. En alguna de sus publicaciones en colaboración con Graciela, podemos percibir una fascinación ante la geometría de las construcciones prehispánicas, vistas en este caso a través de las descripciones de los pocos registros que llegaron a sus días. Podría decirse que las autoras intentan resolver algo así como el problema inverso de descubrir la finalidad de los distintos lugares a partir de su geometría: si este espacio fue una sala, si aquel una explanada, un lugar de reunión, de oración. Todo ello a partir de los registros de las formas que parecen haber tenido: descubrir el día a día de la ciudad a partir de las pocas descripciones de ella que quedaron registradas.

Después de algunos años dedicada a la arquitectura y a la arqueología, el camino de Graciela tomó otro rumbo. Quizá inspirada por la geometría de la ciudadela o debido al esfuerzo de descifrar otros lenguajes, lo cierto es que algo hizo reaparecer la pasión de Graciela por el universo de las matemáticas. O en realidad tal pasión siempre estuvo ahí, el punto es que Graciela, con 30 años de edad y siendo madre de tres hijos, tomó una decisión que haría dudar a cualquiera: regresar a la universidad, ahora a estudiar matemáticas.

Terminó con éxito la carrera, seguramente gracias a su tesón y a su capacidad de concentrarse en los temas que la maravillaban. Comenzó a impartir clases en la Facultad de Ciencias de la UNAM y se acercó a la investigación como discípula de Roberto Vasquez, uno de los primeros topólogos mexicanos, bajo cuya dirección realizó el doctorado y se convirtió en investigadora en matemáticas. Podríamos decir que Graciela es la creadora, junto con otros colegas en el mundo, de la topología categórica, un área de investigación donde se cruzan la topología y la teoría de categorías.

¿Qué es la topología? Para responder esta pregunta, pensemos en otra área que conocemos en la escuela básica: la geometría, que estudia propiedades como la medida de un segmento, el ángulo entre dos rectas y el área de una figura. Estas propiedades tienen algo en común: permanecen sin cambio cuando se les aplican transformaciones rígidas, como una traslación o una rotación. Precisamente, la geometría estudia las propiedades que no cambian bajo estas transformaciones.

Pues bien, la topología es un área de las matemáticas que estudia las propiedades que no cambian, pero ahora bajo transformaciones continuas. Esto significa que dos objetos son topológicamente equivalentes si uno puede transformarse en el otro por medio de una deformación que no tenga cambios abruptos como cortes o saltos. Un trazo cerrado de un circulo es topológicamente equivalente al de un triángulo y al de un rectángulo; los dibujos de las letras “x” y “k” son topológicamente equivalentes entre ellas, pero no al dibujo de la letra “o”. Estos son ejemplos sencillos, pero sucede que para ciertos fenómenos, son las diferencias topológicas las que cuentan, como en un circuito eléctrico: no importa la distancia entre dos nodos, lo que interesa es la conectividad entre ellos. La topología sistematiza estos invariantes que ocurren no solo en figuras del plano o del espacio, sino en conjuntos abstractos, con elementos dados por números, vectores, funciones –que pueden representar alguna propiedad de un fenómeno dado, por cierto– u otros objetos. Es un área central de las matemáticas, que se relaciona con otras teorías y forma parte del análisis, de la topología algebraica, entre otras disciplinas del mundo matemático.

Por otra parte, la teoría de categorías proporciona una manera muy general de estudiar un concepto matemático dado, es un paso más allá en la abstracción. En teoría de categorías se estudia no un espacio sino un conjunto de espacios de algún tipo, junto con las relaciones que se dan naturalmente entre ellos. El principal objeto de estudio de la topología categórica es Top, la categoría formada por dos tipos de ingredientes: por una parte, todos los espacios topológicos, y por otra, todas sus funciones continuas (que son las transformaciones que no cambian las propiedades topológicas). El trabajo de Graciela se centró en la estructura de esta inmensa categoría, en el estudio de las propiedades que poseen sus distintas subcategorías y en las relaciones entre ellas.

Graciela publicó varios artículos, comenzando por su tesis de licenciatura y luego los que surgieron de su tesis de doctorado. Estos primeros trabajos fueron publicados en español, por lo que no tuvieron tanta difusión en la comunidad matemática internacional, pero su investigación continuó avanzando y Graciela llegó a colaborar, a finales de los años setenta, con expertos mundiales en la naciente área de la topología categórica, publicando en conjunto varios artículos. También, Graciela es recordada como destacada docente en la universidad, y su libro “Introducción a la topología”, editado por la Sociedad Matemática Mexicana, se convirtió en una referencia clásica para tantos estudiantes de la disciplina en México.

En 1982, Graciela sufrió un trágico accidente del que no se recuperó. Falleció a los 47 años, cuando se encontraba en plena actividad como matemática. En su recuerdo, el auditorio del Instituto de Matemáticas de la UNAM lleva su nombre, en un merecido homenaje. Sin duda que Graciela fue una entrañable persona que dejó un importante legado a sus cercanos y a toda la comunidad matemática, y cuya pasión por el conocimiento sigue siendo una gran motivación para jóvenes estudiantes.

Referencias:

Laurette Séjourné. Graciela Salicrup realizó las reconstrucciones arquitectónicas. Teotihuacan, metropole de l’Amerique. Editor: François Maspero, «Les Textes à l’appui» (1969)

Séjourné, Laurette. Lavantamientos y perspectivas por Graciela Salicrup. Arquitectura y pintura en Teotihuacan. Editorial: Siglo Veintiuno, Mexico, 1966

Claudia Gómez Wulschner. Ecos del pasado… luces del presente Graciela Salicrup (1935-1982)Miscelánea Matemática 44 (2007, págs. 1-9). Sociedad Matemática Mexicana.

Graciela Salicrup. Introducción a la topología. Editado por J. Rosenblueth y C. Prieto. Sociedad Matemática Mexicana, Aportaciones Matemáticas: Textos 1993.

Salicrup,Graciela. Categorical topology. The complete work of Graciela Salicrup. Edited by Horst Herrlich and Carlos Prieto. Aportaciones Matemáticas: Notas de Investigación [Mathematical Contributions: Research Notes], 2. Sociedad Matemática Mexicana, México, 1988. 

Carlos Prieto. Graciela Salicrup, Pionera de la topología categórica. Coloquio del Instituto de Matemáticas, 4 de junio de 2007.

Sobre el autor: Alberto Mercado Saucedo es profesor de matemáticas en la Universidad Técnica Federico Santa María (Valparaíso, Chile)

Sobre la ilustradora: Constanza Rojas Molina es profesora del departamento de matemáticas de la CY Cergy Paris Université (Cergy-Pontoise, Francia)

El artículo Graciela Salicrup: una vida continua se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Vida de Galileo
  2. ¡Iniesta de mi vida!
  3. 42, la respuesta definitiva a la vida, el universo y todo lo demás
Catégories: Zientzia

¿Es natural que los humanos comamos carne?

dim, 2020/07/12 - 11:59

Paul Palmqvist Barrena

Foto: Alexander Kovacs / Unsplash

Ser vegano está de moda. Para muchos, adoptar una dieta basada solo en productos de origen vegetal representa una cierta filosofía vital en la que, además, se suelen incorporar otros planteamientos existenciales, como ser animalista o preocuparse por el cambio climático y la agricultura sostenible.

Por ello, muchos veganos consideran que quienes practican la dieta omnívora favorecen la explotación animal, la degradación ambiental y los postulados económicos neoliberales. Tales planteamientos no resisten un debate mínimamente serio. Pero cuestionar la dieta vegana, considerada por sus practicantes como una alternativa saludable, equilibrada y sostenible frente a la alimentación tradicional, es ya harina de otro costal. Por ello, conviene indagar si la evolución de nuestros ancestros nos ofrece claves sobre este debate.

Genuinamente omnívoros

La biología evolutiva nos muestra que los humanos nos diferenciamos de otros primates en ser la especie más genuinamente omnívora de este orden de mamíferos. Así, los Homo sapiens mostramos una serie de adaptaciones, tanto anatómicas como fisiológicas, hacia una dieta más carnívora que la de los grandes simios, como el chimpancé, el gorila o el orangután, nuestros parientes vivos más próximos. Igualmente, manifestamos otros rasgos derivados de la misma, como el tipo de parásitos que albergamos.

Sin ánimo de ser exhaustivo, las principales evidencias evolutivas que permiten argumentar en contra de la conveniencia de una dieta vegana serían las siguientes:

  1. Colon corto y otras razones intestinales. En primer lugar, el coeficiente de diferenciación del tracto digestivo (cociente entre la suma de la superficie del estómago y la del intestino grueso, dividida por la superficie del intestino delgado) toma en nosotros un valor intermedio (0,8). Eso lo sitúa justo entre el de los carnívoros (0,4-0,6) y el del chimpancé o el orangután (1,0-1,2), ambos frugívoros. Y es la mitad que en el gorila (1,6), de dieta exclusivamente herbívora.De hecho, nuestro intestino delgado y colon representan un 67% y un 17% del volumen total del tubo digestivo, mientras que en los simios estas proporciones oscilan entre el 14-28% y el 52-54%. Al tener un colon más corto, el tránsito del alimento por nuestro tubo digestivo es más rápido, dificultando la absorción de los alimentos vegetales ricos en fibra.
  2. Metabolismo y energía. En segundo lugar, en los mamíferos el aumento de tamaño corporal va acompañado de una disminución de la tasa metabólica basal por unidad de masa, lo que permite reducir la calidad de la dieta. Por ello, los grandes simios subsisten consumiendo un 87-99% de materia vegetal. Los chimpancés son la excepción, pues su alimentación frugívora, más rica en energía, les permite desarrollar una vida social más intensa.En los ancestros de nuestro género (Homo), la evolución en las sabanas áridas y estacionales del África subtropical propició la inclusión de más carne en su dieta, obtenida a partir del carroñeo. Así lo constatan las marcas de descarnación con lascas de sílex en diversos yacimientos africanos, con una antigüedad de 2,6-2,3 millones de años. Que son similares a las identificadas en los huesos fósiles de los yacimientos de la región de Orce (Granada), un millón de años posteriores, que evidencian la presencia humana más antigua en Europa occidental.La dieta carnívora, más rica en energía (en kJ por día y kg de masa corporal) y más digerible respecto a lo esperable de nuestra tasa metabólica, nos abrió además la puerta al acceso a aminoácidos esenciales y otros micronutrientes, como ciertos ácidos grasos omega-3 (EPA y DHA), presentes solo en los tejidos animales.

    Otro compuesto importante es la taurina, aminoácido muy escaso en la materia vegetal, con efectos antioxidantes y antiinflamatorios. Resulta que la capacidad de sintetizarlo es muy baja en los humanos y está ausente en los félidos, hipercarnívoros por excelencia.

  3. Cerebro grande. Una de las principales razones de que necesitemos una dieta de alta calidad radica en el elevado coste de mantenimiento de nuestro tejido nervioso, que representa un 22% de la tasa metabólica basal, frente al 8% en el chimpancé. Dado que en nuestro cuerpo hay además otros órganos muy costosos de mantener, como el corazón, los riñones o el hígado, cuyas dimensiones no podían reducirse, la expansión cerebral forzó un acortamiento del tracto digestivo humano, propiciando la transición hacia una dieta más carnívora.Con ello, el gran desarrollo cerebral de nuestra especie, en especial durante la fase infantil, se benefició de una dieta concentrada, fácil de digerir y de mayor calidad. En el primer mundo existen hoy alternativas a esta dieta que no incluyen productos animales, pero dicha posibilidad no estuvo accesible para los cazadores-recolectores nómadas durante el Pleistoceno (el 97% del tiempo transcurrido desde nuestro origen en África hace unos 160.000 años) y sigue sin estarlo en los países en desarrollo.
  4. La importancia del hierro. También conviene tener en cuenta que los enterocitos del sistema digestivo humano absorben con preferencia el hierro ligado a la hemoglobina y a los compuestos de la porfirina (en productos animales), frente a los iones de hierro de la materia vegetal, cuya asimilación se reduce en un 50-70% debido a la presencia de fitatos y compuestos fenólicos, que inhiben la absorción. En cambio, los animales herbívoros no absorben el hierro de los compuestos ligados a la carne y dependen de los iones de hierro en las plantas.Una dieta vegana no satisface el aporte mínimo de 1,5 mg hierro/día y debe ser suplementada. Lo que, a la larga, termina dañando los riñones, pues buena parte de ese hierro no se absorbe y han de excretarlo. Por ello, aunque es verdad aquello que nos repetían nuestras abuelas de que “las lentejas tienen mucho hierro”, es una verdad a medias. Porque asimilamos mucho mejor el hierro de la sangre que lleva un buen filete de vaca o de atún.

Una dieta que aumenta la longevidad

Estas adaptaciones a la dieta omnívora se reflejan también en nuestras expectativas de vida. Los humanos tenemos una longevidad potencial un 30% superior a la de los grandes simios. La selección de genes adaptativos para el consumo de grasas animales, como el alelo ApoE3, jugó un papel relevante en el cambio hacia una dieta más carnívora y una vida más larga durante la evolución del género humano, reduciendo el riesgo de padecer alzhéimer, enfermedades vasculares e infecciones microbianas.

Por todo ello, no es casual que en tres cuartos de las sociedades de cazadores-recolectores nómadas, que representan nuestro estilo de vida tradicional (donde actuó la selección natural, a diferencia de en las sociedades modernas), la caza y/o la pesca supongan más del 50% de la dieta. Mientras que lo contrario ocurre solo en un 14% de ellas. En cambio, en los chimpancés la carne representa solo el 3% de la dieta.

El menor consumo de carbohidratos en las poblaciones humanas tras la adaptación a una dieta más carnívora pudo propiciar la aparición de la resistencia a la insulina (diabetes mellitus tipo II) como mecanismo para acumular grasa corporal en los momentos de abundancia de recursos. La frecuencia de esta enfermedad en las poblaciones humanas modernas oscila hoy entre el 7 y el 14%, aunque su prevalencia ha aumentado desde el 3-6% en 1980, debido al sobrepeso por consumo excesivo de ácidos grasos saturados, la escasez de fibra vegetal, las bebidas con azúcares libres y la vida sedentaria.

Finalmente, una evidencia más de nuestra adaptación temprana a la dieta carnívora proviene de las tenias, familia de cestodos parásitos que usan a los carnívoros como hospedadores definitivos. Tres especies del género Taenia se valen solo de nosotros para completar su ciclo, aunque también pueden infectarnos como hospedadores intermedios secundarios, lo que da lugar a la cisticercosis. En cambio, estos parásitos no infectan a los simios en condiciones naturales. Las últimas evidencias científicas indican que la adaptación de tales cestodos a infectar a los humanos en la fase final de su ciclo tuvo lugar en África poco después de que aparecieran nuestros ancestros en el continente. Es decir, que también ellos comían carne.

En función de estos argumentos, parece que una dieta exclusivamente vegana no solo resulta antinatural en nuestra especie, dado nuestro pasado evolutivo, sino que hay razones fisiológicas de peso que la desaconsejan. Como tal, no debería considerarse una alternativa recomendable frente a la dieta mediterránea, más equilibrada y saludable. La biología evolutiva es clara al respecto.

Sobre el autor: Paul Palmqvist Barrena es catedrático de paleontología de la Universidad de Málaga

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Es natural que los humanos comamos carne? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El aprendizaje continuo mejora la interacción de robots con humanos en lenguaje natural
  2. La cultura no protege de la selección natural
  3. Ingredientes para la receta: Carne bovina
Catégories: Zientzia

Catástrofe Ultravioleta #29 ALHAMBRA

sam, 2020/07/11 - 11:59
Catástrofe Ultravioleta #29 ALHAMBRA

Buenos días, catastróficos. ¿Un paseíto por la Alhambra?

En este episodio, Javier Peláez nos lleva de paseo por uno de los monumentos más populares y a la vez desconocidos del mundo, subiremos hasta él por la legendaria cuesta de Gomérez, una pesadilla hasta para Miguel Indurain y… ¡no puede ser!



Puedes escucharnos en:

– Podium Podcast
– iVoox
– Spotify
– Apple Podcasts

Agradecimientos:  Lucía Perlado, Susana Escudero, Ávaro Martínez, Antonio Orihuela, Juan Castilla, Julio Navarro y Elena Diez.

** Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) para Podium Podcast con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.

El artículo Catástrofe Ultravioleta #29 ALHAMBRA se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Preparados para una Catástrofe Ultravioleta
  2. Catástrofe Ultravioleta #26 VOZ 1
  3. Catástrofe Ultravioleta #27 VOZ 2
Catégories: Zientzia

La mejor estrategia para un maratón

ven, 2020/07/10 - 11:59
Foto: Pexels / Pixabay

Los límites del rendimiento humano en el maratón siguen en revisión. Romper la barrera de las 2 horas en un maratón homologado depende de una combinación de factores que incluyen un gran atleta con cualidades biomecánicas y fisiológicas únicas, compitiendo un buen día, con condiciones ambientales y de carrera favorables, y la estrategia adecuada.

“Uno de los factores claves en el rendimiento del atleta es la estrategia de ritmo adoptada durante la competición. La estrategia de ritmo es la capacidad para utilizar y distribuir eficientemente los recursos energéticos durante la competición con el objetivo de utilizar todas las reservas energéticas antes de finalizar la carrera, evitando la fatiga prematura y, con ello, una desaceleración significativa de la velocidad lejos de la línea de meta”, señala el investigador José Joaquín Díaz Martín.

“Continuamente, los atletas deben decidir cómo y cuándo invertir sus recursos energéticos limitados a lo largo del tiempo para ganar una carrera —dice Díaz Martín—. Si los atletas, independientemente del nivel de rendimiento, son capaces de adoptar el ritmo correcto durante la competición y, además, comprender los factores que influyen en el rendimiento, serán capaces de registrar tiempos más rápidos e incluso terminar por delante de otros corredores con capacidades fisiológicas superiores que utilizaron ritmos menos eficaces, completando con éxito y mejorando su rendimiento en el maratón”.

La estrategia de ritmo ha cambiado en los últimos 50 años. “Mientras que los atletas clásicos tienden a utilizar una estrategia positiva (la velocidad de carrera disminuye gradualmente a medida que transcurre la competición), los atletas de hoy en día utilizan una estrategia negativa (aumenta significativamente la velocidad de carrera a medida que transcurre la prueba)”, señala el investigador.

Otro dato significativo es que varones y mujeres difieren en este tema. Según Díaz Martín, “mientras que los varones incrementan la velocidad a medida que transcurre la prueba (ritmo negativo), las mujeres no tienen una estrategia definida y usan un ritmo menos uniforme durante el maratón”. Aun así, “si tenemos en cuenta el nivel de rendimiento, observamos que los atletas de élite utilizan una estrategia negativa independientemente del sexo, en contraposición de los atletas amateurs, que se decantan por una estrategia positiva”, añade.

El investigador señala que estos resultados pueden “aportar información importante para futuros atletas de maratón para mejorar sus marcas, siempre y cuando utilicen la estrategia de ritmo negativa (donde el atleta acelera su velocidad en el transcurso de la carrera) para completar una maratón”.

En cuanto al récord mundial se refiere, “los datos sugieren que el maratón de Berlín, poseedor de los 7 mejores registros de todos los tiempos, es el más propenso para futuros intentos de récord mundial”, concluye José Joaquín Díaz Martín.

Referencias:

José Joaquín Díaz, Eduardo José Fernández-Ozcorta & Jordan Santos-Concejero (2018) The influence of pacing strategy on marathon world records, European Journal of Sport Science, 18:6, 781-786, DOI: 10.1080/17461391.2018.1450899

Díaz JJ, Renfree A, Fernández-Ozcorta EJ, Torres M and Santos-Concejero J (2019) Pacing and Performance in the 6 World Marathon Majors. Front. Sports Act. Living 1:54. doi: 10.3389/fspor.2019.00054

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo La mejor estrategia para un maratón se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La importancia del ritmo en la carrera de fondo
  2. El aprendizaje del inglés es mejor si se usa para aprender otra cosa
  3. Cómo conservar mejor los alimentos con una iluminación inteligente
Catégories: Zientzia

El precio que pagamos por iniciar sesión con Facebook o Google en las aplicaciones

jeu, 2020/07/09 - 11:59

Marta Beltrán y Jorge Navas Díaz

Imagen: Gerd Altmann / Pixabay

¿Cuántas contraseñas utiliza un usuario medio a lo largo del día? ¿50? ¿100? Y se supone que todas ellas tienen que ser diferentes, largas, suficientemente complejas, no estar relacionadas con su vida, etc. Todo esto para que sean seguras y un atacante no las pueda adivinar o reutilizar si las averigua o roba.

Para ahorrarles trabajo, en los últimos años se está trabajando mucho en ofrecer a los usuarios soluciones que les permitan autenticarse (demostrar que son quienes dicen ser) cuando necesitan utilizar un recurso, aplicación o servicio web, normalmente desde su ordenador o móvil.

Identificación a través de Facebook y Google

Una de estas soluciones son los esquemas federados para la gestión de accesos. Se llaman esquemas federados porque se basan en construir federaciones de confianza: los usuarios finales y los proveedores de los recursos, aplicaciones o servicios a los que quieren acceder (una tienda de comercio electrónico, el banco, la web para pedir cita con el médico) confían en proveedores de identidades.

Alternativas para iniciar sesión en una web.

En la actualidad, estos proveedores de identidades son casi siempre las grandes empresas tecnológicas donde la mayor parte de los usuarios tenemos una cuenta: Google, Facebook, Twitter, LinkedIn y Apple. De hecho, a veces se habla de social login.

De esta manera, para acceder a cualquier servicio (ajeno a esas compañías), basta con que el usuario se autentique, normalmente con una contraseña, en el proveedor de identidades. Es decir, puede registrarse o iniciar sesión a través de Google, Apple o alguna red social para no tener que crear una nueva cuenta y su clave correspondiente.

¿Cómo pueden actuar de intermediarios?

Hace años que Facebook y compañía colaboraron con un consorcio denominado la OpenID Foundation para proponer un estándar que permitiera resolver la autenticación de usuarios en internet de manera federada. Este estándar se llama OpenID Connect, y está en su versión 1.0 desde el año 2014.

Gracias a esta especificación cuando, por ejemplo, vamos a comprar un billete de avión y tenemos que identificarnos en la web en la que estamos realizando la compra, normalmente se nos darán dos opciones.

  • La primera, tener una cuenta local en esa web con su propia contraseña. Habrá que crearla, o si ya la teníamos, recordar la contraseña que pusimos en su momento.
  • La segunda, entrar cómodamente con nuestra cuenta de Google, Facebook, etc. Solo tenemos que hacer clic en un botón de la web. Si no habíamos iniciado sesión en este proveedor, se nos pide que lo hagamos en este momento. Si ya habíamos iniciado sesión, normalmente, ya estamos autenticados y podemos seguir con la compra directamente.

Casi todos los usuarios se han acostumbrado a realizar este segundo gesto en los últimos años. Les ahorra tener que manejar una cuenta por cada servicio que utilizan. Esto es especialmente útil en servicios que se utilizan solo una vez o de manera muy esporádica.

Hay que mencionar que un poco después de estandarizarse OpenID Connect las operadoras de telefonía también quisieron adoptar el papel de proveedor de identidades. Por este motivo, se propuso Mobile Connect, que se basa en las mismas ideas y conceptos, pero asociando al usuario su número de teléfono en lugar de una contraseña. De esta manera, la operadora sería quien permite la autenticación.

¿Un servicio gratuito?

Hay que preguntarse por qué tantas empresas de diferentes sectores se están ofreciendo para operar como proveedores de identidades. Apple, que era de las pocas que se habían quedado fuera de todo esto, lanzó su propia solución el año pasado.

En principio, lo hacen de manera gratuita. Podríamos pensar que lo hacen para mejorar la usabilidad de la web y para favorecer el uso de diferentes tipos de recursos, servicios y aplicaciones de manera segura –pueden dar más garantías que otras miles de empresas que ofrecen sus servicios por internet pero no son expertas en resolver la autenticación de usuarios–. Al fin y al cabo, al mejorar la experiencia de los usuarios y generar negocio en internet, resultan beneficiadas, aunque sea indirectamente.

Pero también podríamos pensar que gestionar la autenticación de millones de usuarios exige una infraestructura y un esfuerzo que no se ve compensado del todo con esta mejora del funcionamiento de internet. Obviamente, la respuesta está en los datos.

Riesgos para la privacidad de los usuarios

Cada vez que escogemos usar un proveedor de identidades para autenticarnos, nuestra privacidad se puede ver amenazada de diferentes maneras. Se pueden resumir en estas cinco:

  1. Falta de control sobre nuestros datos personales. Casi todos los proveedores de identidades exigen una serie de datos personales de los usuarios para poder disfrutar de autenticación federada. Estos datos tienen que proporcionarse obligatoriamente y son identificativos; permiten asociar nuestra identidad digital (en internet) con la física (en el mundo real): nombre, apellidos, número de teléfono, etc.
  2. Falta de control sobre la compartición de nuestros datos personales con terceros. En casi todos los flujos de autenticación, el servicio al que accede el usuario puede pedir al proveedor de identidades los datos de este. Esto es muy cómodo, por ejemplo, para autocompletar formularios (con nuestro nombre o nuestra dirección para un envío). Pero también permite a la tienda o a la clínica, con los ejemplos que habíamos mencionado antes, saber quién es el usuario realmente. Y sin que este intervenga de manera explícita ni se dé cuenta en la mayoría de casos, esta compartición de información se realiza de manera automática. Es una comunicación entre el servicio al que accede y el proveedor de identidades.
  3. Fuga de datos personales. Una vez que hay datos personales del usuario (que además permiten identificarle) almacenados en el proveedor de identidades y en los servicios a los que ha accedido, puede ocurrir que no se protejan adecuadamente y se vean involucrados en una brecha de datos. Comprometida la cuenta del usuario en el proveedor de identidades, por ejemplo, se ven comprometidos todos los accesos que ha realizado a través de él.
  4. Perfilado. El proveedor de identidades puede obtener mucha información sobre cada usuario. Sabe a qué accede en cada momento, desde qué dispositivo, etc. Esto le permite conocer mejor a los usuarios, sus gustos, hábitos, intereses, horarios. Todos sabemos lo valiosa que es esta información hoy en día para la mayor parte de las empresas.
  5. Geolocalización. El proveedor de identidades puede obtener información sobre la localización de los usuarios (a través de información GPS, pero también de las direcciones IP, de las redes wifi o de las apps que tienen instaladas en sus dispositivos) en cada acceso que realizan. Esta valiosa información sirve para completar su perfil.

Conclusiones: ¿debemos fiarnos?

La autenticación basada en soluciones federadas, es decir, en utilizar Google, Facebook, Apple y compañía como proveedores de identidades es muy cómoda. Mejora la experiencia de los usuarios, les ahorra tiempo y esfuerzo y puede ser más segura en comparación con el uso de contraseñas débiles.

Pero hay que tener en cuenta los riesgos que supone para la privacidad. El servicio que ofrecen estos proveedores de identidades, como ocurre en tantas ocasiones, no es gratis (o no del todo). Los usuarios lo pagan con sus datos.

En este sentido, algunas webs y aplicaciones han dejado de ofrecer a sus usuarios la posibilidad de autenticarse de esta manera en un intento de proteger su privacidad o de no regalar a otras empresas datos tan valiosos.

Además, cada vez somos más investigadores y grupos de usuarios los que estamos proponiendo soluciones que permitan trabajar con este tipo de proveedores de manera más respetuosa con la privacidad. Pero el primer paso es que los usuarios exijan este respeto, así los proveedores de identidades irán incorporando la privacidad desde el diseño utilizando cifrado, desvinculación y ofreciendo una mayor transparencia.

Sobre los autores: Marta Beltrán es profesora y coordinadora del Grado en Ingeniería de la Ciberseguridad de la Universidad Rey Juan Carlos y Jorge Navas Díaz es doctor en ciberseguridad por la Universidad Rey Juan Carlos

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo El precio que pagamos por iniciar sesión con Facebook o Google en las aplicaciones se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los retos de geolocalizar a la población española
  2. Lázaro Saitoti, un Masai en Facebook
  3. Los memes de Facebook evolucionan como los seres vivos
Catégories: Zientzia

Henri Cartan, un “bourbakista” especialista en teoría de haces

mer, 2020/07/08 - 11:59

 

Souvent, le soir, après dîner, mon père faisait la lecture à haute voix à ma mère. Il a lu des quantités de livres… Je ne sais combien de volumes de Proust ont été lus à haute voix par mon père.

[A menudo, por la noche, después de la cena, mi padre le leía en voz alta a mi madre. Leyó multitud de libros… No sé cuántos volúmenes de Proust fueron leídos en voz alta por mi padre].

Henri Cartan, en [1]

El matemático Henri Cartan nació tal día como hoy, en 1904. Fue hijo, sobrino y hermano de personas dedicadas a las matemáticas.

Imagen 1. Henri Cartan. Fuente: Wikimedia Commons.

 

Henri, el hijo de Élie Cartan

Henri fue uno de los hijos de Angèle Marie Louise Bianconi (1880-1950) y Élie Cartan (1869-1951), famoso matemático francés que llevó a cabo trabajos fundamentales en la teoría de grupos de Lie y sus aplicaciones geométricas. Realizó también significativas aportaciones a la física matemática, la geometría diferencial y la teoría de grupos.

Henri, el sobrino de Anna Cartan

Élie Cartan fue el segundo de las hijas e hijos de Anne Florentine Cottaz (1841-1927) y Joseph Antoine Cartan (1837-1917). Sus hermanas y hermano fueron Jeanne-Marie (1867-1931), el compositor Léon Cartan (1872-1956), la matemática Anna Cartan (1878-1923).

Anna, animada por Élie, comenzó sus estudios de matemáticas en 1901 en la Escuela Normal Superior para mujeres de Sèvres. En aquel centro tuvo como profesora de física a la mismísima Marie Curie. Anna pasó la oposición para convertirse en profesora de matemáticas –la agrégation– en 1904 e impartió docencia en diferentes centros de enseñanza secundaria. Sola o con su hermano Élie –para que pudieran utilizarlos los chicos, los libros debían tener un hombre entre los autores– escribió varios textos de matemáticas destinados a la enseñanza.

Henri, el hermano de Hélène Cartan

Como hemos comentado antes, Élie se casó en 1903 con Angèle Marie Louise Bianconi. Tuvieron tres hijos y una hija: Henri, el compositor Jean Cartan (1906-1932) –fallecido prematuramente debido a una tuberculosis–, la matemática Hélène Cartan (1917-1952) y el físico Louis Cartan (1909-1943) –deportado por formar parte de la resistencia francesa y ejecutado por los nazis–.

Imagen 2: La familia Cartan en 1928. De izquierda a derecha y de arriba a abajo Élie, Henri, Marie-Louise, Louis, Hélène y Jean. Imagen extraída de [1], © Familia Cartan.

 

Hélène ingresó en 1937 en la Escuela Normal Superior –en principio reservada a chicos– y pasó su primera agrégation en 1940. Enseñó en varios centros de educación secundaria, pero también dedicó su tiempo a la investigación. En 1942 envió una nota a los Comptes-rendus de la Academia de Ciencias de Francia en la que daba una caracterización topológica de la circunferencia como subespacio del plano con su topología euclídea. Esa nota fue presentada a la academia por su padre, Élie Cartan.

Lamentablemente, Hélène contrajo una tuberculosis miliar que le impidió enseñar y limitó incluso su vida en familia. Esta enfermedad es altamente contagiosa, y su hermano Jean había fallecido en 1932 debido a esta dolencia. Tras largas estancias en distintos sanatorios, su salud no mejoraba y decidió acabar con su vida en 1952.

Henri, el matemático

Henri Cartan es conocido sobre todo por su trabajo en teoría de haces, utilizados en topología, geometría algebraica y geometría diferencial. Sus investigaciones en matemáticas engloban la teoría de funciones analíticas de una o varias variables complejas, la topología algebraica –sobre todo la determinación de las álgebras de Eilenberg-MacLane y la cohomología con valores en un haz–, la teoría del potencial y el álgebra homológica. Escribió varios libros; entre ellos probablemente el más conocido es Homological Algebra (Princeton University Press, 1956) escrito junto a Samuel Eilenberg (1913-1998).

A principios de los años 1930 fue uno de los miembros fundadores del grupo Bourbaki –junto a Claude Chevalley (1909-1984), Jean Delsarte (1903-1968), Jean Dieudonné (1906-1992), René de Possel (1905-1974) y André Weil (1906-1998)– del que fue uno de los más activos miembros.

Imagen 3: Fotografía tomada durante el congreso fundador del grupo Bourbaki (julio 1935). De izquierda a derecha: Henri Cartan, René de Possel, Jean Dieudonné, André Weil y Luc Olivier (biólogo). Sentados, de izquierda a derecha: Mirles (una “cobaya”), Claude Chevalley y Szolem Mandelbrojt. Imagen extraída de Le Journal du CNRS.

 

Henri se casó en 1935 con Nicole Weiss –hija del físico Pierre Weiss–; la pareja tuvo cinco hijas e hijos.

Entre sus numerosas actividades al margen de las matemáticas, se sabe que fue un buen músico y un pianista excepcional, como muchos de los miembros de su familia. Destaca también su compromiso político con Europa, por la paz y en defensa de los derechos humanos.

Henri Cartan falleció el 13 de agosto de 2008, a los 104 años.

Referencias

[1] Michèle Audin, Henri Cartan & André Weil. Du vingtième siècle et de la topologie, Actes des journées X-UPS 2012

[2] Allyn Jackson, Interview with Henri Cartan, Notices of the AMS 46 (7) 782-788, 1999

[3] Marta Macho Stadler, Anna y Hélène, las dos matemáticas de la familia Cartan, Mujeres con ciencia, Vidas científicas, 16 octubre 2018

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Henri Cartan, un “bourbakista” especialista en teoría de haces se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Pál Turán: teoría de grafos y fábricas de ladrillos
  2. La artista Anni Albers, The Walking Dead y la teoría de nudos
  3. Una contribución a la teoría matemática de la caza mayor
Catégories: Zientzia

Primeros experimentos con el uranio

mar, 2020/07/07 - 11:59

De inmediato pensé que la acción podría continuar en la oscuridad […]

Con esta frase Becquerel apuntaba a que algo extraordinario podía estar ocurriendo. Experimentos posteriores confirmaron que esto era así.

Fluorescencia de cristales de autunita, un compuesto de uranio (fosfato hidratado de uranilo y calcio), bajo luz ultravioleta. Fuente: Wikimedia Commons

Los primeros ensayos partieron de la observación original. Incluso cuando el compuesto de uranio no estaba siendo excitado por la luz solar para provocar la fosforescencia, emitía continuamente algo que podía penetrar el papel negro y otras sustancias opacas a la luz, como láminas delgadas de aluminio o cobre. Becquerel descubrió que todos los compuestos de uranio, muchos de los cuales no eran fosforescentes, y el uranio metálico mismo presentaban la misma propiedad. La magnitud del efecto en la placa fotográfica no dependía de cuál era el compuesto concreto de uranio, sino solo de la cantidad de uranio presente en él.

Becquerel también descubrió que la radiación persistente de una muestra de uranio no parecía cambiar, ni en intensidad ni en carácter, con el paso del tiempo durante días, semanas o meses. Tampoco observó un cambio en la actividad cuando la muestra de uranio o de uno de sus compuestos se exponía a la luz ultravioleta, a la infrarroja o a los rayos X. Además, la intensidad de la radiación del uranio (o «rayos Becquerel», como se la conoció) era la misma a temperatura ambiente (20 ° C), a 200 ° C y a la temperatura a la que una mezcla de oxígeno y nitrógeno [1] se licúa, aproximadamente -190 ° C.

De todo lo anterior se llegaba a una asombrosa conclusión: estos rayos parecían no verse afectados por los cambios físicos o químicos de la fuente.

Becquerel también encontró que las radiaciones del uranio producían la ionización del aire circundante. Podían descargar un cuerpo cargado positiva o negativamente, como un electroscopio. De aquí se deducía que los rayos del uranio se parecen a los rayos X en dos aspectos importantes: su poder de penetración y su poder de ionización. Ambos tipos de rayos son invisibles al ojo humano pero, curiosamente, ambos afectan a las placas fotográficas.

Con todo, los rayos X y los rayos Becquerel diferían en al menos dos aspectos importantes: en comparación con los rayos X, estos rayos recién descubiertos del uranio no necesitaban un tubo de rayos catódicos o incluso de la luz para iniciarlos y, sorprendentemente, no podían apagarse. Becquerel demostró que incluso después de un período de 3 años un trozo de uranio y muestras de compuestos de uranio continuaban emitiendo radiaciones espontáneamente.

Los años 1896 y 1897 fueron años de gran entusiasmo en las ciencias físicas, en gran medida debido al interés en los rayos X recientemente descubiertos y en los rayos catódicos (electrones). Rápidamente se hizo evidente que los rayos X podían usarse en medicina, y fueron objeto de mucha investigación. En comparación, las propiedades de los rayos Becquerel eran menos espectaculares, y se trabajó poco en ellos desde fines de mayo de 1896 hasta finales de 1897. En cualquier caso, parecía que de alguna manera los rayos Becquerel eran un caso particular de la emisión de rayos X. Incluso el propio Becquerel se ocupó en otras cosas.

Sin embargo, la espontaneidad de la radiación invisible que emitían los compuestos de uranio era algo que había que explicar.

Se plantearon dos preguntas básicas. Primero, ¿cuál es la fuente de energía que crea los rayos de uranio y que les permite penetrar sustancias opacas? Segundo, ¿alguno de los 70 o más elementos conocidos [2] tiene propiedades similares a las del uranio? La primera pregunta tardó en encontrar respuesta, aunque se investigó seriamente. La segunda pregunta fue respondida brillantemente a principios de 1898 por dos investigadores que trabajaban en París, abriendo un campo completamente nuevo en las ciencias físicas. Esos investigadores eran Pierre Curie y Maria “Marie” Salomea Skłodowska Curie.

Notas:

[1] Esta mezcla de oxígeno y nitrógeno es conocida en los ambientes como “aire”. El aire se licúa exactamente a -194,35 ºC.

[2] A finales del siglo XIX la lista de elementos conocidos era una colección cambiante de verdaderos elementos, candidatos a elementos, y confusiones con los elementos, por lo que el número de los verdaderamente conocidos en un momento dado dependía de la fuente consultada y, en no poca medida, de su nacionalidad.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Primeros experimentos con el uranio se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El descubrimiento de Becquerel
  2. Los experimentos de Joule
  3. El núcleo atómico
Catégories: Zientzia

El sexismo en los algoritmos: una discriminación subestimada

lun, 2020/07/06 - 11:59

Naroa Martinez y Helena Matute

Pixabay, CC BY-SA

 

A pesar del auge del feminismo en los últimos años, los efectos negativos y generalizados del sexismo en la inteligencia artificial suelen ser subestimados.

Lejos de ser minoritario, el sexismo, y la discriminación que éste genera, impregna hoy en día el funcionamiento de los algoritmos de inteligencia artificial. Esto es un problema porque cada vez usamos más algoritmos para tomar decisiones cruciales sobre nuestras vidas. Por ejemplo, quién puede acceder y quién no a una entrevista de trabajo o a una hipoteca.

Sexismo en los algoritmos

La literatura científica que estudia la presencia de sesgos y errores en los algoritmos de aprendizaje automático está todavía en sus primeras etapas, pero los resultados son muy preocupantes.

Se ha comprobado que los algoritmos heredan los sesgos de género que imperan en nuestra sociedad. Como veremos a continuación, los sesgos humanos llevan a errores sistemáticos en los algoritmos. Es más, a menudo estos sesgos tienden a incrementarse debido a la gran cantidad de datos que manejan los algoritmos y a su uso generalizado.

Por ejemplo, en un estudio en el que se aplicaron técnicas de aprendizaje automático para entrenar a una inteligencia artificial utilizando Google News, se resolvió la analogía “hombre es a programador de ordenadores lo que mujer es a x”. La respuesta automática fue que “x = ama de casa”.

De manera similar, otro hallazgo inquietante fue el que se observó en un algoritmo entrenado con texto tomado de internet. Éste asociaba nombres femeninos como Sarah con palabras atribuidas a la familia, tales como padres y boda. En cambio, nombres masculinos como John tenían asociaciones más fuertes con palabras atribuidas al trabajo, como profesional y salario.

Amazon también tuvo que eliminar su algoritmo de selección de personal porque mostraba un fuerte sesgo de género, penalizando los CV que contenían la palabra mujer.

El sexismo también se cuela en los algoritmos de búsqueda de imágenes. Por ejemplo, una investigación mostró que en Bing se recuperan fotos de mujeres más a menudo al utilizar en las búsquedas palabras con rasgos cálidos, como por ejemplo, sensible
o emocional
. Por el contrario, palabras con rasgos de competencia, tales como inteligente o racional, están más representados por fotos de hombres. Es más, al buscar la palabra persona se recuperan más a menudo fotos de hombres que de mujeres.

En otro trabajo se observó que el algoritmo asociaba imágenes de compras y cocinas con mujeres. Así, deducía que “si está en la cocina, es mujer” la mayor parte de las veces. En cambio, asociaba imágenes de entrenamiento físico con hombres.

Además de los datos de texto y las imágenes, las entradas e interacciones que realizan los usuarios también refuerzan y nutren el aprendizaje de sesgos de los algoritmos. Un ejemplo de ello lo confirmó un trabajo en el que se observaba que los temas relacionados con la familia y las relaciones románticas se discuten mucho más frecuentemente en los artículos de Wikipedia sobre las mujeres que sobre los hombres. Además, la biografía de mujeres tiende a estar más vinculada (mediante enlaces) a la de los hombres que viceversa.

Sesgo algorítmico en lenguas con género

Hasta la fecha los estudios que se han centrado en examinar el sesgo de género lo han hecho casi exclusivamente analizando el funcionamiento de los algoritmos con el idioma inglés. Sin embargo, esta lengua no tiene género gramatical.

En inglés, la maestra simpática y el maestro simpático se dice igual: the nice teacher. Por tanto, cabe preguntarse qué ocurre con lenguas como el español, que sí tiene género gramatical.

La investigación al respecto ha encontrado sesgos de género al traducir del inglés a idiomas con género gramatical como el nuestro. Por ejemplo, un estudio mostró que al traducir la palabra lawyer del inglés al español había una asociación automática más fuerte con la palabra abogado que abogada. Por el contrario, la palabra nurse estaba más relacionada con la palabra enfermera que enfermero. En principio tendría que haber asociado ambas traducciones con idéntica probabilidad.

A pesar de las numerosas críticas de los últimos años, los sesgos que se producen al traducir desde una lengua sin género gramatical, como el inglés, a una con género gramatical, como el español, se siguen dando hoy en día en algunos traductores automáticos como, por ejemplo, DeepL (ver Figura 1).

Figura 1. Captura de pantalla del algoritmo DeepL que muestra sesgo de género (14-05-2020).

Algunos traductores como Google Translate han introducido correcciones. Hoy en día traducen con el masculino genérico un conjunto de palabras (ver Figura 2), pero han incorporado también el desdoblamiento por género femenino y masculino de palabras e incluso frases cortas (ver Figura 3).

Figura 2. Captura de pantalla de Google Translate que muestra masculino genérico en la traducción de un listado de palabras (14-05-2020).Figura 3. Captura de pantalla de Google Translate que muestra desdoblamiento de género femenino y masculino en la traducción de una palabra (14-05-2020).

¿Qué solución tiene?

En la actualidad, se están desarrollando iniciativas y estándares destinados a abordar el problema de los sesgos algorítmicos. Pero, por el momento, la mayor parte de los sistemas de inteligencia artificial presenta sesgos.

La investigación sugiere que subestimamos los sesgos presentes en las máquinas e incluso tendemos a considerar más justas y preferir las recomendaciones de los algoritmos a las de los humanos. Pero, ¿realmente queremos delegar nuestras decisiones en algoritmos que asocian mujer con ama de casa? IBM predice que “sólo la inteligencia artificial que esté libre de sesgos sobrevivirá”.

Sobre las autoras: Naroa Martinez es investigadora posdoctoral y Helena Matute catedrática de psicología en la Universidad de Deusto

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo El sexismo en los algoritmos: una discriminación subestimada se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Helena Matute: «Los algoritmos nos ganan en cualquier partida que juguemos contra ellos»
  2. Algoritmos para que los parques eólicos no interfieran con los radares
  3. Algoritmos de triaje para readmitidos en urgencias
Catégories: Zientzia

Para perder peso y no recuperarlo

dim, 2020/07/05 - 11:59
Foto: Matthew Feeney / Unsplash

Sabemos que la forma más segura de perder peso es comer menos; también es conveniente comer alimentos saludables y si, además, hacemos ejercicio físico, mejor aún. Lo sabemos, pero eso no quiere decir que adelgazar sea sencillo. Por eso, y porque la obesidad y el sobrepeso son fuente de muchos problemas de salud, interesa saber cuáles son las estrategias para adelgazar que se han demostrado eficaces cuando se han llevado a la práctica.

Con ese propósito han analizado los resultados de 50 publicaciones científicas que incluyen datos procedentes de cinco países (Alemania, Estados Unidos, Finlandia, Grecia y Portugal), obtenidos a partir de registros de peso de miles de personas durante periodos de tiempo prolongados. Han podido evaluar así el efecto de 51 estrategias personales, así como la posible influencia de 30 rasgos psicológicos, sociodemográficos y de comportamiento sobre la magnitud de la pérdida de peso y el tiempo durante el que se mantiene esa pérdida. Los datos incluidos en el estudio corresponden a personas que han conseguido reducciones de entre 20 y 30 kg, aproximadamente, y que han alcanzado un peso estable en torno a los 75 kg durante periodos de tiempo de varios años en la mayor parte de los casos.

Como era de esperar, las estrategias más eficaces para perder peso y mantenerlo después son el ejercicio físico y la reducción de la ingesta total de energía y de la de grasa. Otras actuaciones útiles conllevan una cierta planificación, como el disponer en el hogar de alimentos saludables, o implican una mejora en la calidad de la dieta, como el aumentar el consumo de vegetales, comportamientos ambos coincidentes con lo que recomiendan las guías oficiales. Y aunque la literatura científica no es concluyente al respecto, también parece ayudar el desayuno regular, así como aumentar la ingestión de proteínas y de alimentos ricos en proteínas.

Como cabía anticipar, también arrojan resultados positivos disminuir el tamaño de las raciones, controlar el peso con frecuencia y establecer objetivos concretos, tanto en lo relativo a la cantidad y tipo de alimento como a la actividad física. Esos comportamientos ayudan a perder peso y a mantenerlo a largo plazo. En conjunto, permiten a las personas interesadas ejercer un cierto control sobre su evolución y ajustar su comportamiento al objetivo que se desea alcanzar. Para no tirar la toalla es importante también que los objetivos, tanto en lo relativo a la ingesta como al ejercicio, sean individualizados y realistas.

Cuando hay recomendaciones médicas de por medio, el peso perdido se mantiene más fácilmente a lo largo del tiempo, seguramente porque las personas a las que se les indica atribuyen sus problemas de salud al sobrepeso y están especialmente motivadas para recuperar la salud o no empeorarla. Por el contrario, cuando se come en respuesta a estímulos de carácter emocional se pierde menos peso y resulta más difícil mantener la pérdida a largo plazo. Y como es lógico, tampoco resultan de ayuda los festines o atracones ocasionales.

Finalmente, es interesante constatar que las personas concienzudas y meticulosas pierden peso con mayor facilidad que el resto, dado que esas personas son más capaces de autocontrolarse y, por lo tanto, les resulta más fácil adoptar y mantener los comportamientos que, a largo plazo, permiten conseguir las mayores pérdidas de peso.

Muy probablemente nada o casi nada de lo dicho aquí resulte una novedad, pero reconforta el constatar que las recomendaciones dietéticas al uso demuestran su eficacia en la práctica. Al menos para quienes nos afanamos cada día en el difícil arte de quedarse con las ganas de comer un poco más.

Fuente: Paixão, C, Dias, CM, Jorge, R, et al. Successful weight loss maintenance: A systematic review of weight control registries. Obesity Reviews. 2020; 1– 15.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Para perder peso y no recuperarlo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La percepción del propio peso es peor en las chicas que en los chicos
  2. Cómo reducir el peso de un motor de aviación un 30 %
  3. El extracto de té verde no tiene efecto sobre la pérdida de peso
Catégories: Zientzia

La ciencia amputada: sin referencias de científicas en los manuales

sam, 2020/07/04 - 11:59

Emakumeek zientzia egiten dute / Ellas hacen ciencia, fue un ciclo de conferencias organizado por el Ayuntamiento de Bilbao-Bilboko Udala, coordinado por las profesoras de la Facultad de Ciencia y Tecnología de la Universidad del País Vasco María Jesús Irabien Gulias y Marta Macho Stadler, que tuvo lugar en la Biblioteca de Bidebarrieta de Bilbao durante el mes de noviembre de 2019.

Dentro de este ciclo estuvo esta conferencia de Ana López Navajas, asesora docente de coeducación en la Conselleria d’Educació i Investigació de la Generalitat Valenciana, titulada La ciencia amputada: sin referencias de científicas en los manuales. En ella la ponente expone la práctica ausencia en los libros de texto con contenido de materias de ciencias de referentes femeninas y los efectos de este olvido.

Sobre la ponente dice Marta Macho en Mujeres con ciencia:

Ana López Navajas es profesora e investigadora vinculada a la Universitat de València y asesora docente de Coeducación e Igualdad en la Formación del Profesorado en la Conselleria d’Educació, Investigació, Cultura i Esport de la Generalitat Valenciana. Su investigación se centra en el análisis de la ausencia de las mujeres y sus producciones –en el ámbito científico, cultural e histórico– en los contenidos y manuales de la educación, y en las implicaciones de esa ausencia.

Forma parte desde sus inicios de la asociación Clásicas y Modernas​, que promueve la igualdad de género en la cultura.

Su trabajo y su lucha por la igualdad y la coeducación han sido valorados a través de diferentes premios como el Premio «Ascensión Chirivella» (2016), el Premio «Avanzadoras» (2017) o el Premio «Top 100 Mujeres Líderes de 2018 en España».

Edición realizada por César Tomé López

El artículo La ciencia amputada: sin referencias de científicas en los manuales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. A través del espejo: la literatura mira a las científicas, por Marta Macho
  2. #Naukas14 La amenaza del estereotipo
  3. Instituciones científicas: producción y comunicación de la ciencia
Catégories: Zientzia

Pages