Actúa localmente: midiendo el impacto ambiental de la siderurgia

Si uno abre cualquier día un periódico económico y ojea la sección dedicada a inversiones habrá unas siglas que aparecerán con seguridad una o más veces: ESG. ESG son las siglas en inglés que corresponden a medio ambiente, impacto social y buen gobierno, y se refiere a una metodología que clasifica a las empresas en estos tres aspectos, de tal forma que un inversor de cualquier punto del planeta pueda elegir invertir en empresas que tengan el mínimo impacto medioambiental, sean igualitarias, justas y seguras para las personas que trabajan y se relacionan con ellas, y tengan establecidos y cumplan los más altos estándares de control y transparencia en su gestión.
En el mundo de empresarial de los países desarrollados se tiene claro que el futuro será ESG o no será. Muchos inversores se han convertido en activistas y, o bien promueven en aquellas empresas en las que invierten que se mejore la clasificación ESG, o directamente no invierten en empresas de ESG bajo, o ambas cosas.
Esta es una de las fuerzas impulsoras, otras serían la propia conciencia medioambiental y la reducción de costes que suponen ciclos productivos más eficientes, tras las medidas que las empresas más innovadoras están llevando a cabo para reducir su impacto sobre el entorno.
Una de las cuestiones que se plantean inmediatamente es medir. Ya sabemos que solo el que mide, sabe; el que no especula. Pero, ¿cómo medir el impacto global que tiene una actividad? No es tarea fácil, ni mucho menos. Tanto es así, que poder diseñar un sistema de medida ya es un logro científico en sí mismo. Aquí es donde entra el concepto de huella ambiental del producto.
La Huella Ambiental de Producto (HAP) de la Unión Europea es una metodología para calcular el impacto medioambiental total de los productos que salen de nuestras fábricas. Su objetivo es permitir el suministro de información fidedigna y comparable sobre los productos, promoviendo un mercado más sostenible. Los trabajos sobre la norma se remontan a 2011, momento en que se analizaron las metodologías existentes
La HAP sirve para comparar en base a varios criterios el impacto ambiental de un bien, producto industrial o servicio a lo largo de su ciclo de vida. El objetivo general es establecer líneas de actuación, para reducir su impacto ambiental teniendo en cuenta las actividades de la cadena de suministro (de la extracción de las materias primas a la gestión de los residuos finales, pasando por la producción y el uso).
Toda huella ambiental de producto se basa en unas Reglas de Categoría de Huella Ambiental de Producto (PEFCR por sus siglas en inglés): una guía técnica detallada sobre cómo realizar un estudio de este tipo en una categoría de producto concreta. Las PEFCR complementan la orientación metodológica general de la huella ambiental, proporcionando más especificaciones a nivel de producto, asegurando la reproducibilidad y coherencia de estos estudios.
La teoría está muy bien, pero cuando esto se intenta llevar a un producto tan intensivo en materiales con alto impacto en el territorio y energía como es el acero la cosa se complica y no poco. Esto es algo que sobrepasa la actuación de una sola empresa. Así, por ejemplo, es Siderex, el clúster de siderurgia del País Vasco, el que lidera HAMBEMET, un proyecto a gran escala para adecuar esa metodología ya existente para el cálculo de la HAP (y basada en la guía de la Unión Europea) a los productos hiperespecializados de empresas históricas como Arania.
Pero la HAP sola no basta. Ha de complementarse con la estimación de la huella de carbono de la actividad de la empresa en su conjunto para poder tener una idea del impacto ambiental general. Esa medición adicional se logra, por ejemplo, mediante la gestión de GdO (Garantías de Origen renovable).
¿Cómo saber el origen de la energía que se consume? Para descubrirlo se creó un convenio internacional, un acuerdo capaz de acreditar el factor ambiental en un año: las Garantías de Origen y el Etiquetado de Electricidad. Las garantías de origen renovable (GdO) son una certificación que atestigua la producción de una determinada cantidad de suministro eléctrico mediante energías renovables o de cogeneración.
Gracias a una GdO, una empresa puede proporcionar información detallada a sus clientes sobre el origen de la energía que recibe y el impacto en el entorno que supone su producción. El origen renovable se refiere a la electricidad procedente de las fuentes no fósiles: energía eólica, solar, aerotérmica, geotérmica, hidrotérmica, hidroeléctrica, biomasa…
Este es el tipo de cosas de las que se encargan los directivos de alto nivel de las empresas que pretendan seguir siendo competitivas en el futuro.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Actúa localmente: midiendo el impacto ambiental de la siderurgia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Actúa localmente: blockchain para la cadena de suministros
- Actúa localmente: el dron espía del cambio climático
- Actúa localmente: tranvías eléctricos sin catenaria
El letargo diario de los planigalos

Aunque lo parecen, no son ratones. Por su aspecto, están a medio camino entre los ratones y las musarañas. Sin embargo, no tienen nada que ver ni con unos ni con otros; es más, están muy alejados. Son mamíferos marsupiales.
Son planigalos, miembros del orden Dasyuriomorphia, el mismo al que pertenece el archiconocido demonio de Tasmania, aunque éste es más grande, bastante más grande en realidad. Los ratones marsupiales son muy pequeños; son, quizás, los marsupiales más pequeños que hay. Y todos pertenecen al género Planigale, del que no se conocen más de cinco especies.
Una de ellas es Planigale gilesi, o planigalo de Giles. Como las otras especies del género, es de tamaño muy pequeño, de entre 6 y 15 g de masa corporal. Suelen encontrarse en el interior de las grietas largas (>1 m) y estrechas que surgen en los suelos arcillosos característicos de las llanuras de aluvión de los desiertos del centro de Australia. Salvo que haya inundación, se trata de lugares muy secos, pues pueden pasar meses sin que llueva. La mayor parte del tiempo la pasan dentro de las grietas, y salen de noche en busca de alimento. Son carnívoros, muy activos cuando cazan, y muy voraces.
Las especies del género Planigale despertaron el interés de los biólogos, porque pensaron que para poder vivir en esos desiertos habían de tener alguna característica especial. Pero al investigar su biología se llevaron una sorpresa con lo que encontraron o, mejor dicho, con lo que no encontraron, pues no hallaron ningún rasgo fisiológico que pudiera considerarse excepcional. La clave de su supervivencia en entornos tan secos se encuentra, al parecer, en el “letargo diario”. Se le da ese nombre a un estado caracterizado por una caída de la temperatura corporal por debajo de los 32 ºC, de duración inferior a las 24 h.
Dados su minúsculo tamaño y el hecho de que puedan desarrollar una actividad muy intensa, sus requerimientos energéticos son muy altos. Además, en las zonas que habitan hay muy poca fauna, por lo que no disponen de muchas presas a las que dar caza para comer. Por otro lado, pueden perder mucha agua a través de las vías respiratorias, y aunque pueda resultar paradójico, pierden más agua cuando baja la temperatura ambiental. Eso ocurre porque al bajar la temperatura exterior elevan su metabolismo, de manera que, gracias al calor que se genera así, contrarrestan la mayor pérdida térmica que ocurre a temperaturas bajas. Pero para elevar el metabolismo han de consumir más oxígeno y eso exige que aumente la frecuencia respiratoria. Como el agua se pierde por evaporación desde las paredes de las vías respiratorias, al aumentar la ventilación pulmonar para obtener más oxígeno, también se renueva más rápidamente el aire en contacto con los epitelios y ese aire arrastra más vapor de agua, lo que hace que el agua que recubre esos epitelios se evapore con más facilidad.
Por todo ello, mantener un alto grado de actividad de forma permanente resulta muy costoso, tanto en lo relativo al balance energético, como al balance hídrico. Sobreviven bajo esas condiciones gracias a una batería de tres elementos, dos de índole fisiológica y etológico el tercero.
Por un lado, no mantienen del todo constante la temperatura corporal cuando varía la temperatura ambiental. Por ejemplo, si la ambiental llega a valores tan bajos como 10 ºC, la corporal se reduce a 32’4 ºC, aunque, de no mediar ajuste especial alguno, se habría mantenido en 34’4 ºC, que es la temperatura normal de estos animales. De ese modo reducen el gasto energético en un 9% y, además, ahorran agua.
Por otro lado, recurren al letargo diario. Gracias a esa modalidad de letargo metabólico, ahorran mucha agua y mucha energía. Por poner un ejemplo, para una temperatura ambiental de 20 ºC, el letargo diario les permite reducir la tasa metabólica en un 79%, y la pérdida de agua en un 62%.
Por último, su comportamiento también resulta clave: buscan microclimas adecuados y, al igual que hacen los animales ectotermos, se ponen al sol cuando tienen ocasión. Al calentarse de ese modo evitan gastar la energía que requeriría la generación endógena de calor.
En resumen, estos pequeños mamíferos han desarrollado mecanismos específicos gracias a los cuales sobreviven y medran en entornos en los que escasea el agua y el alimento. Este es un caso especial, porque las condiciones ambientales son muy exigentes. El que sean marsupiales facilita las cosas; seguramente ayuda el tener una temperatura corporal inferior a la de los mamíferos placentarios, pero, sobre todo, el elemento clave que facilita la supervivencia de los planígalos en condiciones ambientales tan extremas es el letargo diario. Sin ese ahorro de agua y energía, no podrían hacer frente con éxito a condiciones tan severas.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El letargo diario de los planigalos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El letargo del ratón
- Economía del agua en animales terrestres
- Relaciones hídricas y salinas de los animales
Ultrasonidos para mirar al interior del encéfalo
Se pueden anticipar los movimientos de las extremidades y la dirección de la mirada de un macaco mediante una técnica relativamente nueva que permite “visualizar” con alta precisión espacial y temporal la actividad neuronal de diferentes zonas de su encéfalo. De esto se deriva que puede utilizarse la actividad cerebral, registrada mediante esa técnica, para dar instrucciones a artefactos robóticos o máquinas en general, de manera que hagan cosas que el sujeto en cuestión no podría hacer por sí mismo. Piensen, por ejemplo, en una persona que, por sufrir una minusvalía, no puede mover sus brazos o que, simplemente, carece de ellos. El método utilizado es una técnica de neuroimagen denominada “ultrasónica funcional” (o fUS, del inglés functional UltraSound imaging).
Esta no es la primera ocasión en que se convierten instrucciones mentales, a través de una interface, en actos o movimientos de una máquina. Ya se había conseguido que un brazo robótico lleve una copa a la boca de una persona parapléjica en cuyo cerebro se habían implantado electrodos. La novedad no consiste en la capacidad para dictar órdenes desde la mente sin que intervengan las extremidades del sujeto, sino en la técnica utilizada.
Hasta ahora se han utilizado varios métodos directos para registrar la actividad neuronal en el encéfalo. La electroencefalografía (EEG) es la más antigua; detecta cambios de potencial eléctrico en el cerebro a través de electrodos colocados sobre el cráneo. No es invasiva pero tiene baja resolución espacial. Una variante de la anterior es la electrocorticografía (ECoG), que proporciona acceso directo a las señales eléctricas de las neuronas; tiene alta resolución temporal y espacial. El problema es que exige cirugía y entraña riesgos porque hay que implantar electrodos, daña los tejidos en que se insertan y el material de que están formados se acaba deteriorando con el tiempo.
También hay métodos indirectos. La resonancia magnética funcional (FMRi) es la alternativa no invasiva más utilizada en los últimos años para “visualizar” la actividad neuronal. Mide la variación local en el nivel relativo de hemoglobina combinada con oxígeno, porque ese nivel refleja el flujo sanguíneo en la zona, que depende, a su vez, del metabolismo de las neuronas. La tomografía por emisión de positrones (PET) tampoco es invasiva; se vale del uso de radioisótopos para detectar niveles de actividad metabólica mediante indicadores metabólicos o de flujo sanguíneo. El problema de estas técnicas, sobre todo de la segunda, es que no ofrecen gran resolución espacial ni temporal y los dispositivos son grandes equipos que no se pueden trasladar con facilidad; y menos aún pueden llevarse puestos.
La neuroimagen ultrasónica funcional se basa en la utilización de ultrasonidos para detectar cambios en el flujo sanguíneo que, como ya he señalado, informa del nivel de actividad metabólica de las neuronas a las que se dirige. Es superior a las anteriores en resolución temporal y de resolución espacial intermedia entre las de la EEG y la ECoG (similar a la FMRi). Además, se puede utilizar mediante dispositivos portátiles. La desventaja es que su uso requiere la retirada de un pequeño fragmento del cráneo, una especie de “ventana” al interior del encéfalo, aunque, a diferencia de los electrodos de la ECoG, el detector no penetra en el tejido nervioso ni atraviesa las membranas de tejido conjuntivo que lo protegen.
Las técnicas de neuroimagen ultrasónica son un ejemplo magnífico de una de las tecnologías actuales más prometedoras, tanto para dotar a personas discapacitadas de herramientas que les proporcionen autonomía funcional, como para, mirando a su interior, desentrañar los misterios del funcionamiento del encéfalo, la máquina de la mente.
Fuente: Norman et al (2021): Single-trial decoding of movement intentions using functional ultrasound neuroimaging. Neuron 109:1-13.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Ultrasonidos para mirar al interior del encéfalo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El gran encéfalo humano es un “encéfalo social”
- El encéfalo humano
- Tamaño del encéfalo e inteligencia
Ginés Morata – P4K 2019: La Biología del siglo XXI, la manipulación de la información genética y el futuro de la sociedad humana

Las nuevas herramientas genéticas abren el camino para combatir enfermedades hasta ahora intratables, aumentar la longevidad humana o quizás incluso, para que especies humanas extintas vuelvan a la vida. Arrancando con una introducción histórica Ginés Morata nos pasea por todas estas posibilidades y lo que implican para la sociedad humana.
Ginés Morata se licenció en Ciencias Biológicas por la Universidad Complutense de Madrid donde obtuvo su doctorado en 1973. Actualmente es Profesor de Investigación del Centro de Biología Molecular Severo Ochoa del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad Autónoma de Madrid (UAM), centro que dirigió en el periodo 1990-1991. El Prof. Morata es especialista en genética del desarrollo, concretamente en el estudio de la arquitectura biológica de la mosca Drosophila melanogaster. Ha recibido numerosos galardones, entre los que cabe destacar, el Premio Nacional de Investigación Santiago Ramón y Cajal de 2002, la Medalla de Oro de Andalucía en 2003, el Premio México de Ciencia y Tecnología de 2004 y el Premio Príncipe de Asturias de Investigación Científica y Técnica de 2007.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Ginés Morata – P4K 2019: La Biología del siglo XXI, la manipulación de la información genética y el futuro de la sociedad humana se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La biología del siglo XXI, por Ginés Morata
- Sydney Brenner entrevistado por Ginés Morata
- «Las tres grandes fronteras de la biología humana» por Francisco J. Ayala
A vueltas con el índice glucémico de los alimentos
Leixuri Aguirre, Helen Carr-Ugarte, Itziar Eseberri Barace y Maitane González-Arceo

En nuestra dieta, el 50-60% de la energía debe ser aportado por los hidratos de carbono. Es decir, se recomienda que estos sean los macronutrientes más abundantes de la dieta, por delante de los lípidos y las proteínas.
Concretamente, el reparto se debería dar de la siguiente manera:
- Como máximo, un 10% de la energía en forma de hidratos de carbono simples o azúcares
- 40-50% de la energía en forma de hidratos de carbono complejos.
Los hidratos de carbono complejos los encontramos en cereales, pasta, pan, tubérculos, frutos secos y legumbres, mientras que los hidratos de carbono simples se encuentran en las frutas y verduras y en todo el azúcar añadido presente en los alimentos.
Más azúcar del que imaginamos
A la hora de intentar cumplir con las recomendaciones, el problema es que, por regla general, no somos conscientes de la cantidad de azúcar añadido que hay en los alimentos ultraprocesados. Además del azúcar que nosotros mismos añadimos a los alimentos que consumimos, debemos tener en cuenta el alto contenido de azúcar que podemos encontrar en productos como natillas (20 g por unidad), galletas tipo maría (1,5 g por galleta), cacao en polvo procesado (19 g por taza) o refrescos (35 g por lata), por mencionar algunos. De hecho, estudios recientes indican que consumimos hasta tres veces más azúcar que la recomendación actual de 25 gramos diarios, que no es poco.
Si se recomienda reducir el consumo de azúcar añadido (ojo, no el que aparece de forma natural en frutas o verduras), no es por capricho. Esto se debe a que es una forma eficaz de prevenir algunos problemas de salud como las caries, la obesidad, la diabetes tipo II y el hígado graso.
Un término que en los últimos años se ha puesto de moda es el índice glucémico (IG). Se trata de un indicador que clasifica a los alimentos en función del poder que tienen para aumentar la glucemia (glucosa en sangre), valorando el nivel de ese aumento y la velocidad a la que lo hace. Las personas con diabetes y los deportistas lo suelen tener más que controlado. Pero, ¿y el resto de los mortales?
Vayamos por partes. Lo primero es entender cómo se calcula. A una persona en ayunas se le dan 50 gramos del alimento y se mide su glucemia a diferentes tiempos. El área bajo la curva (AUC, siglas del término anglosajón area under the curve) de la gráfica resultante se compara con la que se crea tras la ingesta de 50 gramos de glucosa (Figura 1). Multiplicando ese valor por 100, se obtiene un valor más fácil de interpretar, ya que va de 0 a 100. A este último valor es al que se denomina IG.

¿Debemos evitar todos los alimentos con índice glucémico alto?
Pero entonces, ¿debemos evitar todos los alimentos de IG alto? Ni mucho menos. Lo primero que hay que tener en cuenta es que el hecho de que un alimento tenga un IG alto no significa que tenga un efecto perjudicial para nuestra salud. Lo veremos más adelante con ejemplos.
Además del IG, la cantidad de hidratos de carbono presente en la ración del alimento es fundamental. Por eso, para tener una visión más realista, surgió el concepto de carga glucémica (CG), valor resultante de multiplicar el IG por la cantidad de hidratos de carbono de la ración del alimento y dividido entre 100 (Figura 2).
Este concepto es importante, ya que aunque un alimento tenga un IG alto, puede que el pico de glucemia no sea en realidad tan pronunciado. Un ejemplo es lo que ocurre con algunas frutas: pese a que la sandía sea un alimento con IG alto, su contenido en hidratos de carbono es bajo (5 gramos por cada 100 gramos de sandía), lo que hace que, a fin de cuentas, su CG sea baja. En otras palabras, la sandía es un alimento totalmente saludable y recomendable aunque su IG sea alto.

Figura 2 Fórmulas y rangos para el cálculo del índice glucémico y la carga glucémica. AUC: área bajo la curva; HdeC: hidratos de carbono.
En general, todas las personas deberíamos cuidar la CG de los alimentos que ingerimos. Si consumimos alimentos con CG baja, mantendremos los niveles de glucosa estables durante más tiempo. Por lo tanto, la sensación de hambre tardará más en volver. Por el contrario, si consumimos un alimento con una CG alta, la glucemia se dispara. El exceso de glucosa en sangre repentino hace que el metabolismo de los lípidos de active. Por lo tanto, acumulamos grasa.
Diabéticos, deportistas y carga glucémica
Si a todos nos incumben el IG y la CG, hay dos colectivos para los que son fundamentales. Por un lado, las personas con diabetes tipo I o insulinodependientes; los diabéticos tienen que controlar que su glucemia no aumente mucho, ya que no producen insulina y tienen que dosificársela ellos mismos. Por lo tanto, les interesa consumir alimentos que tengan un IG bajo.
Por otro lado, estos cálculos resultan muy valiosos para los deportistas. Antes de hacer deporte, les interesa consumir alimentos ricos en hidratos de carbono y con IG bajo. De esta manera, la glucemia no aumenta rápidamente, y se mantiene la disponibilidad de glucosa durante más tiempo.
Esto permite que puedan seguir realizando ejercicios de alta intensidad de manera más prolongada, antes de evitar una hipoglucemia (popularmente conocida como “pájara”).
Sin embargo, durante la práctica deportiva, los deportistas suelen consumir alimentos con IG alto para evitar hipoglucemias, al igual que lo hacen después del ejercicio para recuperar rápidamente las reservas de glucosa gastadas.
Como referencia, podemos decir que el IG varía según el tipo de hidrato de carbono que consumamos. En el caso de los hidratos de carbono simples o azúcares, el IG es mayor, ya que son moléculas que se digieren rápidamente o se pueden absorber directamente. En el caso de los hidratos de carbono complejos, el IG es menor por que necesitan ser digeridos antes de ser absorbidos. Esto hace que la absorción sea más escalonada y, por tanto, se produzca un aumento de la glucemia menor.
Los azúcares, mejor con fibra
Cuando en nuestra comida, aparte de hidratos de carbono también hay grasas y proteínas, el vaciamiento gástrico es más lento. Por lo tanto, se dará una digestión más lenta que resultará en un IG menor.
Lo mismo ocurre cuando el contenido de fibra en la comida es alto. La fibra se encuentra en alimentos de origen vegetal y nuestro organismo no es capaz de digerirla. Al no digerirla, no la podemos absorber, además de ralentizar la digestión del resto de los nutrientes. Si digerimos más lentamente los hidratos de carbono, como se ha comentado previamente, los absorberemos de forma más lenta y el aumento de la glucemia será menor. Por ello, los alimentos con alto contenido en fibra, poseen IG más bajos.

Configuración de los hidratos de carbono
Los hidratos de carbono están formados por amilosa, que es lineal, y amilopectina, que es la parte ramificada y más irregular de los hidratos de carbono. La amilopectina se digiere más rápido que la amilosa. En el caso de los tubérculos (patata, boniato o zanahoria), el contenido en amilosa es bajo. Debido a ello, su IG aumenta.
Por el contrario, en el caso de las legumbres, el contenido en amilosa es mayor además de ser ricos en fibra. Por ello, son alimentos con un IG bajo.
Grado de maduración de las frutas
Según su grado de maduración, las frutas tienen un IG más alto o más bajo. Cuando la fruta está verde, el contenido de azúcares libres es menor (por eso sabe menos dulce), y su IG es también menor.
Cuando esa fruta va madurando se produce la hidrólisis (rotura) del almidón y se van liberando azucares, por lo que aumenta el IG. Evidentemente, el contenido de hidratos de carbono no varía, pero sí su disponibilidad y su IG.
De todas formas, no hay que olvidar que la CG de las frutas suele ser baja y, por lo tanto, el consumo de fruta, ya sea verde o madura, no supone un problema.
Eso sí, consumir un zumo de naranja o la naranja entera no es lo mismo. Cuando hacemos un zumo se rompen las células y se elimina parte de la fibra, haciendo que, aunque el contenido en azúcares no varíe, sí lo haga el IG.

Cocinar los alimentos modifica el indice glucémico
Cuando cocinamos los alimentos se produce una pequeña hidrólisis de los nutrientes que, en el caso de los hidratos de carbono, supone la liberación de algunas glucosas procedentes del almidón, haciendo que el IG varíe.
Unas zanahorias crudas tienen un IG de 30 (IG bajo), mientras que, una vez cocidas, el IG sube hasta 85 (IG alto). De nuevo, cabe recordar que además del IG hay que tener en consideración la CG, y que una zanahoria no es, ni mucho menos, un alimento cuyo contenido en hidratos de carbono o IG deba preocuparnos.
Otro ejemplo en el que nuestra manera de cocinar los alimentos modifica el IG es la duración del cocinado. Si cocemos la pasta lo que los italianos llaman “al dente”, el IG es de 40 (IG bajo), mientras que si la cocemos mucho sube hasta 55 (IG medio).
Si, una vez entendido que el concepto de IG es más complejo de lo que parece a simple vista, decidimos utilizarlo, conviene tener presente que no lo es todo. Es decir, también hay que tener en cuenta la cantidad de azúcares de los alimentos o la ración de alimento que consumimos. Además, en ningún caso hay que pensar que el punto de maduración de la fruta o el cocinado de los alimentos sea un factor determinante a tener en cuenta a la hora de configurar nuestra dieta.
Sobre las autoras: Leixuri Aguirre, Helen Carr-Ugarte, Itziar Eseberri Barace y Maitane González-Arceo son profesoras e investigadoras de la UPV/EHU
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo A vueltas con el índice glucémico de los alimentos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cómo conservar mejor los alimentos con una iluminación inteligente
- El azúcar oculto en los alimentos
- Resveratrol y pteroestilbeno en el control epigenético de la acumulación de grasa corporal
¿Puede el virus SARS-CoV-2 integrarse en nuestro genoma?
Guillermo Peris

El pasado mes de diciembre se publicó un artículo de investigación que dio lugar a una gran polémica por sus conclusiones. En él se afirmaba haber encontrado evidencias de que el SARS-CoV-2 es capaz de integrarse en el genoma humano de los afectados por COVID-19. Según sus autores, esto explicaría que algunos infectados por este virus den positivo meses después de haber pasado la enfermedad, ya que las células de estos individuos producirían fragmentos del virus que serían detectados por una RT-PCR. Este artículo fue compartido en biorXiv, una plataforma en la que se publican investigaciones antes de pasar por un proceso de revisión por pares previo a la publicación en una revista científica. Como era de esperar, el artículo dio alas a los grupos antivacunas que lo usaron para denunciar que esta integración también podría darse con vacunas de ARN mensajero.
A principios de mayo de 2021 el artículo fue publicado online en la revista PNAS (Proceedings of the National Academy of Sciences of the United States of America, factor de impacto 9.4 en 2019) por un procedimiento no menos polémico: los socios de la National Academy of Sciences pueden enviar hasta dos artículos al año como contributed authors, en los que ellos eligen previamente a los dos revisores que evaluarán su trabajo. En este caso, el autor principal Rudolf Jaenisch siguió este camino para publicar su estudio. Además, en esta versión final intentó responder a las críticas que tuvo el artículo original en bioRxiv (y que fue rechazado por otra revista). Sin querer entrar a valorar las posibles implicaciones de esta forma sesgadas de revisión por pares (para lo que te aconsejo leer este artículo de Francis Villatoro), en este artículo quiero analizar únicamente las evidencias presentadas por los investigadores con las que pretenden respaldar su hipótesis de que el SARS-CoV-2 podría integrarse en los genomas celulares de los infectados. Para ello intentaré describir de la forma más sencilla posible los experimentos realizados y si realmente de los resultados se pueden inferir las conclusiones de este estudio.
LINE-1, el presunto compinche de SARS-CoV-2
El virus SARS-CoV-2 pertenece a la familia de los coronavirus y almacena su material genético en forma de ARN de una sola hebra (monocatenario) en el interior de una membrana formada por distintas proteínas, entre ellas la conocida como espícula o proteína S en la que se basan las vacunas de Pfizer y Moderna.

Cuando el virus infecta una célula humana utiliza la maquinaria celular del citoplasma para fabricar las proteínas necesarias para generar nuevos virus, realizar copias de su ARN y ensamblar todas estas piezas en los nuevos viriones que escaparán de la célula para seguir infectando. Durante todo este proceso, ningún componente del virus accede al núcleo celular, que es precisamente donde se encuentra el genoma en forma de ADN, así que este virus lo tendría difícil para integrarse en nuestro genoma, al menos a priori.

Pero a esta dificultad inicial hay que añadir otra: si algún fragmento del virus se las ingeniara para llegar al núcleo, como su material genético es ARN y el nuestro ADN, tampoco podría integrarse en nuestro genoma sin transformarse previamente a ADN. Excepto si el virus fuera capaz de fabricar una enzima retrotranscriptasa que convirtiera el ARN en ADN (como hacen el VIH y otros retrovirus, que sí se integran en nuestro genoma); pero, por suerte para nosotros, no tiene ningún gen que codifique este tipo de enzimas. Y, por supuesto, el genoma humano no tiene genes para realizar transcripción inversa. ¿O sí?
Ya os he hablado en otras ocasiones de los elementos móviles del ADN humano (también conocidos como retrotransposones) y de su papel en el desarrollo tumoral. Estos elementos serían secuencias de ADN capaces de «saltar» de una posición a otra del genoma, proceso durante el cual se crea una nueva copia de la secuencia en otra posición del genoma a partir de un intermedio de ARN mensajero (ARNm).

Para dar este salto, estos elementos móviles necesitan dos cosas: por un lado, una retrotranscriptasa que transcriba su ARNm a una copia de ADN; por otro, una enzima que corte el ADN en el lugar de integración para insertarlo allí. Pero justamente uno de estos elementos móviles, el conocido como LINE-1, tiene en su secuencia un gen que realiza ambas dos funciones. Y en nuestro genoma tenemos unas 500 000 copias de LINE-1, de las cuales en torno a un centenar son activas. En resumen, nuestras células sí son capaces de fabricar la enzima retrotranscriptasa que necesita el SARS-CoV-2 para integrar su ARN en nuestro genoma.

Pero este virus no lo va a tener fácil: en la inmensa mayoría de células de nuestro cuerpo los elementos LINE-1 están reprimidos y apenas pueden expresarse, por lo que su capacidad de fabricar enzima retrotranscriptasa es enormemente baja. Sí hay otros tipos celulares en losl que hay una mayor expresión (células tumorales, embrionarias o neuronales) pero no son relevantes en la infección de COVID-19. Además, incluso en caso de expresión de LINE-1 y fabricación de retrotranscriptasa, este elemento móvil tiene «preferencia» por integrarse a él mismo en el genoma o a otros elementos móviles (como ALU o SVA).
Así que, a priori, la posibilidad de que el SARS-CoV-2 se integre en el genoma de una célula humana infectada usando la retrotranscriptasa de LINE-1 es tremendamente baja. Por eso sorprendió el estudio de Rudolf Jaenisch en el que decía tener evidencias de integración del virus en el genoma celular humano en pacientes de COVID-19.
Análisis de células humanas in vitro
En el estudio se empieza analizando la infección por SARS-CoV-2 de células humanas in vitro (en células HEK293T, derivadas de riñón de embrión humano). Previendo que la cantidad de retrotranscriptasa procedente de LINE-1 sería pequeña, los investigadores decidieron aumentar artificialmente la cantidad de LINE-1 antes de la infección con SARS-CoV-2. Tras la infección secuenciaron y analizaron el genoma encontrando que, efectivamente, algunos fragmentos del virus se habían integrado en el ADN humano. En concreto, detectaron el gen que codifica la proteína N, pero no el de la espícula, que es el usado en las vacunas de ARNm; posiblemente porque el gen de la proteína N se encuentra en un extremo del genoma del virus. Tras encontrar las secuencias de virus en la secuenciación del genoma se comprobó experimentalmente mediante PCR que efectivamente estas secuencias se encontraban en el ADN humano. Esta validación experimental es imprescindible como evidencia.

Así pues, en este experimento sí encontraron fragmentos del virus integrados en el genoma humano, pero fue con células in vitro en las que se había aumentado artificialmente la cantidad de LINE-1. Estos niveles de expresión de LINE-1 son mucho mayores que los que se encuentran en una célula normal de nuestro organismo (salvo casos concretos de células tumorales o embrionarias). Esta fue una de las críticas al artículo publicado en diciembre. Por ello, en la nueva versión del artículo publicada en PNAS analizaron si había inserciones del virus en el genoma de células HEK293T en las que no se había aumentado previamente la cantidad de LINE-1 y, pese a afirmar haberlas encontrado, no informan de que las hayan validado experimentalmente. En resumen, no presentan evidencias suficientes de que el SARS-CoV-2 se integre en el genoma humano sin un aumento previo y artificial de LINE-1. Y esto, obviamente, todavía en células in vitro.
Análisis de células humanas de pacientes infectados
Con tal de comprobar si eran capaces de encontrar si el virus se había integrado en el genoma celular de pacientes con COVID-19, el equipo de investigadores usó bases de datos publicadas con secuenciaciones de ARN de personas infectadas. Es importante destacar que no tuvieron acceso a células reales sino sólo a las secuenciaciones en bases de datos, por lo que no pudieron validar sus hallazgos experimentalmente.
En estas secuenciaciones de ARN buscaron quimeras virus-humano, es decir, fragmentos de ARN en el que una parte de la secuencia fuera humana y otra del SARS-CoV-2. ¿Por qué? Si el virus se hubiera integrado en el genoma humano, al transcribirse el ADN a ARN mensajero, se hallarían fragmentos de ARN con secuencias de ambas especies.

El porcentaje de fragmentos del virus que encontraron se hallaba por debajo del 0.14 %. Según los autores, esto es coherente con una integración del virus en el ADN humano y su transcripción posterior a ARN mensajero (que es lo que detecta la secuenciación de ARN). Y aquí está una de las grandes pegas del estudio, así que vamos a intentar explicarla con calma.
El proceso de secuenciación de ADN ha avanzado enormemente desde la publicación del primer borrador del Proyecto Genoma Humano, hace ya 20 años. Actualmente podemos secuenciar el genoma de una persona (es decir, leer las más de 3 000 millones de letras de su ADN), procesarlo y analizarlo en menos de 24 horas. Pero esta técnica se ha optimizado para la lectura del ADN, no de ARN, así que cuando analizamos el conjunto de secuencias de ARN celular (el denominado transcriptoma) debemos realizar primero la conversión de ARN a ADN (denominado ADN complementario, ADNc). Ya hemos hablado de esto unos párrafos atrás, cuando comentábamos que para poder integrarse el SARS-CoV-2 en nuestro genoma necesitaba primero convertir su material genético a ARN con enzimas retrotranscriptasas. Por ello, para la secuenciación de ARN un primer paso es añadir estas enzimas a la muestra a analizar.

Tal y como se muestra en la imagen anterior, de la secuenciación se obtiene la cadena de nucleótidos de cada uno de las secuencias obtenidas al fragmentar el ARN. Hay que tener en cuenta que en este proceso se analiza todo el ARN celular, así que si hay otro tipo distinto del humano (por ejemplo, procedente de una infección vírica como SARS-CoV-2) también lo encontraremos en nuestro análisis pero, al provenir de ARN inicial distinto (el punto de partida señalado en la figura anterior como (1)) deberíamos localizarlo en fragmentos diferentes: es decir, deberíamos encontrar fragmentos de ARN relacionado con genes humanos o virus, pero no esperar encontrar fragmentos de ARN con mezclas de ambos.
El problema radica que en la técnica de secuenciación de ARN, al transformar mediante enzimas todos los fragmentos de ARN a ADNc, puede ocurrir que se «peguen» fragmentos de ARN de distintas procedencias, así que las quimeras encontradas en el estudio de Jaenisch podrían no ser más que un artefacto de la preparación de las muestras. De hecho, un estudio recientemente publicado en BiorXiv por Yan et al. (y que todavía no se ha publicado en una publicación revisada por pares) estima que en la secuenciación del ARN de una muestra de células humanas de pacientes con COVID-19 se obtienen durante el procesado de las muestras hasta un 1 % de quimeras virus-humano derivadas del propio procedimiento experimental. Es decir, las quimeras que encuentran los autores (recordemos, un 0.14 %) puede que no sean más que errores de la preparación de muestras.

Tras recibir estas críticas en la versión inicial del artículo, los investigadores trataron de buscar en los datos alguna pista que reforzara su teoría de que las quimeras observadas no eran un artefacto del procedimiento experimental y provenían de una integración real del virus SARS-CoV-2 en el genoma humano. Y formularon la siguiente hipótesis: el ARN quimérico procedente de una integración en el ADN celular (que recordemos tiene dos hebras con la misma información pero en sentidos opuestos) daría lugar a quimeras también en ambos sentidos a partes iguales; mientras que si el ARN quimérico procedía de un artefacto experimental (obtenido del virus con una sola hebra en un sentido específico) las quimeras tendrían el ARN del virus en un solo sentido. Un análisis de las muestras de pacientes reveló que, como ellos esperaban, las secuencias de las quimeras tenían el ARN vírico como una mezcla de ambos sentidos.
El problema es que esta idea no es más que una hipótesis. Esta mezcla en distintos sentidos podría deberse a causas todavía no exploradas, por lo que no representa una evidencia suficiente de integración del virus en el genoma celular. Además, hay que recordar que este análisis de muestras de pacientes reales se hizo a partir de secuenciaciones obtenidas de bases de datos online, por lo que no se pudo validar experimentalmente ninguna de las inserciones detectadas.
En resumen, en el estudio de Jaenisch no se demuestra inequívocamente la presencia de integraciones del virus SARS-CoV-2 en el genoma humano, ya que los únicos casos de inserciones validadas experimentalmente se dan en células humanas in vitro en las que se ha sobreexpresado LINE-1 para aumentar la cantidad de enzima retrotranscriptasa. Es decir, reitero, no se ha encontrado experimentalmente que el virus se encuentre integrado en ningún genoma celular humano. Al menos por ahora. Porque se están mejorando las técnicas de secuenciación de ARN para evitar la aparición de quimeras; en el artículo de Yan et al. anteriormente citado ya se propone un método experimental que evita el enriquecimiento de quimeras durante la secuenciación de ARN.
Conclusión
¿Significa esto que es absolutamente imposible que el SARS-CoV-2 se integre en una célula infectada? No, ni mucho menos. El elemento LINE-1, muy de vez en cuando, integra en el genoma celular secuencias de ARNm de cualquier tipo que encuentre en el citoplasma. Y también muy muy muy de vez en cuando lo hace en células germinales, las que dan lugar a espermatozoides y óvulos, las que transmiten esa inserción a su descendencia. Justamente por eso, tenemos nuestro genoma plagado de pseudogenes, copias de fragmentos de genes en una posición distinta a su localización original. Y si pueden integrar muy muy muy de vez en cuando cualquier ARN mensajero, ¿por qué iba a ser distinto con el ARN del SARS-CoV-2? Este artículo polémico demuestra que, en las líneas celulares y sobreexpresando LINE-1, el mecanismo de integración es posible. Estoy convencido de que que se acabarán confirmando integraciones de SARS-CoV-2 tarde o temprano. Pero esa no es la pregunta que nos debemos hacer. Lo que nos interesa es si es relevante, si va afectar a muchas personas (con lo que, como apuntan los autores, podría dar positivos en PCR de personas sanas) o va a ser completamente irrelevante. En mi opinión, no creo que este fenómeno sea excesivamente relevante, pero mientras no se investigue no lo sabremos.
En cuanto al uso que hacen los negacionistas de este artículo, no hagamos caso y no les demos más voz. Así que cuando podáis, vacunaos.
Referencias
- Zhang L, Richards A, Khalil A, Wogram E, Ma H, Young RA, Jaenisch R. SARS-CoV-2 RNA reverse-transcribed and integrated into the human genome. bioRxiv [Preprint], 2020. doi: 10.1101/2020.12.12.422516.
- Zhang L, Richards A, Barrasa M, Hughes SH, Young RA, Jaenisch R. Reverse-transcribed SARS-CoV-2 RNA can integrate into the genome of cultured human cells and can be expressed in patient-derived tissues. Proceedings of the National Academy of Sciences, 118(21), 2021. doi: 10.1073/pnas.2105968118
- Yan B, Chakravorty S, Mirabelli C, Wang L, Trujillo-Ochoa JL, Chauss D, Kumar D, Lionaki MS, Olson MR, Wobus CE, Afzali B, Kazemian M. Host-virus chimeric events in SARS-CoV2 infected cells are infrequent and artifactual. bioRxiv 2021.02.17.431704; doi: 10.1101/2021.02.17.431704
- Cohen J. Further evidence supports controversial claim that SARS-CoV-2 genes can integrate with human DNA. Science, May, 6, 2021. doi: 10.1126/science.abj3287
Sobre el autor: Guillermo Peris es doctor en química cuántica, profesor del Departamento de Lenguajes y Sistemas Informáticos de la Universitat Jaume I e investigador de GENYO (Centro Pfizer – Universidad de Granada – Junta de Andalucía de Genómica e Investigación Oncológica).
El artículo ¿Puede el virus SARS-CoV-2 integrarse en nuestro genoma? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿En manos de quién ponemos nuestro genoma?
- Conseguir ver, y quizás ayudar a entender, al SARS-CoV-2 usando electrones y mucho frío
- Relación entre genoma y las formas graves de COVID-19
Calcular el área contando puntos
En más de una ocasión hemos hablado en esta sección del Cuaderno de Cultura Científica, Matemoción, de la belleza de algunos resultados matemáticos y de sus demostraciones. En esta entrada vamos a centrar nuestra atención en uno de esos hermosos resultados matemáticos, en concreto, perteneciente al área de la geometría, el teorema de Pick, que permite calcular el área de una cierta región sin más que contar una serie de puntos.
Imaginemos que queremos calcular el área de una región como la anterior. Un razonamiento rápido que podemos hacer es el siguiente. Contando los cuadrados de la retícula que están dentro de la región sabemos que su superficie va a ser mayor que el área de los 22 cuadrados interiores, es decir, mayor que 22 unidades cuadradas (si los cuadrados de la retícula son de un metro de lado, la región tendría más de 22 metros cuadrados), como se ve en la siguiente imagen.
Por otra parte, contando los cuadrados de la retícula que encierran a nuestra región sabemos que la superficie de la misma va a ser menor que 48 unidades cuadradas.
Pero, ¿cuál es el área exacta de esa región? Lo curioso de la respuesta a esta cuestión es que se puede calcular simplemente contando puntos. Miremos a la siguiente imagen. En ella hemos pintado los puntos que son vértices del retículo (las intersecciones de las líneas horizontales y verticales) que están en la frontera de nuestra región (los puntos verdes, B = 13) y los puntos que están en el interior de la misma (los puntos azules, I = 29).
El resultado del que vamos a hablar en esta entrada, el teorema de Pick, nos dice que el área de esa región es igual a
A = I + B/2 – 1 = 29 + 13/2 – 1 = 34,5 u.c.
Veamos, con un poco de geometría básica, es decir, utilizando simplemente que el área de un rectángulo es base por altura y que la de un triángulo es base por altura dividido entre dos, que es así. Como vemos en la siguiente imagen, en la que se ha descompuesto la región en rectángulos y triángulos, el área es efectivamente 34,5 unidades cuadradas.
Pero vayamos con el teorema de Pick. Este bello y curioso resultado geométrico se debe al matemático austriaco Georg Alexander Pick (1859-1942) –matemático judío que introdujo a Albert Einstein en la geometría del cálculo tensorial que este necesitaba para la teoría de la relatividad y que murió en el campo de concentración de Theresienstadt– quien lo publicó en 1899 en la revista Sitzungsberichte des deutschen naturwissenschaftlich-medicinischen Vereines für Böhmen «Lotos» in Prag. (Neue Folge) bajo el título Geometrisches zur Zahlenlehre (algo así como Resultados geométricos para la teoría de números). Aunque el resultado empezó a llamar la atención después de que fuese recogido en la edición de 1969, en inglés, del libro de divulgación matemática Mathematical Snapshots (publicado originalmente en polaco en 1938) del matemático polaco Hugo Steinhaus (1887-1972). Desde entonces se ha convertido en un resultado geométrico muy conocido, del que se han publicado diferentes demostraciones.

El teorema de Pick es sorprendente ya que nos permite calcular el área de una cierta región simplemente contando puntos, de la frontera y del interior, sin tener en cuenta otras cuestiones más directamente conectadas con la geometría de la región. El enunciado de este resultado es el siguiente.
Teorema de Pick: Sea P un polígono reticular y simple, entonces el área de la región encerrada por el polígono es igual a
A = I + B/2 – 1,
donde I son los puntos del retículo que están en el interior del polígono y B son los puntos del retículo que están en la frontera, es decir, en el polígono.
Antes de nada, vamos a explicar brevemente los conceptos que aparecen en este resultado. Un polígono reticular es un polígono trazado sobre una retícula, como en nuestro ejemplo, de forma que los vértices del polígono están sobre los vértices del retículo (como ya hemos comentado, los puntos intersección de las líneas horizontales y verticales de la retícula).
Por otra parte, un polígono reticular es simple si su frontera –los lados del polígono– no se intersecan entre sí. Para los polígonos reticulares no simples, como el del siguiente cuadrilátero de la imagen, no se verifica el resultado de Pick.
A continuación, veamos una idea de la demostración. El primer paso es observar que la fórmula del teorema de Pick, I + B/2 – 1, es aditiva, es decir, que si tenemos una región S cuya frontera es un polígono reticular simple y esta región es la unión de dos regiones más pequeñas –S es la unión de S1 y S2– cuyas fronteras son polinomios reticulares simples que verifican la fórmula de Pick, entonces también se verifica la fórmula para la región grande, unión de las regiones 1 y 2.
En la siguiente imagen tenemos un ejemplo de una región S que es unión de las regiones más pequeñas S1 y S2.
Además, hemos asumido que la fórmula del teorema de Pick se verifica para las regiones pequeñas S1 y S2,
A1 = I1 + B1/2 – 1,
A2 = I2 + B2/2 – 1,
veamos entonces que también se verifica para la región S, unión de las dos anteriores.
Para empezar, el conjunto de los puntos interiores de la región grande S está formado por los puntos interiores de las regiones pequeñas S1 y S2, más los puntos que están en la frontera poligonal común de las dos regiones S1 y S2, y que no están en la frontera poligonal de S (los puntos rojos de la imagen). Por lo tanto, la cantidad de puntos interiores de S es igual a
I = I1 + I2 + K,
donde K es la cantidad de esos puntos que están en la frontera poligonal común de las dos regiones S1 y S2, pero que no están en la frontera poligonal de S.
Respecto a los puntos que están en la frontera poligonal de la región S, son los puntos de la frontera poligonal de cada una de las dos S1 y S2, menos los K puntos que están en la frontera común. Aunque hay que tener cuidado de no contar dos veces los dos puntos que están en la frontera S1 y S2, pero también en la de S. Por lo tanto,
B = B1 – K + B2 – K – 2 = B1 + B2 – 2K – 2.
Ahora computemos la fórmula del teorema de Pick para la región S,
I + B/2 – 1 = (I1 + I2 + K) + (B1 + B2 – 2K – 2)/2 – 1,
que trivialmente es igual a
(I1 + B1/2 – 1) + (I2 + B2/2 – 1) = A1 + A2,
es decir, el área A de la región S.
El siguiente paso de la demostración para probar el teorema de Pick es que cada región cuya frontera es un polígono reticular simple se puede descomponer en triángulos (reticulares). Este resultado se puede probar por inducción sobre el número de vértices del polígono simple (considerando una diagonal interior del polígono).
Teniendo en cuenta los dos pasos anteriores, bastará probar que el teorema de Pick es verdadero para los triángulos reticulares, ya que si el resultado es cierto para los triángulos y todo polígono simple se puede dividir en triángulos, por la propiedad aditiva de la fórmula de Pick se concluye.
Veamos, por lo tanto, que la fórmula de Pick se cumple para los triángulos reticulares. Para empezar, consideremos un rectángulo, como el de la imagen, entonces la fórmula se cumple trivialmente. Si el rectángulo (reticular) tiene lados de longitudes a y b, entonces el número de puntos de la frontera es B = 4 + 2(a – 1) + 2(b – 1) = 2 (a + b) y el número de puntos del interior es I = (a – 1) x (b – 1) = ab – a – b + 1, luego
I + B/2 – 1 = ab,
el área A del rectángulo de lados a y b.
De aquí se va a deducir que también es verdad para triángulos rectángulos. Para lo cual se pueden considerar tres casos posibles: i) el cuadrado, ii) rectángulo con a y b son pares, y iii) rectángulo con al menos uno de los lados, a y b, impares. Por ejemplo, para este último caso, que es el que se corresponde con la siguiente imagen, se tiene que B = a + b + 1 e I = (ab – a – b + 1) / 2, para los que se comprueba que
I + B/2 – 1 = ab/2,
el área A del triángulo rectángulo de lados a y b.
Finalmente, habría que demostrar que la fórmula de Pick es válida para cualquier triángulo reticular. Para probarlo se empieza inscribiendo el triángulo en una zona rectangular, quedándonos una de las siguientes situaciones.
Ahora, que la fórmula de Pick se verifica para estos triángulos es una consecuencia de la propiedad aditiva de la fórmula y de que la misma se cumpla para los rectángulos y los triángulos rectángulos. Por ejemplo, para el primer caso, como la fórmula de Pick se cumple para el rectángulo en el que está inscrito nuestro triángulo, así como para los tres triángulos rectángulos de la imagen, entonces, por la propiedad aditiva de la fórmula de Pick, se tiene que cumplir también para la región que falta del rectángulo, que no es otra que la dada por nuestro triángulo inicial. Y de forma similar se actuaría para el segundo caso.
En consecuencia, ha quedado demostrado el teorema de Pick, puesto que toda región cuya frontera es un polígono reticular simple puede descomponerse en triángulos reticulares, para los cuales se cumple el teorema de Pick, deduciéndose el resultado para el polígono reticular inicial por la propiedad aditiva de la fórmula de Pick.

Existen varias demostraciones del teorema de Pick, algunas muy interesantes y hermosas, como las basadas en la fórmula de Euler o en el peso del polígono definido a través de los ángulos del mismo, pero de ellas ya hablaremos en otra ocasión.
Vamos a terminar esta entrada cuestionándonos si el resultado será cierto para el volumen de una región tridimensional similar, es decir, encerrada en un poliedro reticular. En 1957 el matemático británico John Reeve demostró, con el llamado tetraedro de Reeve, que no es posible un resultado análogo.
El tetratedro de Reeve es un tetraedro del espacio coordenado tridimensional cuyos vértices están en los puntos de coordenadas (0, 0, 0), (1, 0, 0), (0, 1, 0) y (0, 0, r), para r un número natural, como se muestra en la imagen (para r = 2, 3, 4).

El volumen de estos tetraedros es r/6, es decir, varía con los diferentes valores de r. Sin embargo, todos estos tetraedros no tienen puntos interiores y tienen siempre cuatro puntos en su frontera, el tetraedro. Por lo tanto, no es posible un teorema de Pick ya que la cantidad de puntos interiores y frontera de esta familia de tetraedros reticulares no varía, pero sí el volumen de los mismos.
Bibliografía
1.- Martin Aigner, Günter M. Ziegler, El libro de las demostraciones, Nivola, 2005.
2.- Keith Ball, Strange Curves, Counting Rabbits and other Mathematical Explorations, Princeton University Press, 2003.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Calcular el área contando puntos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El triángulo de Pascal para calcular tangentes
- Área = perímetro
- Paradojas: contando peces, pesando patatas y… detectando agujeros
Actúa localmente: electrónica de papel

La digitalización del mundo parece a estas alturas un hecho irreversible. Internet es ya accesible desde casi cualquier rincón del planeta y, donde no lo es, pronto será posible con proyectos como Starlink. Teléfonos móviles, tabletas, ordenadores y lo que se ha dado en llamar wearables, esto es, cosas que vestimos, como relojes o gafas inteligentes, cada vez serán más omnipresentes. La internet de las cosas será la guinda.
Un mundo hiperconectado, sí, pero también de recursos limitados.
Todos estos dispositivos se basan en el uso de materiales no renovables, algunos son reciclables es verdad, como la mayoría de los metales, pero eso es algo complicado y lo que es complicado es caro. Llegará un momento en que solo lo reciclado será económicamente viable, y eso ocurrirá cuando los recursos naturales se vuelvan tan difíciles de extraer que compense el proceso de reciclar.
Por tanto, la digitalización tal y como la conocemos implica a la larga un problema grave de materias primas. En estos días estamos viviendo en el mundo una situación similar con el suministro de chips, lo que conlleva que no se puedan fabricar coches suficientes para satisfacer la demanda, lo que dispara el mercado de los coches de segunda mano, lo que a su vez, dispara la inflación.
¿Será el futuro uno distópico en el que solo unos pocos privilegiados podrán permitirse el uso de los últimos dispositivos espintrónicos, de precio desorbitante, mientras el resto de la humanidad reutiliza componentes? No necesariamente. Los que ya tenemos una edad recordamos unos argumentos similares con el papel, hablo de justo antes de Internet. Periódicos y libros iban a acabar con los bosques del planeta. Pero no, sistemas inteligentes de gestión de los bosques industriales ha conseguido que hoy haya más superficie forestal en algunos países que hace tres décadas.
La gran diferencia con los materiales para la electrónica es que no pueden plantarse como los árboles, puede parecer un argumento definitivo. Pero, ¿y por qué no? Bastaría con que el soporte de la electrónica fuese papel y cartón. En vez de usar hilos de metal como conductores, el papel podría imprimirse con tintas conductoras. Parece de ciencia ficción, pero la solución es tan real como el problema global al que se enfrenta la humanidad.
El proyecto Innpaper, coordinado por Cidetec, se basa precisamente en esas características del papel que lo harían el soporte electrónico perfecto: barato, flexible, renovable y reciclable. Las fibras de celulosa del papel se pueden adaptar a casi cualquier propósito imaginable: conducir electricidad, repeler el agua, proteger de los campos magnéticos. El objetivo de Innpaper es desarrollar tintas y papeles funcionales con los que imprimir baterías, antenas, circuitos y hasta monitores; esto es, utilizar el papel no solo como sustrato sino también como componente activo en dispositivos electrónicos.
Los primeros usos de estos nuevos dispositivos podrían encontrarse en las industrias del envase y embalaje, la seguridad, la alimentación y la salud en forma de etiquetas inteligentes o dispositivos de detección de presencia de drogas, sustancias indeseadas, contaminaciones o enfermedades.
Como demostración de que la idea es viable, Innpaper pretende contruir tres dispositivos operativos concretos orientados a los sectores alimentario, de seguridad y médico. Los tres casos de uso integrarán diferentes sensores en la plataforma electrónica en papel, adaptada a los requisitos de la industria. Para el sector alimentario, etiquetas inteligentes para envasado de alimentos que incluyen sensores de humedad, temperatura y presión; para el de seguridad, un dispositivo para la detección de cafeína y drogas en bebidas y saliva; y, para el médico, un sistema para la detección de la presencia del virus de la gripe y de bacterias estreptococos.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Actúa localmente: electrónica de papel se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Actúa localmente: convertidores de potencia basados en carburo de silicio
- Actúa localmente: la espintrónica que viene
- Actúa localmente: simulaciones hiperrealistas
Viaje al corazón de la transición ecológica
María Larumbe / GUK

Desde la prehistoria, el hombre ha explotado la tierra para la fabricación de herramientas, armas y material de construcción extrayendo piedras, materiales cerámicos y metales. La minería es, de facto, una de las profesiones más antiguas del mundo y, pese a todos los avances tecnológicos, el ser humano sigue siendo muy dependiente de los minerales en su día a día.
De hecho, algunos de los elementos, como el litio, que se encuentran en minerales concretos, son la base de los teléfonos móviles, tablets y otros dispositivos electrónicos, así como de las baterías de coches eléctricos, imprescindibles para realizar la transición ecológica y minimizar la huella de carbono. Su extracción, que se hace principalmente a partir de dos tipos de depósitos: salmueras y pegmatitas, paradójicamente, no siempre es todo lo ecológica que cabría esperar: pudiendo impactar de forma negativa en la flora y fauna de los alrededores, contaminar el aire, las aguas superficiales y provocar daños en la superficie de la tierra.
En este contexto, desarrollar nuevas técnicas menos invasivas de exploración de metales que se utilizan en la tecnología verde se ha convertido en una prioridad. Este es uno de los principales objetivos de GREENPEG, un proyecto europeo que busca desarrollar tecnologías de exploración avanzada que se puedan utilizar en la búsqueda de pegmatitas. Se trata de rocas ígneas de composición granítica, principalmente constituidas por cuarzo, feldespato y mica, que pueden contener otros minerales enriquecidos en metales como litio, cesio o tantalio, con importantes aplicaciones en el desarrollo de dispositivos electrónicos o en el coche eléctrico.

Dentro de este proyecto participan varias empresas de exploración y minería y diferentes universidades de Europa. Entre ellas, el grupo de investigación que dirige la doctora Encarnación Roda-Robles, geóloga e investigadora principal de la Facultad de Ciencia y Tecnología de la UPV/EHU. Desde su grupo, VARISBLIP, se encargan de una parte muy destacada del proyecto, el diseño de las herramientas de exploración de las rocas pegmatíticas de tipo LCT (Litio-Cesio-Tantalio), que contienen estos minerales, para la explotación de material relacionado con las energías verdes. “Estas herramientas que vamos a diseñar queremos que sean fáciles y rápidas en el uso, económicas y poco invasivas para el medio ambiente”, explica la doctora Roda-Robles.

Otro de los objetivos de este proyecto es reducir la dependencia de Europa de otros países como China y Australia, pioneros en la explotación del litio, y favorecer la explotación de los recursos minerales que tiene Europa de una forma más sostenible, económica y menos invasiva. Para ello, el grupo de investigación está centrado en el estudio de las rocas pegmatíticas que, como indica la doctora, “pueden ser particularmente ricas en metales tecnológicos, aunque a menudo presentan pequeñas dimensiones y son difíciles de encontrar por medio de técnicas de exploración tradicionales”.
Pegmatitas, el “cerdo” de la tierra

Las pegmatitas son unas rocas muy interesantes ya que de ellas se extraen elementos poco abundantes en la corteza terrestre, y también piedras preciosas como pueden ser el aguamarina o la turmalina. Según explica la doctora y responsable del grupo de investigación, de estas rocas “se puede aprovechar todo, como del cerdo: desde la obtención de minerales industriales como el cuarzo y el feldespato o las micas, pasando por metales como el litio, tantalio o estaño, o incluso piedras preciosas para la industria joyera y para colecciones de minerales, tanto de museos o de particulares”.

Estas rocas tienen una gran importancia para realizar la transición ecológica. De las pegmatitas se pueden extraer metales como el litio, el cesio, o el tantalio, que son elementos indispensables en la fabricación de dispositivos de energía verde como, por ejemplo, dispositivos para el almacenamiento de energía, en células fotovoltaicas, para la fabricación de turbinas eólicas y condensadores o en los móviles, cámaras y tablets.
En este sentido, como explica la doctora Rodas-Robles, “Europa es muy dependiente del exterior para poder fabricar estas baterías de litio. Son ya conocidos algunos depósitos de litio de la Península Ibérica, y hay un buen número de indicios geológicos que señalan que este es un territorio muy rico en este elemento. Ahora tenemos que buscarlo”. Dentro del proyecto, desde el grupo de investigación están trabajando en Arribes del Duero (Salamanca), Almendra y Gonçalo (Portugal), Tres Arroyos (Badajoz) y en distintas localidades de Cáceres. Su objetivo es abordar la exploración de estas rocas a distintas escalas: desde la localización, el muestreo y el análisis de rocas. El proyecto se inició hace un año, en mayo de 2020, y se desarrollará durante cuatro años y medio.
Hacia una minería más ecológica
La investigación que está llevando a cabo el equipo de la doctora Rodas-Robles tiene dos partes principales. La primera es realizar un estudio litogeoquímico, es decir, investigar la huella que ha dejado la pegmatita dentro de la roca donde está encajada. En concreto, su trabajo consiste en el muestreo y análisis de rocas mineralizadas en litio de la Península Ibérica con el objetivo de determinar la extensión y cuantía de la huella química dejada por los diques pegmatíticos mineralizados en litio en las rocas que los albergan.
“Una vez obtengamos estos datos, los complementaremos con estudios de sedimentos de arroyos y suelos, ya que siempre que se produce una anomalía química en una roca, el aumento en la concentración de los elementos implicados se va a reflejar no solo en las rocas cercanas, sino también en los suelos que se forman a partir de esas rocas y en los depósitos de los ríos.”
Al no necesitar de la realización de sondeos ni excavaciones en roca, esta herramienta de exploración tendrá la ventaja de ser más rápida y económica, al mismo tiempo que menos invasiva, con un impacto mínimo en las zonas de estudio, que en el caso de la Península Ibérica se desarrollará a pequeña escala, en áreas con un radio limitado a 25 kilómetros.
Aunque la dependencia de los minerales siga siendo evidente, si el ser humano quiere mantener su estilo de vida y garantizar un futuro para las generaciones que están por llegar, es necesario pensar en verde. O al menos eso se deduce de la Agenda 2030 de la Organización de las Naciones Unidas para transformar el mundo durante esta década. O de iniciativas como GREENPEG que tratan de recuperar la competitividad del sector de la minería desde una perspectiva sostenible y con la mirada puesta en reducir las emisiones de CO2, apostando por el coche eléctrico en detrimento de los combustibles fósiles.

Encarnación Roda-Robles es geóloga e investigadora principal del grupo de investigación VARISBLIP de la Universidad del País Vasco UPV/EHU.
El artículo Viaje al corazón de la transición ecológica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La variedad de residuos madereros y la riqueza ecológica de los hayedos
- Un viaje al pasado a lomos del coltán
- Nivel formativo y transición demográfica
Obesidad y adicción a la comida: un problema emergente de salud pública
Gabriel Rubio Valladolid y Francisco López-Muñoz

La obesidad representa un importante problema de salud pública, no solamente por el número de personas afectadas, sino por las severas complicaciones médicas y los costes sanitarios que ocasiona. Se considera obesidad cuando una persona tiene tiene un índice de masa corporal (IMC) igual o superior a 30 kg/m². Un IMC igual o mayor de 40 kg/m² se considera obesidad extrema. El sobrepeso queda definido entre 25 y 29,9 kg/m².
Según la Organización Mundial de la Salud, desde la década de 1980 hasta la actualidad se ha duplicado la prevalencia mundial de la obesidad. En países como España, el 39,4 % de la población adulta tiene sobrepeso y el 22,9 %, obesidad. Si esta tendencia continúa en incremento, se estima que en 2030 la cantidad de personas con exceso de peso aumentará un 16 % más, lo que supondría un coste añadido de 3 100 millones de euros anuales, solo de costes médicos.
¿Qué es la adicción a la comida?
La adicción a la comida es una propuesta teórica con importantes apoyos experimentales y clínicos. Esta considera que algunos individuos pueden sufrir una respuesta similar al consumo de drogas cuando ingieren alimentos con alto contenido de grasa o carbohidratos refinados como el azúcar (Figura 1).
Una reciente revisión sistemática analizó 52 estudios sobre obesidad y adición a la comida publicados entre 1999 y 2017, tanto clínicos como realizados en animales de experimentación. Sus resultados pusieron de manifiesto que los criterios que estaban presentes en ambos trastornos eran:
- Preocupación por la comida.
- Comer en exceso a pesar de los riesgos para la salud.
- Perder el control sobre la ingesta.
- Malestar cuando se hace régimen de adelgazamiento.
- Deterioro de la vida social debido al sobrepeso.
- Cronicidad del trastorno.
- Tendencia a las recaídas.
Esta teoría sigue siendo controvertida, sobre todo porque las investigaciones que pretenden identificar el agente adictivo en los alimentos (por ejemplo, el azúcar añadido) están en sus fases iniciales.
Sin embargo, cada vez hay más apoyo a que la adicción a la comida podría relacionarse con un fenotipo presente en un subgrupo de personas con obesidad. Cuando se ha utilizado la escala de Yale para la adicción a la comida se ha constatado la presencia de este trastorno en pacientes que presentan atracones de comida, en quienes sufren frecuentes ciclos de adelgazamiento y engorde debido a las dietas, y en personas con obesidad.
Entre las personas con obesidad, la prevalencia de la adicción oscila entre el 15 y el 25 % y se considera el factor causal del desarrollo del sobrepeso. En un reciente trabajo realizado en población general norteamericana se ha confirmado que, de los 986 individuos representativos de ese país, el 15 % cumplía criterios de la adicción y se asociaba a la presencia de obesidad, edad joven, mujeres con elevado índice de masa corporal y a menores ingresos económicos.

Modelo de adicción a la comida
Como se observa en la Figura 1, la comida, y de forma más clara la comida rica en hidratos de carbono o grasas agradables al paladar (como los que aparecen en el lado izquierdo de la figura), interaccionan con el organismo a través de tres sistemas.
Por un lado, la ingesta provoca la liberación de hormonas producidas en diferentes órganos, como el estómago o el páncreas, o el tejido adiposo. Estos mediadores interaccionan con el hipotálamo para modular la sensación de hambre o de saciedad.
Por otro lado, también estimulan el sistema hedónico implicado en la recompensa cerebral, a través de la dopamina, como ocurre con sustancias como el alcohol o la cocaína.
La historia de aprendizaje previo que cada sujeto haya realizado con la ingesta de diferentes alimentos, en circunstancias y estados emocionales diversos, facilita el aprendizaje por condicionamiento. De esta manera el sujeto vuelve a querer ingerir dichos alimentos cuanto se repiten esos contextos.
La interacción con esos sistemas pone en marcha los mismos tres estadios que ocurren en la adicción a drogas. Inicialmente, la persona asocia determinados alimentos con una sensación placentera inducida por la dopamina en el circuito de la recompensa.
Posteriormente, el sujeto percibe que echa de menos la ingesta de esos alimentos, y con el tiempo experimenta el deseo o ansia por los mismos. De esa forma, y con mayor frecuencia, cuando atraviesa estados emocionales negativos (aburrimiento, ira o ansiedad) o está expuesto a esos alimentos, siente una importante ansia. Esto provoca la compulsión por ingerirlos.
Los estudios de imágenes cerebrales indican que los circuitos alterados en personas con obesidad son los mismos que se encuentran alterados en personas con adicción a drogas de abuso y pone en evidencia un desequilibrio entre los que motivan las conductas (por su implicación en la recompensa y el condicionamiento) y los que controlan e inhiben las respuestas de alimentación.

El modelo de la Figura 2 muestra estos 4 circuitos: (i) recompensa-saliencia; (ii) motivación-impulso; (iii) aprendizaje-memoria; y (iv) circuito de control inhibitorio.
En los individuos vulnerables, el consumo de alimentos apetecibles, en grandes cantidades, puede alterar el equilibrio normal entre estos circuitos. Esto da lugar a un mayor valor hedónico de los alimentos y a un debilitamiento del control inhibitorio. La exposición prolongada a dietas hipercalóricas también puede alterar directamente el aprendizaje condicionado y, por tanto, reajustar los umbrales de recompensa en esas personas. Los cambios en las redes corticales descendentes que regulan las respuestas prepotentes conducen a la impulsividad y a la ingesta compulsiva de alimentos.
¿Qué importancia tiene esto en el tratamiento de la obesidad?
El hecho de desconocer que al menos un subgrupo de personas con obesidad pueda tener adicción a la comida tiene graves repercusiones para la planificación del programa de tratamiento.
En primer lugar, en ellos el adecuado seguimiento del tratamiento dietético no es un problema de voluntad. Las dificultades de estas personas para resistir el valor motivacional de la comida constituyen una barrera que los profesionales deben conocer para evitar la injusta culpabilización y el consiguiente estigma de las personas con obesidad. Muchos de ellos lo expresan con frases como: “No como para disfrutar, sino para evitar encontrarme mal”.
Una idea muy extendida es que todas las personas deben perder peso si ingieren menos calorías de las que gastan. Este planteamiento lineal no se sostiene en personas con obesidad y adicción a la comida, donde el estado de estrés crónico es la norma.
En esas condiciones, la activación del eje hipotálamo-hipófisis-adrenal provoca una elevación del cortisol y de los glucocorticoides, que favorece la producción de tejido adiposo visceral y la ingesta de alimentos. Además, decrece la producción de leptina y se incrementa la producción de grelina, aumentando las sensaciones de hambre.
Asimismo, se produce un aumento de la insulina y del neuropéptido Y, el cual incrementa la ingesta de alimentos, especialmente aquellos con alto contenido en azúcares y grasas. La sobreingesta de azúcares, en esas circunstancias, puede interrumpir las señales de saciedad, modificando los mecanismos fisiológicos homeostáticos que regulan la ingesta energética y llevan a los individuos a un aumento de la misma (comer hedónico).
Si el efecto de las dietas “yo-yo” (adelgazamiento y pronta recuperación del peso) es muy frecuente, más lo es todavía en personas con adicción a la comida, y de hecho estos altibajos suelen agravarla.
En los casos de personas que se someten a cirugía bariátrica, los equipos de tratamiento deberían adaptar el programa de tratamiento posterior y llevar a cabo intervenciones psicoterapéuticas orientadas a la adicción, así como tener en cuenta la tendencia de estas personas a desarrollar otras, como por ejemplo al alcohol.
Otro elemento a tener en cuenta es la elevada prevalencia de trastornos depresivos y de ansiedad entre los sujetos obesos. La creencia de que estas personas suelen estar contentas es otro error y el infradiagnóstico de estos trastornos la norma.
Finalmente, otro asunto relevante es el de la exclusión o no de los alimentos con elevada capacidad adictiva (chocolate, hamburguesas, bollería industrial). En bastantes dietas se permite que las personas puedan ingerir, al menos un día a la semana, los alimentos que deseen. Sin embargo, en las personas con adicción a la comida se debe tener un exquisito cuidado con este tipo de recomendaciones.
Como en otras conductas adictivas (alcohol, juego), la publicidad alienta al consumo de este tipo de comida (basura). En este sentido, la Administración debería incluir advertencias en el etiquetaje o informar sobre los riesgos de determinados alimentos sobre la salud.
Sobre los autores: Gabriel Rubio Valladolid es catedrático de psiquiatría en la Universidad Complutense de Madrid y Francisco López-Muñoz profesor titular de farmacología en la Universidad Camilo José Cela
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Obesidad y adicción a la comida: un problema emergente de salud pública se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Campañas de salud pública con efecto bumerán
- La obesidad infantil podría iniciarse antes de la concepción
- Obesidad y delgadez también se heredan
Iñaki Úcar – Naukas 19: Aprendiendo de las máquinas

La inteligencia artificial es la ciencia de conseguir que las máquinas hagan cosas que, si las hiciesen los humanos, requerirían de eso que llamamos inteligencia. En esta definición no se dice que las máquinas piensen, ni que las metáforas asociadas (algoritmo genético, red neuronal) tengan que ver con la realidad biológica, ni siquiera que tengan que aprender de los humanos. De hecho, aprender de las máquinas puede ser uno de los principales hitos del presente siglo.
Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute. Podeís leerle en Aprendiendo de las máquinas.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Iñaki Úcar – Naukas 19: Aprendiendo de las máquinas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Aprendiendo de las máquinas
- Las máquinas moleculares que han ganado un Nobel
- Máquinas inteligentes (II): Inteligencia artificial y robótica
El grafeno, un caballo de Troya contra los peces

El grafeno es un nanomaterial bidimensional compuesto por carbono, formado por una sola capa de átomos de carbono densamente empaquetados. Su elevada resistencia mecánica y sus importantes propiedades eléctricas y térmicas hacen que el grafeno sea muy apropiado para muchas aplicaciones nuevas en los campos de la electrónica, los sensores biológicos, químicos y magnéticos, los fotodetectores y el almacenamiento y la generación de energía. Debido a sus potenciales aplicaciones, se espera que la producción de grafeno aumente considerablemente en los próximos años, pero dada su escasa implantación en el mercado y las limitaciones para el análisis de sus efectos, en la actualidad todavía no se dispone de mucha información sobre las concentraciones de nanomateriales de grafeno en los ecosistemas.
Como consecuencia de las características superficiales del grafeno, una vez en el medio acuático, el grafeno podría actuar como portador de contaminantes orgánicos, como los hidrocarburos aromáticos policíclicos, para los organismos acuáticos. En este sentido, el grupo de investigación CBET (Biología Celular en Toxicología Ambiental) ha evaluado la capacidad del óxido de grafeno para adsorber hidrocarburos aromáticos policíclicos y la toxicidad del óxido de grafeno solo y en combinación con ciertos hidrocarburos aromáticos policíclicos en embriones y adultos de pez cebra. La investigación ha sido realizada en colaboración con la Universidad de Burdeos.
“Los resultados han puesto de manifiesto que el óxido de grafeno puede portar hidrocarburos aromáticos policíclicos al interior del pez cebra (mediante una especie de efecto de caballo de Troya) y producir efectos subletales. En las condiciones que empleamos, los efectos tóxicos no han sido enormes, no han muerto peces ni embriones, pero en algunos biomarcadores hemos detectado efectos que nos ponen sobre aviso”, ha señalado Amaia Orbea, doctora del grupo CBET de la UPV/EHU.
Por un lado, han detectado que en los embriones puede haber malformaciones a altas concentraciones, “lo que significa que en exposiciones más largas y en concentraciones más altas es posible que nazcan animales inviables”, explica Orbea. Por otro lado, en esta investigación han comprobado que “a largo plazo, en una exposición de tres semanas, la enzima acetilcolinesterasa, que frena los estímulos nerviosos, estaba inhibida en todos los peces tratados, por lo que a pesar de no utilizar concentraciones muy altas, hemos visto que al aumentar el tiempo de exposición empiezan a aparecer efectos neurotóxicos”, ha señalado la investigadora.
“Nosotros hemos utilizado unas concentraciones y unos plazos concretos, pero desconocemos la evolución que tendrán estas concentraciones a partir de ahora en la naturaleza y su posible influencia en relación con otros contaminantes. Los resultados nos han demostrado que las concentraciones que pueden existir en este momento en el medioambiente no son muy peligrosas, pero tenemos que tener cuidado: no sabemos qué efectos pueden tener estas concentraciones bajas en exposiciones más largas. Los resultados obtenidos están relacionados con las condiciones aplicadas en nuestros experimentos. Normalmente no encontramos grafeno solo en el medio ambiente; junto al grafeno hay muchos otros contaminantes que también afectan a los animales… Deberíamos considerarlos todos a la vez”, ha concluido.
Referencia:
Ignacio Martínez-Álvarez, Karyn Le Menach, Marie-Hélène Devier, Iranzu Barbarin, Radmila Tomovska, Miren P. Cajaraville, Hélène Budzinski, Amaia Orbea (2021) Uptake and effects of graphene oxide nanomaterials alone and in combination with polycyclic aromatic hydrocarbons in zebrafish Science of the Total Environment doi: 10.1016/j.scitotenv.2021.145669
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El grafeno, un caballo de Troya contra los peces se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Construcción de heteroestructuras de grafeno con precisión atómica
- Una fuente de radiación terahertz usando grafeno
- Un gigantesco efecto espín-órbita confina a los electrones del grafeno en islas de plomo
Kepler y la simetría de los copos de nieve

En enero de 1611, Johannes Kepler le hizo un regalo verdaderamente peculiar a su amigo y benefactor, Johannes Matthaeus Wacker von Wackenfels. Para celebrar el Año Nuevo le entregó una carta en la que explicaba por qué los copos de nieve tienen forma hexagonal.
Kepler, que en aquel momento ejercía como matemático imperial en la corte del emperador Rodolfo II, había empezado a reflexionar sobre este tema después de un paseo de invierno por Praga. Al observar los copos de nieve que caían sobre su abrigo, “todos con seis esquinas y radios emplumados”1, pensó que aquel era un motivo perfecto para escribir un ensayo con el que sorprender a su amigo:
“Algo más pequeño que cualquier gota, pero con un patrón subyacente. Aquí estaba el obsequio de Año Nuevo ideal para quien no necesita nada, justo lo que un matemático puede regalar […] puesto que procede del cielo y parece una estrella».
Hoy, la simetría de los copos de nieve nos resulta tan familiar, que sus seis puntas se han convertido en un icono del invierno, y de los festejos navideños que acompañan a esta época del año en nuestro hemisferio. Pero, por sorprendente que pueda parecer, Kepler fue el primer europeo en escribir sobre esta cuestión a comienzos del siglo XVII —en China, en cambio, varios siglos antes de nuestra era, T’ang Chin ya había propuesto una explicación de numerológica; argumentaba que “dado que el seis es el verdadero número del agua, cuando el agua se congela en flores, estas han de tener seis puntas”2.
El físico alemán intenta averiguar los motivos que subyacen a este número. «Debe haber una causa por la cual la nieve tiene la forma de una estrella de seis esquinas», escribió en su breve ensayo. “No puede ser casualidad. ¿Por qué siempre seis?”. Esta pregunta, tan sencilla en apariencia, aún tardaría varios siglos en encontrar una respuesta precisa. Pero la curiosidad de Kepler le lleva a intuir, hace cuatrocientos años, las bases de lo que hoy constituye la ciencia de la cristalografía.
Según describe en El copo de seis puntas, «la unidades naturales más pequeñas de un líquido como el agua» (eso que hoy entendemos como átomos o moléculas) se agrupan a escala infinitesimal de la manera más compacta posible. En un tono siempre poético y recreativo, Kepler imagina esas partículas como pequeñas esferas microscópicas y argumenta que el hexágono es, precisamente, la figura que optimiza su empaquetamiento. Aquí estaba en deuda con el matemático inglés Thomas Harriot, quien había resuelto este mismo problema geométrico en 1585. Lo había hecho a bordo de un navío. Como asesor científico de una expedición a las Américas, le encargaron encontrar la manera más compacta de apilar las balas de cañón en la cubierta de los buques, y la simetría hexagonal no tardó en aparecer.
Hoy sabemos que esta explicación peca un poco de simplista. Si bien es cierto que la materia está formada por partículas elementales, diminutas e idénticas entre sí, las moléculas de agua tienen una forma más compleja que la de una esfera, en realidad. A falta de este dato, Kepler no consigue entender por qué, al apilarse, acaban dando lugar a cristales planos, como los copos de nieve. Tampoco puede explicar la diversidad de otro tipo de cristales, cuyas formas no siempre son hexagonales. El mismo Kepler se da cuenta de esta limitación y termina su ensayo aclarando que aún queda investigación por delante:
“He llamado a las puertas de la química y veo cuánto queda por decir antes de que podamos comprender nuestra causa».
Pero incluso en esta claudicación aparente, Kepler termina estando en lo cierto. A fin de cuentas, la clave de esta hermosa simetría se encuentra en la química de las moléculas. Los átomos de oxígeno del agua ocupan un volumen mayor y tienden a empaquetarse en una red hexagonal, pero son los enlaces que forma el hidrógeno entre las moléculas los que facilitan que el crecimiento del cristal en seis direcciones de forma regular. Gracias a estas fuerzas invisibles, podemos admirar una pequeña escultura de agua que, como decía Kepler “procede del cielo y parece una estrella”.
Referencias:
1Kepler, Johannes. The Six-Cornered Snowflake. Oxford University Press, 1966.
2Schlichting, H. Joachim. “La belleza cristalina de los copos de nieve.” Investigación y Ciencia, 2017, pp. 88-89. Investigación y Ciencia, https://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/la-observacin-de-ondas-gravitacionales-695/la-belleza-cristalina-de-los-copos-de-nieve-14944.
Para saber más:
Copos de nieve, Frankenheim o el nuevo Euclides
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo Kepler y la simetría de los copos de nieve se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cristalografía (5): Copos de nieve, Frankenheim o el nuevo Euclides
- El microondas es seguro, lo que hace es calentar
- Presión y volumen de un gas
Con Maryam Mirzakhani como inspiración, hoy se celebra el «Día de las Mujeres Matemáticas»
Nos dijeron que no podíamos hacer matemáticas porque éramos mujeres. […] Hubo mucho desdén flagrante y manifiesto, pero también hubo un estímulo sutil. Había mucha gente que apreciaba los buenos estudiantes, hombres o mujeres, y yo era una muy buena estudiante. Me gustó hacer lo que se suponía que no debía hacer, fue una especie de rebelión legítima.
Karen Uhlenbeck (1942), Premio Abel 2019. Cita original en este enlace.
Hace dos años, el 12 de mayo de 2019, se celebró por primera vez el Día de las Mujeres Matemáticas, una iniciativa propuesta por el Comité de Mujeres y Matemáticas de la Sociedad Matemática Iraní durante el World Meeting for Women in Mathematics, un evento satélite del International Congress of Mathematicians 2018. La fecha se eligió en homenaje a la matemática iraní Maryam Mirzakhani (1977-2017), nacida un 12 de mayo, y única mujer en haber ganado una Medalla Fields.
En este día de celebración de las aportaciones de las mujeres matemáticas comparto una iniciativa creada por el equipo del Núcleo Milenio Modelos Estocásticos de Sistemas Complejos y Desordenados de la Universidad de Chile y la Pontificia Universidad Católica de Chile.
Se trata de una serie de cuatro cuentos ilustrados –de momento, aunque su idea es continuar con al menos uno más dedicado a Sophie Germain–, pensados para edades comprendidas entre los 6 y los 10 años, y centrados en las figuras de cuatro mujeres matemáticas.
Al final de cada cuento se añade un glosario que pretende aclarar los conceptos matemáticos y físicos que se citan en el texto, así como dar algunos datos sobre los científicos aludidos.
La extraordinaria Emmy Noether (2017)
Los dibujos son de la ilustradora Paloma Valdivia, y los textos de ella misma y del escritor y periodista Matías Celedón. El matemático Gregorio Moreno se ha encargado de revisar los contenidos científicos.
Además de las dificultades en su vida –fundamentalmente por ser mujer y judía en la Alemania de principios del siglo XX– el cuento repasa algunas de las aportaciones matemáticas de Emmy Noether (1882-1935).
El libro alude, por ejemplo, a su colaboración con los matemáticos David Hilbert y Felix Klein en problemas relacionados con la teoría de la relatividad de Albert Einstein. También se menciona que sus matemáticas, aunque abstractas, tuvieron repercusiones muy relevantes en física.
La ingeniosa Maryam Mirzakhani (2018)
Los dibujos son de la ilustradora Paloma Valdivia, los textos de ella misma y del escritor y periodista Matías Celedón, y el matemático Gregorio Moreno se ha ocupado de revisar los contenidos científicos.
La narración comienza cuando Maryam Mirzakhani (1977-2017) era una niña que leía con pasión y soñaba con ser escritora. Al principio no se le daban demasiado bien las matemáticas, pero gracias a una profesora que confío en ella y a su amiga Roya, se enamoró de esta materia.
El cuento alude a su trabajo en superficies hiperbólicas en los comienzos de su investigación, a su costumbre de ‘dibujar garabatos’ para centrarse en el problema en el que estaba pensando, y en los problemas de billares en los que también investigó. Por supuesto también se alude al galardón que recibió en 2014: la Medalla Fields, siendo Maryam la primera mujer en obtenerlo.
La incansable Olga Oleinik (2019)
Los dibujos son de las ilustradoras Magdalena Pérez y Paloma Valdivia y los textos de la profesora de literatura Mónica Bombal y el matemático Gregorio Moreno.
La narración comienza hablando de la situación de guerra en Ucrania, en el momento en el que nació Olga Arsenievna Oleinik (1925-2001). Cuando el ejército alemán invadió el lugar en el que vivía, la familia tuvo que huir para trasladarse a los Urales. También evacuaron a esa zona al Departamento de Física y Matemáticas de la Universidad Estatal de Moscú y así, de manera totalmente inesperada, Olga pudo estudiar con los más destacados científicos rusos.
En la época de la Guerra Fría, ya en Moscú, pudo completar su tesis doctoral sobre ecuaciones en derivadas parciales: su director fue Ivan Georgevic Petrovsky.
Escribió más de 350 artículos de investigación y tutorizó más de 50 tesis doctorales, además de colaborar con científicas y científicos de otros muchos países.
La rebelde Sofya Kovalevskaya (2020)
Los dibujos son de la ilustradora Magdalena Pérez y los textos de la profesora de literatura Mónica Bombal y el matemático Gregorio Moreno.
El texto comienza comentando el entorno familiar de Sofia Kovalevskaya (1850-1891) y las influencias que tuvo de sus antepasados a través de sus diferentes pasiones.
Un amigo de su padre descubrió sus enorme capacidad e intuición para las matemáticas, aunque en Rusia no tenía posibilidad de estudiar. Gracias a su matrimonio de conveniencia con Vladimir Kovalevski, Sofía pudo salir de su país. Se puso en contacto con Karl Weierstrass quien, tras ponerla a prueba y comprobar su brillantez, se convirtió en su mentor y la ayudó a conseguir un doctorado en Matemáticas en la Universidad de Gotinga.
Tras conseguir un contrato en la Universidad de Estocolmo gracias a la ayuda del matemático Gösta Mittag-Leffler –aunque tuvo que trabajar sin salario durante un año–, Sofía ganó el Premio Bordin de la Académie des sciencies de Francia por un trabajo sobre la rotación de sólidos alrededor de un punto fijo.
Bonus
Aunque la matemática iraní Maryam Mirzakhani inspiró la celebración del Día de las Mujeres Matemáticas, la enfermera y estadística Florence Nightingale (1820-1910) también nació tal día como hoy, hace 201 años.
Referencias
-
La extraordinaria Emmy Noether pueden leerse online en este enlace, o descargarse gratuitamente en formato pdf.
-
La ingeniosa Maryam Mirzakhani pueden leerse online en este enlace, o descargarse gratuitamente en formato pdf.
-
La incansable Olga Oleinik pueden leerse online en este enlace, o descargarse gratuitamente en formato pdf.
-
La rebelde Sofya Kovalevskaya puede leerse online en este enlace, o descargarse gratuitamente en formato pdf.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Con Maryam Mirzakhani como inspiración, hoy se celebra el «Día de las Mujeres Matemáticas» se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los experimentos de Alex Plota o cómo las matemáticas revelan los resultados de una reacción química
- El rostro humano de las matemáticas
- ¿Cómo mejorar la comunicación entre las matemáticas y las ciencias de la vida?
Actúa localmente: blockchain para la cadena de suministros

En un mundo cada vez más interconectado los datos, y la información que se extrae de ellos, son un recurso de un valor económico incalculable. Por otra parte esa misma interconexión permite que grupos de hackers delincuentes* puedan atacar remotamente instalaciones, ya sea para provocar el caos, ya sea para pedir rescates.
Una de las actuaciones que estos delincuentes pueden llevar a cabo es alterar la trazabilidad de las cosas. Por ejemplo, puede alterar todos los registros que indican que un determinado producto se fabricó en determinado lugar en determinada fecha por un agente concreto. La utilidad de esto se encuentra rápidamente si pensamos criminalmente: ese producto podría ser un pasaporte falso, un cargamento de explosivos o una partida de fármacos defectuosa. Igualmente los delincuentes pordrían alterar el destino de mercancías con solo alterar los datos asociados a ellas en los registros correspondientes.
Un caso especialmente preocupante de lo anterior, porque nos puede tocar a cualquiera en donde más duele, es alterar la cadena de custodia de nuestro dinero en nuestras cuentas corrientes o la propiedad de nuestros activos financieros, empezando por la suplantación de nuestra identidad. Existe todo un subgénero cinematográfico dedicado a este peligro.
La ciberseguridad se ocupa precisamente de proteger nuestra identidad en la red y garantizar que solo nosotros podamos acceder a lo que es nuestro. En este sentido un prodecimiento que sea capaz de asegurar que una cadena de transacciones es inalterable porque cualquier intento de alterarla queda inmediata y automáticamente al descubierto sería más que útil. Este prodecimiento y la tecnología asociada existe: blockchain. Sin duda asociamos este término con las criptomonedas en general y con el bitcoin en particular.
Iñaki Úcar explicaba así qué es el blockchain:
El blockchain surge en 2009 como solución a un problema clásico de sistemas de moneda virtual descentralizados: el problema del doble gasto. Las divisas tradicionales funcionan porque hay una entidad central que se encarga de su buen funcionamiento, y en la que el sistema económico y financiero deposita su confianza (e.g., el Banco Central Europeo). Con la adopción de Internet y los sistemas distribuidos, surge un interés en el desarrollo de divisas digitales que no dependan de un mediador de confianza, pero todos los planteamientos chocan frontalmente con el problema del doble gasto: que una misma moneda (en el sentido de “unidad básica” de la divisa) pueda ser falsificada y gastada más de una vez. En 2009 el creador del bitcoin (bajo el pseudónimo Satoshi Nakamoto) propone una solución basada en un triple enfoque: todas las transacciones se comparten públicamente; las transacciones válidas se determinan por un sistema de prueba de trabajo (proof of work); y se incentiva económicamente la contribución a este sistema (por los llamados mineros).
Estos tres pilares se integran en la tecnología blockchain, que no es más que la unión de dos técnicas bien conocidas y desarrolladas: los árboles Merkle y la criptografía (en forma de firma digital de clave pública y funciones hash). El árbol Merkle es una estructura de datos ideada y patentada en 1979 por Ralph Merkle, diseñada para concatenar información de forma que un nodo dado permite verificar de forma segura y eficiente toda la información que cuelga de él. Tiene muchas aplicaciones, como en el intercambio de archivos en redes P2P o en software de control de versiones como Git. Blockchain es básicamente una cadena de bloques (tipo Merkle, pero, en principio, sin ramificaciones) a la que se añade la firma digital para verificar los participantes en las transacciones.
La tecnología blockchain puede usarse como contenedor de cualquier tipo de datos encadenados, como los que corresponden a la trazabilidad segura de un producto. En Tecnalia están desarrollando Traceblock, que permite obtener una visión única del estado, no solo para una partida concreta, sino para toda la cadena de suministro. Ofrece una garantía de origen inalterable, donde cada actor de la cadena escribe/firma y responde sobre la veracidad de su información que es consistente con la concatenación de acciones en blockchain.
Nota:
* No todos los hackers son delincuentes.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Actúa localmente: blockchain para la cadena de suministros se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Actúa localmente: robots inteligentes autoadaptativos para la producción industrial
- Actúa localmente: la espintrónica que viene
- Actúa localmente: tranvías eléctricos sin catenaria
Por qué tu color de ojos no coincide con el de tus padres
Antonio José Caruz Arcos

A la pregunta “¿En qué te fijas para juzgar el atractivo de una persona?”, son muchos los que responden que el color de los ojos es determinante. El color azul causa furor más que ningún otro, quizás por ser mucho menos frecuente que el marrón. Aunque, para raro y exclusivo, el color de la cautivadora mirada de la actriz Liz Taylor, de un tono violeta propio de la ciencia ficción.
En nuestra vida cotidiana es frecuente preguntarnos por qué hijos de los mismos padres han heredado colores de ojos totalmente diferentes. ¿Acaso no sigue un patrón convencional de típica genética mendeliana? ¿Qué determina este carácter? ¿Por qué, por ejemplo, hay más del doble de mujeres con ojos verdes que hombres?
El largo camino del color
La mayoría de las poblaciones del mundo tienen ojos de diferentes tonos de marrón. Sin embargo, en gentes de origen europeo existe mayor diversidad. Además del marrón –el más común– hay otros colores prácticamente ausentes en poblaciones de otros continentes. Entre ellos azul, gris, verde o ámbar.
Semejante variedad no puede existir por capricho. Si la evolución ha favorecido que existan diferentes tonos de iris debe ser por algo. Sin embargo, lo cierto es que tanto la función fisiológica del color del iris como sus posibles ventajas biológicas son un misterio.
Con el color de la piel no hay tanto desconocimiento. Sabemos que este carácter está asociado con la intensidad de la radiación ultravioleta. Y que la evolución selecciona una piel más clara a medida que nos alejamos del Ecuador.
Se debe a que es necesario que exista un equilibrio entre la protección de la piel frente a la radiación ultravioleta y la producción de vitamina D que es estimulada por los rayos del sol. Una piel excesivamente pigmentada en latitudes muy al norte (o al sur) daría lugar a una deficiencia de esta vitamina y problemas de salud, especialmente en la formación de los huesos. Pero nada de esto parece guardar relación directa con el color de los ojos.
Lo que sí sabemos es que el color del iris depende de 3 parámetros fundamentales:
- El tipo de pigmento, eumelanina para el marrón oscuro-negro y feomelanina de color rojizo;
- la cantidad y distribución de melanosomas, es decir, de los pequeños sacos cargados de pigmento dentro de las células del epitelio;
- las variaciones en la estructura fina del iris, las encantadoras contracciones y los misteriosos nudos que podemos observar especialmente en personas de ojos claros.
¿Y qué hay de los genes? En 2007 se realizó el primer estudio de genoma completo en poblaciones europeas identificándose 10 genes implicados en este carácter. Este estudio fue posteriormente replicado y los genes confirmados por otro equipo de investigadores. Esto permitió desarrollar un sistema de predicción del color de los ojos en función de datos genéticos, el denominado Hirisplex.
Sin embargo, no era un sistema de predicción totalmente fiable. Funcionaba muy bien para discriminar entre ojos marrones y azules, pero para el resto de los colores era relativamente ineficiente.
¿Por qué? Pues porque se habían quedado cortos. Lo demuestra un estudio publicado este mismo año y basado en el mayor número de voluntarios reclutados hasta la fecha, casi 200 000. Los autores identificaron un total de 52 genes diferentes que influyen en el color de los ojos. ¡Más de medio centenar!
Parece claro que estamos ante un carácter biológico complejo donde los haya. Esto no se parece nada a la herencia de los grupos sanguíneos ni al color de las flores de los guisantes de Mendel que nos enseñaban en el instituto.
Genética de caracteres complejos
Es solo un ejemplo de lo que nos depara la llamada genética de caracteres complejos. Una de las grandes beneficiadas será la ciencia forense, dado que pronto podremos predecir a partir de una gota de sangre o de un trozo de hueso, no solo el color de la piel y los ojos, sino también otros caracteres morfológicos más complejos.
Sin ir más lejos, un estudio español reciente permitió conocer el aspecto de los cazadores del paleolítico. Eran negros de piel y con ojos azules, un fenotipo ausente en las poblaciones europeas actuales y absolutamente inesperado.
Sobre el autor: Antonio José Caruz Arcos es catedrático de genética de la Universidad de Jaén
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Por qué tu color de ojos no coincide con el de tus padres se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un alelo para las gafas de color de rosa
- Envejecemos mejor que nuestros padres
- El color y sus orígenes
Efectos colaterales de la Covid19

Las medidas de orden higiénico y social adoptadas por las autoridades de casi todo el mundo desde febrero de 2020 no solamente han conseguido limitar la expansión del SARS-CoV-2, que es lo que se buscaba, también han contenido la expansión de otros patógenos, como el de la gripe, o varios catarrales. Uno de estos es el virus respiratorio sincitial (VRS).
El VRS es responsable de muchos catarros invernales, pero en niños puede provocar afecciones más serias. La primera infección por este virus en los menores de un año puede producir infecciones graves de las vías aéreas inferiores; es responsable del 50% de las bronquiolitis y del 25% de las neumonías. Es muy contagioso; la probabilidad de que un niño de un año haya sido contagiado por ese virus es superior al 95%. Se estima que las infecciones por VRS provocan en España entre 15000 y 20000 visitas anuales a urgencias pediátricas y entre 7000 y 14000 hospitalizaciones. Entre 70 y 250 niños fallecen al año por su causa.
Hace un año, cuando en Australia se encontraban en mitad del otoño y los virus respiratorios deberían haber empezado a circular por la población, sobre todo la infantil, tan solo a un 1% de los niños y niñas ingresados en un hospital de Perth se les diagnosticó una infección por VRS. El verano siguiente, fueron un 70% de los hospitalizados los que dieron positivo en el correspondiente test. Las medidas para detener el avance de la Covid19 habían provocado un retraso de medio año en la expansión del VRS. En otras zonas de Australia se registraron fenómenos similares.
El hemisferio norte, como es lógico, no es ajeno al fenómeno. En Francia la epidemia de VRS empezó en febrero, 12 semanas más tarde de lo habitual. Y de acuerdo con simulaciones basadas en los casos de registrados en los Estados Unidos en 2020, en próximos años pueden producirse brotes importantes de VRS -los más intensos en el próximo invierno- como consecuencia de las medidas de aislamiento y distanciamiento entre la gente implantadas.
Muchos pediatras australianos y de otros países están preocupados. En Australia se han dado cuenta de que la mayoría de niños y niñas de menos de 18 meses de edad no ha estado en contacto nunca con el VRS, y otros muchos, mayores de esa edad, llevan 18 meses sin haberlo estado, y es posible que la inmunidad frente a ese virus se haya desvanecido. El problema es que no saben cómo reaccionará el sistema inmunitario de todos esos niños y niñas cuando se contagien con el virus.
Esa es la razón por la que en los servicios de salud del Reino Unido, por ejemplo, se han propuesto observar con atención la evolución de esa viriasis, por si tuvieran que tomar medidas especiales al respecto. El único tratamiento disponible, de carácter profiláctico –anticuerpos monoclonales– se utiliza para casos de alto riesgo, bebés prematuros o criaturas con problemas cardiacos, principalmente.
El VRS no es el único patógeno con el que entran en contacto los niños durante sus primeros meses y años de vida. Y lo apuntado para ese virus sería, en principio, aplicable a esos otros microorganismos. Por ello, los especialistas recomiendan que, ante la previsible reducción de la incidencia de Covid19 hasta niveles manejables por los servicios de salud, no se abandonen rápidamente todas las medidas en vigor para limitar los contagios, como las recomendaciones higiénicas, el uso de mascarilla o evitar aglomeraciones. Los contagios por VRS se producirían más lentamente y los servicios de salud dispondrían así de más tiempo y recursos para hacerle frente.
Fuentes:
Asociación Española de Pediatría: Virus Respiratorio Sincicial (VRS)
Rachel E. Baker et al (2020): The impact of COVID-19 nonpharmaceutical interventions on the future dynamics of endemic infections. PNAS 117 (48) 30547-30553.
Donna Lu (2021): Children´s immunity at risk. New Scientist 250 (3332): 8-9
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Efectos colaterales de la Covid19 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- #Naukas13 El anumerismo y sus efectos colaterales
- Sí con mis impuestos
- Lo que funciona, y lo que no, contra la Covid-19
Iván Rivera – Naukas Bilbao 2019: ¿Qué inventen ellos?

El mito del buen salvaje de Rousseau, absolutamente infundado, ha influido en el pensamiento contemporáneo hasta límites insospechados. Desde el «buenismo» (todo el mundo es bueno, son las circunstancias la que lo hacen malo, en la base de cosas como el concepto de prisión como centro de rehabilitación, o de la transferencia de la responsabilidad de actuar adecuadamente al individuo durante una pandemia) hasta la animadversión contra la tecnología, la industria y la civilización en general, fuentes de todo mal. Es posible que se reconozcan estas ideas sin refinar como parte consustancial de algunas formaciones políticas contemporáneas. Iván Rivera nos presenta algunas de las falacias relacionadas con la tecnología dentro de las ideas más influyentes de este personaje.
Iván Rivera es ingeniero de telecomunicaciones, director de innovación en una empresa de tecnologías ferroviarias y miembro del Comité Ejecutivo del Railway Innovation Hub.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Iván Rivera – Naukas Bilbao 2019: ¿Qué inventen ellos? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – Ricardo Oltra: Que inventen ellos
- Carlos Briones – Naukas Bilbao 2019: Luna
- José Miguel Viñas – Naukas Bilbao 2019: Meterorología cuántica
El impacto medioambiental del ciclo de vida del tren de alta velocidad en España

España cuenta con la segunda red de líneas de alta velocidad más larga del mundo, solo superada por China. En términos relativos, España es el líder mundial. Actualmente, cuatro corredores principales conectan Madrid con otras regiones periféricas: Madrid-Cataluña, Madrid-León (corredor norte), Madrid-Levante y Madrid-Andalucía. En 2016, en total, ya estaban en servicio 2.583 km de líneas, y actualmente varios tramos más están en construcción o proyectadas.
El tren de alta velocidad (TAV; AVE en su denominación comercial) se presenta habitualmente como un medio de transporte sostenible con un enorme potencial de reducción de las emisiones de gases de efecto invernadero y de consumo de energía. “La mayoría de los estudios realizados sobre este medio de transporte se han centrado en el análisis y la estimación del ahorro relacionado con la explotación de la red, pero ignoran las cargas asociadas a la construcción de la infraestructura”, explica Andoni Kortazar, investigador de la UPV/EHU. Ante eso, el grupo de investigación Ekopol de la UPV/EHU ha calculado el balance ambiental de todas las líneas de TAV en funcionamiento en España en 2016 con un enfoque del ciclo de vida completo, es decir, teniendo en cuenta las fases de construcción y mantenimiento, además de la fase operativa del tren.
“La metodología de ciclo de vida completo incluye todos los impactos que el tren va a producir a lo largo de toda su vida, desde las materias primas hasta el derribo de la red ferroviaria —afirma Kortazar—. Y para ello hemos realizado el inventario de toda la red: hemos hecho un repaso aéreo o por satélite de los cuatro corredores del AVE, metro a metro”.
El balance ambiental concluye que la variable de mayor incidencia es la demanda de transporte: “El AVE español tiene a nivel global 4,7 millones de pasajeros·kilómetro (o pasajeros equivalentes) al año; se trata de una densidad muy inferior al transporte utilizado en otros países (Francia tiene 25 millones; Alemania 11 millones; China 18 millones; Taiwán 30 millones y Japón (CJRC) 99 millones)”, señala. Así, “a pesar de que el balance ambiental de los corredores de Andalucía y Cataluña es relativamente modesto, la construcción de los corredores de Levante y del norte no está justificada en términos de ahorro energético y de reducción de emisiones debido a la baja demanda que tienen. Por tanto, la decisión de construir nuevos tramos de TAV debería basarse en un análisis de la demanda, y así solo se construyan corredores con alta demanda de transporte”, explica el investigador.
Por otro lado, en el estudio se ha determinado que “para compensar los impactos medioambientales en la construcción, el AVE debe operar durante 15 años”. La mejora en las emisiones que provoca la red ferroviaria durante un año “supone tan solo el 1 % de las emisiones totales de CO2 del transporte en España”, ha añadido. Según el investigador, es muy importante que el tren vaya siempre lleno, que transporte el mayor número de personas posible en cada viaje y que todos esos viajeros y viajeras sean retirados de las carreteras.
Los investigadores creen que el TAV no es la única y mejor solución actual para la transición ecológica en España. Asimismo, señalan que los responsables políticos deberían poner en marcha otras medidas relacionadas con el transporte que reduzcan mucho y rápidamente los impactos ambientales sin la carga que supone la construcción de nuevas infraestructuras. Por ejemplo, “para lograr la citada reducción de emisiones tan modesta, basta con aumentar el grado de ocupación de los vehículos privados que circulan por la carretera en la actualidad; por otro lado, la electrificación del transporte por carretera tendría beneficios desde un punto de vista ambiental, y más aún de cara a un futuro lejano, si se utiliza electricidad procedente de fuentes renovables”, concluye.
Referencia:
Andoni Kortazar, Gorka Bueno & David Hoyos (2021) Environmental balance of the high speed rail network in Spain: A Life Cycle Assessment approach Research in Transportation Economics doi: 10.1016/j.retrec.2021.101035
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El impacto medioambiental del ciclo de vida del tren de alta velocidad en España se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cómo regular la velocidad de disolución de los biometales de las prótesis
- La contribución global de los ríos intermitentes al ciclo del carbono
- Cómo garantizar la seguridad del suministro eléctrico en España sin nucleares ni carbón
Un niño recostado delicadamente, el primer enterramiento humano de África
María Martinón-Torres
Una de las características más idiosincráticas del ser humano es la relación que establece con los muertos. La paleontología y la arqueología documentan un amplio abanico de formas de interaccionar con los que han fallecido, pero no todas ellas denotan igual grado de simbolismo o intención.
Algunos de estos comportamientos tienen una finalidad más funcional, como apartar los cadáveres para no atraer a depredadores, desarticular el cuerpo para facilitar su transporte o aprovecharlo nutricionalmente, lo que también se conoce como canibalismo gastronómico.
Pero existen otros comportamientos que se apartan de la “utilidad”, gestos que involucran más recursos y tiempo de los que serían necesarios para simplemente disponer de un cuerpo inerte. La utilización de forma repetida de un lugar, una cavidad natural, por ejemplo, de difícil acceso, protegida, para depositar a los que fallecen, como es el caso del yacimiento de la Sima de los Huesos, en Atapuerca, trasluce una dedicación y un esfuerzo que se escapan de lo meramente práctico.
A partir de ahí, en la evolución de los homininos se despliega una variedad de actos que revelan una implicación cada vez más intensa hacia el fallecido. Con los enterramientos, la comunidad asume el esfuerzo de planificar, de excavar o crear deliberadamente un lugar para depositar el cuerpo en una posición y forma específica y premeditada, a veces acompañado de objetos u ornamentos y, después, sellarlo para protegerlo.
Kenia, Alemania, Burgos
El estudio de los huesos hallados en Panga ya Saidi (Kenia), un yacimiento excavado por el Instituto Max Planck para la Ciencia de la Historia Humana (Jena, Alemania) y los Museos Nacionales de Kenia (Nairobi, Kenia), nos ha permitido descubrir el enterramiento humano más antiguo que se conoce en toda África.

Créditos: MPI-SHH
Dada la extrema fragilidad de los restos, los arqueólogos decidieron rescatar los huesos dentro de un bloque de sedimento que, durante más de dos años, se excavó manual y virtualmente –con técnicas de imagen– en los laboratorios del CENIEH (Burgos).

Autores: Jorge González/Elena Santos.
Mediante el análisis de los fósiles y la tierra circundante hicimos la reconstrucción forense de lo sucedido hace 78 000 años. Un niño de apenas 3 años de edad era enterrado con delicadeza en una cavidad deliberadamente excavada para ello, envuelto en un sudario, en posición encogida, sobre su costado derecho y con una almohada bajo la cabeza. Se trata de una tumba, sí, pero el niño ha sido arropado y dispuesto como si estuviera en su lecho, dormido. ¿Para qué? ¿Por qué se hace todo esto si ya no sirve para nada? Precisamente por eso. Que no sirva para nada le da todo su valor.

Autor: Fernando Fueyo
En nuestra especie, defenderse de la muerte dejó de ser un acto reflejo y se convirtió en un acto reflexivo. Vivimos con una voluntad terca por domesticar la muerte, por combatirla, por prevenirla, por retrasarla. Y cuando sucede, cuando ya no hay vuelta atrás y la muerte deshabita el cuerpo de un ser amado, entonces, a Homo sapiens aún le queda el orgullo de no agachar la cabeza y decide seguir tratando a los muertos –aunque estén muertos– con la consideración con la que tratamos a los vivos: con delicadeza, con respeto, con compasión. Con esa parte de nuestra vida, la muerte no puede. Y la noción de esa pequeña victoria nos da algo de la paz que la muerte nos arrebata.
Sobre la autora: María Martinón-Torres es directora del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH)
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Un niño recostado delicadamente, el primer enterramiento humano de África se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Genuinamente humano
- Los fundamentos del altruismo humano
- La Sima de los Huesos sería el primer acto funerario conocido de la historia de la Humanidad