El océano en una caracola

Ilustración de Charles Kiener, Louis Charles (1835). Fuente Wikimedia Commons
“Me han traído una caracola.
Dentro le canta
un mar de mapa.
Mi corazón
se llena de agua
con pececillos
de sombra y plata.
Me han traído una caracola”.
Caracola, Canciones para niños de Federico García Lorca.
En el océano hay una caracola que contiene un océano entero.
Durante generaciones, la gente creyó que al presionar una concha marina contra su oído, lo que oía era el rugido del mar. Pocos relatos de la cultura popular resultan tan evocadores y, al mismo tiempo, tan erróneos. No existe ninguna relación entre el mar y ese sonido característico, más allá de la asociación mental entre la caracola y su lugar de origen que probablemente dio lugar a este relato popular. Sin embargo, como las mejores metáforas, esta nos puede servir de excusa para explicar una historia real.
El hecho es que vivimos rodeados de olas. Son olas de aire, eso sí, pequeñas variaciones en la densidad de ese fluido en el que inadvertidamente vivimos sumergidos. Normalmente resultan inaudibles, su constante presencia hace que las ignoremos. Pero cuando acercamos una caracola a nuestro oído, estas olas empiezan a rebotar contra sus paredes rígidas y algunas de sus frecuencias llegan a nuestro tímpano amplificadas. El cambio de color nos hace reparar en un sonido que hasta entonces había pasado desapercibido. La caracola nos revela la rugosidad de nuestro ambiente, los terremotos del mundo mosquito, el rugido de las polillas salvajes.
Cualquier cavidad resonante produce el mismo efecto, en realidad. Si uno se coloca un vaso o una tetera en la oreja (cualquier tipo de envase rígido en realidad), se oye el mismo sonido. Sin embargo, sugerir que se oye el mar dentro de un bote de garbanzos probablemente resulta mucho menos evocador, así que ese relato no trascendió. En cambio, en un entorno totalmente silencioso, el mismo experimento quedaría sin ningún efecto. No oiríamos nada porque no habría nada que amplificar.
El parecido entre el sonido de la caracola y el del mar, se debe a que ambos son sonidos amplios, con un gran ancho de banda, una especie de ruido blanco indefinido. En ellos conviven todo tipo de frecuencias, graves y agudas, más o menos en igual proporción. Sin embargo, dentro de la caracola no todas las frecuencias están igualmente representadas. Cuando el sonido atraviesa su cavidad resonante, esta refuerza solo algunas frecuencias: aquellas que coinciden con sus propios modos normales de vibración, que vienen dados por sus dimensiones, su forma y, sobre todo, por su longitud. Puede que una caracola no parezca a priori un objeto muy alargado, pero se puede pensar en ella como una especie de tubo cónico y enrollado, cerrado por uno de sus extremos. En ese sentido, sus modos de vibración son equiparables a los de una cuerda, un tubo, o a los de cualquier otro instrumento de viento. La caracola tiene una frecuencia fundamental característica y otras más agudas, correspondientes a su serie armónica. El resultado de todas ellas combinadas es un tono musical. Gracias a su forma alargada y enrollada, la caracola está afinada en una determinada nota. Por eso, distintas caracolas dan lugar a océanos sonoros ligeramente distintos según su tamaño (océano en do, océano en la bemol…).

Esta peculiaridad convirtió a las caracolas en uno de los instrumentos musicales más antiguos y también en uno de los más universales. Probablemente, el primer instrumento de viento metal de la historia: basta hacer vibrar labios contra su punta un poco rota, como haciendo una pedorreta, para producir un sonido sorprendentemente poderoso, brillante, rotundo. Desde hace miles de años, las caracolas se han utilizado en culturas de todo el mundo como un tipo de trompeta, un símbolo de poder y un instrumento vinculado a los dioses. El ejemplo que nos pilla más cerca quizás es el de Tritón, que utilizaba el sonido de una concha para controlar las olas y el viento. Ese mismo viento que agita y hace llegar a nuestros oídos el sonido del mar.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo El océano en una caracola se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los enigmas que nos cantan desde el fondo del océano
- El sonido del viento (2)
- ¿Por qué suena triste el modo menor?
Cancelaciones anómalas
No hace mucho tiempo escribí una entrada para esta sección del Cuaderno de Cultura Científica titulada Números errores de impresión en la cual estuvimos hablando de ciertos números que, aunque se produzca un cierto error tipográfico, siguen manteniendo su valor. Recordemos un ejemplo. Supongamos que queremos escribir en un artículo o una entrada de un blog el número “2 elevado a 5 multiplicado por 9 elevado a 2”, es decir, 25 92, pero se produce un error tipográfico y no quedan reflejadas las potencias, es decir, se queda escrito 2592. En general, esto produciría un error, ya que el valor de la expresión matemática no coincidiría con el valor del número, sin embargo, en este caso el resultado de 25 92 es, si realizamos las operaciones, 2592, luego sorprendentemente se mantiene inalterado. A estos números se les llama números errores de impresión.
En esta entrada vamos a centrar nuestra atención en una serie de fracciones tales que, a pesar de producirse un error que podríamos calificar de matemático, en concreto, una cancelación anómala, el valor de la fracción se mantiene correcto. Veamos en qué consisten exactamente.
Empecemos con una sencilla fracción como es 12/15 (cuyo valor es 0,8). Como nos han enseñado cuando estudiábamos fracciones en la escuela, las fracciones como esta se pueden simplificar si tenemos en cuenta que 12 = 3 x 4 y 15 = 3 x 5, dividiendo el numerador y el denominador por un divisor común, en este caso, el 3. Es decir, “cancelamos” arriba y abajo el divisor común, luego 12/15 se transforma en 4 / 5 (cuyo valor sigue siendo 0,8).
En las llamadas cancelaciones anómalas lo que ocurre es que se cancelan dígitos del numerador y del denominador como si fuesen divisores de los mismos. Esa cancelación que a priori daría lugar a un resultado completamente diferente, sin embargo, en el caso de las llamadas cancelaciones anómalas, lo que ocurre es que el resultado sorprendentemente no varía. Vamos a mostrar dos casos en los que se cancela un dígito del numerador y del denominador, viendo que en el primero el resultado es distinto, mientras que en el segundo el resultado es el mismo, obteniendo así un ejemplo de cancelación anómala.
Una vez que hemos entendido cuando una fracción (consideraremos las fracciones propias, es decir, aquellas cuyo valor es menor que 1, lo cual se produce si el numerador es menor que el denominador) es una cancelación anómala, podemos buscar más ejemplos de las mismas. Así, nos planteamos el siguiente problema: encontrar las cancelaciones anómalas en las que numerador y denominador tengan solo dos dígitos.
Veamos cómo se puede resolver este problema. Buscamos una fracción cuyo numerador tenga dos dígitos, luego sea de la forma ac, por lo que su valor es (a.10 + c), y cuyo denominador, con dos dígitos, tiene que ser de la forma cb, luego su calor es (c.10 + d), para que se produzca la cancelación, por tanto, ac / cb = a / b (como es una fracción propia a es menor que b). Es decir,
La solución del problema consiste, por lo tanto, en averiguar para qué valores de a, b y c, entre 0 y 9, se satisface la anterior igualdad.
Para empezar, de la igualdad (la segunda) de la expresión matemática anterior, se puede expresar el número que se cancela c en función de los otros dos, a y b.
En consecuencia, dados a y b, esa expresión 9 a b / 10 a – b, es un número natural. Más aún, a partir de esa expresión, teniendo en cuenta que c es menor o igual que 9, se puede derivar la siguiente desigualdad.
Por lo tanto, se trata de ver para qué números a y b (el primero más pequeño, a b), tales que verifican la desigualdad anterior, se satisface que el valor calculado anteriormente para c, es decir, 9 a b / 10 a – b, es un número natural. Puede verse fácilmente que las únicas soluciones posibles para el par de número (a, b) son (1, 4), (1, 5), (2,5) y (4,8), que se corresponden con las únicas cancelaciones anómalas con números de dos dígitos.
Más aún, a partir de esos cuatro ejemplos sencillos se derivan fácilmente cuatro cadenas de cancelaciones anómalas.
Las primeras menciones, según la literatura matemática, a las cancelaciones anómalas son dos artículos del matemático Alfred Moessner publicados en la revista de la Universidad Yeshiva (Nueva York) Scripta Mathematica, alrededor del año 1950. La siguiente referencia es el artículo Anomalous Cancellation del matemático estadounidense R. P. Boas, publicado en el libro Mathematical Plums (Ross Honsberger (editor). MAA, 1979), en el que se abordaba el problema para números con dos dígitos, pero en una base de numeración arbitraria b. Expliquemos un segundo esto. Teniendo en cuenta que en las cancelaciones anómalas, se “cancelan” dígitos de los números, entonces esta propiedad no depende de los números en sí mismo, sino de su representación en la base de numeración (normalmente la decimal, como hemos estudiado, pero podrían considerarse otras bases).
Pero existen más ejemplos de fracciones propias que son cancelaciones anómalas, con números con más dígitos. Por ejemplo, en el artículo sobre cancelaciones anómalas de la página Wolfram MathWorld se muestran algunas, con números de tres y cuatro dígitos.
En este último ejemplo se “cancelaban” dos dígitos del numerador y del denominador. Veamos algunos ejemplos más con diferentes características.
En el libro The Penguin Dictionary of Curious and Interesting Numbers, del matemático y divulgador británico David Wells, se muestra un ejemplo de una cadena con números inicialmente más grandes.
Más aún, en este libro se muestran dos variantes curiosas de cancelaciones, cuando los dígitos que se cancelan son los de las potencias.
Para terminar, como en otras ocasiones acabaremos con una obra de arte relacionada con los números.

Bibliografía
1.- David Wells, The Penguin Dictionary of Curious and Interesting Numbers, Penguin Press, 1998.
2.- Wolfram MathWorld: Anomalous Cancellation
3.- N. J. A. Sloane, The On-line Encyclopedia of Integer Sequences
4.- Proof Wiki: Anomalous Cancellation on 2-Digit Numbers
5.- Fun with Numbers: Fractions, Anomalous Cancellation
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Cancelaciones anómalas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Números primos gemelos, parientes y sexis (2)
- El secreto de los números que no querían ser simétricos
- Números errores de impresión
Semiconductores

El uso más frecuente hoy en día de los semiconductores es en forma de transistores, los componentes básicos electrónicos de todos los «componentes electrónicos de estado sólido» y los microchips de ordenador. Los semiconductores son los materiales más importantes en la revolución digital y en el desarrollo de otros dispositivos electrónicos. Estas aplicaciones que disfrutamos hoy surgieron hace casi un siglo, a partir de la década de 1930, a partir de la mecánica cuántica de la estructura en bandas de los sólidos.
Los semiconductores más comunes están hechos de silicio o germanio, los elementos 14 y 32 en la tabla periódica. A pesar de que forman estructuras cristalinas muy estables que deberían ser aislantes, en realidad son conductores débiles de la electricidad. ¿Cómo es esto posible?
En ambos elementos el número de electrones es suficiente para llenar completamente una banda de energía. Esta es la razón por la que deberían ser aislantes y, de hecho, cerca del cero absoluto, 0 K, son aislantes (no superconductores). A muy baja temperatura, las vibraciones de la red en el silicio y el germanio son mínimas, y los electrones en la parte superior de la banda de valencia no pueden obtener suficiente energía de las vibraciones de la red como para saltar la brecha de energía a la siguiente banda y convertirse en conductor. Sin embargo, la brecha con la siguiente banda es muy pequeña, de solo 0,7 eV en el germanio y 1,1 eV en el silicio. Debido a que estas brechas son tan pequeñas, a temperaturas algo superiores al cero absoluto los electrones pueden captar suficiente energía de las vibraciones de la red cristalina como para saltar a la banda de conducción vacía. A temperatura ambiente, estos elementos, que por su estructura deberían ser aislantes, en realidad son conductores débiles.
Como aislantes fallidos y conductores pobres, el silicio y el germanio no encontraron mucha utilidad en la electrónica hasta la década de 1950, cuando se hicieron avances en la introducción controlada de ciertas impurezas en la estructura reticular [1]. El uso masivo de estos dos elementos no comenzaría, sin embargo, hasta la década de 1980 con la introducción de métodos de producción a escala industrial de capas de silicio súper delgadas estructuradas microscópicamente, y (en menor medida) cristales de germanio, que, cuando se disponen adecuadamente pueden actuar como transistores. Hoy en día, las obleas de silicio, cuando se convierten en microtransistores mediante la introducción de impurezas y se descomponen en «chips», son la base de las industrias de la informática y la electrónica. [2]
El germanio puro se usó al principio en células fotoeléctricas. Un fotón externo puede golpear un electrón en la banda de valencia del germanio [3], proporcionando al electrón suficiente energía para alcanzar la banda de conducción. Si nos fijamos esto no es más que un “efecto fotoeléctrico interno”. Para que esto ocurra, la energía del fotón debe ser de, al menos, 0,7 eV para el germanio y 1,1 eV para el silicio. Como la energía de un fotón es E = hf, resulta que estas energías se corresponden con fotones que poseen frecuencias en el rango infrarrojo de las ondas electromagnéticas. Cualquier fotón con frecuencia en el rango infrarrojo o superior, lo que incluye luz visible, hará que los electrones salten a la banda de conducción y produzcan una corriente.
Notas:
[1] Curiosamente, dado que el germanio y el silicio son tan sensibles a las impurezas, su uso a gran escala como semiconductores no se produjo hasta que se desarrollaron métodos para producir grafito ultra puro para los reactores nucleares y germanio ultra puro para los circuitos electrónicos durante la Segunda Guerra Mundial. De las impurezas hablamos en la siguiente entrega de esta serie.
[2] Toda esta revolución social digital y las empresas mayores del mundo hoy día dependen de unos pequeños saltos de energía. Como los huracanes y el batir de alas de una mariposa, solo que facturable. Esta es una reflexión que te podrá ser útil en tu próxima charla con amigos.
[3] Esto también aplica al silicio, pero su uso fue más tardío.
[4] Este tipo de conductividad inducida por la luz tiene aplicaciones evidentes. Se puede usar, por ejemplo, para detectores de movimiento. Un haz de luz que incide sobre una fotocélula integrada en un circuito generará una corriente constante. Si alguien atraviesa el haz interrumpirá la corriente, lo que puede o activar una alarma o abrir una puerta automática para que la persona salga o entre sin usar sus manos. Los controles automáticos de las luces de los coches o de las farolas de las calles pueden utilizar el mismo principio. Dado que las fotocélulas son sensibles incluso a los rayos infrarrojos, siempre que haya suficiente luz natural la célula producirá una corriente. Cuando se pone el sol, la corriente se detiene, lo que proporciona la señal para encender las luces.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Semiconductores se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La teoría de bandas explica la conducción eléctrica
- Se intuye la conservación de la energía (1)
- Potencia y eficiencia de una máquina
Virus en el sistema de publicaciones científicas
Joaquín Sevilla, Alberto Nájera López y Juan Ignacio Pérez Iglesias

El sistema de publicaciones científicas afronta una situación tan comprometida a causa de la COVID-19 que podría acabar desembocando en su transformación. No sería prudente hacer predicciones acerca de la forma en que se comunicarán los resultados científicos cuando la pandemia haya pasado, pero no cabe descartar ninguna posible evolución. La situación que atraviesa el sistema es de verdadera crisis.
El camino habitual para comunicar resultados científicos consiste en publicarlos en revistas especializadas. Para ello, una propuesta de artículo ha de pasar un proceso, generalmente lento, de revisión por pares. Durante este, otros especialistas en el campo, ajenos a los autores y anónimos para ellos, juzgan su calidad y lo aceptan, rechazan o proponen cambios.
Este proceso ganó peso a lo largo del siglo XX (aunque a Einstein no le gustaba nada) y hoy es un elemento inexcusable de una revista científica de calidad.
Publica o perece
En los últimos años el sistema de publicaciones científicas está sufriendo unas tensiones enormes. Por un lado, el progreso en la carrera científica se basa cada vez más en las publicaciones. Esto ha generado una práctica, condensada en la máxima “publica o perece”, que revela una preocupante confusión entre fines y medios.
Por otro, la irrupción de internet ha transformado el sistema de acceso y manejo de la información científica. La presión generada por las redes ha modificado drásticamente el mercado de todos los productos susceptibles de digitalizarse (música, cine, series y periódicos). A pesar de los cambios, el sistema de publicaciones científicas mantiene una estructura análoga a la que vivió Einstein.
Este contraste entre la transformación del sistema de acceso a los contenidos y el mantenimiento de la estructura editorial genera fuertes tensiones, hasta el punto de que se habla incluso de que “la máquina de hacer ciencia está rota”.
Las tensiones afloran por muchos sitios, lo que da lugar a problemas preocupantes y a diversos “males de la ciencia”. Hay una crisis de revisores, pues cada vez menos científicos están dispuestos a dedicar su tiempo a una labor ingrata, que no reporta ningún beneficio directo (ni económico ni de reconocimiento). Ante esto, muchos editores han optado por pedir a los propios autores que sugieran revisores, cosa que ha dado lugar a comportamientos fraudulentos.
Los conflictos de intereses entre autores y revisores son un problema intrínseco del sistema, pero que se ve agravado por las presiones. La importancia que para el sistema de ciencia tienen las editoriales de las revistas consideradas de prestigio hace que se comporten como un cartel, manteniendo unos precios y sistemas de tarificación que están provocando la cancelación de la suscripción a revistas por países enteros.
Éramos pocos y llegó el SARS-CoV-2
La pandemia de COVID-19 bien pudiera ser el elemento que abra la grieta definitiva en un sistema de publicaciones científicas ya tensionado y aquejado, como hemos visto, de diversos problemas serios.
Una de las características más obvias de la revisión por pares es que es lenta. Por rápido que se quiera hacer, desde que se envía un trabajo, es aceptado para su revisión, tres especialistas lo leen y consensuan su juicio para, finalmente ser aceptado (o rechazado), es difícil que pase menos de un mes. Ese tiempo, que puede ser razonable en condiciones normales, es una eternidad en tiempos de pandemia. La investigación, en estado de frenética actividad, no puede esperar semanas para conocer lo que otros equipos están haciendo, máxime cuando el valor que en realidad aporta la revisión al producto final tampoco es esencial.
No solo se retrasan los artículos científicos que podríamos denominar “estándar” con resultados experimentales, sino también otro tipo de contribuciones que permiten enriquecer el desarrollo científico, como son las cartas, comentarios, editoriales y perspectivas. Muchas revistas, ante la imposibilidad de atender todas las propuestas, han limitado su número o no los aceptan. Alguna, incluso, indica que este tipo de contribuciones se harán por iniciativa propia de la revista o consejo editorial, limitando mucho el acceso a ese tipo de formatos a la comunidad científica.
Esta situación conduce a que la comunidad científica que investiga el SARS-CoV-2, en todos sus ámbitos, genere conocimiento mucho más rápido de lo que el sistema editorial puede asimilar. Por eso se ha visto obligado a buscar alternativas.
El papel ¿mojado? de la prepublicación
En una sociedad donde la comunicación no tiene límites, la científica no puede verse encorsetada por un mundo editorial incapaz de dar respuesta en tiempo y forma. Así que muchos autores se han visto obligados a acudir a plataformas de prepublicaciones (preprints) como ArXiv, medRxiv, bioRxiv, Queios y OSFpreprints para dar a conocer los resultados de sus investigaciones.
Son sitios web donde los autores publican sus artículos para que se puedan leer mientras son revisados en las revistas. Esos sitios existen desde hace décadas y se crearon originalmente para mitigar el problema de posibles robos de ideas por parte de revisores poco éticos. Algunos ponen algunas limitaciones y un consejo “editorial” hace de filtro, otros son mucho más flexibles. Casi todos ofrecen la asignación de un DOI (Digital Object Identifier) que permite identificar el contenido, de forma similar al ISBN.
Algunos de estos espacios permiten que otros científicos, previa acreditación con su ORCID (Open Researcher and Contributor ID“ o «Identificador Abierto de Investigador y Colaborador” en español) discutan y revisen públicamente el contenido de la contribución. El número de científicos que pueden “revisar” un artículo será muchísimo mayor que el ofrecido por un sistema de revisión por pares. ¿Estamos ante un cambio de paradigma hacia una verdadera y plena Open Science?
Quizás lo estemos, pero hay que ser cautelosos. En estos días de ciencia frenética, la gran demanda social de conocimiento hace que estudios de bajísima credibilidad adquieran una importante relevancia pública. Por esa razón, en cualquier caso, cualquier alternativa a la revisión por pares a priori deberá garantizar una mínima calidad de lo que se publique.
Situaciones desesperadas requieren medidas desesperadas
El poner una prepublicación en un repositorio público antes de su aceptación formal no implica que la publicación tenga la misma validez de un artículo en una revista de prestigio. Pero ¿acaso la comunidad científica necesita el dictamen de consejos editoriales y revisores para decidir qué es científicamente aceptable o no? Son unas normas y manera de funcionar tradicionales que, por diversas razones, parecen hacer aguas en una situación de emergencia como la que vivimos.
Una prepublicación solo reconoce, de alguna manera, la autoría de una idea. Algo así como colocar el trabajo en la “pole” en una carrera, pero que, al final, podrá ganar otro si se publica antes. Algunos científicos están prefiriendo compartir sus resultados o ideas para que contribuyan al conocimiento lo antes posible, antes que recibir ese reconocimiento de un “aceptado” editorial porque saben que, por encima del curriculum vitae, estamos hablando de vidas.
La pregunta de si nos encontramos ante un nuevo paradigma no tiene una respuesta fácil. Pero no debemos descartar que la situación actual alumbre un nuevo modelo de comunicación de los resultados de la investigación. Más de una vez ha ocurrido a lo largo de la historia que un sistema débil ha perdurado en el tiempo, por inercia, en tanto no ha habido amenazas exteriores que forzasen su transformación o sustitución. Podemos estar en una coyuntura similar. Es posible que la gran cantidad de información generada con motivo de la pandemia sea la amenaza que acabe propiciando la transformación del sistema de publicaciones científicas. Su crisis sería por tanto, la antesala de un nuevo sistema.
Sobre los autores:Joaquín Sevilla responsable de divulgación del conocimiento y profesor de tecnología electrónica en la Universidad Pública de Navarra; Alberto Nájera López es profesor contratado doctor de radiología y medicina física en la Universidad de Castilla-La Mancha; Juan Ignacio Pérez Iglesias es catedrático de fisiología en la Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Virus en el sistema de publicaciones científicas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Hacia un nuevo sistema de publicaciones científicas
- Las publicaciones científicas
- #Naukas14 Acceso abierto a las publicaciones científicas
Homeostasis y crisis del coronavirus
Juan Luis Arsuaga y María Martinón-Torres

Homeostasis es una palabra poco común, que se utiliza en biología, pero que podría ser útil en el contexto de la epidemia que estamos padeciendo. La homeostasis tiene que ver con el equilibrio y a la vez con el desequilibrio. Nos habla, en definitiva, de un desequilibrio equilibrado, o de un desequilibrio estable. La vida es una pura paradoja.
El ser humano ha tenido siempre la sensación de vivir en un mundo estable. Nunca sucede nada y las montañas no cambian de sitio. Y es cierto, pero solo a la escala de la generación humana. Hubo un tiempo en que esas montañas que sostienen el horizonte fueron el fondo de un mar, o una gigantesca cámara de magma subterráneo.
Tampoco los continentes han estado jamás quietos. En realidad siguen moviéndose. La tierra se separa, se junta, se quiebra. Se trata de fenómenos geológicos, movidos por fuerzas gigantescas que operan en el interior de la Tierra, donde se encuentra la caldera de su motor. También el clima ha cambiado, y de eso sí alcanzamos a ser testigos. Hace solo un siglo, los glaciares se extendían mucho más que ahora. Lo podemos comprobar en postales antiguas. Sin saberlo, nuestros abuelos y bisabuelos vivían al final de una pequeña glaciación.
Pero la realidad es que tampoco hay estabilidad en biología, a ninguna escala. Las especies están permanentemente enfrentadas a crisis, no conocen otro tipo de existencia. Podríamos afirmar que los seres vivos están siempre sufriendo una crisis o recuperándose de ella. Podríamos ir más allá y asegurar que una especie está continuamente a punto de extinguirse. La extinción consiste, simplemente, en no haber sido capaz de superar la última crisis.
La vida consiste en resolver problemas
En esa lucha continua, los organismos, como individuos, tampoco dejan de estar sometidos a tensiones. El filósofo Karl Popper acertó con su definición de la vida: consiste en resolver problemas. Los minerales y los muertos no tienen problemas que puedan resolver y por eso nunca cambian. Nuestros átomos cambian, nuestras moléculas cambian, nuestras células cambian, pero nosotros permanecemos.
Y es aquí donde entra la palabra homeostasis. Homeostasis es la capacidad de un organismo de reajustarse después de una grave alteración. Los organismos viven en equilibrios dinámicos, no estáticos. El acueducto de Segovia está en equilibrio estático, arquitectónico. Si se cae un solo pilar se hunde una parte de la canalización y el agua deja de circular, con lo que el acueducto se vuelve inútil por completo. No hay forma de que el propio acueducto segregue un nuevo pilar. El equilibrio (o el desequilibrio) constante es inherente a estar vivo.
Así, una bacteria es un sistema muy complejo, con numerosas estructuras internas bien diferenciadas que se reparten el trabajo. Cualquier célula de nuestro cuerpo es todavía más compleja, y la complejidad será mayor en los tejidos, en los órganos y en lo que en biología se denominan propiamente los sistemas, tales como el sistema respiratorio, el nervioso, el circulatorio, el locomotor, el inmune, el digestivo, el reproductor o el excretor. Finalmente, el individuo (una planta, un animal, una persona) es un sistema de sistemas de sistemas de sistemas. Pero no acaba ahí.
Por encima del individuo está el sistema social que los filósofos, a partir de Platón, han comparado con un organismo biológico. También el cuerpo social tiene homeostasis y eso es lo que, precisamente, le permite superar las crisis. En contra de lo que suele pensarse, la caída de un imperio, como el romano de Occidente (no el de Oriente) o el maya, no se produjo por una crisis única, sino por una serie de perturbaciones encadenadas y muy seguidas a las que el imperio no pudo hacer frente. La resiliencia consiste, simplemente, en recuperarse lo bastante rápido como para que la siguiente perturbación nos pille en equilibrio.
Otras crisis vendrán
El coronavirus ha provocado una crisis sanitaria, económica y social que superaremos sin ninguna duda. Otras crisis vendrán en el futuro y probablemente serán muy distintas, porque habremos aprendido a prevenir esta y otras parecidas. Como no podemos adivinar la naturaleza del siguiente embate, lo único que nos queda es reforzar la homeostasis de nuestra sociedad, que es cada vez más global.
Eso no quiere decir que debamos permanecer estáticos, sino todo lo contrario. Se trata de mejorar nuestra capacidad de alcanzar equilibrios dinámicos que permitan afrontar cualquier perturbación sin perder la estabilidad. No es cuestión de imitar a los acueductos romanos, sino a los organismos biológicos.
En su monumental “La montaña mágica”, Thomas Mann recoge en boca del joven Hans Castorp la definición de la vida como una “fiebre de la materia” que se balancea en precario equilibrio “dentro de este complejísimo y febril proceso de descomposición y renovación”. Nuestra sociedad aun herida, está viva. Tras los golpes, de los objetos inanimados solo quedan añicos; a los seres vivos les salen cicatrices.
Y esa es la lección política, en el mejor sentido de la palabra, que podemos extraer de la crisis del COVID-19. La homeostasis solo se logra si el organismo está bien organizado, si no incuba en su seno distorsiones que lo hagan inestable. Superaremos esta crisis, y la siguiente, y la siguiente, y la siguiente, si nos preocupamos ahora de reducir los desajustes internos en educación, salud, medio ambiente, democracia, riqueza, cultura, ciencia, justicia, solidaridad y sensibilidad.
Homeostasis es, por lo tanto, la palabra oportuna. Si nuestra sociedad mantiene sus equilibrios internos, es seguro que sobrevivirá a todas las crisis. Preocupémonos de que la cuerda sobre la que hacemos equilibrios no sea demasiado floja.
Sobre los autores: Juan Luis Arsuaga, es catedrático de paleontología de la Universidad Complutense de Madrid, y trabaja en el Centro Mixto ISCIII-UCM de Evolución y Comportamiento Humanos y en el Museo de Evolución Humana de Burgos; María Martinón-Torres es directora del CENIEH, Centro Nacional de Investigación sobre la Evolución Humana (CENIEH).
Este artículo fue publicado originalmente en The Conversation. Artículo original
El artículo Homeostasis y crisis del coronavirus se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- De la homeostasis
- El coronavirus de Wuhan, ¿qué sabemos hasta ahora?
- La oreja de oso, una joya del Pirineo que guarda el secreto de la resurrección
Nahúm Méndez Chazarra – Naukas Bilbao 2019: Marcianos, extraterrestres y la zona habitable

Conforme se han ido descubriendo exoplanetas el concepto de zona habitable a aparecido cada vez más en los titulares de prensa. Sin embargo, la zona habitable es un término mucho más relativo de lo que solemos pensar. Nahúm Méndez explica en apenas diez minutos todos los matices que encierra.
.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Nahúm Méndez Chazarra – Naukas Bilbao 2019: Marcianos, extraterrestres y la zona habitable se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – Álex Méndez: Luz de luna
- José Ramón Alonso – Naukas Bilbao 2019: Son nuestros amos y nosotros sus esclavos
- Naukas Bilbao 2017 – Déborah García Bello: Saboer
El rojo y los cambios climáticos

En muestras tanto geológicas como arqueológicas el color rojo suele deberse a la presencia de distintos óxidos de hierro, que tiñen de manera muy intensa minerales y rocas. Sin embargo, “en el caso de las estalagmitas de la Cueva de Goikoetxe, localizada en la Reserva de la Biosfera de Urdaibai, el color rojo se debe a la presencia de sustancias orgánicas derivadas de la descomposición de la cobertura vegetal en los suelos situados encima de la cueva”, señala Virginia Martínez Pillado, investigadora del departamento de Mineralogía y Petrología de la UPV/EHU. La intensidad del color rojo de las estalagmitas serviría, por tanto, de registro para determinar cambios climáticos.
“En toda la zona de la cornisa cantábrica existe mucha precipitación y vegetación, por lo que se crea una gran cobertura vegetal encima de la cueva; cuando dicha vegetación se degrada estas sustancias orgánicas, fundamentalmente ácidos húmicos y fúlvicos, son arrastradas al interior de la cueva por el agua de la lluvia, y tiñen de rojo los espeleotemas al incorporarse a la red de la calcita que los forma”, explica Virginia Martínez Pillado.
Los investigadores han combinado diferentes técnicas de análisis sobre varias estalagmitas de diferentes coloraciones, como la datación radiométrica por series de uranio, la petrografía, la fluorescencia de rayos X, la espectroscopía y la luminiscencia con luz ultravioleta. “Para la realización de los análisis se han utilizado dos técnicas espectroscópicas llamadas Raman y FTIR que sirven para la identificación de diferentes tipos de moléculas y compuestos. Estas técnicas han sido las que han determinado la presencia de compuestos orgánicos derivados de la degradación de materia vegetal en el interior de las estalagmitas”, indica Martínez Pillado.
Además, “hemos realizado fotografías mediante luz ultravioleta a las mismas estalagmitas, y la respuesta de la calcita frente a la radiación ultravioleta ha mostrado ser cíclica. Es decir, dentro de las estalagmitas rojas, únicamente en las rojas —subraya la investigadora— han aparecido ciertos ciclos en los que hay mayor y menor incorporación de las substancias orgánicas; en los momentos que hay mayor incorporación orgánica parece ser que hay una cobertura vegetal muchísimo más densa. Probablemente sea porque hay una mayor cantidad de precipitaciones, aunque esto es algo que aún habría que estudiar más en profundidad”. Lo que sí está claro es “que la cobertura vegetal y la producción de suelos es muchísimo más intensa en ciertos momentos que en otros a lo largo de todo el Holoceno medio, entre hace 7.000 y 5.000 años, y esto está estrechamente ligado a las condiciones climáticas del exterior de la cueva”.
Estos ciclos detectados, relacionados con el llamativo color rojo, han permitido a los investigadores comenzar nuevas investigaciones para reconstruir la evolución climática en la costa cantábrica en ese periodo.
Referencia:
V. Martínez-Pillado, I. Yusta, E. Iriarte, A. Álvaro, N. Ortega, A. Aranburu, J.L.Arsuaga (2020) The red coloration of Goikoetxe Cave´s speleothems (Busturia, Spain): An indicator of paleoclimatic changes Quaternary International (2020) doi: 10.1016/j.quaint.2020.04.006
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El rojo y los cambios climáticos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los efectos climáticos de un calentamiento sin precedentes en el Mediterráneo
- Verdín, eucaliptos y cambio climático
- El ocre rojo de la antigüedad y los porqués de sus propiedades
El cuadrante Pasteur español y el efecto Dreadnought
Xabier Irigoien
Todo gestor científico conoce el cuadrante Pasteur, y lo usa en sus presentaciones. Arriba a la izquierda, ilustrada por Bohr y la física cuántica, está la ciencia básica que hacemos para entender la naturaleza, que quizás tenga aplicación algún día pero no es obvia cuando se empieza. Arriba a la derecha, están Pasteur y las vacunas, investigación básica pero ya orientada a un objetivo. Y abajo a la derecha queda Edison, investigación aplicada, con un claro producto como objetivo. A todos los gobiernos del mundo el cuadrante que más les gusta es el de abajo a la derecha, el de la investigación aplicada, el que se traduce en productos que pueden vender las empresas y generar negocio. De hecho a todos los gobiernos les gustaría poder prescindir de financiar los otros cuadrantes, pero son conscientes de que no hay ciencia aplicada sin ciencia básica.

Sin embargo, nos queda la casilla de abajo a la izquierda, que esta vacía. ¿ Que se supone que va ahí ? Stokes, que es quien produjo el ejemplo del cuadrante Pasteur en 1997, habla del cuadrante Peterson, investigación guiada por la curiosidad pero sin utilidad alguna. Es probable que en versiones posteriores se haya quedado vacío porque la idea de que la investigación guiada por la curiosidad sea inútil es bastante discutible. Así que en España hemos hecho algo mejor, hemos creado nuestro propio cuadrante, el cuadrante Unamuno: el de que inventen ellos.

Obviamente, llamarlo así quedaba mal, por lo que hemos decidido ponerle como titulo el de “Innovación”. A lo que antes le llamábamos I+D, investigación y desarrollo, ahora le llamamos I+D+i, investigación + desarrollo + innovación. Y vamos a ser justos, no es un invento nacional, como veremos Europa está en lo mismo, y todo lo que aquí se menciona vale también para gran parte de Europa. Pero en España tenemos un personaje para ponerle nombre al cuadrante. Y también vamos a distinguir, hay “innovación disruptiva” e “innovación”. Crear la bombilla a partir de conocimiento existente cuando las casas se alumbraban con gas o aceite de ballena es innovación disruptiva, cambiar el color de las bombillas porque hay un mercado para bombillas de colores es innovación.
No todo tiene que ser inventar la bombilla, vamos a explorar una pequeña innovación disruptiva que puso el ordenador personal al alcance de todo el mundo, la interfase grafica (GUI), las ventanas que uso en la pantalla de mi ordenador en vez de escribir líneas de comandos (¿ alguien se acuerda de MS-DOS ?). El inventor fue Douglas Engelbart, en 1968 en la Universidad de Stanford. La primera GUI la desarrollo el Xerox Palo Alto Research Center (PARC), lo que en España llamaríamos un centro tecnológico, en Palo Alto (California) hacia 1973. Steve Jobs visitó PARC en 1979 y Apple incorporó la GUI a sus ordenadores en 1984. De Stanford a Palo Alto hay 3 km, y de Palo Alto a Cupertino 16. Es decir que en el sistema de transferencia más eficiente del mundo, Silicon Valley, desde una de las mejores universidades del mundo a una de las empresas más innovadoras se tardó unos 20 años para llevar una invención muy aplicada a su comercialización, a la velocidad de 1 km por año de la universidad a la empresa.
Por ponernos en contexto, en Estados Unidos, paradigma de llevar la investigación al mercado, se dedican unas 70 000 millones de dólares al año a la investigación, de esos unas 40 000 millones (57 %) vienen de fondos federales, 5 000 millones (7%) de la industria y 25 000 (36 %) millones de otras fuentes (estados, fundaciones etc). Esto se traduce en 15 000 solicitudes de patentes, 800 nuevos productos y la creación de 1000 start-ups al año (Figura 3, AUTM licensing survey 2017, www.autm.net). España con una inversión real de alrededor de 10 000 millones tiene lógicamente los resultados escalables, por ejemplo 1800 patentes al año. Pero lo que España (ni gran parte de Europa) no consigue es generar el tipo de innovación disruptiva que surge en los EEUU (o por ejemplo Corea).

En mi opinión esto se debe a que España, siguiendo la tradición unamunoniana, no cree en la ciencia y conocimiento como generadores de nuevo negocio. Realmente nuestra sociedad (nuestros dirigentes son un reflejo de la sociedad) cree que inventarán otros, y que nosotros lo único que necesitamos hacer es mejorar esos inventos, es decir innovar a secas.
Con honrosas excepciones, la universidad española es tradicionalmente mediocre. El Unamuno de “inventen ellos” era a la vez el rector de una de las mejores universidades españolas de la época, la de Salamanca, y eso es un reflejo de nuestra tradición. Siempre se discuten las clasificaciones y es obvio que no somos los EEUU con Stanford, MIT y parecidos. Pero Suiza, un país de 8.5 millones de habitantes, menor que Cataluña, tiene 5 universidades entre las 100 mejores del mundo. España ninguna. Y Suiza no solo son bancos, también es el país de Nestlè, Novartis y Roche entre otras multinacionales basadas en la ciencia. Para cubrir las deficiencias tradicionales de la universidad Española en la transferencia del conocimiento, en las ultimas décadas han proliferado los centros tecnológicos, primero en Euskadi y Cataluña, y luego en el resto del Estado. Estos intentan reproducir el papel del PARC, o, para ser más precisos, toman como modelo el Fraunhofer alemán. Eso sí, sin tener institutos del nivel del Max Planck para generar el conocimiento básico en el que apoyarse.
Sin embargo, aunque han tenido un impacto positivo, a esos centros tecnológicos (CCTT) no se les ha dotado de misiones concretas y presupuestos estables, sino que se ha dejado que crezcan y se multipliquen a medio camino entre lo privado y lo público. Obviamente, cualquier organización que debe autosostenerse, aunque sea sin lucro, busca sus propios mercados, y muchos CCTT han acabado ocupando terrenos que serían mas propios de empresas, como pueden ser los servicios.
Sin embargo, tanto en España como en la UE, una tendencia con todavía peor efecto es la presión cada vez mayor para que universidades y sobre todo centros tecnológicos se acerquen a la empresas. Se les pide que hagan su investigación aplicada atendiendo a las necesidades de las empresas. De hecho cada vez más se pide que las empresas sean parte de los proyectos de investigación y se evalúa tanto el potencial impacto del proyecto como el interés científico del proyecto. Esto acaba convirtiendo a los CCTT en departamentos de I+D de las empresas. Pero también tiene un efecto más pernicioso, al que me gusta denominar efecto Dreadnought (Figura 4).
En 1906, el primer Lord del Mar, John «Jackie» Fisher, lanzó el Dreadnought, lo que hoy en día llamaríamos un caso de escuela de innovación disruptiva. Nada era un invento nuevo, pero al reunir las tecnologías más avanzadas de la época en motores, coraza y artillería, el Dreadnought dejó obsoletos de un plumazo a todos los buques de guerra contemporáneos. Incluidos los de la armada más poderosa en ese momento, la Armada británica. Como resultado, todas las armadas estaban niveladas y comenzó la carrera armamentista naval con Alemania.

Como hemos dicho, España y la UE tienen un problema reconocido con la innovación: la ciencia básica no se traduce en el mercado de la manera que ocurre, no solo en los EE.UU, sino también en países como Corea y otros. El problema es de tal magnitud que la UE ha incluido para los proyectos de investigación H2020 el requisito de tener PYMES en el consorcio y la participación de las partes interesadas se requiere desde la redacción de la propia propuesta. Además, la propuesta generalmente necesita incluir un plan de negocio, y lo más importante es que el impacto potencial es tan importante como la ciencia en el proceso de evaluación. Esta tendencia se está incorporando a los programas de financiación de investigación nacionales y autonómicos.
Sin embargo, debido al efecto Dreadnought, las compañías ya existentes no promoverán a sabiendas la investigación que conduzca a la innovación disruptiva, ya que de hecho alteraría su estructura de producción y, lo que es más importante, pondrían a los competidores al mismo nivel. Las compañías de gas que iluminaban las calles en el siglo XIX no estaban invirtiendo en la investigación de Menlo Park sobre electricidad (solo por la anécdota, la frase completa de Unamuno en El pórtico del tiempo, 1906, es: “Inventen, pues, ellos y nosotros nos aprovecharemos de sus invenciones. Pues confío y espero en que estarás convencido, como yo lo estoy, de que la luz eléctrica alumbra aquí tan bien como allí donde se inventó”) .Los beneficios que obtenía Bayer por las sulfonamidas no estaban en la base del descubrimiento de los antibióticos e incluso los productos de una empresa famosa por su capacidad innovadora generalmente están en un campo diferente al de su negocio principal.
En realidad, el iPhone es un buen ejemplo de un efecto Dreadnought: Nokia estaba haciendo una excelente investigación para mejorar sus teléfonos móviles cuando la innovación disruptiva proveniente de una compañía de computadoras personales lo sacó del mercado de un solo golpe. Por otro lado, aunque Apple fue el primero en el nuevo mercado, el producto niveló tanto el campo para los competidores que hoy en día, marcas de las que uno nunca había oído hablar, están al frente del mercado. Hay que observar que las gigantescas empresas que asustan a Europa por su dominio global, como Google, Amazon y otros, no tienen en su origen una I+D+i financiada y orientada por una empresa, sino a jóvenes emprendedores que abandonaron la academia y pusieron los últimos conocimientos generados en los laboratorios directamente en el trabajo.
El enfoque adoptado en los proyectos H2020, así como en los programas nacionales y autonómicos, seguramente ayudará a las empresas de la UE y nacionales a seguir siendo competitivas, pero solo hasta que la innovación disruptiva proveniente de otro lugar las borre creando un mercado completamente nuevo. Y como se indicó anteriormente, al tener compañías y partes interesadas estrechamente vinculadas al proyecto desde la concepción del mismo, este enfoque desalienta intrínsecamente la innovación disruptiva.
Por otro lado, toda una serie de estudios en los EEUU sugieren que el mayor retorno de la inversión en ciencia no se genera a través de patentes o secretos industriales, sino a través de la creación de nuevas empresas, start-ups (Valdivia 2013). En lugar de solicitar a las empresas que participen en los proyectos, evaluando el impacto potencial y creando planes comerciales desde la etapa de propuesta, lo que deberíamos promover es la generación de nuevas empresas a partir de proyectos de investigación. Hay que tener en cuenta que no se puede construir un plan comercial sensato para una innovación disruptiva que crea un mercado completamente nuevo, pero en algunas convocatorias se podría omitir la participación empresarial y la evaluación de impacto potencial simplemente solicitando a los proyectos que reserven parte del presupuesto para ayudar a iniciar nuevas empresas. Esto crearía el incentivo para que los proyectos apunten a una investigación disruptiva y al mismo tiempo motivaría a las investigadoras e investigadores jóvenes a correr el riesgo de abandonar la academia para entrar en la empresa. Obviamente, la mayoría de los proyectos no crearán nada disruptivo, pero los resultados siempre seguirán estando disponibles para las empresas existentes como patentes o pequeñas empresas que se pueden adquirir, y al mismo tiempo se establecerán los incentivos adecuados para sembrar las empresas disruptivas que nos faltan hoy en día en España y la UE
Esto debería de ir acompañado de una concienciación de la sociedad sobre el papel real de la ciencia como generador de nuevo negocio. De manera que la sociedad presione para que nuestra universidad mejore significativamente, no solo en su financiación como suelen demandar los rectores, pero también en su organización interna, búsqueda de la excelencia y sobre todo el nivel de autoexigencia. A la vez hay que diseñar mejor el papel de los centros tecnológicos, sus campos de actuación deben de estar claramente definidos. Lógicamente hay que apoyar a la empresa existente, pero también hay que pedirles que ejerzan ese papel de intermediario entre ciencia básica y producto, acercándose tanto a los generadores de conocimiento como se han acercado a las empresas.
Mientras sigamos viviendo en el cuadrante de Unamuno, pensando en que la bombilla la inventen ellos que ya haremos alguna mejora aquí, la luz nos alumbrará, pero nos seguirá sorprendiendo que nuestras empresas sean barridas por algo que viene de fuera y de paso deja sus beneficios e impuestos también fuera.
Referencias:
Stokes, Donald E. (1997). Pasteur’s Quadrant – Basic Science and Technological Innovation. Brookings Institution Press. pp. 196. ISBN 9780815781776.
Valdivia, Walter D. «University start-ups: Critical for improving technology transfer.» Center for Technology Innovation at Brookings. Washington, DC: Brookings Institution (2013).
Sobre el autor: Xabier Irigoien es director científico de AZTI-BRTA
El artículo El cuadrante Pasteur español y el efecto Dreadnought se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El efecto Roseto
- Cristalografía (13): Fiat Pasteur
- Nanopartículas para la consolidación del fuerte español de Bizerta
El problema del final feliz
Casi todos los domingos del invierno de 1933, un pequeño grupo de estudiantes se reunía en algún lugar (un parque o un café) de Budapest para hablar de matemáticas. El especial grupo al que me refiero estaba formado, entre otras personas, por Paul Erdős (1913-1996), Esther Klein (1910-2005), Márta Svéd (¿1910?-2005), George Szekeres (1911-2005) y Pál Turán (1910-1976).

©The University of Newcastle; UON Photographer.
En una de estas reuniones, Esther propuso el siguiente problema:
Dados cinco puntos en el plano en posición general, demostrar que cuatro de ellos forman un cuadrilátero convexo.
Tras dejar al resto del grupo un tiempo para reflexionar sobre el problema, Esther explicó a sus colegas la demostración que ella había pensado.
En 1935 Erdős y Szekeres publicaron un artículo en el que se generalizaba el resultado de Esther (ver [1]); es uno de los trabajos fundamentales de la geometría combinatoria. Paul Erdős denominó el problema original como “El problema del final feliz” porque Esther y George se casaron en 1937… ¿tras conocerse mejor gracias a este enunciado?
Empecemos por aclarar los conceptos involucrados en la proposición de Esther. Que varios puntos del plano estén en posición general significa que no existe ningún subconjunto formado por tres de ellos que sean colineales. Un cuadrilátero es convexo si todos sus ángulos interiores son menores que 180 grados.
La solución de Esther se basaba en que existen tres formas diferentes en las que un polígono convexo encierra cinco puntos. Dicho de otra manera, dados cinco puntos en posición general, su envolvente convexa puede ser uno de los tres polígonos siguientes:
-
puede ser un cuadrilátero cuyos vértices son cuatro de los puntos del conjunto inicial y que deja en su interior el punto restante. En este caso, la solución ya es inmediata;
-
la envolvente convexa puede ser un pentágono cuyos vértices son los cinco puntos dados. Entonces cuatro de esos puntos pueden conectarse para formar un cuadrilátero convexo;
-
finalmente, si la envolvente es un triángulo, los dos puntos que quedan dentro de la figura definen una recta que divide el triángulo en dos partes. En una de ellas hay dos puntos y en la otra uno de los del conjunto de cinco puntos inicial. Estos dos puntos y los interiores forman automáticamente un cuadrilátero convexo.

Como hemos comentado antes, Erdős y Szekeres publicaron en 1935 (ver [1]) una generalización del problema planteado por Esther Klein. El artículo comenzaba del siguiente modo:
El problema que nos ocupa ha sido sugerido por la señorita Esther Klein en relación con la siguiente proposición.
A partir de cinco puntos del plano de los cuales no hay tres en una misma línea recta, siempre es posible seleccionar cuatro puntos que determinan un cuadrilátero convexo.
[…] La señorita Klein sugirió el siguiente problema más general. Dado un entero positivo n, ¿es posible encontrar un número N(n) tal que de cualquier conjunto que contenga al menos N(n) puntos sea posible seleccionar n puntos que formen un polígono convexo?
Hay dos preguntas particulares: (1) ¿existe el número N(n) correspondiente a n? (2) Si es así, ¿cómo se determina el menor N(n) en función de n? (denotamos el menor N por N0(n)).

En [1] los autores demostraban que el número N(n) existe (para n mayor que 2) y conjeturaban que
basándose en algún caso particular demostrado por otros autores. De hecho, es obvio que N0(3)=3, Esther Klein demostró que N0(4)=5 y en [1] se afirma que E Makai probó que N0(5)=9, aunque no existe evidencia escrita de ello. Años más tarde Szekeres y Lindsay Peters (ver [2]) demostraron con ayuda de un ordenador que N0(6)=17, reafirmando la conjetura.
Y, de momento nadie ha sido capaz de confirmar o refutar la conjetura. Pero la propuesta se ha reformulado proponiendo la alternativa siguiente (ver, por ejemplo, [4]):
donde la O mayúscula se refiere a la notación de Landau. Confiemos en que pronto se conocerá más sobre esta interesante acotación.
Por cierto, la historia de amor (el “final feliz” entre sus dos colegas, como lo denominaría Erdös) de Esther y George fue larga e incluso poética en su despedida: ambos fallecieron el 28 de agosto de 2005, con una hora de diferencia. Ella tenía 95 años, él 94… y ambos número de Erdös igual a 1.
Referencias
[1] Paul Erdös and George Szekeres, A combinatorial problem in geometry, Compositio Math. 2 (1935), 463-470.
[2] George Szekeres and Lindsay Peters, Computer solution to the 17-point Erdös-Szekeres problem, ANZIAM J. 48 (2006), 151-164
[3] Pierre-Alain Cherix, Shaula Fiorelli Vilmart, Pierre de la harpe, Polygones convexes : le problème de la fin heureuse, Images des Mathématiques, CNRS, 2014
[4] Sara Freyland, The Happy Ending Problem and its connection to Ramsey theory, Report Uppsala University, 2019
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo El problema del final feliz se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El problema de la plantación de árboles en filas (2)
- Un dulce problema de Paul Erdös
- El problema de la plantación de árboles en filas
Superconductores

La teoría de la bandas ha sido sometida a pruebas experimentales muchas veces y ahora es el modelo de consenso para el comportamiento de conductores y aislantes. Pero tenemos que modificarla para poder explicar la superconductividad.
El modelo de Drude-Lorentz introdujo la idea de que la resistencia eléctrica se debe a colisiones de los electrones [1] con impurezas, imperfecciones y especialmente con las vibraciones reticulares del cristal. Las vibraciones reticulares del sólido disminuirán a medida que disminuya la temperatura, porque la entropía, que representa el desorden [2], también disminuye. Por lo tanto, la resistencia también debería disminuir. Esto es lo que se observa, y está bien explicado por la teoría cuántica de bandas. Pero a temperaturas muy bajas sucede algo extraño: la resistencia de algunos materiales cae repentinamente a cero a partir de cierta temperatura.
Estos materiales se convierten en superconductores, lo que significa que pueden conducir corrientes sin resistencia o, lo que es equivalente, sin pérdida de energía. La temperatura a partir de la que se produce la superconductividad se denomina temperatura crítica. Varía desde 0.015 K para el tungsteno [3], 160 K para ciertas cerámicas, hasta 250 K para algunas formas cristalinas de superhidruro de lantano [4][5].
Podemos imaginar algunas de las posibles ventajas de unos cables eléctricos con resistencia cero. Es como un movimiento sin fricción. Entre las muchas aplicaciones reales y potenciales están las líneas de transmisión eléctrica sin pérdida de energía, ordenadores más rápidas y electroimanes con una fuerza colosal. Estos últimos se usan actualmente en dispositivos de resonancia magnética (MRI), aceleradores de partículas de alta energía y trenes de levitación de alta velocidad, a menudo llamados «mag-lev» [6]. Dado que la temperatura de ebullición del nitrógeno líquido, que es abundante y relativamente fácil de producir, es de 77 K, los superconductores con temperaturas críticas superiores a 77 K pueden mantenerse lo suficientemente fríos manteniéndolos sumergidos en nitrógeno líquido. Sin embargo, un gran inconveniente de estos materiales es que son frágiles, no porque se puedan romper con facilidad, sino porque la superconductividad puede destruirse fácilmente por un campo magnético que no esté controlado. Como es lógico, se investiga intensamente para superar estos problemas y crear materiales superconductores con temperaturas de transición lo más cercanas que sea posible la temperatura ambiente (20 ° C o 293 K) [7].
El desarrollo de dispositivos superconductores tuvo un impulso enorme tras la aparición del modelo básico de la superconductividad propuesto en 1957 por John Bardeen, Leon Cooper y Robert Schrieffer. Los autores de la teoría BCS, como se le conoce, recibieron el Premio Nobel por su trabajo en 1972. Su teoría es altamente técnica, pero la idea básica es que las ondas de electrones en el estado superconductor ya no actúan de forma independiente, como en el modelo de Bloch. En cambio, se emparejan a la temperatura crítica de modo que sus funciones de onda actúan como una unidad a medida que interactúan con la red cristalina. Además, todos los pares de electrones se mueven juntos en un movimiento colectivo, de modo que si un solo electrón se dispersa por la red, su compañero “lo arrastra” hacia la corriente general, y si algún par de electrones se dispersa de alguna manera fuera de la ruta general, todos los demás pares “lo traen” de regreso al flujo colectivo. Como no hay dispersión o colisiones inelásticas, no hay resistencia y el material se convierte en un superconductor.
Aunque la teoría BCS explica bien en general ciertos sólidos cristalinos, se requieren más refinamientos del modelo para otros materiales [8] y para explicar el comportamiento de los superconductores en detalle.
Notas:
[1] Da igual si los tratamos como ondas o como corpúsculos.
[2] En puridad esto es una afirmación muy grosera, pero tolérese para poder visualizar lo que ocurre.
[3] En esta casa obedecemos las normas IUPAC.
[4] En concreto una forma del LaH10 altamente simétrica (grupo espacial Fm-3m), en la que una jaula de hidrógeno envuelve los átomos de lantano. Véase.
[5] Récord a la fecha de publicación. Cualquiera sabe cuando estés leyendo esto.
[6] De levitación magnética dicho en inglés.
[7] 20ºC es la temperatura ambiente estándar. Si nos fijamos ya se ha conseguido la superconductividad a temperatura ambiente en algunas regiones de la superficie del planeta Tierra en según qué épocas del año: 250 K son -23º C.
[8] Véase, por ejemplo, esto.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Superconductores se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Tipos de comportamiento conductor
- La ley del gas ideal y la tercera ley de la termodinámica
- El modelo clásico de electrones libres de Drude-Lorentz
A tomar el sol

En las últimas décadas los expertos han recomendado evitar las exposiciones excesivas al sol pues son la principal causa de daños en la piel y, sobre todo, de la aparición de melanoma, un cáncer extendido y muy peligroso. La revisión, publicada en 2017, por Natalie Matthew y sus colegas, de la Universidad de Providence, en Estados Unidos, informa de que la incidencia del melanoma en todo el planeta ha crecido con rapidez en los últimos 50 años.
La tasa es mayor en personas de piel blanca y en zonas cercanas a los trópicos y al ecuador. Nuestra especie apareció en los trópicos del centro de África, un área geográfica con mucho sol. Homo necesita sol para el metabolismo de la vitamina D en la piel. Sin embargo, la exposición al sol es peligrosa por los rayos ultravioleta que tiene y, para evitarlos, apareció la melanina, el pigmento que oscurece la piel y evita los ultravioleta. Pero, cuando nuestra especie salió de África hacia el norte, hacia Eurasia, colonizó zonas con menos incidencia solar y, por tanto, menos producción de vitamina D en la piel. Se aclaró la piel y se seleccionó piel blanca, con poca melanina, que dejaba pasar la luz solar y permitía la síntesis de vitamina D. Pero, con el tiempo, los originarios de Eurasia se extendieron por todo el planeta, y, con su piel blanca, muchos volvieron a los trópicos, con demasiado sol para este tipo de piel con escasa melanina protectora. El exceso de sol, con su componente ultravioleta, produce daños en la piel y, en último término, la aparición del melanoma.
En conclusión, la relación de la piel de nuestra especie con el sol es complicada: buena para la vitamina D y dañina por el exceso con desarrollo de cáncer. Hasta ahora se ha intentado evitar el melanoma y, para conseguirlo, los protocolos de exposición al sol piden evitar el exceso y el uso de protectores solares.
Para explicar brevemente los efectos sobre la salud de la deficiencia en vitamina D, nos sirve la revisión publicada por Michael Holick, de la Universidad de Boston, el año pasado. Enumera, como consecuencia de la falta de vitamina D, a enfermedades agudas y crónicas como la caries en niños, osteoporosis, psoriasis, enfermedades autoinmunes, enfermedades cardiovasculares, algunos tipos de cáncer, diabetes tipo 2 y desordenes neurológicos.
Hay que tener mucho cuidado con el sol y, para tomarlo, no hacerlo a las horas centrales del día, cubierta la cabeza, con ropa adecuada y gafas de sol y, siempre, con protector solar, a ser posible con un factor superior a 30.
Pero, hemos visto que la vitamina D es esencial para muchas funciones del organismo y se sintetiza en la piel por la acción de los rayos ultravioleta solares. Eleni Linos y su equipo, de la Universidad de Stanford, aseguran que tanta protección frente al sol puede afectar a los niveles de vitamina D en el organismo. Esta deficiencia vitamínica, como hemos visto, aumenta el riesgo de varias enfermedades y en ello interviene el uso de los protectores solares.
Los protectores solares, en experimentos de laboratorio y en experimentos controlados, reducen los niveles de vitamina D. Ahora Eleni Linos pretende relacionar los niveles de vitamina D con el uso de protectores solares en la población en general y en situaciones de vida normal. A partir de una encuesta nacional sobre salud en Estados Unidos, con datos tomados de 2003 a 2006 a 5920 personas, consigue, por una parte, conocer el uso de protectores solares y, por otra, el nivel de vitamina D en sangre de los voluntarios (en realidad, del precursor 25-hidroxi-vitamina D que pasa a vitamina D en el riñón).
Al analizar los resultados, los autores encuentran que más de la mitad de los encuestados se protegen del sol de alguna manera, aunque el método varía según la raza, sobre todo en relación con los protectores solares: más de la mitad de los blancos (56%) los utilizan con frecuencia mientras que sólo lo hace un tercio de los hispanos (31%) y algo menos de la sexta parte de los negros (14%). Estar a la sombra, en cambio, es más frecuente en hispanos (37%) y negros (43%) que en blancos (25%). En cuanto al nivel de vitamina D en sangre, más del 70% de los que tienen deficiencia se protegen del sol a la sombra o usan la ropa adecuada (sobre todo las camisas de manga larga).
Las conclusiones son curiosas: la deficiencia en vitamina D la provoca la sombra y las mangas largas, no así los protectores solares que, según los investigadores, se utilizan poco o en poca cantidad y, por tanto, no protegen adecuadamente del sol y, de rebote, no provocan niveles bajos de vitamina D.
Hay que añadir que el grupo de Pelle Lindqvist, del Instituto Karolinska de Estocolmo, ha encontrado una relación entre evitar la exposición al sol y la tasa de mortalidad. Ha revisado datos de 29518 mujeres entre 1990 y la actualidad y que tenían de 25 a 64 años cuando se inició el estudio. Para este estudio, tomar poco el sol es, durante el verano, no tomarlo nunca, y tomarlo mucho es, en verano, hacerlo más de 30 veces.
Hasta 2011, fecha de la revisión de datos, habían muerto 2545 voluntarias. El número de fallecimientos es mayor cuanto menos se toma el sol. No hay que olvidar que los datos son de Suecia, un país al norte y con escasez de sol. Cuando se compara la mortalidad entre las que evitan el sol y las que lo toman, la tasa de mortalidad se dobla entre las que lo evitan. Para los autores, la causa está en la deficiencia en vitamina D, con las consecuencias para la salud que antes he mencionado. Conciliar el riesgo de melanoma con la deficiencia en vitamina D necesita un estudio más detallado y preciso para elaborar un protocolo adecuado.
El mismo grupo de Estocolmo estableció poco después que tomar el sol baja la tasa de mortalidad por enfermedades cardiovasculares y por otras enfermedades excepto cáncer. Calculan, por el contrario, que evitar el sol disminuye la esperanza de vida entre 0.6 y 2.1 años. Debido a la mayor esperanza de vida y a que evitan algunas enfermedades, las mujeres que toman el sol padecen cáncer años más tarde.
En conclusión, la radiación solar ultravioleta es esencial para la síntesis de vitamina D pero, a la vez, crece el riesgo de cáncer de piel, del peligroso melanoma. Sin embargo, cuando se ha buscado una relación entre el nivel de vitamina D con el riesgo de melanoma, no s eha encontrado. El estudio de Upekha Liyanage y su grupo, del Instituto de Investigación Médica Berghofer de Brisbane, en Australia, con datos de 36077 voluntarios, concluye que los niveles de vitamina D no se pueden asociar como causa y efecto con el riesgo de melanoma.

Queda por mencionar un inesperado daño colateral en esta conducta de evitar el sol: la contaminación marina provocada por los protectores solares. Fue un grupo de las islas Baleares el primero en detectarlo en Mallorca.
El riesgo asociado a la exposición al sol ha llevado, en los últimos 80 años y según cuentan Antonio Tovar y sus colegas del Instituto Mediterráneo de Estudios Avanzados de Esporles, en Mallorca, a la invención, desarrollo y producción masiva de protectores solares. En consecuencia, también ha llegado su entrada masiva en el ambiente marino costero.
Su composición es compleja, con sustancias que filtran los rayos ultravioleta, algunas orgánicas como los aminobenzoatos, las benzofenonas, los derivados del alcanfor y muchos más, y otras inorgánicas como los óxidos de titanio o de zinc. Todas ellas reflejan y dispersan la radiación ultravioleta e impiden que llegue a la piel. Hay unos 45 compuestos de este tipo cuya producción está regulada en diferentes países.
Además de estas sustancias que actúan como filtros de ultravioleta, una crema solar lleva conservantes, colorantes, agentes que forman geles sobre la piel, controladores de viscosidad, fragancias, etcétera. Y todos ellos acaban, antes o después, en el ambiente, sobre todo en el mar.
El grupo de Antonio Tovar ha medido la presencia de alguno de estos compuestos en cinco puntos de tres zonas de costa de la isla de Mallorca con gran ocupación (entre 3 y 5 personas por metro de costa), en agosto y septiembre de 2011, temporada alta de turismo.
El análisis de las muestras de agua demuestra que los cuatro productos medidos están en el medio. Hay una benzofenona entre 53.6 y 577.5 nanogramos (millonésima parte del miligramo) por litro; un derivado del alcanfor entre 51.4 y 113.4 nanogramos por litro; óxido de titanio entre 6.9 y 37.6 microgramos (millonésima parte del gramo) por litro; y óxido de zinc entre 1.0 y 3.3 microgramos por litro. Estas concentraciones varían entre puntos de muestreo y, también a lo largo del día con el máximo entre las 14.00 y las 18.00 horas.
Para conseguir una primera aproximación de la posible influencia de estos compuestos en el medio marino, los ensayan sobre el crecimiento de un alga diatomea habitual en la zona, la Chaetoceras gracilis, y en ensayos cortos de 72 horas, en lo que se denomina toxicidad aguda. Con todos los compuestos hay una caída del crecimiento de la diatomea aunque las concentraciones necesarias son mucho más altas, a nivel de miligramos por litro, es decir, un millón de veces más altas que las encontradas en las playas. Pero no hay que olvidar que el periodo de exposición en el experimento era muy corto, solo 72 horas, y a más largo plazo, semanas, meses o años, incluso con concentraciones más bajas, no conocemos los efectos que provocan y los componentes de los protectores solares podrían ser peligrosos.
Referencias:
Holick, M.F. 2017. The vitamin D deficiency pandemic: Approaches for diagnosis, treatment and prevention. Reviews in Endocrine and Metabolic Disorders 18: 153-165.
Lindqvist, P.G. et al. 2014. Avoidance of sun exposure as a risk factor for all-cause mortality: results from the Melanoma in Southern Sweden cohort. Journal of Internal Medicine doi: 10.1111/joim.12251
Lindqvist, P.G. et al. 2016. Avoidance of sun exposure as a risk factor for major causes of death: a competing risk analysis of the Melanoma in Southern Sweden cohort. Journal of Internal Medicine doi: 10.1111/joim.12496
Linos, E. et al. 2012. Sun protective behaviors and vitamina D levels in the US population: NHANES 2003-2006. Cancer Causes Control 23: 133-140.
Liyanage, U.E. et al. 2020. Is there a causal relationship between vitamin D and melanoma risk? A Mendelian randomization study. British Journal of Dermatology 182: 97-103.
Matthews, N.H. et al. 2017. Epidemiology of melanoima. En “Cutaneous melanoma: ethology and therapy”, p. 3-22. Ed. por W.H. Ward & J.M. Farma. Codon Publ. Brisbane, Australia.
Tovar-Sánchez, A. et al. 2013. Sunscreen products as emerging pollutants to coastal waters. PLOS ONE 8: e6545
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo A tomar el sol se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Las mutaciones que aclaran la piel
- Biomarcadores para la detección precoz del melanoma
- Cómo nos ayuda la ciencia a tomar decisiones correctas
La hipótesis de la abuela

La menopausia es, desde una perspectiva evolutiva y en apariencia, una anomalía. De hecho, es un fenómeno muy poco frecuente en el mundo animal. En casi todas las especies las hembras se mantienen fértiles a lo largo de toda su vida. Nuestra especie forma parte de un pequeño grupo de mamíferos en los que la capacidad reproductiva se deteriora de forma acelerada con relación al declive orgánico general. El grupo lo forman, además de la especie humana, el calderón tropical, la beluga, el narval y la orca, todos ellos cetáceos odontocetos. Las hembras de esas especies pueden vivir décadas después de cesar de ovular y, por lo tanto, de poder procrear.
El biólogo norteamericano George C Williams propuso en 1957 que la menopausia podría ser, en realidad, una adaptación. Pensó que desde el punto de vista evolutivo, podría resultar más conveniente para las mujeres dedicar sus esfuerzos a apoyar a sus descendientes que tener ellas una progenie mayor. Conforme envejecemos aumenta la probabilidad de morir, por lo que si una mujer tiene descendencia a una edad avanzada, no sería improbable que sus últimos hijos no pudieran sobrevivir al morir ella. En tal caso, el esfuerzo que esa mujer hubiese dedicado a esos últimos hijos habría resultado baldío, pues sus genes no habrían podido replicarse y ser transmitidos a las siguientes generaciones a través de esos últimos descendientes. Por otro lado, que en una población haya individuos que no se reproducen carece de sentido desde un punto de vista evolutivo, pues esos individuos consumen unos recursos que podrían utilizar otros en beneficio de su propia progenie.
Por estas razones, Williams propuso que las mujeres de mayor edad contribuyen de una forma más efectiva a transmitir sus genes a las generaciones posteriores dedicando sus esfuerzos a los descendientes que ya forman parte del grupo, o sea, a sus nietos y nietas, en vez de hacerlo a los hijos e hijas que a una edad avanzada pudiera llegar a tener ellas mismas.
La “hipótesis de la abuela”, como se conoce en la actualidad la propuesta de Williams, cuenta con respaldo empírico en nuestra especie. Tanto en grupos de cazadores-recolectores, como en sociedades preindustriales se ha comprobado que las abuelas que no se reproducen aumentan la probabilidad de supervivencia de sus nietos. En otras palabras, su presencia en el grupo facilita que sus genes –los que han llegado hasta los nietos- perduren tras su propia muerte o, dicho en lenguaje darwinista, mejore su propia adecuación o éxito evolutivo (fitness) a través del cuidado que presta a sus nietos.
Hay especies, como el elefante asiático y posiblemente también los africanos, de las que sabemos que las abuelas mejoran la supervivencia de los nietos, aunque en este caso las abuelas se siguen reproduciendo. Pero aparte de la especie humana, en ningún otro animal se contaba con pruebas fehacientes en favor de la “hipótesis de la abuela”. Hasta hace unas semanas, pues se acaba de publicar un estudio con orcas –también llamadas, impropiamente, ballenas asesinas- que documenta el efecto positivo de abuelas que no se reproducen en la supervivencia de sus nietos. El estudio recién publicado no solo confirma ese efecto, también muestra que las abuelas que siguen procreando no prestan un apoyo similar al que brindan las orcas menopaúsicas.
La importancia que ese periodo posmenopáusico tan extenso tiene en seres humanos y en orcas habría impulsado, según los especialistas, un aumento en la longevidad de las dos especies, pues la mayor supervivencia de los nietos durante los años de vida añadidos habría compensado con creces, en términos evolutivos, el cese de la procreación.
Fuente: S. Nattrass et al (2019): Postreproductive killer whale grandmothers improve the survival of their grandoffspring. PNAS.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La hipótesis de la abuela se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Herramientas de luz: de la ciencia ficción a las películas moleculares
Desde su descubrimiento en 1960, los rayos láser han servido de inspiración de películas y series de ciencia ficción. Gracias a desarrollos posteriores algunas de estas fantasías se han hecho realidad. De hecho, ha sido posible crear potentes herramientas de luz de aplicación en ámbitos tan diversos como la biología, la medicina, la industria, las telecomunicaciones o la investigación básica en general.
La conferencia titulada “Herramientas de luz: de la ciencia ficción a las películas moleculares” describe algunas de estas aplicaciones de los rayos láser y abordará las nuevas perspectivas que existen con las fuentes láser de gran intensidad concentrada en pulsos de tiempos muy cortos. Estas fuentes láser permiten filmar los procesos moleculares o incluso adentrarse en el mundo de los electrones, ámbitos antes inexplorables para la ciencia.
Nerea Zabala es la ponente de esta charla del ciclo Bidebarrieta Científica, iniciativa impulsada por la Cátedra de Cultura Científica de la UPV/EHU y la Biblioteca Bidebarrieta. La conferencia ttuvo lugar el pasado 26 de febrero de 2020 en la Biblioteca Bidebarrieta de Bilbao.
Nerea Zabala, doctora en Física, es investigadora asociada en el Centro de Física de Materiales (centro mixto CSIC-UPV/EHU) y en el Donostia International Physics Center (DIPC), y profesora en la Facultad de Ciencia y Tecnología de la UPV/EHU. Actualmente su investigación se centra en el estudio del comportamiento de la luz en la nanoescala.
Edición realizada por César ToméLópez
El artículo Herramientas de luz: de la ciencia ficción a las películas moleculares se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- #NaukasKids14 Física y ciencia ficción
- Un equipo de alta fidelidad de ciencia ficción
- Ciencia, arte y cultura callejera: física y música
Lo que la búsqueda de inteligencia extraterrestre nos enseña para entender la pandemia

Comprender el significado de los números cuando se refieren a cantidades muy grandes o muy pequeñas es complicado. Esto es algo que experimentamos ahora mismo con la pandemia del COVID-19. La combinación de unos números muy grandes (la población total susceptible de ser contagiada) junto con unas probabilidades ínfimas (las asociadas al contagio individual y a la aparición de determinados síntomas graves) da como resultado unas cantidades de muy difícil interpretación. Sobre todo si ignoramos la disponibilidad de servicios hospitalarios. Así, las diferencias entre el riesgo individual y el comunitario se entremezclan y en ocasiones se oscila entre el excesivo alarmismo y el optimismo injustificado.
Para ilustrar esta situación en un contexto más amable, podemos utilizar la fórmula presentada en 1961 por el radioastrónomo Frank Drake para dar una base cuantitativa al proyecto SETI (Search for ExtraTerrestrial Intelligence) en la segunda mitad del siglo XX. SETI suponía un intento científico para determinar la probabilidad de establecer contacto con civilizaciones extraterrestres en nuestra galaxia, algo que muchos verán como mera ciencia-ficción pero que podemos abordar con un espíritu analítico.
¿Cómo podríamos determinar el número de eventos de un determinado suceso tan improbable como la comunicación con una sociedad tecnológica extraterrestre? La estrategia consiste en separar los factores que deben concatenarse para lograr un positivo. Asumiremos que todos estos sucesos son independientes y que, por lo tanto, podemos determinar la probabilidad de que se den simultáneamente con una sencilla multiplicación. Añadiendo factores podemos llegar a una estimación razonable sobre la probabilidad del evento final: aquel en el que todos los sucesos se combinan perfectamente.
Esta tarea abarca un buen número de disciplinas que van desde las ciencias experimentales hasta especulaciones de muy discutible fundamento, pasando por áreas del conocimiento más difícilmente mensurables como la historia y las ciencias sociales.
Podríamos comenzar tomando como primeros factores la fracción de estrellas en la galaxia que presentan planetas en su entorno y la cantidad de estos que tienen la composición adecuada y están en la zona de habitabilidad. Estas son cuestiones que las últimas misiones espaciales como Kepler, Gaia y TESS nos permiten cuantificar. Pisamos tierra firme o, al menos, un suelo más firme de lo que Drake pudo hacer en su momento.

¿Cómo cuantificamos la probabilidad de que surja vida en un planeta que aparentemente reúne las condiciones adecuadas? ¿En cuántos de ellos se ha desarrollado la vida inteligente en forma de civilizaciones? Hasta la fecha, aunque Marte o Venus reunieran condiciones habitables en el pasado, solo conocemos un caso positivo: la Tierra. Ninguno de los más de 4 000 planetas extrasolares conocidos ha demostrado de momento sustentar una biosfera como la nuestra.
A partir de aquí la cuestión se complica. Necesitaríamos cuantificar la evolución de las sociedades hacia la tecnología y el deseo de comunicarse con el resto del universo. También influirá el tiempo durante el cual sean capaces de hacerlo: un siglo, mil años o, como sugirió Drake, hasta 10 000 años. Los datos experimentales para establecer estas cantidades son muy escasos y se basan en la historia humana y en la dinámica de las sociedades que solo comenzamos a comprender de una forma cuantitativa.
En el momento en que Frank Drake asignó valores a todos los términos se encontró con un resultado extraordinario: hasta diez civilizaciones deberían ser detectables mediante SETI. Pero, si así fuera, ¿dónde se encuentran? Esta es la llamada Paradoja de Fermi, opuesta al optimismo de Drake. Encontrar las razones de este inquietante silencio, como se le ha llamado, es también una buena manera de explorar nuestro futuro inmediato y tratar de adivinar los riesgos que como civilización nos pueden esperar a la vuelta de la esquina cósmica.
Otros autores discreparon con los números de Drake desde el primer instante, obteniendo valores mucho más bajos que manifestaban la improbabilidad de lograr el contacto gracias al proyecto SETI. Pequeñas variaciones en los términos que se multiplican en esa larga cadena resultaban en cambios notables del resultado final y, peor aún, las incertidumbres se propagaban exponencialmente en el resultado.
De la ecuación de Drake podemos aprender que los eventos individuales pueden ser realmente infrecuentes o improbables pero, aplicados a una población lo suficientemente grande, su aparición es inevitable. Además, cuando los eventos dependen de una larga cadena de condiciones cuyas probabilidades no podemos estimar con total certeza, nuestra capacidad de predecir los eventos futuros se enturbia. La diferencia con la epidemiología es que, en esta, buscamos que los eventos sucedan en el menor número posible y, para ello, podemos actuar sobre algunos de los factores involucrados.
Desde un punto de vista sanitario, la probabilidad de un evento único, como que enfermemos con síntomas graves, puede ser muy baja, casi despreciable. Aplicada sin embargo sobre el conjunto de la población, terminará sucediendo. Y lo hará más de una vez. Los factores que influyen incluyen la biología, fisiología y la sociología, con una transversalidad similar a la de la astrobiología.
La buena noticia es que cambiar esto se encuentra en nuestra manos: alterando unos pocos factores podemos reducir el número a una cantidad, si no nula, al menos manejable. En ello estamos.
Sobre el autor: Santiago Pérez Hoyos es investigador doctor permanente en astronomía y astrofísica en la Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original
El artículo Lo que la búsqueda de inteligencia extraterrestre nos enseña para entender la pandemia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La búsqueda de la inteligencia artificial
- Un juego de mesa para entender la irreversibilidad
- La búsqueda de la inteligencia artificial, en la próxima zientziateka
¿Por qué suena triste el modo menor?
Hace cuatro milenios, en Mesopotamia, los sumerios ya utilizaban un sistema musical de siete notas y siete modos para componer sus canciones. Este sistema fue heredado por los griegos que se lo contagiaron al resto de Europa y, desde entonces hasta ahora, —pasando por la larga Edad Media— distintos modos han ido ganando y perdiendo popularidad, según la época. En la actualidad, solemos utilizar preferentemente dos de esos antiguos modos que hemos rebautizado como Modo Mayor y modo menor.
Quizás este desenlace no sea más que un accidente fortuito de la historia. No sabemos si en algún universo paralelo, el reguetón se escribe en el modo frigio y la salsa suena mucho más a mixolidio. Pero, de acuerdo con la hipótesis del profesor David Huron, una vez reducidas las alternativas a dos, su asociación emocional era inevitable: es posible que el modo menor sea, en gran medida un accidente cultural y su asociación con la tristeza deba ser aprendida. Pero esto no significa que sea una asociación arbitraria.
La idea de Huron es que el modo menor suena triste porque suena más triste que el Modo Mayor1. Este, en cambio, saca a relucir su alegría cuando se pone en contraste con su oscuro hermano menor. La clave de esta comparación vuelve a encontrarse en las características de la prosodia humana y cómo esta se ve afectada por nuestras emociones. Pero, para entenderlo, debemos volver a sacar al humano triste de paseo.
Un humano triste, recordemos, es un humano al que le han quitado las pilas. Por eso (y porque tensar las cuerdas vocales también requiere su esfuerzo, aunque no lo parezca), es común que hable bajito, sin cambiar mucho el tono de voz, balbuceando a menudo. Particularmente: es típico que el humano triste produzca sonidos más graves de los que son habituales en él.
Sin embargo, para identificar este cambio en su tono de voz no nos basta con atender a su frecuencia, sin más. Si fuese así, los hombres —que, por lo general, tienen la voz hasta una octava más grave que las mujeres— sonarían siempre tristes, deprimidos, no serían capaces de expresar alegría. Esto, evidentemente, no sucede y el motivo es que, para identificar una voz triste, lo que hacemos es establecer una comparación: entre el tono de esa misma voz en su estado neutro y su tono cuando la invade la tristeza.
Del mismo modo, cuando escuchamos música, realizamos sin darnos cuenta una comparación parecida: entre los tonos que predominan en esa canción y los tonos que se utilizan habitualmente en el resto de nuestra música. O, también, entre los tonos que estamos escuchando en ese momento y los tonos que predominan en el resto de la canción. Y aquí es donde la correspondencia entre los modos Mayor y menor se vuelve relevante, porque si colocamos estas escalas en paralelo, nota a nota, lo que observamos es que el modo menor es una versión oscurecida del Modo Mayor: un modo al que se le han agravado ciertas notas y acortado ciertos intervalos2.
Si bien el uso del modo menor en nuestra tradición musical es, por sí mismo, un accidente cultural, esta especie de tristeza por agravio comparativo parece ser mucho más universal. En 2007, Parag Chordia y Alex Rae quisieron ponerla a prueba utilizando, esta vez, fragmentos musicales procedentes de la India. A través de internet recibieron 22000 respuestas de 500 participantes encargados de clasificar emocionalmente pequeños fragmentos de ragas (los modos melódicos utilizados en la música clásica india). El compendio de todas ellas desvelaba un mismo patrón: los fragmentos con tonos comparativamente más graves e intervalos más pequeños, eran percibidos como más tristes3.
Este es quizás el motivo por el que resulta sorprendente escuchar canciones ya conocidas… a las que alguien ha cambiado el modo (Youtube está lleno de ejemplos). Nuestro recuerdo de la canción original fija un estándar sobre el que inevitablemente superponemos la versión alterada y el contraste saca a relucir la tristeza (o la alegría) percibida
No obstante, mi uso preferido de este contraste se da cuando algún compositor lo establece dentro de una misma canción. Como en esta preciosa canción de El Kanka que, de repente, se quita la ironía y cambia sorpresivamente al modo mayor para hablar de un pasado aparentemente más feliz (se escucha el cambio sobre la misma melodía, en 1’08’’, por ejemplo).
También, me viene a la mente el Lago de los Cisnes de Tchaikovsky. Cuando, en la última escena, después de todo el drama, después de que el tema se haya repetido 500 veces en modo menor, con los protagonistas ya bien muertos y suicidados… el hechizo de los cisnes se rompe y, de repente, escuchamos el mismo tema (2’55’’) ¡pero esta vez triunfante, en Modo Mayor! Parece mentira que pueda tratarse de la misma melodía, cambiando apenas unas pocas notas.
Notas:
1David Huron (2008) A Comparison of Average Pitch Height and Interval Size in Major- and Minor-key Themes: Evidence Consistent with Affect-related Pitch Prosody. Empirical Musicology Review
2El lector que tenga conocimientos musicales quizás se plantee que, al agravar ciertas notas algunos intervalos se harán necesariamente más grandes debido a la estructura cíclica de las escalas. David Huron analizó esta cuestión partiendo de casi 10.000 piezas instrumentales en modo Mayor y menor. Debido a la frecuencia de aparición desigual de los posibles intervalos, el efecto global de cambiar estas notas daba lugar a melodías con intervalos más reducidos en el modo menor.
3Parag Chordia y Alex Rae. “Understanding Emotion in Raag: An Empirical Study of Listener Responses”. Computer Music Modeling and Retrieval. Sense of Sounds, 2008.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo ¿Por qué suena triste el modo menor? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La hoja de papel con cuatro caras, una propuesta de taller
Hace unos cuantos días, pensando en la situación de confinamiento en la que nos encontramos en estos momentos, me pareció que sería una buena idea preparar una actividad sencilla para enviar a la gente y que pudieran realizarla en su casa. Mi idea era que fuese una actividad para personas de cualquier edad, desde pequeños (acompañados si es necesario) hasta mayores. Entonces, me decidí por un taller que hago desde hace algunos años, aunque relacionado con otras cuestiones, y que me gusta mucho. Consiste en construir un objeto matemático sencillo y sorprendente, una hoja de papel con cuatro caras.
Este objeto matemático, cuyas instrucciones de construcción os voy a explicar en esta entrada del Cuaderno de Cultura Científica, pertenece a la familia de objetos llamados flexágonos y que fue descubierta por el matemático inglés Arthur Stone, de quien ya hemos hablado en relación con el problema de la cuadratura del cuadrado en 1939. Aunque estos objetos fueron dados a conocer y popularizados por el gran divulgador de las matemáticas Martin Gardner (1914-2010) en su columna Juegos matemáticos de la revista Scientific American. En concreto, el objeto matemático que vamos a construir en esta entrada es un tetraflexágono, es decir, un flexágono con cuatro lados (cuadrado o rectángulo), además, como va a poder mostrar cuatro caras, se denomina un tetratetraflexágono.

Pero vayamos directamente a nuestro objeto matemático, esa hoja de papel de cuatro caras, el tetratetraflexágono, y a su construcción: materiales e instrucciones.
Material básico para el taller: una hoja de papel normal, por ejemplo, din A4, un lápiz y una regla.
Instrucciones para construir el tetratetraflexágono, la hoja de papel con cuatro caras:
Punto 1. Tomamos la hoja de papel, que colocamos con el lado largo en horizontal, y lo vamos a dividir –por delante y por detrás- en cuatro columnas y tres filas, utilizando líneas trazadas con un lápiz. Generando de esta forma 4 x 3 = 12 casillas rectangulares en cada lado.
Punto 2. En cada una de las casillas vamos a pintar, centrado, un número. En las 12 casillas de la parte frontal pintamos los números 4, 4, 3, 2 (en la primera fila, la de arriba), luego 2, 3, 4, 4 (en la segunda fila, en medio) y 4, 4, 3, 2 (en la tercera). Ahora en las casillas de la parte trasera pintamos los números 1, 1, 2 y 3 (arriba), 3, 2, 1, 1 (en medio), 1, 1, 2, 3 (abajo). Ojo, aquí quien lo desee puede echarle imaginación y pintar unos números chulos.


Punto 3. Ahora tenemos que realizar un pequeño corte con unas tijeras, por lo tanto, hay que tener cuidado. Si la actividad la realizan niños y niñas pequeños necesitarán la ayuda, o supervisión, de una persona mayor. Antes de realizar el corte, doblad por las líneas rectas que habéis pintado a lápiz, os ayudará a realizar el corte y además es necesario para la parte final.
Pero vayamos con el corte. Si consideramos la hoja de papel con la parte frontal, la primera, la que tiene solo doses, treses y cuatros, entonces vamos a cortar el papel para separar las dos casillas del centro –con los números 3 y 4- del resto, pero por todos los lados, salvo uno, el derecho –donde se unen los dos cuatros (véase la siguiente imagen).
Es decir, cortaremos los lados de arriba de las casillas centrales, 3 y 4, el lado izquierdo de la casilla del 3 y los lados de debajo de esas dos casillas centrales. De esta forma, estas dos casillas, 3 y 4, que están unidad entre sí, solo están unidas al resto por el lado derecho, el lado entre los dos cuatros.
Punto 4. A continuación, vamos a realizar unos cuantos dobleces para generar nuestra nueva hoja de papel, que tendrá 2 x 3 = 6 casillas.
Primero, doblamos esa parte central, de dos casillas, hacia la derecha, de forma que va a quedar un 2 hacia arriba, donde estaba el 4, y el 1 que lo acompaña quedará por debajo de la hoja.
Después, doblamos la columna 4, 2, 4 hacia la derecha, una vez, y después toda la nueva columna (sobre la que ahora vemos los números 3, 1, 3) de nuevo hacia la derecha.
Nos quedará una hoja de papel con 2 x 3 = 6 casillas, con un 2 en todas las casillas, como muestra la siguiente imagen.
Punto 5. Si le dais la vuelta a la nueva hoja de 6 casillas, tendréis una hoja de papel con un 1 en todas las casillas (la imagen de abajo). Estamos entonces en el último paso. Hay que poner un poco de celo uniendo los dos unos de la fila del centro, el de la izquierda con el de la derecha.
Y ya tenéis la “nueva” hoja de papel con cuatro caras. Veámoslo. En la que tenemos delante solo hay unos (1), le damos la vuelta y solo hay doses (2), luego dos caras. Ahora, con los doses mirando hacia nosotros, doblaremos la hoja por la mitad vertical, llevando las dos mitades hacia atrás, y cuando lleguemos a juntar las dos partes veremos que se nos abre la hoja por el medio, la ayudamos a abrirse con nuestros dedos y veremos que la hoja que tenemos delante tiene todo treses (3).
Si volvemos a doblar la hoja por la mitad vertical, hacia atrás, descubriremos una nueva cara con todo cuatros (4). Es decir, tenemos una hoja de papel con cuatro caras, un tetratetraflexágono. Solo un consejo, antes de mostrárselo a las demás personas practicad el paso de una cara a otra.
La parte básica del taller es la que acabamos de describir arriba, pero a partir de ahí cada cual puede echarle imaginación y hacer el flexágono lo más artístico o curioso que considere oportuno. Por ejemplo, Cristina Barcala, una apasionada de la divulgación científica y lectora del Cuaderno de Cultura Científica, nos mandaba su propia versión, de tamaño mini (la siguiente imagen).
Aunque si os ha gustado esta actividad sobre la realización de un tetraflexágono, podemos abordar la realización de los otros dos tetraflexágonos que aparecen en el artículo Tetraflexagons, del libro de Martin Gardner The 2nd Scientific American Book of Mathematical Puzzles and Diversions (1961), uno de tres caras –tritetraflexágono- y otro de seis caras –hexatetraflexágono-.
Empecemos con el tritetraflexágono. Para realizarlo hay que construir con una hoja de papel una “tira de papel” de dos filas, como la que aparece en la siguiente imagen, trazar las seis casillas de cada cara y dibujar los números 1, 2 y 3 en las casillas, de la parte frontal y trasera, como aparece en la imagen.
Después doblamos hacia atrás las dos casillas de la izquierda, las que tienen los unos, quedando nuestra tira de papel como se ve en la imagen.
Y doblamos, ahora hacia delante, la casilla de la derecha, la que tiene el tres, quedando así todas las casillas con doses frente a nosotros.
Para finalizar, solo hay que colocar un pequeño trozo de celo entre las dos casillas de la derecha, como se muestra en la imagen.
De esta forma, hemos construido el tritetraflexágono, que tiene tres caras, podemos mostrar en cada una de esas caras, todos unos, doses o treses.
Por último, vamos a terminar con los esquemas para realizar el hexatetraflexágono. Para este flexágono, partimos de una hoja cuadrada, dividida en 16 casillas –cuatro filas y cuatro columnas- en cada cara, a la que le hemos cortado las cuatro casillas del centro. Luego solo le quedan las 12 casillas del exterior. Esta vez vamos a utilizar seis colores (aunque mantenemos los números para seguir las instrucciones de la construcción) para pintar cada casilla, de la parte frontal y trasera, como aparece en las siguientes imágenes.
Las dos casillas de la derecha (en la primera imagen) se separan con un pequeño corte horizontal. Entonces, vamos doblando por donde indican las flechas, empezando por la flecha de abajo y en el sentido de las agujas del reloj, de forma que lo que nos queda al terminar es la siguiente imagen.
De nuevo, doblamos por donde indican las flechas, hasta que quede como la siguiente imagen. Para terminar, solamente hay que añadir un trozo de celo para unir, por arriba, la casilla superior izquierda de delante, con la que tiene atrás.
Y ya tendríamos nuestro hexatetraflexágono.
Bibliografía
1.- Martin Gardner, The 2nd Scientific American Book of Mathematical Puzzles and Diversions, University of Chicago Press, 1987 (publicado originalmente en 1961).
2.- Robert Ghattas, Bricológica, Treinta objetos matemáticos para construir con las manos, RIALP, 2011.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo La hoja de papel con cuatro caras, una propuesta de taller se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El teorema de los cuatro colores (3): Tras más de un siglo de aventura… ¿un ordenador resuelve el problema?
- El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba
- Cuatro leyes consumadas siguiendo una banda de Möbius
La teoría de bandas explica la conducción eléctrica

La idea básica tras las bandas de Bloch en un sólido es que se crean al unirse los estados cuánticos de los átomos individuales. Bloch y otros ampliaron y refinaron la teoría de bandas de los sólidos durante la década de 1930, hasta el punto de que explica muy bien el comportamiento de conducción eléctrica de los distintos materiales.
Cuando los átomos se unen en un cristal, cada uno de los estados cuánticos individuales de los átomos se une con los estados correspondientes en otros átomos (idénticos) en el cristal para formar las diversas bandas de energía dentro del material. De hecho, si hay un total de N átomos idénticos en el material, entonces hay N estados cuánticos dentro de cada banda. Los electrones en los átomos llenan los estados disponibles dentro de cada banda. Así, si hay N estados en una sola banda, puede haber hasta 2N electrones en cada banda [1].
La física interesante ocurre en la parte superior de las bandas llenas. Cuando se aplica un campo eléctrico externo (voltaje) al material, un electrón puede responder al campo solo si puede moverse a un estado cuántico ligeramente más alto, ya que tendría un poco más de energía al ser afectado por el campo. Esto será posible solo si hay algunos estados libres cercanos a los que el electrón pueda saltar. Este es el caso de los materiales conductores, como el cobre y la plata, ya que sus electrones se llenan en los estados disponibles de modo que la banda más alta está llena solo parcialmente. Los electrones en esta banda, que se llama banda de conducción, son libres de ser conducidos (en realidad, propagados como ondas) por el material, ya que hay estados cuánticos vacíos cercanos en su banda de energía. Pero los electrones en las bandas inferiores llenas no pueden moverse, ya que no hay estados libres cerca.
Por otro lado, si las bandas se llenan de manera que se ocupa exactamente el límite superior de una banda, entonces los electrones no pueden responder a un campo eléctrico, ya que hay una brecha de energía [2] que les impide llegar a un estado cuántico en el que pueden moverse libremente [3]. Un material con estas características es lo que conocemos como aislante. [4]
Finalmente, si estamos ante un caso como el de los aislantes pero la brecha de energía con la banda de conducción no es demasiado grande, puede resultar que la energía térmica sea suficiente como para que algunos electrones salten a ella. Este es el caso de los semiconductores.

Notas:
[1] De acuerdo con una regla en la mecánica cuántica solo dos electrones pueden ocupar un estado de energía cuántica de un solo átomo. El principio de exclusión de Pauli establece que no pueden existir dos partículas en un sistema, electrones en un átomo o quarks en un hadrón, que tengan un conjunto de números cuánticos idéntico. Aplica solo a las partículas llamadas fermiones, no a los hadrones. Los electrones son en todo iguales e indiscernibles salvo porque unos tiene una “cosa” llamada espín con un valor y otros con otro valor. Por eso solo puede haber dos electrones en un estado cuántico de energía: en ese estado todos los números cuánticos son iguales salvo el espín, si hubiese un tercer electrón se violaría el principio de exclusión. Aunque parece un principio inventado para que cuadren los datos, se justifica por el teorema de la estadística del espín de la teoría cuántica de campos relativista.
[2] Una «banda prohibida» por la naturaleza cuántica de las bandas.
[3] Normalmente. Si el voltaje es enorme algunos electrones podrán desplazarse, porque adquirirán energía suficiente como para saltar de la banda de valencia a la banda de conducción. Véase [3]
[4] Un ejemplo es el diamante, en el que el estado cuántico lleno más alto también llena una banda de energía. Esta banda se llama banda de valencia, ya que está ocupada por los electrones de valencia externos de los átomos. La brecha de energía a la siguiente banda, que está vacía, es de aproximadamente 6 eV, por lo que los electrones en el diamante normalmente no pueden alcanzar la banda de conducción y, por lo tanto, el diamante es un buen aislante. En los conductores la banda de conducción se solapa con la llamada banda de valencia, por lo que no hay brecha de energía.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La teoría de bandas explica la conducción eléctrica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Las bandas de Bloch
- La teoría de bandas de los sólidos se hace topológica
- El modelo de Bohr explica las regularidades en el espectro del hidrógeno
Los males de la ciencia tienen remedio

En las anotaciones precedentes nos hemos dedicado a repasar los que a nuestro juicio son los males de la ciencia actual. La serie empezó por una presentación de la empresa científica, el marco institucional y económico en el que se desarrolla, y el entramado de las publicaciones científicas como producto principal. Seguimos analizando los valores de la ciencia tal y como los formuló Merton a mediados del siglo pasado. Y a continuación abordamos el repaso de una serie de males que pueden considerarse propios, específicos de la empresa científica. Las últimas anotaciones han tratado de las resbaladizas relaciones entre investigación científica y ética en diferentes planos.
La relación de “males” o “patologías” no ha pretendido ser exhaustiva. Algunas de las malas prácticas presentadas aquí lo son porque vulneran las normas de Robert K Merton, incumplen el ethos de la ciencia en los términos en que él lo definió y que, implícitamente, asumimos gran parte de los científicos. Otras tienen más que ver con aspectos nucleares de la práctica científica o con el sistema de publicaciones o de financiación de la investigación. Son, por lo tanto, diferentes y seguramente los remedios que requieran también lo sean. Pero sospechamos que una gran parte de los problemas se atenuaría si universidades y centros de investigación modificasen el sistema de incentivos que utilizan para reconocer y premiar el trabajo de su personal científico. La cantidad debería perder importancia como criterio, para ir valorando cada vez más la calidad del trabajo y la trascendencia o relevancia de las investigaciones. No se trata de acudir a indicadores de las publicaciones tal y como se utilizan hoy o, al menos, no solo a esos indicadores (basados en métricas de impacto y similares), sino de recurrir a la valoración experta del nivel y alcance del trabajo realizado.
Tenemos por último, todos esos ámbitos en los que el desarrollo de la ciencia se enfrenta a dilemas de naturaleza ética. No se trata de dilemas específicos de la ciencia, o dilemas cuya resolución deba recaer exclusivamente sobre el mundo científico. Son, en su gran mayoría, dilemas sociales. La ciencia es, si acaso, el instrumento, pero es en el ámbito social y político donde se han de resolver. Si se han de exprimir al máximo las posibilidades que nos brinda la biotecnología, o si debemos permanecer pasivos ante la previsible robotización de la sociedad, son cuestiones que no corresponde dirimir a los científicos. Quienes hacen la investigación científica deberán aportar su criterio experto, y tanto la sociedad como los responsables deberían tomar buena nota y tener en cuenta el dictamen experto, pero en última instancia, las decisiones son de carácter social y político. Nos interesa remarcar esta diferencia, porque los males que hemos considerado intrínsecos a la ciencia lo son porque de no neutralizarlos, está en juego el propio funcionamiento del sistema científico, y en ese terreno, los miembros de ese sistema tenemos mucho que decir y que hacer. Precisamente por esa razón, no nos parece saludable que los científicos se desentiendan de las implicaciones sociales de su trabajo. Creemos que tenemos una especial responsabilidad al respecto, precisamente porque somos quienes mejor podemos calibrar el alcance de nuestro trabajo más allá de cómo quede recogido en las publicaciones científicas.
La ciencia sufre de esos y de otros males; son males serios y de graves consecuencias. Las que afectan, con carácter general, al desarrollo del conocimiento son evidentes. Pero esas no son las únicas. También hay consecuencias prácticas de gran trascendencia. En los Estados Unidos se estima que la investigación preclínica no reproducible tiene un coste anual de 28 mil millones de dólares y, por supuesto, retrasa el desarrollo de tratamientos que salvan vidas humanas y mejoran la calidad de vida. Es de suponer que en el resto de potencias científicas las cosas estarán, en su correspondiente proporción, más o menos igual.
Hay investigadores que son reticentes a abordar de forma abierta estas cuestiones, porque temen que pueden conducir a un debilitamiento de la empresa científica porque la sociedad deje de confiar en los científicos. Creo que se trata precisamente de lo contrario. La opacidad sería contraproducente. Una herida que se cierra sin haberla limpiado debidamente, se cierra en falso porque cultiva la infección en su interior y antes o después, aflorará. La vía más eficaz para sanar los males pasa por conocerlos y buscar las medidas para combatirlos. No hay que ser tan ingenuo como para pensar que muchos de los problemas aquí expuestos tienen una solución definitiva. Ningún problema complejo suele tener soluciones definitivas y, desde luego, nunca son soluciones simples. De lo que se trata es de conseguir un funcionamiento de la empresa científica razonablemente mejor que el actual, más sano, con mejores resultados, más eficiente, y que se base más en la realización de interesantes trabajos que en la producción de ingentes cantidades de artículos.
Pero a la vez que han de preocuparnos los males, también debemos congratularnos de que sea la misma comunidad científica la que está tratando de aportar soluciones. Porque han sido científicos profesionales quienes han investigado y dado a conocer las patologías que aquejan a la práctica científica. Han sido científicos profesionales y organizaciones científicas las que han propuesto medidas para afrontar los problemas y resolverlos. Y algunas revistas científicas están adoptando medidas para incentivar la transparencia y la reproducibilidad de los resultados. Esas son las buenas noticias.
Fuentes:
Agin, D (2007): Ciencia basura. Starbooks, Barcelona.
Briggle, A (2012): Scientific Responsability and Misconduct, in Encyclopedia of Applied Ethics, Vol 4, pp.: 41-48, 2nd edition, Academic Press, London
Ferris, Timothy (2010): The Science of Liberty, Harper Collins, Nueva York
Fischer, B A, Zigmond, M J (2012): Scientific Publishing, in Encyclopedia of Applied Ethics, Vol 4, pp.: 32-40, 2nd edition, Academic Press, London
Häyry, M (2012): Genetic Engineering of Human Beings, in Encyclopedia of Applied Ethics, Vol II, pp.: 437-444, 2nd edition, Academic Press, London
Holm, S, Stokes E (2012): Precautionary Principle, in Encyclopedia of Applied Ethics, Vol III, pp.: 569-575, 2nd edition, Academic Press, London
Johnson, J (2012): Ethical Experiments, in Encyclopedia of Applied Ethics, Vol 2, pp.: 149-156, 2nd edition, Academic Press, London
Johnson, S (2012): Nanotechnology, in Encyclopedia of Applied Ethics, Vol III, pp.: 183-185, 2nd edition, Academic Press, London
López Nicolás, J M (2016): Vamos a contar mentiras. Cálamo, Madrid.
Menéndez Viso, A (2005): Las ciencias y el origen de los valores. Siglo XXI.
Merton, R K (1942): “Science and Technology in a Democratic Order” Journal of Legal and Political Sociology 1: 115-126. [Traducción al español como “La estructura normativa de la ciencia” en el volumen II de “La Sociología de la Ciencia” Alianza Editorial 1977, traducción de The Sociology of Science – Theoretical and Empirical Investigations, 1973]
Neri, D (2012): Eugenics, in Encyclopedia of Applied Ethics, Vol 1, pp.: 189-199, 2nd edition, Academic Press, London
Oreskes, N y Conway, E N (2018): Mercaderes de la duda. Cómo un puñado de científicos oscurecieron la verdad sobre cuestiones que van desde el humo del tabaco al calentamiento global. Capitán Swing, Madrid.
Resnik, D B (2012): Developing World Bioethics, in Encyclopedia of Applied Ethics, Vol 1, pp.: 771-778, 2nd edition, Academic Press, London
Solbakk J H, Vidal, S M (2012): Research Ethics, Clinical, in Encyclopedia of Applied Ethics, Vol 3, pp.: 775-785, 2nd edition, Academic Press, London
Spier, R E (2012): Science and Engineering Ethics, Overview, in Encyclopedia of Applied Ethics, Vol 4, pp.: 14-31, 2nd edition, Academic Press, London
Di Trocchio, F (1993): “Las mentiras de la ciencia” Alianza Editorial.
Ziman, J (2000): Real Science: What It Is and What It Means. Cambridge University Press.
Zuk, M (2013): Paleofantasy: What Evolution Really Tells Us about Sex, Diet, and How We Live. Norton & Co, New York.
Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.
Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.
El artículo Los males de la ciencia tienen remedio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- No todo vale al servicio de la ciencia
- Dilemas éticos en la frontera de la ciencia
- No todas las personas tienen las mismas oportunidades de dedicarse a la actividad científica
Van Eyck al descubierto
Antes de convertirse en el año de la pandemia 2020 iba a servir para homenajear a dos de los pintores más importantes de todos los tiempos: Jan van Eyck y Rafael Sanzio. Hagamos de este espacio un refugio y disfrutemos del arte de estos dos genios durante las próximas entregas. Por deferencia, comenzaremos por el que nació primero. De este modo nos sumamos al tributo que se le estaba rindiendo a van Eyck en Gante, donde se guarda una de sus más emblemática obras: La adoración del cordero Místico. La ciudad belga lucía sus mejores galas y bajo el lema “OMG! Van Eyck was here” había preparado una serie de eventos, incluyendo una exposición de pinturas del artista flamenco como nunca antes se había visto. Afortunadamente las nuevas tecnologías nos permiten disfrutar de estas obras sin tener que salir de casa.
Los “primitivos” flamencos
Jan van Eyck y su hermano mayor Hubert fueron, junto a Robert Campin, los primeros de un grupo que ha pasado a la historia del arte con el nombre de los primitivos flamencos. Tomemos ese adjetivo en el sentido de que fueron unos pioneros y no en referencia a un estilo poco desarrollado. ¿Os atreveríais a decir eso de alguien que hace las virguerías que os muestro en la Imagen 1? En la primera mitad del s. XV estos pintores fueron dejando atrás el estilo gótico internacional entonces imperante, en pos de una nueva forma de entender la pintura. Pese a que se trata de un momento crucial de la historia del arte, se ha visto un tanto eclipsado por el coetáneo Renacimiento italiano. A favor de los maestros flamencos hemos de decir que en ciertos aspectos técnicos igualaban o superaban a los italianos, aunque sus nombres no sean tan conocidos como el de Donatello o el de Leonardo, por poner dos ejemplos.

El florecimiento de este estilo en la región de los Países Bajos no fue por casualidad. A principios del s. XV urbes como Brujas o Gante habían prosperado gracias al comercio y a la artesanía. Por lo tanto, a la nobleza y al clero se le sumaba una incipiente burguesía con ganas de demostrar su estatus social. En ese entorno destacó Jan van Eyck, quien tras trabajar en diferentes ciudades se instaló en 1425 en la corte de Felipe el Bueno, duque de Borgoña, la gran potencia de la zona en aquel momento. Desde esa fecha hasta su muerte en 1441 realizó las obras que le han colocado en el Olimpo de la pintura. Si algo destaca en van Eyck, más allá de su brillante técnica, es su capacidad de innovación: fue todo un pionero. Su contribución más importante fue la pintura al óleo. Aunque no inventó esta técnica como se afirma en ciertas partes, la perfeccionó y ayudó a popularizarla. Hasta entonces la pintura al temple era la más habitual, pero la posibilidad de aglutinar los pigmentos con aceites abrió nuevas posibilidades, sobre todo gracias a las veladuras, capas de pintura semitransparentes que permiten dar matices y crear juegos de luces.
Pero van Eyck fue mucho más que el adalid de la pintura al óleo. También tuvo la capacidad de incorporar el paisaje a sus obras, otorgándoles sensación de profundidad en una suerte de perspectiva atmosférica previa a Leonardo (Figura 2A). Trataba los detalles con una meticulosidad absoluta, posiblemente debido a su pasado como pintor de miniaturas (Figura 2B), y sus óleos recogen hasta el más mínimo pliegue y ornamento de las sofisticadas lanas flamencas o las alfombras orientales. No había ilusión óptica que se escapase a sus afilados pinceles. Una buena muestra es el Díptico de la Anunciación del Museo Thyssen en el que el Arcángel y la Virgen parecen esculturas que se escapan de la hornacina (Figura 2C). Otra, el espejo de El matrimonio Arnolfini, con permiso de Velázquez, el más famoso de la historia del arte (Figura 2D).

A estas alturas espero haberles convencido (si no lo estaban ya) de la importancia que ha tenido van Eyck en la historia del arte. No cabe duda de que su obra merecía ser estudiada empleando los mejores instrumentos a nuestro alcance. Bienvenidos al proyecto VERONA.
El Proyecto VERONA: Van Eyck Research in OpeN Access
La producción artística de Jan van Eyck fue muy reducida, por lo menos teniendo en cuenta las pinturas que se conservan. Hasta tal punto que sólo existen nueve cuadros que lleven su firma. A lo largo del s. XX los historiadores del arte estudiaron con detalle estas obras y, con menor o mayor polémica, llegaron a atribuir una veintena de obras al genio flamenco. Aun sumando las miniaturas del Libro de Horas de Turín-Milán que se le atribuyen a él y a su hermano Hubert, es un legado escaso. Hemos de tener en cuenta que aquellos estudios estilísticos se hicieron en base a unos recursos técnicos limitados, por lo que se antojaba necesario realizar nuevos análisis adaptándose a los tiempos que corren. Así se podría entender mejor el proceso creativo de van Eyck y revisar su creación artística. De eso se encargaron los expertos del Instituto Real del Patrimonio Cultural de Bélgica (KIK-IRPA) quienes, mediante tecnología puntera y siguiendo un protocolo estandarizado, analizaron la obra de Jan van Eyck y la pusieron a disposición no sólo de los expertos, sino del público en general.
En 2014 cargaron una furgoneta con los instrumentos necesarios y viajaron por toda Europa para documentar las pinturas atribuidas a van Eyck que se hallan desperdigadas por diferentes museos (también hay alguna obra en Estados Unidos). En un trayecto de 12 000 kilómetros recogieron 16 298 imágenes para un total de 1 499 gigas de información. Casi nada. Aquí les tenéis estudiando el Díptico de la Anunciación del Museo Thyssen-Bornemisza, por si les queréis ver con las manos en la masa.

El primer paso del proceso consistía en tomar una fotografía de alta resolución, asegurándose de que se usaban siempre las mismas condiciones para todas las obras. Para ello emplearon una cámara Hasselblad H4D-200MS con un sensor de 50 megapíxeles que, obviamente, no sujetaban a pulso. Se colocaba en un soporte mecánico que se podía desplazar por raíles, lo que permitía realizar macrofotografías (15×20 cm o 7.5×10 cm) que luego se montaban digitalmente para ofrecer imágenes en las que podemos apreciar hasta el más pequeño de los detalles (Imagen 4). Además de tomar las fotografías con iluminación normal, las tomaron con luz rasante y bajo luz ultravioleta, algo que ofrece información complementaria como ya vimos en su momento.

La cámara Hasselblad también estaba equipada para trabajar en el infrarrojo, de modo que se pudiese estudiar el dibujo subyacente de las pinturas. En cualquier caso, para lograr imágenes con una mayor capacidad de penetración se empleó un instrumento de reflectografía infrarroja que permitía trabajar entre los 900 y los 1700 nm. Recordemos que a esas longitudes de onda muchos de los pigmentos no absorben prácticamente energía, mientras que el carbono, tradicionalmente empleado en el dibujo preparatorio, sí lo hace. Gracias a esta técnica se puede conocer mejor el modus operandi de un pintor y ver los cambios realizados a lo largo del proceso de creación. Precisamente uno de los casos paradigmáticos del empleo de la luz infrarroja es El Matrimonio Arnolfini, en cuyo reflectograma se pueden observar los numerosos cambios realizados por van Eyck. Pero quedémonos aquí con un ejemplo que he encontrado trasteando en la web del proyecto VERONA: ¿No os parece que tanto el Niño como la Madre en La Virgen del Canciller Rolin iban a tener los brazos en otra posición?

Siguiendo con la idea de penetrar en la pintura, no se podía dejar de lado el uso de la radiografía. Como la materia absorbe los rayos X en función de los átomos que la componen y la densidad del material, podemos lograr información valiosísima sobre el uso de pigmentos y el estado de la obra. El equipo belga realizó las radiografías mediante instrumentos de rayos X portátiles empleando películas para radiografías (30 x 40 cm) que luego montaron digitalmente. Aquí hemos de decir que el protocolo no está tan estandarizado y que en muchos casos emplearon radiografías realizadas con anterioridad, algo perfectamente comprensible teniendo en cuenta que se trata de una técnica más compleja que las anteriores. Para que os hagáis una idea del tipo de información que se obtiene, os traigo como ejemplo el retrato de Margaret, la mujer del artista (otra de las cosas en las que van Eyck fue un innovador, ya que no era nada habitual este tipo de retratos). Si observáis la Imagen 6, veréis que el tocado ofrece un color claro en la radiografía. Es muy posible que el pintor emplease albayalde, un pigmento blanco que tiene plomo y que por lo tanto absorbe los rayos X.

Acabemos este recorrido por los estudios técnicos subrayando que, en algunas de las obras, también se han aplicado análisis más específicos sobre pigmentos gracias al uso de la fluorescencia de rayos X. De momento no están disponibles en la página web del proyecto, pero crucemos los dedos para que pronto lo estén. Lo que sí que podemos hacer en dicha web es juguetear con las macrofotografías (Imagen 7), las imágenes en infrarrojo y las radiografías de más de veinte obras obtenidas con la misma escala en una iniciativa que ojalá sólo sea la primera de muchas.

La firma
No quería finalizar el artículo sin llamar la atención sobre un aspecto de las pinturas que suele pasar desapercibido: el marco. En las macrofotografías de algunas de las obras podemos observar los marcos originales que todavía se conservan. Ahí es donde en varias ocasiones el artista flamenco dejó su firma, junto al lema AΛΣ IXH XAN (Als Ich Kan). Esta frase vendría a significar “como (mejor) puedo”, toda una fórmula de humildad, aunque también se ha interpretado como un juego de palabras para decir “como van Eyck (sólo) pudo”, lo que tendría un significado bastante diferente. En cualquier caso, no cabe duda de que van Eyck pudo. Vaya si pudo.

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.
El artículo Van Eyck al descubierto se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La tabla periódica en el arte: Cobre
- Descubierto el proceso por el que las bacterias fabrican nanoimanes
- Festín burlesco, una visita al alma del museo
Por qué los biobots no son un problema ético (de momento)

Douglas Blackiston, CC BY-SA
El pasado 13 de enero se publicó un avance científico que tiene todas las papeletas para convertirse en un hito en la historia de la investigación biotecnológica. Un equipo de cuatro investigadores estadounidenses ha creado un sistema orgánico funcional novedoso, una forma de vida diferente a todas las que existían, algo que jamás se había conseguido antes.
El proceso para llegar a este resultado fue extremadamente arduo. Para empezar, hubo que utilizar un algoritmo evolutivo complejo alojado en un superordenador. Este mecanismo fue el que determinó qué tipo de material biológico – y con qué estructura – habría de emplearse para lograr el objetivo perseguido. A partir de los resultados proporcionados por esa herramienta, se decidió utilizar células procedentes de la piel y el corazón de embriones de ranas africanas, que se moldearon de la forma diseñada por la inteligencia artificial.
La entidad resultante fue una estructura biológica de un milímetro de anchura que se comportaba de manera coordinada en circunstancias hasta ahora esquivas a la acción humana. De hecho, pueden trabajar conjuntamente y sobrevivir incluso semanas sin necesidad de alimento.
Sus posibles aplicaciones incluyen gestionar la contaminación radioactiva, recolectar microplásticos en los océanos e incluso inocular un medicamento en un tumor. Además, estas entidades tienen la ventaja de ser biodegradables, por lo que, en principio, desaparecerían sin dejar rastro una vez cumplido su cometido.
¿Xenobots o biobots?
Nos encontramos ante un descubrimiento de primer orden, que abre las puertas de un mundo desconocido y lleno de promesas, pero tan novedoso que también encierra múltiples interrogantes. Para empezar, ni siquiera está claro cómo tendríamos que denominar a estas criaturas.
En las primeras informaciones facilitadas se ha propuesto el nombre de “Xenobots”, que combina su origen (la denominación científica de las ranas africanas es Xenopus laevis) con el tipo de entidad de la que se trata -– “bots” o robots –.
A mi juicio esta terminología resulta un tanto equívoca, porque la palabra “xeno” significa en griego “extranjero” o “extraño”. Me parece poco afortunado introducir este concepto, que normalmente asociamos a pensamientos negativos, en una nueva tecnología.
Tiene más sentido elegir la denominación de “biobots”, que une a la idea de robotsla de bios, un prefijo que muestra ostensiblemente su carácter de materia viva. Una característica, por cierto, esencial en este caso, ya que es la que dota a las nuevas criaturas tanto de gran plasticidad como de una capacidad a la que suelen ser ajenas las estructuras sintéticas: la de regenerarse a sí mismas en caso de sufrir daño.

Sam Kriegman (UVM), CC BY
Los miedos mitológicos no son razonables
Las cuestiones que se entrelazan con la ética requieren un análisis más profundo. Es fácil presuponer que habrá voces que clamen contra los biobots, ya sea porque nos exponen a escalofriantes peligros aún por determinar o porque su creación atenta por sí misma contra la naturaleza.
La fortaleza de estos argumentos proviene de que conectan muy bien con el imaginario colectivo. Al fin y al cabo, tanto la mitología antigua como la ciencia ficción contemporánea se han encargado de infundirnos un considerable temor a todo lo que parece poco natural. Lo han hecho a través de ejemplos de consecuencias que trae la ambición humana cuando se aúpa a un papel hacedor que no le corresponde.
Contamos con visiones muy pesimistas de lo que la biotecnología puede desencadenar sobre la especie humana. Los ejemplos van desde el mito de quimera, que hizo que los romanos exigiesen forma humana a los recién nacidos para considerarlos personas, hasta relatos como los de La isla del doctor Moreau y películas como GATTACA. Hay toda una herencia de miedo a lo artificial, a lo hecho por el ser humano, entre la que es difícil abrir camino a lo razonable.
La realidad se encuentra, al menos en lo que se refiere a los biobots, muy lejos de parecerse a esos escenarios dantescos.
A diferencia de lo que ocurre con otras tecnologías como la edición genética, las quimeras humano-animales y los organoides, en este caso estamos muy lejos de utilizar material humano, al menos de momento.
Aunque algún día llegáramos al punto de usar células embrionarias humanas para constituir estas estructuras vivas seguiríamos sin poder hablar de seres dotados de valor moral (dignidad). Esta frontera solo se avistará si empezamos a introducir estructuras neuronales en estos biobots.
Este escenario está muy lejos, si es que es viable algún día. Por tanto, solo aquellos que defienden la necesidad de valorar todas y cada una de las formas de vida – una línea de pensamiento minoritaria – podrían preocuparse por la aparición de estas nuevas entidades.
¿Sufren los biobots?
Ahora bien, ¿no debería preocuparnos un cambio tan radical en la estructura de la vida, aunque no afecte al material biológico humano? A mi juicio es obvio que no, aunque entiendo la raíz última de estas inquietudes.
Nuestra visión de la naturaleza tiende a idealizarla. Hablamos de la madre naturaleza y su sabiduría innata, algo panteístico. El sistema que nos rodea no posee atributos como la bondad y la inteligencia. Ciertamente, el mundo físico tiene un orden (variable) y unas normas, una forma de organización. No hay nada, sin embargo, que certifique que ese orden sea el óptimo para nosotros. De hecho, llevamos milenios pensando lo contrario, de ahí las alternaciones de la naturaleza que ha provocado el desarrollo de la medicina, la agricultura y el transporte
Introducir otras, como la creación de biobots,no debería resultar inquietante por sí misma. Otra cosa será inferir si la mera existencia como biobot causa sufrimiento a la criatura creada artificialmente. Este es el punto en el que nos hallamos en el caso de los organoides cerebrales, pero cuesta pensar que las dudas sean extrapolables a entidades que carecen de un centro de interpretación de señales nerviosas.
Si en el futuro nos encontramos ante una situación más compleja, será el momento de retomar esta discusión. Por ahora parece superflua.
Sin riesgos (de momento)
Esto no significa que debamos permitir cualquier uso de esta tecnología. La liberación de organismos de este tipo en un entorno no controlado podría entrañar graves riesgos para el ecosistema.
Tampoco parece posible autorizar, en un futuro próximo, experimentos que impliquen su introducción en el cuerpo de seres vivos, sean o no humanos, por razones de seguridad.
Para evitar estos excesos se encuentra ya en vigor toda una normativa que nos protege de usos poco razonables de tecnologías experimentales. Toda una pléyade de organismos, desde las agencias de seguridad hasta los comités de ética de la investigación, se encargan de vetar iniciativas de dudosa utilidad o elevado riesgo. Al menos, mientras no se hayan recorrido todos los pasos que ha de transitar cualquier tecnología nueva antes de su aplicación práctica.
El derecho también tendrá que estudiar qué estatuto proporciona a estos biobots, o si será necesario desarrollar alguna norma concreta que regule su uso, y seguro que su respuesta será más que satisfactoria.
Mientras tanto, quienes han de aplicar las normas tendrán que intentar hallar en su articulado unas guías generales con las que establecer pautas de acción concretas en este momento preciso. Dudo muchísimo que la aparición de formas de vida como estas suponga un desafío a este respecto.
Cabe pensar que este avance tecnológico merece una mirada esperanzada, aunque sea todavía muy pronto para calibrar su impacto en la práctica. No parece que un uso ordenado de esta tecnología plantee problemas éticos o jurídicos preocupantes. Habrá, en todo caso, que estar muy atentos a sus futuros desarrollos. Ellos nos confirmarán (o no) este primer diagnóstico.
Sobre el autor: Iñigo De Miguel Beriain es Ikerbasque Research Professor e investigador distinguido de la Facultad de Derecho, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Por qué los biobots no son un problema ético (de momento) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Pozos de conocimiento: el problema de la profundidad
- El comportamiento corpuscular de la luz: momento lineal del fotón
- Estroncio en la leche
Orriak
- « lehenengoa
- ‹ aurrekoa
- …
- 87
- 88
- 89
- 90
- 91
- 92
- 93
- 94
- 95
- …
- hurrengoa ›
- azkena »