25 años de planetas extrasolares
Esta semana se han cumplido 25 años de la publicación en la revista Nature del artículo A planetary system around the millisecond pulsar PSR1257 + 12 (Un sistema planetario alrededor del púlsar de milisegundo PSR1257 + 12) por A. Wolszczan y D. A. Frail. En su resumen decía esto:
Los púlsares de radio de milisegundo, que son viejas (~109 años) estrellas de neutrones en rápida rotación aceleradas por acrecimiento de materia de sus compañeras estelares, se encuentran por lo general en sistemas binarios junto con otras estrellas degeneradas.
Usando el radiotelescopio de Arecibo para hacer mediciones precisas de los pulsos del recientemente descubierto púlsar de 6,2 milisegundos PSR1257+12 demostramos que, en lugar de estar asociado con un objeto estelar, el púlsar es orbitado por dos o más cuerpos del tamaño de un planeta.
Los planetas detectados hasta el momento tienen masas de por lo menos 2,8 M☉ y 3,4 M☉, donde M☉ es la masa de la Tierra. Sus distancias respectivas al púlsar son de 0,47 ua y 0,36 ua, y se mueven en órbitas casi circulares con periodos de 98,2 y 66,6 días. Las observaciones indican que puede haber al menos otro planeta en este sistema.
La detección de un sistema planetario alrededor de una estrella vieja y cercana (~500 pc), junto con el reciente informe acerca de un compañero planetario del púlsar PSR1829–10 plantea la posibilidad de que una fracción no despreciable de las estrellas de neutrones observables como púlsares de radio puedan tener cuerpos similares a planetas en órbita alrededor de ellas.
Los planetas a los que se referían Wolszczan y Frail en su artículo, conocidos hoy como Phobetor y Poltergeist, son los dos primeros planetas extrasolares de cuya existencia tuvimos confirmación, aunque hacía cientos de años que sospechábamos que, dado lo enorme que es el universo, tenía que haber planetas más allá de nuestro sistema solar. La existencia del tercer planeta cuya existencia insinúan, recientemente bautizado como Draugr, fue confirmada en 1994.
La última frase del resumen del artículo, además, ha resultado ser profética, ya que desde la publicación de ese histórico trabajo hemos descubierto unos 3.500 planetas extrasolares más, aunque en órbita alrededor de todo tipo de estrellas, no sólo de púlsares, Alfa Centauri, la más próxima a nosotros, incluída. Y hay otros miles esperando observaciones adicionales que confirmen –o no– su existencia, ya que detectar exoplanetas es un proceso muy delicado. De hecho a Phobetor y Poltergeist les podía haber quitado el puesto HD 114762 b, un planeta extrasolar que fue descubierto en 1989, de no ser porque su existencia no fue confirmada hasta muy recientemente, ya que había serias dudas de que no se tratara de una enana marrón.
En cualquier caso lo que ha quedado claro una vez que hemos sido capaces de comprobar que en efecto hay planetas más allá del sistema solar, y es que hay un número enorme de estrellas con planetas. Hay estimaciones que hablan de la enorme cifra 160.000 millones de planetas extrasolares sin salir de nuestra galaxia. De ellos unos 17.000 millones son de tamaño similar al nuestro.
Muchos de los exoplanetas cuya existencia hemos podido confirmar son además mucho más extraños de lo que podíamos haber imaginado: desde planetas con tres soles a planetas en los que llueven rocas a planetas que son un gran diamante, por citar algunos casos. Y por si eso fuera poco algunos de ellos han venido a poner en duda muchas ideas que teníamos acerca de cómo se forman los sistemas planetarios… pero es que a fin de cuentas sólo conocíamos un sistema solar.
La más que aparente abundancia de planetas extrasolares hace además que sea inevitable plantearse la posibilidad de que haya vida más allá de nuestra pequeña esquina del universo, algo que apoya el hecho de que cada vez vamos encontrando más planetas extrasolares potencialmente habitables. Y eso que de nuevo sólo manejamos un ejemplo de lo que es la vida, así que no sería de extrañar que nos estuviéramos confundiendo a la hora de estimar qué planetas extrasolares son potencialmente habitables.
Pero en cualquier caso lo que parece claro es que si no existiera vida más allá de la Tierra, y parafraseando la doctora Ellie Arroway, la protagonista de Contact, el universo sería un enorme desperdicio de espacio.
De planetas extrasolares y del origen de la vida en la Tierra –o puede que más allá– hablaremos, entre otras cosas, en Naukas Coruña 2017, que se celebrará el próximo 25 de febrero bajo el título La vida, el universo y todo lo demás.
Este post ha sido realizado por Javier Pedreira (@Wicho) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo 25 años de planetas extrasolares se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 Alucinaciones lingüísticas: los engaños de tu lengua materna
Nuestra lengua materna nos hace alucinar. Literalmente. Idoia Ros nos los explica.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Alucinaciones lingüísticas: los engaños de tu lengua materna se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:NASA, ¿cuándo vas a llevarnos a Venus en un barco (o en lo que sea)?
Decía Mecano que nunca hemos ido a Venus en un barco, y tenía razón. Pero sí que fuimos varias veces vez a bordo de naves espaciales (no tripuladas, lo de “fuimos” es una forma de hablar). La última vez nos llevó la sonda Magallanes. La misión partió de la Tierra en 1989 y orbitó en torno a nuestro planeta vecino hasta 1994, cuando terminó su tarea y se precipitó hacia su superficie, desintegrándose parcialmente por el camino.
La semana pasada la NASA anunciaba cuáles serían sus próximas misiones de exploración del sistema solar: la sonda espacial Lucy será lanzada en octubre de 2021 y explorará seis asteroides de los alrededores de Júpiter de 2027 a 2033, mientras que Psyche, cuyo lanzamiento está programado para octubre de 2023, visitará en la misma zona un asteroide metálico llamado Psyche 16.
Los dos proyectos han sido seleccionados entre los cinco que pasaron el corte final en 2015. Entre los tres descartados había uno que proponía volver a Venus. Se llamaba Investigación de los Gases Nobles, la Química y las Imágenes de la Atmósfera Profunda de Venus (lo que en inglés daba como resultado el poético nombre DAVINCI porque a la NASA, a marketing, no le gana nadie), y su objetivo era justamente ese: estudiar la composición química de la atmósfera venusiana durante un descenso de 63 minutos para responder preguntas como si quedan volcanes activos en Venus o cómo interacciona la atmósfera con la superficie del planeta.
Otra vez será, queridos astrónomos especializados en Venus. Unos astrónomos, por cierto, que empiezan a mosquearse porque opinan que la NASA se ha olvidado de ‘su’ planeta. Ni una sola misión ni plan de exploración en casi 30 años, tres décadas en las que se ha intensificado el estudio del sistema solar, años en los que por visitar, hemos visitado hasta el lejanísimo Plutón. Y para Venus, ni una triste sonda, ni una pequeñita.
La sonda Messenger retrató así a Venus en su camnio hacia Mercurio¿Por qué deberíamos viajar a Venus?
Porque Venus es considerado por los científicos como un planeta hermano de la Tierra. Es el anterior en orden tras el nuestro partiendo desde el Sol, es rocoso y de tamaño similar. Además, se cree que se formó a partir de los mismos materiales y aproximadamente en el mismo momento que la Tierra.
Pero las similitudes terminan ahí, porque el ambiente en la superficie venusiana no tiene nada que ver con el que experimentamos en la Tierra: la presión es 90 veces superior, la temperatura media supera los 400 grados a causa de que la atmósfera está compuesta principalmente por gases de efecto invernadero, como el dióxido de carbono. A causa de la temperatura, no existe agua líquida en su superficie.
Para terminar de dibujar esta especie de Tierra extraña, en Venus el día dura 243 días terrestres, lo que lo convierte en el periodo de rotación más largo del sistema solar, y además gira en el sentido contrario al que lo hacen los demás planetas: en un día en Venus el sol sale por el Oeste y se esconde por el Este.
Por todos estos motivos, Venus se considera un lugar incompatible con cualquier forma de vida conocida… Y sin embargo, algunos astrónomos creen que una vez albergó océanos como los nuestros y ser habitable.
Imagen de la superficie de Venus compuesta a partir de las imágenes captadas por la sonda MagallanesPero en algún momento, su evolución y la de la Tierra siguieron caminos diferentes. Ambos planetas contienen la misma cantidad de dióxido de carbono, pero en la Tierra las placas tectónicas, los océanos y los seres vivos contribuyen a extraer la mayor parte de la atmósfera, dejando en ella solo una pequeña cantidad, suficiente para retener parte del calor del Sol.
En Venus, el calor que impide la presencia de agua líquida y la intensa actividad volcánica causaron que todo el CO2 fuese liberado a la atmósfera, aumentando la temperatura aún más, hasta dar forma al infierno tóxico que hoy conocemos.
¿Qué pasó exactamente para que dos planetas que en principio fueron similares hayan terminado teniendo características tan distintas? Es una pregunta que los científicos se hacen sin conocer todavía la respuesta. Obtenerla no solo aumentaría nuestro conocimiento sobre el sistema solar y su evolución, sino que nos ayudaría a entender cómo los cambios en la atmósfera afectan a la superficie y al revés. Y seamos sinceros, es algo que nos vendría muy bien saber.
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista en El Confidencial
El artículo NASA, ¿cuándo vas a llevarnos a Venus en un barco (o en lo que sea)? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La estructura 3D de la cota de malla invierte el efecto Hall
Estructura básica de la cota de malla
Inventada por los celtas probablemente en el siglo V antes de la era común, la cota de malla, una armadura metálica formada por anillos de hierro forjado unidos entre sí, fue usada por los romanos, durante toda la Edad Media y hasta entrado el siglo XVI como forma de protección contra los objetos punzantes. El patrón básico que la forma, donde un anillo está unido a cuatro, forma geometrías más complejas que dan lugar hoy a metamateriales con propiedades muy exóticas.
En 1879 Edwin Hall descubrió que en un conductor por el que circula una corriente eléctrica en presencia de un potente campo magnético perpendicular aparece otra corriente eléctrica perpendicular tanto a la corriente original como al campo magnético. La potencia de esta corriente es proporcional tanto a la densidad de la corriente original como a la del campo magnético. La constante de proporcionalidad se llama coeficiente de Hall.
Ahora, un equipo de investigadores del Instituto de Tecnología de Karlsruhe coordinado por Martin Wegener ha desarrollado un nuevo metamaterial con geometría de cota de malla en el que el hecho de adoptar esa geometría cambia el signo del coeficiente de Hall del material con el que está formada.
.
El efecto Hall es la base de los sensores magnéticos que emplean, por ejemplo, las brújulas de los teléfonos inteligentes. La mayoría de los sólidos, en los que la corriente la transportan los electrones, tienen un coeficiente de Hall negativo; el coeficiente es positivo solo en el caso de que la corriente fluya en forma de agujeros (lugares en los que no hay un electrón), como ocurre en los semiconductores del tipo p. En 2015 el grupo de Wegener propuso un diseño de metamaterial en el que el coeficiente sería positivo aunque los elementos estructurales tuviesen un coeficiente negativo. Cada punto en la celdilla unidad en la estructura de este material sería un toro (anillo) semiconductor hueco, y la celdilla unidad sería la misma que la de la cota de malla.
Lo que ahora han hecho los investigadores es llevar a cabo su idea fabricando un andamio polimérico en 3D al que han recubierto de óxido de zinc. Una vez construido han medido el coeficiente de Hall para estructuras con varias distancias entre los toros, demostrando que el signo del coeficiente depende de esta distancia.
Este metamaterial podría usarse para construir nuevos sensores magnéticos que contengan elementos con coeficientes de Hall tanto positivos como negativos y que podrían por tanto detectar gradientes o vórtices en un campo magnético.
Referencia:
Christian Kern, Muamer Kadic, and Martin Wegener (2017) Experimental Evidence for Sign Reversal of the Hall Coefficient in Three-Dimensional Metamaterials Phys. Rev. Lett. doi: 10.1103/PhysRevLett.118.016601
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La estructura 3D de la cota de malla invierte el efecto Hall se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Criptografía con matrices, el cifrado de Hill
Hace no mucho tiempo me encontraba yo buscando un ejemplo sencillo de aplicación de las transformaciones lineales que me permitiera explicarlas de una forma práctica e interesante, cuando descubrí el cifrado de Hill.
No es la primera vez que en la sección Matemoción del Cuaderno de Cultura Científica hablamos de criptografía. En la entrada Códigos secretos en la primera guerra mundial ya repasamos algunos de los métodos de encriptación clásicos, como son el cifrado de César, el atbash hebreo, el cifrado francmasón, el cifrado de Polibio, el método de Francis Bacon, el cifrado Vigenère y la cifra ADFGVX.
“La matriz rusa, multiplicación de una matriz por una matriz columna”, del artista franco-ruso Paul Kichilov
El cifrado de Hill fue inventado, basándose en el álgebra lineal, por el matemático norteamericano Lester S. Hill en 1929, y aparece explicado en su artículo Cryptography in an Algebraic Alphabet, publicado en The American Mathematical Monthly.
Es un sistema criptográfico de sustitución polialfabético, es decir, un mismo signo, en este caso una misma letra, puede ser representado en un mismo mensaje con más de un carácter. Así, en el ejemplo que vamos a analizar a continuación, la letra A del mensaje original aparece representada en el mensaje codificado de tres formas distintas, como C, K e I.
Expliquemos en qué consiste el cifrado de Hill. En primer lugar, se asocia cada letra del alfabeto con un número. La forma más sencilla de hacerlo es con la asociación natural ordenada, aunque podrían realizarse otras asociaciones diferentes. Además, en este ejemplo solamente vamos a utilizar las 27 letras del alfabeto, pero también podrían añadirse otros símbolos usuales, como el espacio en blanco “_”, el punto “.” o la coma “,”, la interrogación “?”, las 10 cifras básicas, etcétera.
Como en la correspondencia anterior, entre letras/signos y números, solamente aparecen 27 números, hay que trabajar con los números enteros “módulo 27”. Es decir, se consideran los números enteros 0, 1, 2,… , 26 y el resto se identifica con estos de forma cíclica. Así, el 27 es igual a 0, el 28 a 1, el 29 a 2, etcétera, y lo mismo con los números negativos, de forma que – 1 es igual 26, – 2 es igual 25, etcétera. Además, se reducen las operaciones aritméticas (suma, resta, multiplicación y división) al conjunto de los números enteros módulo 27 de forma natural, es decir, al operar dos números enteros (módulo 27) el resultado se considera también módulo 27. Por ejemplo, si se realiza la multiplicación de los números 6 y 13, módulo 27, el resultado dará 24 (módulo 27), puesto que 6 13 = 78 y 78 = 2 27 + 24. O el inverso de 2, es decir, el número a tal que 2 a es igual a 1 (módulo 27), es 14, puesto que 2 14 = 28, que es igual a 1, módulo 27.
En el cifrado de Hill se utiliza una matriz cuadrada de números A como clave, la cual determina la transformación lineal Y = A ∙ X, donde Y, X son vectores columna y A y X se multiplican con la multiplicación de matrices (véase la siguiente imagen). Veamos un ejemplo. Consideremos la matriz cuadrada 3 x 3 (aunque en general pueden considerarse matrices cuadradas de cualquier tamaño) siguiente y la correspondiente transformación lineal Y = A ∙ X:
.
Supongamos que el mensaje que se quiere enviar encriptado es
“CUADERNO DE CULTURA CIENTIFICA”,
cuya transcripción numérica, teniendo en cuanta la tabla de sustitución anterior, es “2, 21, 0, 3, 4, 18, 13, 15, 3, 4, 2, 21, 11, 20, 21, 18, 0, 2, 8, 4, 13, 20, 8, 5, 8, 2, 0”. Como la transformación lineal es de orden 3, vamos a agrupar los números en grupos de tres, en ternas, sobre las que luego aplicaremos la transformación lineal, (2, 21, 0), (3, 4, 18), (13, 15, 3), (4, 2, 21), (11, 20, 21), (18, 0, 2), (8, 4, 13), (20, 8, 5), (8, 2, 0).
A continuación, vamos a transformar las ternas de números anteriores, mediante la transformación lineal dada por la clave, en nuevas ternas, que serán el mensaje numérico cifrado. ¡Ojo!, que en la transformación lineal no hay que olvidar que seguimos trabajando con los números enteros módulo 27.
.
Aunque la transformación lineal de la terna (2, 21, 0) es inicialmente (44, 84, 2), como estamos trabajando con enteros módulo 27, esta terna se convierte en (17, 3, 2), ya que 44 = 1 x 27 + 17 y 84 = 3 x 27 + 3. E igual para el resto.
.
.
Por lo tanto, el mensaje numérico cifrado es “17, 3, 2, 11, 25, 3, 25, 21, 4, 17, 5, 22, 6, 23, 2, 24, 10, 3, 1, 0, 5, 24, 3, 23, 12, 8, 8”, que al transformar de nuevo los números en sus correspondientes letras, se convierte en el mensaje cifrado
“QDCLYDYUEQFVGWCXKDBAFXDWMII”.
Y este es el mensaje que se envía para que no sea comprendido por el “enemigo” aunque este lo intercepte en el camino.
Imágenes de la patente US 1.845.947 presentada por Lester S. Hill y Louis Weisner, quienes diseñaron una máquina que implementaba el cifrado de Hill de orden 6
Para poder descodificar los mensajes cifrados mediante el método de Hill se necesita que la matriz de la transformación lineal utilizada, la clave, sea una matriz inversible. La matriz de nuestro ejemplo lo es, puesto que su determinante es no nulo, |A| = 22. Además, la matriz inversa de A, que es la necesaria para descodificar un mensaje cifrado, es
.
Pero ojo, estamos trabajando con los enteros módulo 27 y vamos a transformar la matriz inversa anterior en una matriz con números enteros módulo 27. Para empezar se necesita el inverso del número 22. Se ve fácilmente que 22 16 = 352, que es igual a 1, módulo 27, luego 1/22 = 16. Y la matriz inversa se transforma, módulo 27, en
.
Expliquemos ahora el proceso de descodificación de un mensaje. Imaginemos que el receptor recibe el siguiente mensaje
“EHAHTDINRKQOPUSKVLKMUFÑG”,
y quiere conocer su significado. Para descodificar el mensaje hay que utilizar el mismo método anterior, el cifrado de Hill, pero utilizando como clave la matriz inversa A-1 (módulo 27) de la matriz A de codificación.
Por lo tanto, se empieza de nuevo transformando el mensaje en la sucesión de ternas numéricas asociada, (4, 7, 0), (7, 20, 3), (8, 13, 18), (10, 17, 15), (16, 21, 19), (10, 22, 11), (10, 12, 21), (5, 14, 6). Y entonces se transforman mediante la transformación lineal con matriz A-1, es decir, Y = A-1 ∙ X.
.
.
.
En consecuencia, la secuencia de ternas numéricas original asociada al anterior mensaje codificado es (3, 8, 22), (21, 11, 6), (0, 13, 3), (15, 11, 0), (19, 12, 0), (20, 4, 12), (0, 20, 8), (2, 0, 19). Y traduciendo los números a sus correspondientes letras del alfabeto se obtiene que el mensaje original enviado es
“DIVULGANDO LAS MATEMATICAS”.
Máquina de cifrado M-94 utilizada por el ejército de los Estados Unidos de América entre los años 1922 y 1945, que consta de 25 discos con las letras del alfabeto. Imagen de la página Cipher Machines
Sin embargo, el cifrado de Hill no es seguro. Utilizando métodos de álgebra lineal en un “ataque con texto claro conocido” puede romperse el código y descubrir la matriz clave de encriptado. Un ataque con texto claro conocido significa que el analista que quiere romper el código dispone de un ejemplo de “texto en claro”, es decir, de un mensaje original, con el correspondiente mensaje cifrado.
Veamos cómo se puede romper este código. Supongamos que estamos utilizando la matriz clave anterior A = (1 2 3 / 0 4 5 / 1 0 6), y que el analista “enemigo” ha conseguido obtener tanto un mensaje original como el correspondiente mensaje cifrado. Por ejemplo, el primero de los utilizados en esta entrada del Cuaderno de Cultura Científica.
MENSAJE ORIGINAL: “CUADERNO DE CULTURA CIENTIFICA”
(2, 21, 0), (3, 4, 18), (13, 15, 3), (4, 2, 21), (11, 20, 21), (18, 0, 2), (8, 4, 13), (20, 8, 5), (8, 2, 0)
MENSAJE CIFRADO: “QDCLYDYUEQFVGWCXKDBAFXDWMII”
(17, 3, 2), (11, 25, 3), (25, 21, 4), (17, 5, 22), (6, 23, 2), (24, 10, 3), (1, 0, 5), (24, 3, 23), (12, 8, 8)
Para romper el código se utiliza el “método de Gauss Jordan” (pero módulo 27) con la matriz asociada al mensaje original y la matriz del mensaje cifrado:
.
Aunque esta última parte de la presente entrada es muy interesante, debido a que nos muestra una aplicación del método de Gauss Jordan, también es un poco técnica, por lo que las personas que lo deseen pueden saltársela y considerar simplemente que es posible romper el cifrado de Hill, mediante técnicas de álgebra lineal.
El método de Gauss Jordan consiste realizar una serie de operaciones sobre la anterior matriz, que está dividida en dos partes, la correspondiente al mensaje original y la del mensaje cifrado, para conseguir que en la parte de la izquierda quede la matriz identidad (1 0 0 / 0 1 0 / 0 0 1) en tres de las filas, para considerar entonces la parte correspondiente de la derecha, como se mostrará después. Esas operaciones consisten en sustituir cada fila de la matriz por el resultado de sumarle/restarle a esa fila una combinación lineal de algunas de las otras filas.
Como el elemento que está en la primera fila y la primera columna tiene que ser un 1, para conseguir la matriz identidad, y resulta que es un 2, debemos dividir por 2 (módulo 27) la primera fila. Ya hemos comentado al principio que el inverso de 2 (módulo 27) es 14, luego dividir por 2 es igual a multiplicar por 14 (módulo 27).
Al multiplicar la primera fila (2 21 0 : 17 3 2) por 14 (módulo 27) se transforma en (1 24 0 : 22 15 1). Ahora, para conseguir un 0 en la primera posición de cada fila se realiza las siguientes sustituciones (método de Gauss Jordan):
a) “2ª fila” se sustituye por “2ª fila” – 3 x “1ª fila” (módulo 27)
b) “3ª fila” se sustituye por “3ª fila” – 13 x “1ª fila” (módulo 27)
c) “4ª fila” se sustituye por “4ª fila” – 4 x “1ª fila” (módulo 27)
d) “5ª fila” se sustituye por “5ª fila” – 11 x “1ª fila” (módulo 27)
e) “6ª fila” se sustituye por “6ª fila” – 18 x “1ª fila” (módulo 27)
y así podría seguirse con el resto, aunque no necesitamos las tres últimas filas para conseguir nuestro objetivo. En cualquier caso, después de las sustituciones anteriores, la matriz se ha transformado en la siguiente matriz
.
Ahora queremos conseguir un 1 en la posición que se corresponde con la segunda fila y la segunda columna, de nuevo buscando conseguir la matriz identidad en la parte de la izquierda. Como en esa posición está el 13, debemos buscar su inverso módulo 27, que resulta que es 25 (ya que 13 x 25 = 325, que tomando módulo 27, es igual a 1). Es decir, hay que multiplicar la segunda fila por 25, de manera que esta segunda fila (0 13 18 : 26 7 0) se transforma, al multiplicarla por 25 (módulo 27) en (0 1 18 : 2 13 0). Y ahora buscamos obtener ceros en la segunda posición de las demás filas mediante las siguientes sustituciones (método de Gauss Jordan):
f) “1ª fila” se sustituye por “1ª fila” – 24 x “2ª fila” (módulo 27)
g) “4ª fila” se sustituye por “4ª fila” – 14 x “2ª fila” (módulo 27)
h) “5ª fila” se sustituye por “5ª fila” – 26 x “2ª fila” (módulo 27)
quedando ahora la matriz como sigue
.
El siguiente paso sería conseguir un 1 en la posición que se corresponde con la tercera fila y la tercera columna, una vez más buscando conseguir la matriz identidad en la parte de la izquierda. Sin embargo, en este momento nos encontramos con una primera anomalía por trabajar módulo 27, y es que los números enteros módulo 27 admiten “divisores de cero”, como el 3 y el 9, ya que el producto de 3 por 9 es igual a 0 (módulo 27), y estos no tienen inverso.
En consecuencia, no se puede conseguir un 1 en la tercera columna de las filas 3, 4 y 5. Y al multiplicarlas por 9 se anulan todos sus elementos, luego esas tres filas no nos interesan.
Por lo tanto, vamos a intentar conseguir un 1 en la tercera columna de la fila 6, para lo cual tenemos que multiplicar por el inverso de 2, que como ya sabemos es 14. Y al fila 6 pasa de (0 0 2 : 6 10 12) a (0 0 1 : 3 5 6), al multiplicarla por 14.
Y para obtener la matriz identidad en la parte de la izquierda solo nos falta convertir el 18 que está en la tercera columna de la segunda fila en un cero, para lo cual realizamos la siguiente sustitución
i) “2ª fila” se sustituye por “2ª fila” – 18 x “6ª fila” (módulo 27)
y la matriz queda finalmente, después de todo este proceso de Gauss Jordan,
.
Luego, tras el método de Gauss Jordan (módulo 27), en la parte de la derecha de la matriz, correspondiéndose con la matriz identidad de la izquierda, nos queda la siguiente matriz
.
que es la matriz traspuesta (es decir, se cambian las filas por columnas, y al revés) de la matriz clave utilizada en el ejemplo que hemos visto de encriptación de Hill.
En consecuencia, el álgebra lineal que ha servido para desarrollar el cifrado de Hill, también sirve para romper su código.
.
Una forma de evitar lo anterior, es modificar el algoritmo del cifrado de Hill para que la matriz clave no sea fija, sino que sea dinámica.
Bibliografía
1.- Raúl Ibáñez, Arthur Cayley, explorador victoriano del territorio matemático, RBA, 2017 (pendiente de publicación).
2.- Marie-José Pestel, Paul Kichilov, de la gravure à la anamorphose, Tangente Hors-serie 23: Maths et arts plastiques, p. 142-147.
3.- Lester S. Hill, Cryptography in an Algebraic Alphabet, The American Mathematical Monthly, vol. 36, n. 6 (1929). p. 306-312.
4.- Jorge Ramió Aguirre, Seguridad Informática y criptografía (libro electrónico), Universidad Politécnica de Madrid, 2006.
5.- OnlineMSchool, Online calculadoras para solucionar problemas matemáticas
6.- Calculadora de los números enteros modulares
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Criptografía con matrices, el cifrado de Hill se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 La transferencia de conocimiento, ¿nos lleva a la pobreza?
Las universidades, aparte de enseñar e investigar, tienen una tercera misión: la transferencia de conocimiento. De esto y sus consecuencias inesperadas habla Javier de la Cueva.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 La transferencia de conocimiento, ¿nos lleva a la pobreza? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los avanzados alquimistas indios y chinos del s. XIV
A comienzos del siglo XIV el feudalismo europeo ha comenzado su declive; el número de ciudades se ha incrementado y la nueva centralización de la Iglesia Católica hace que esta mantenga una vida intelectual propia y separada.. Los textos compilados y traducidos llenan los monasterios; las ideas de China y la India se filtran a través de viajeros y comerciantes. Todo hacía presagiar que Europa estaba lista para progresar rápidamente, pero no sería así para la química. Durante los siguientes 200 años habría mucha actividad, pero se andaría en círculos esotéricos, sin avances reales. Todo lo contrario a lo que ocurriría fuera de Europa.
Efectivamente, a comienzos del siglo XIV los alquimistas indios y chinos ya eran claramente activos en iatroquímica (la aplicación de la química a la medicina), algo que en Europa no se encontrará hasta el siglo XVI.
Pero no solo indios y chinos fueron pioneros en las aplicaciones de la química, también fueron los primeros en considerar seriamente las necesidades técnicas para desarrollar adecuadamente sus estudios. Así, destacan las descripciones de cómo deben construirse y dotarse los que hoy llamaríamos laboratorios químicos; algo similar solo se encuentra en un texto europeo de 1500.
“Lingam” de Shiva nepalí hecho de piedra
Por ejemplo en el Rasa-Ratnasamuccaya, un tratado indio del periodo dedicado a la metalurgia (“rasa” es esencia y también el metal mercurio) encontramos la siguiente descripción:
“El laboratorio debe construirse en una región en la que abunden las plantas medicinales y los pozos […] debe estar equipado con varios aparatos. El lingam (falo) de mercurio [símbolo de Shiva, el principio creador] debe colocarse al este, los hornos deben colocarse en el sureste, los instrumentos en el suroeste, las operaciones de lavado en el oeste, las de secado en el noroeste. El koshti [aparato para la extracción de esencias], recipientes de agua, un fuelle y otros instrumentos varios deben estar presentes como, asimismo, morteros para trillar y machacar, manos de mortero, tamices de distinto grado de finura, tierra para los crisoles, carbón [vegetal], tortas secas de estiércol de vaca [usadas en la India como combustible para los hornos], retortas hechas de vidrio, tierra, hierro y conchas, cacerolas de hierro, etc. “
Un laboratorio equipado de esta manera estaba claramente diseñado por alguien con conocimientos sobre muchos procesos químicos: reducción, destilación, extracción y digestión (disolver usando un ácido o una base) como mínimo. De aquí se deduce también que esta persona era capaz de llevar a cabo algunas investigaciones químicas realmente complejas.
En otra parte del mismo texto se enumeran las características del aprendiz alquímico ideal, características que se nos antojan difíciles de encontrar en muchos alumnos modernos de química:
“El aprendiz debe estar lleno de reverencia hacia su maestro, comportarse bien, ser veraz, trabajar mucho, obediente, sin orgullo ni engreimiento y fuerte en la fe […] habituado a vivir según la dieta [alimenticia] y régimen [sanitario] apropiados […] bien versado en el conocimiento de las drogas y plantas y en las lenguas de muchas regiones […]”
También había requisitos para el maestro:
“El maestro debe ser sabio, experimentado, buen conocedor de los procesos químicos, devoto de Shiva y [su consorte] Parvati, sobrio y paciente”.
Es imposible decir si las ideas orientales sobre la iatroquímica y los laboratorios diseñados sistemáticamente terminaron llegando a Europa de forma gradual o surgieron allí espontáneamente, pero lo que está claro es que estas ideas surgieron primero en India y China y tardaron siglos en aparecer en Europa.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Los avanzados alquimistas indios y chinos del s. XIV se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Un nuevo fármaco revierte el déficit cognitivo asociado a esquizofrenia
Evolución en el tiempo de imágenes de gatos de Louis Wain, posiblemente esquizofrénico no diagnosticado
El compuesto, nombrado IPR19, ha demostrado su eficacia en ratones para revertir el déficit cognitivo asociado a esquizofrenia, acción que se consigue mediante la modulación de una nueva vía. Este mecanismo no ha sido explorado hasta la fecha para esta enfermedad, hecho que acentúa la novedad del trabajo. Además, se trata de una molécula estable, inocua y capaz de penetrar en el cerebro, donde realiza su función. Un gran número de potenciales fármacos son incapaces de cruzar la membrana que protege el Sistema Nervioso Central, imposibilitando su acción terapéutica. Sin embargo, el IPR19 es capaz de atravesar esta restrictiva barrera.
La empresa biotecnológica Iproteos, con sede en el Parc Científic de Barcelona, el Grupo de Neuropsicofarmacología de la Universidad del País Vasco/Euskal Herriko Unibertsitatea (UPV/EHU) y perteneciente al Centro de Investigación Biomédica en Red de Salud Mental (CIBERSAM), y el Instituto de Investigación Biomédica (IRB Barcelona), perteneciente al The Barcelona Institute of Science and Technology (BIST), han publicado sus resultados en European Neuropsychopharmacology que muestran la eficacia del nuevo fármaco procognitivo.
“Es la primera vez que se demuestra que un compuesto de estas características tiene potencial para ser utilizado en el tratamiento del déficit cognitivo asociado a esquizofrenia. IPR19 supone un punto de partida para la generación de nuevas terapias para esta sintomatología que carece de tratamiento actualmente”, comenta Roger Prades, autor del artículo científico publicado en European Neuropsychopharmacology.
La comprobación de la eficacia se ha realizado en modelos animales de la enfermedad. Concretamente, se ha validado la acción del fármaco en tres modelos de ratón, que se caracterizan por sufrir un déficit en la función cognitiva. Los experimentos se han realizado en colaboración con el Grupo de Neuropsicofarmacología de la Universidad del País Vasco y perteneciente a CIBERSAM. Mediante una batería de ensayos, en los que se pone a prueba la memoria de trabajo y la memoria espacial de los modelos, se ha demostrado que la administración de IPR19 es capaz de revertir el déficit en cognición hasta alcanzar los niveles basales.
“Esta publicación es un un hito muy importante para Iproteos ya que supone la validación de nuestro proyecto de esquizofrenia por parte de la comunidad internacional de expertos en neuropsicofarmacología”, afirma Teresa Tarragó, Directora Ejecutiva de Iproteos. “La colaboración con el grupo del Prof. Javier Meana, de la Universidad del País Vasco y del CIBERSAM, ha sido clave en la demostración de la eficacia de nuestro fármaco. Esta publicación es una prueba más de que la colaboración público-privada puede aportar un gran beneficio al ecosistema de investigación español, si se articula correctamente”.
Actualmente Iproteos está llevando a cabo la fase preclínica regulatoria de su candidato para el tratamiento del déficit cognitivo asociado a esquizofrenia. La empresa cerró recientemente una ronda de financiación, liderada por Caixa Capital Risc, para la realización de dichos experimentos. Se prevé que en 2018 el fármaco será evaluado en humanos.
La esquizofrenia es una enfermedad heterogénea que afecta a 45 millones de personas en todo el mundo. Los signos clínicos se clasifican en tres grupos de síntomas: positivos (alteración del habla, pensamiento y comportamiento, alucinaciones, delirios), negativos (apatía, incapacidad de disfrutar) y cognitivos (habilidad reducida para prestar atención selectiva, dificultad en procesar la información social y emocional, fallo de la memoria de trabajo). Pese a existir tratamiento para los dos primeros grupos de síntomas, el déficit cognitivo es una necesidad médica no resuelta. Esto imposibilita el día a día de los pacientes (se estima una tasa de desempleo del 90% entre los pacientes de esquizofrenia). Según la Organización Mundial de la Salud (OMS), la esquizofrenia es una de las enfermedades más incapacitantes.
Referencia:
Roger Prades, Eva Munarriz-Cuezva; Leyre Urigüen; Itziar Gil-Pisa; Lídia Gómez; Laura Mendieta; Soledad Royo; Ernest Giralt; Teresa Tarragó; J. Javier Meana. (2016) The prolyl oligopeptidase inhibitor IPR19 ameliorates cognitive deficits in mouse models of schizophrenia. European Neuropsychopharmacology DOI: 10.1016/j.euroneuro.2016.11.016
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Un nuevo fármaco revierte el déficit cognitivo asociado a esquizofrenia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Annus horribilis
.
En 2016 hemos sabido que existen las ondas gravitacionales y que se han podido detectar. Ha sido una grandísima hazaña científico-tecnológica gracias a la cual se ha podido verificar una de las predicciones de la teoría de general de la relatividad, formulada por Einstein hace un siglo. Y sobre todo, ha abierto la vía a la observación del universo mediante esos “nuevos ojos” –las ondas-, ojos que nos enseñarán aspectos hasta ahora desconocidos de lo que hay “ahí afuera”. Ha habido otros grandes avances, por supuesto, aunque sólo añadiré aquí, por los miles de vidas humanas que salvará, el de la vacuna contra el ébola que ha demostrado una eficacia del 100%.
Y sin embargo, este curioso observador del mundo que acude ante sus lectores cada dos semanas deja el año con una sensación de pesar y cierto –o mucho- pesimismo. Porque las victorias de los partidarios de la salida del Reino Unido de la Unión Europea y del candidato Donald Trump en las elecciones norteamericanas han sido dos severas derrotas de la ciencia, al haberlo sido del pensamiento crítico, pilar fundamental de aquélla.
Aunque ha sido objeto de críticas y chanzas, la palabra “posverdad” -tomada del inglés postruth– puede ser usada de forma adecuada para calificar el sustantivo “época”. De esa forma, podemos referirnos a nuestro tiempo como “época posverdad”. Esa expresión no denomina un fenómeno ya conocido, sino que nombra algo nuevo, algo acerca de lo que había ciertas pistas, elementos fragmentarios, manifestaciones parciales o anticipos, pero que no había adquirido aún verdadera carta de naturaleza. Siempre ha habido mentiras, por supuesto, pero quizás no haya habido antes tantas en el discurso público y, sobre todo, quizás nunca como ahora la falsedad o veracidad de una proposición había tenido tan poca trascendencia. En eso radica, a mi juicio, la novedad: en la “época posverdad” las verdades no importan, en la “época posthechos” (como prefiero denominarla) los hechos fehacientes no importan. Importa, más que nunca, que las proposiciones, verdaderas o falsas, se acomoden a nuestros gustos, preferencias o intereses.
Esa disposición mental no surge de manera espontánea. No nace de la nada. Aparece, en gran parte al menos, como consecuencia de la influencia que a la larga ha acabado ejerciendo el pensamiento posmoderno. El posmodernismo cuestionó de forma radical la distinción entre lo verdadero y lo falso; atribuyó a la ciencia la condición de constructo social, despojándola así de cualquier pretensión de objetividad y superioridad epistemológica; negó, en sus manifestaciones más extremas, la misma existencia de una realidad. Pues bien, ese ha sido el caldo de cultivo intelectual en que se ha desarrollado el desprecio a las nociones contrastadas, las proposiciones verdaderas e, incluso, los hechos fehacientes. Lo que no era sino el delirio de una minoría intelectual enemiga de la razón y partidaria del “todo vale”, ha acabado por convertirse en una patología social de consecuencias potencialmente devastadoras. El pensamiento posmoderno ha socavado así las bases del pensamiento crítico y de la razón.
La comunidad científica norteamericana está preocupada porque el señor Trump ha manifestado su propósito de tomar decisiones ajenas a los hechos contrastados y porque creen que su política se opondrá al progreso del conocimiento. Y los científicos del Reino Unido creen que la salida de la Unión Europea debilitará de forma significativa a la ciencia británica. De confirmarse esos temores, el avance del conocimiento se vería frenado en dos de los países con mayor tradición y potencia científica del mundo. Dejarían así un mayor espacio al avance de la sinrazón. Habría comenzado a formarse de ese modo un círculo vicioso de imprevisibles consecuencias.
—————————————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————————————–
Este artículo fue publicado en la sección #con_ciencia del diario Deia el 31 de diciembre de 2016.
El artículo Annus horribilis se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 Cuando Indiana Jones se hizo astrónomo
Ángel López Sánchez, astrofísico cordobés que trabaja en Australia, nos cuenta algunos resultados de su investigación de la mano de uno de sus personajes favoritos, Indiana Jones.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Cuando Indiana Jones se hizo astrónomo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El ocaso de la teoría de cuerdas
Hubo una época en la que el hombre puso la Tierra en el centro del Universo. Todos los cuerpos celestes, incluido el Sol, describían órbitas a nuestro alrededor. Hoy sabemos que en realidad no lo hacen, así que los movimientos de los planetas en la bóveda celeste no se correspondían a lo predicho por la teoría geocéntrica pura. Suele decirse que, en un caso así, hay que descartar la teoría, pero quizá ésta siga manteniéndose con algunas modificaciones. Comenzaron los ajustes. Quizá los planetas no giran en torno a la Tierra de forma directa sino que describen circunferencias (epiciclos) cuyo centro, a su vez, giraba en torno a la Tierra. Quizá los planetas no giran exactamente en torno a nosotros sino a otro punto cercano. Quizá esos puntos son diferentes para cada planeta. Quizá los epiciclos giran en torno a epiciclos que giran en torno a epiciclos.
Cuando fuimos capaz de observar y medir con suficiente exactitud, la teoría geocéntrica se vino abajo. No lo hizo de un día para otro, porque los geocéntricos siguieron refinando y añadiendo complicaciones a su modelo, pero a la postre se vieron forzados a ceder: Galileo demostró que algunos cuerpos se encuentran muy cómodos girando alrededor de Júpiter y no de la Tierra, Kepler se atrevió a sugerir que quizá las órbitas planetarias no fuesen circulares, y finalmente Newton trajo la paz y la claridad a nuestra galaxia. En la actualidad la teoría geocéntrica solamente pervive en los libros de Historia y en algunos nostálgicos que todavía defienden que Bilbao es, literalmente, el centro del Universo.
El ocaso y caída de la teoría geocéntrica no es sino una expresión de un fenómeno habitual en la conducta humana: cuando un proyecto crece y se complica, existe la tendencia a mantenerlo pase lo que pase, arriesgándose a perder la perspectiva y olvidar el objetivo. Geocéntricos, detractores de la teoría atómica, constructores emblemáticos, amantes del “constrúyelo y ellos vendrán,” escritores de la gran novela moderna inacabada… es fácil caer en la tentación. Menos mal que eso ya no pasa en Ciencia.
¿Alguien ha dicho Teoría de Cuerdas?
Desde hace casi un siglo se sabe que la Mecánica Cuántica y la Relatividad General son teorías incompatibles, que funcionan perfectamente bien por separado pero se llevan fatal si intentamos unificarlas. Como consecuencia, carecemos de una teoría que explique todos los fenómenos del Universo. Lo mejor que tenemos para explicar la composición de la materia es el llamado Modelo Estándar, que postula un conjunto de partículas con distintas propiedades. Pero parece demasiado caprichoso y arbitrario. ¿Por qué el electrón tiene esa masa y no otra? ¿Guarda alguna relación con la masa de las demás partículas, o con alguna constante fundamental? Deberíamos buscar algo mejor, más sencillo, más compacto.
Uno de los intentos más famosos por obtener esa “teoría de todo” y avanzar más allá del Modelo Estándar se denomina Teoría de Cuerdas. En su génesis la idea no podía ser más sencilla: las partículas elementales no son puntuales sino que se componen de minúsculas cuerdas que vibran. Los diferentes modos de vibración dan lugar a las partículas conocidas, y explican propiedades como su masa o su carga eléctrica. Pronto se descubrió que uno de los modos de vibración daba una partícula de características similares al llamado gravitón, que transporta las fuerzas gravitatorias. ¿Significaba ello que por fin se podía unificar la gravedad con las demás fuerzas básicas? La cosa prometía.
Pronto comenzaron los problemas. Uno de ellos es que la teoría de cuerdas inicial requería la existencia de un espacio multidimensional, y nuestro Universo solamente tiene cuatro dimensiones (las tres espaciales y el tiempo). Bueno, no hay demasiado problema conceptual en ello. Ya en los años veinte el dúo Kaluza-Kelin postuló la existencia de una dimensión adicional para intentar unificar la gravedad y el electromagnetismo. Si no podemos verla, decían, es porque esa nueva dimensión es muy pequeña en tamaño y además está enrollada, o como dicen los habituales del tema, “compactificada.”
Para entender esto, piense el lector en una manguera de jardín. Vista desde gran distancia aparece como un objeto que solamente tiene longitud, pero al acercarnos podemos apreciar que tiene grosor y altura. De modo similar, Kaluza y Klein imaginaron una dimensión compactificada de un tamaño muy inferior al radio de un núcleo atómico. Sus esfuerzos no dieron fruto en su momento pero la teoría de cuerdas recuperó el concepto, y lo hizo a lo grande: ahora el Universo no tiene cuatro dimensiones sino 26. Parece un despilfarro de dimensiones, pero si están compactificadas y son minúsculas, no molestan.
Un segundo problema con la teoría de cuerdas inicial era que solamente funcionaba para algunos tipos de partículas, los llamados bosones; los fermiones (entre los que se incluyen quarks, electrones y otras partículas interesantes) se quedaban fuera. Eso sí que es un fallo grave de la teoría. Para arreglarlo, los teóricos de cuerdas postularon que cada fermión existente en la naturaleza está asociado a un compañero bosón, en un fenómeno llamado supersimetría. Por ejemplo, el electrón tendría una partícula asociada supersimétrica llamada selectrón. De ese modo, los compañeros supersimétricos podrían encajar en la teoría de cuerdas, que al añadirle esta propiedad de supersimetría pasó a denominarse teoría de supercuerdas. Como ventaja adicional, el número de dimensiones del espacio de cuerdas se redujo desde 26 a 10.
Parecía que la teoría de supercuerdas (que pronto volvería a llamarse teoría de cuerdas por eso de simplificar) iba por buen camino, pero el precio a pagar fue grande: nada menos que la aparición de toda una familia de partículas supersimétricas que, además, nunca habían sido observadas. No pasa nada, dijeron, seguro que los nuevos aceleradores de partículas las encontrarán. No fue así, y en la actualidad seguimos buscándolas. No pasa nada, dijeron, quizá es que tienen tanta masa que escapan a nuestras posibilidades de detección.
Mientras se buscaban pruebas experimentales, los teóricos de cuerdas continuaron su trabajo y la teoría, inicialmente tan sencilla, siguió complicándose. Las cuerdas ya no eran suficientes y se vieron acompañadas por nuevos y extraños bichos llamados branas. Aparecieron cinco grandes teoría de cuerdas con nombres extraños: Tipo I, Tipo IIA, Tipo IIB, heterótica SO(32), heterótica E8xE8, y como grandes corrientes disidentes de un partido político o una religión comenzaron a enfrentarse unas a otras en pos del título de Teoría de Todo. Edward Witten sugirió que todas eran manifestaciones parciales de lo que llamó Teoría M, pero la guerra continuó. Los principales centros de física teórica continúan investigando y gastando hojas de papel, los gurús del campo escriben libros divulgativos dando a entender que la teoría de cuerdas está lista salvo algunos pequeños detalles, pero lo cierto es que a la teoría de cuerdas le falta un hervor. Y le falta desde hace medio siglo.
Es en este punto cuando los científicos acuden al experimento para interrogar a la naturaleza y que ésta, como jueza implacable, decida. Es aquí donde la teoría de cuerdas muestra su cara más diabólica. El detalle es la compactificación de las dimensiones ocultas. Si tengo un bloque de corcho, puedo aplastarlo para conseguir una superficie bidimensional y luego enrollarlo para obtener una línea unidimensional. También puedo hacerlo al revés: primero enrollo y luego aplasto. Pero en la teoría M tenemos siete dimensiones nuevas. ¿Cómo se compactifican? O dicho de otro modo, ¿de cuántas formas podemos enrollarlas unas respecto a otras?
La respuesta es: nadie lo sabe. Ni siquiera los teóricos de cuerdas pueden dar algo más que una respuesta aproximada, pero todo indica que el número de posibles compactificaciones es enorme; giganteouse, que diría Forges. Las cifras sugeridas superan con mucho la del número de partículas existentes en nuestro Universo. Digamos, por fijar conceptos, que ese número es del orden de un plexollar (101000). Cada una de esas posibilidades de compactificar daría lugar a un Universo distinto, con leyes físicas distintas y con partículas de masa distinta.
Cuando tenemos dos teorías y queremos saber cuál es la correcta, no hay más que realizar un experimento en el que ambas teorías arrojen resultados diferentes. Si la teoría A nos dice que las piedras amarillas flotan en el agua y la B nos dice que se hunden, no hay más que tirar una piedra amarilla al agua y salir de dudas. ¿Pero y si tenemos tantas teorías que pueden reproducir todos los resultados experimentales imaginables? En tal caso el proceso de eliminación falla. Puede que tirar una piedra amarilla al agua y ver que flota elimine medio plexollar de posibles teorías de cuerdas, ¿pero qué pasa con el otro medio plexollar?
Y ahí está el gran problema. Por muchos experimentos que hagamos, por muchas propiedades que determinemos en el laboratorio, por mucha caña que le demos al LHC, siempre habrá una cantidad ingente de posibles compactificaciones capaces de explicar todo lo que vemos. Nunca podremos decir “la teoría de cuerdas no funciona;” pero tampoco podremos predecir nada porque todo lo que pueda suceder tendrá explicación en alguna versión de la teoría de cuerdas. Sería como un vidente que tiene una gran cantidad de visiones: alguna acertará, ¿pero qué significa eso? Exactamente nada.
Pero imaginemos por un momento que hemos tenido un gran golpe de suerte, y que un experimento permite descartar todo el plexollar de compactificaciones menos un solo caso. Tenemos finalmente una combinación de dimensiones enrolladas, y solamente una, que concuerda con lo que vemos a nuestro alrededor. La pregunta evidente es ¿por qué esa y no alguna de las demás? ¿Acaso tiene algo extraordinario, alguna propiedad basada en principios fundamentales que la distingue de las otras? Quizá es como el número ganador de la lotería de navidad, que no tiene nada especial pero que salió porque… bueno, porque alguno tenía que salir.
De ese modo, y a lo largo de cincuenta años, los físicos de cuerdas han edificado una gran teoría, pero en lugar del edificio sencillo y de líneas elegantes de los diseños iniciales han acabado con una fea aglomeración de construcciones sin orden ni concierto, que no pegan ni con cola, no sirven su propósito y ni siquiera permite al político local hacerse una foto inaugurando algo. La edificación carece de agua corriente o luz, no tiene conexión para el wifi, los paneles del techo se caen y no hay visos de que vaya a servir algún día para algo. Si hasta el propio Sheldon Cooper abandonó la teoría de cuerdas en The Big Bang Theory, por algo será.
Por supuesto, puede que dentro de veinte años, o mañana mismo, el nuevo Newton tenga la gran inspiración que le permita construir finalmente una teoría de cuerdas eficaz y elegante; pero también es posible que nunca llegue ese día. Quizá en el futuro los historiadores examinen el caso de la teoría de cuerdas igual que ahora lo hacemos con la teoría geocéntrica. El tiempo dirá si la teoría de cuerdas será una nueva senda hacia un futuro brillante o tan sólo una autopista cara que no llega a ninguna parte.
Este post ha sido realizado por Arturo Quirantes (@Elprofedefisica) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo El ocaso de la teoría de cuerdas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 La cultura
Foto: Mikel Uzkudun
Déborah García Bello, aúna ciencia química y arte en sus charlas. En esta, “El peine del viento XV” le permite reflexionar sobre qué es la cultura.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 La cultura se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ciencia, poder y comercio
.
De entre las concepciones erróneas sobre la ciencia la más perniciosa es la que confunde el conocimiento científico con el poder y con el dinero, considerando así que la ciencia como método y los científicos como profesionales están a la venta y participan de modo deliberado en las estrategias de los poderosos. El éxito de la ciencia y la tecnología sistematizadas a la hora de proporcionar armas y potencia económica a los países y el tentador prestigio que tienen las afirmaciones científicas como herramienta de propaganda justifican que haya quien considere sospechoso cualquier conocimiento aportado por el método científico. Cuando la ciencia se financia con dinero público, y mucho peor aún cuando es privado, las sospechas crecen y los conflictos abundan. La confusión, cuando no es interesada, proviene de una distinción fundamental entre los objetivos de las distintas partes de la ecuación.
El objetivo de los países a la hora de crear estructuras científicas es claro: aumentar el poder económico y militar del estado y (secundariamente) su prestigio en la escena internacional. Para las empresas el objetivo de hacer ciencia es crear nuevos productos o aumentar las ventas de los ya creados aprovechando el prestigio de la ciencia como reclamo. Tanto estados como empresas pueden ser determinantes a la hora de marcar la carrera profesional de un científico, o a capacidad de investigación de un laboratorio o de un centro; a través de estos mecanismos pueden presionar para que se investiguen ciertas cosas y no otras, y tienen la capacidad de influir (incluso de determinar) qué hipótesis se ponen a prueba y cuáles no. Como los historiadores de la ciencia han demostrado con numerosos ejemplos los científicos, como personas que son, no son inmunes a las presiones económicas ni a la cultura de su momento histórico; a menudo las hipótesis que se crean vienen marcadas por la realidad socioeconómica y política que rodea al científico. De este modo los intereses políticos y económicos pueden determinar las preguntas que la ciencia hace.
Lo que no pueden es modificar las respuestas, por mucho poder o dinero que haya en juego, y este es el error básico. Ni las presiones del poder ni los intereses económicos pueden modificar la realidad del universo. Pueden ocultar, durante algún tiempo; pueden ofuscar y crear confusión, a menudo mucha y demasiado extendida en el tiempo. Pero no pueden cambiar la realidad o el conocimiento de esa verdad, por mucho que se empeñen. Porque el interés de la ciencia como construcción social no es el avance de las carreras de los científicos ni su medro económico, sino la comprensión del universo y su funcionamiento. Las hipótesis se pueden sesgar y los resultados se pueden ocultar o incluso falsificar, pero al final se acabará descubriendo la verdad.
Con todo su poder y recursos la industria del tabaco no pudo suprimir el vínculo entre su producto y el cáncer de pulmón como Stalin no consiguió hacer desaparecer la genética mendeliana; los conflictos que surgen entre los científicos y quienes respaldan su trabajo como mucho pueden retrasar el conocimiento de los hechos, pero no hacerlos desaparecer. Algunos científicos pueden estar a la venta, pero la ciencia en su conjunto entendida como recopilación de conocimiento sobre el cosmos no lo está. Porque al universo le da igual lo que opinen los poderosos sobre su funcionamiento, y en última instancia a la ciencia también. Las hipótesis pueden deformarse, los científicos pueden corromperse, pero al final sus errores serán descubiertos con certeza.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo Ciencia, poder y comercio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Econofísica: ¿puede la economía tratarse como un sistema físico?
De vez en cuando surge el debate de si la economía es una ciencia. Si bien es innegable que la economía moderna surge en la misma revolución que hemos dado en llamar científica, parece que carece de algunos aspectos fundamentales que sí están presentes en las ciencias, como la capacidad de predecir, la reproducibilidad o el estar libre de escuelas de pensamiento como guía a la hora de interpretar los resultados. Los partidarios del no terminan afirmando que no reúne, ni por aproximación, las características definitorias de una ciencia como la física. Sin embargo, puede que el acceso a cantidades ingentes de datos y a la capacidad de analizarlos terminen convirtiendo la economía en una de las ciencias físicas: la econofísica.
Un ejemplo típico de la falta de capacidad de predecir de la economía es la evolución de los mercados (no nos engañemos, el llamado análisis técnico es poco menos que astrología), sobre todo los pánicos y las euforias. Un físico podría estudiarlo usando un modelo desarrollado originalmente para para tratar muchas partículas que interactúan dando lugar a fenómenos como el magnetismo, algo que para un economista podría sonar a chino. Después de todo tanto los fenómenos físicos como los económicos podrían poseer características universales que podrían ponerse de manifiesto usando las herramientas de la física, tal y como se ponen de manifiesto en el estudio de los llamados sistemas complejos. La principal diferencia entre física y economía la introducen los humanos (y es la que hace inválido el análisis técnico como herramienta útil en bolsa): en los mercados financieros, y en los sistemas económicos en general, las acciones de hoy se ven influenciadas por la percepción de los acontecimientos futuros.
Esto puede parecer muy teórico y lejano. Pero el debate sobre la viabilidad de la econofísica está encima de la mesa. Tanto es así que el European Physical Journal ST le ha dedicado un número monográfico.
Hasta la fecha la econofísica se ha centrado mayoritariamente en elucidar las propiedades de mercados financieros, redes económicas complejas, distribución de ingresos/riqueza y toma de decisiones estratégicas, con la idea en mente de desarrollar una teoría de los sistemas económicos como las que describen los fenómenos críticos en los sistemas físicos. Una teoría que pueda explicar su funcionamiento en las proximidades de un punto crítico independientemente de las características concretas a nivel micro.
Una de las conclusiones que parecen surgir de los artículos de este número especial es que la idea de universalidad puede que sea la excepción más que la regla en los sistemas económicos y sociales. Otra, no menos importante, es que hasta ahora los modelos de la econofísica han sido simplistas más que simples, tanto es así, que ningún modelo econofísico ha demostrado ser superior a un modelo económico estándar.
¿Significa esto que la econofísica no tiene sentido? En absoluto. El acceso a gigantescas cantidades de datos y la mayor disponibilidad de capacidad de cálculo computacional hace que ahora la econofísica tenga más sentido que nunca.
Ya existen las primeras historias de éxito de la econofísica. Entre ellas la ley de la inversa del cubo para la distribución de las fluctuaciones de los precios de acciones e índices bursátiles (por cierto, en el electromagnetismo también aparece el inverso del cubo) y el análisis de redes económicas basado en los análisis físicos de grandes redes complejas.
Puede que con el tiempo y los modelos adecuados la econofísica tenga la misma capacidad predictiva que otras ramas físicas que estudian sistemas complejos, como la meteorología.
Referencia:
Can economics be a physical science? S. Sinha, A. S. Chakrabarti, and M. Mitra (Eds.), Eur. Phys. J. Special Topics 225/17 (2016)
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Econofísica: ¿puede la economía tratarse como un sistema físico? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El ‘truelo’ de «el bueno», «el feo» y «el malo»
Imagen del duelo final de la película “El bueno, el feo y el malo” de Sergio Leone.
Rubio –«el bueno»–, Tuco –«el feo»– y Angel Eye –«el malo»– se enfrentan en un duelo a tres, que llamaremos un ‘truelo’.
Deciden que disparará en primer lugar Rubio, luego Tuco y por último Angel Eye; después de nuevo –«el bueno», y así sucesivamente, por turnos, hasta que sólo quede uno de ellos vivo. Si uno de ellos muere, se pasa al siguiente en este orden de disparos.
Rubio es el que peor puntería tiene de los tres: tiene una probabilidad de 1/3 de matar a su adversario al disparar. Tuco acierta con 1/2 de probabilidad, y Angel Eye nunca falla el tiro.
Todos ellos conocen la probabilidad de éxito al disparar del resto de los contrincantes, y sólo buscan ganar el duelo, es decir, sobrevivir.
Cada uno de ellos puede elegir su estrategia como desee, incluso disparar al aire.
¿Qué debe hacer «el bueno»?
Vamos a argumentar las tres elecciones que puede realizar para ver con cuál de ellas tiene la mayor probabilidad de sobrevivir.
1) Rubio dispara a Tuco
Esta estrategia no es buena. Si acierta en su tiro, se encuentra frente a Angel Eye, y morirá con toda seguridad, ya que «el malo» nunca falla.
Si no acierta en su tiro, es decir, si Tuco sobrevive, tiene la misma probabilidad de sobrevivir que si hubiera tirado al aire.
Es decir, la probabilidad de sobrevivir es inferior a la probabilidad de sobrevivir si erra su disparo, con lo que esta opción no es buena.
2) Rubio dispara a Angel Eye
Eliminar al adversario más peligroso parece, intuitivamente, la mejor opción. Supongamos entonces que Rubio dispara a «el malo». Independientemente de lo que suceda, el siguiente en disparar es Tuco.
¿Cuál es la probabilidad p de que Rubio sobreviva? Es decir, p es la probabilidad de que Rubio gane frente a Tuco, si Tuco dispara primero. Sea q la probabilidad de que Rubio gane frente a Tuco, disparando él primero.
Entonces p = 1/2 q, ya que o Tuco mata a Rubio o le proporciona una probabilidad de q de ganarle.
Por otro lado, q = 2/3 p + 1/3, ya que Rubio tiene una probabilidad sobre 3 de matar a Tuco y dos probabilidades sobre tres de encontrarse en la situación en el que Tuco tire en primer lugar.
De las dos ecuaciones,
p = 1/2 q
q = 2/3 p + 1/3
se deduce que p = 1/4.
Esta estrategia es interesante sólo p es superior a la probabilidad de que Rubio dispare al aire, que ahora calcularemos.
3) Rubio dispara al aire
«El bueno» decide fallar sistemáticamente su tiro hasta que se encuentre con un único adversario.
Tuco y Angel Eye no tienen ningún interés en disparar a Rubio si los tres continúan vivos. En efecto, si Tuco dispara sobre Rubio, sería un suicidio (el siguiente en disparar es Angel Eye, que lo matará). Y si «el malo» dispara sobre «el bueno» tendría una probabilidad de ganar de 1/2 (porque lo mataría, y el siguiente en disparar sería Tuco), mientras que puede conseguir una de 2/3 si dispara sobre «el malo». Así que en este caso, todo sucedería como si se tratara de un duelo entre Tuco y Angel Eye.
Así que comienza Tuco disparando. Si mata a Angel Eye, Rubio se encuentra frente a Tuco con probabilidad q de ganar. Si Tuco falla al disparar a «el malo», éste le dispara a su vez (y le mata) y le toca a Rubio disparar a Angel Eye, y no puede fallar (recordar que Angel Eye nunca falla), pero sólo tiene una probabilidad sobre tres de ganar. Así, la probabilidad de ganar con esta estrategia es de:
p’ = p + 1/2 x 1/3 = 1/4 + 1/6,
que es mayor que 1/4. Es decir, es la mejor estrategia.
En resumen, Rubio debe disparar al aire.
Nota 1: Este problema está extraído de Guillaume Deslandes y Clément Deslandes, Énigmes mathématiques corrigées, Ellipses (2014).
Nota 2: En la larga escena del duelo de El bueno, el feo y el malo no es esto lo que sucede…
Puede encontrarse un análisis matemático de esta escena en José María Sorando, Aventuras matemáticas en el cine, Gualdamazán (2015), páginas 117 a 144.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo El ‘truelo’ de «el bueno», «el feo» y «el malo» se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 ¿Cifras o encriptas? Siempre con la ayuda de tus primos
.
Fernando de la Cuadra, aunque parezca un talibán del léxico, ha venido a hablar de lo suyo, de seguridad informática.
El artículo #Naukas16 ¿Cifras o encriptas? Siempre con la ayuda de tus primos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ácidos minerales y alquimistas europeos
El redescubrimiento por parte de los europeos de los ácidos minerales fue hito en la historia de la alquimia y de la química. En palabras de Isaac Asimov (“Breve historia de la química”, Alianza Editorial):
“El descubrimiento de los ácidos minerales fuertes fue el adelanto más importante después de la afortunada obtención del hierro a partir de su mena unos tres mil años antes.”
Los ácidos orgánicos comunes (acético del vinagre y cítrico del limón) se venían usando desde tiempo inmemorial, pero estos ácidos son muy débiles y su capacidad para disolver sustancias es muy limitada. Los ácidos minerales (sulfúrico, nítrico, clorhídrico), obtenidos calentando ciertas sales y condensando la fase vapor (en presencia de vapor de agua, que el alquimista no tenía forma de evitar aunque hubiese sabido de su existencia), eran ácidos mucho más fuertes con gran capacidad de disolución.
Fue al-Razi, entre otros alquimistas musulmanes, el que habló de forma sistemática de aguas agudas. Aunque, siendo estrictos, estos productos obtenidos por disolución y destilación de mezclas de vitriolos (sulfatos), alumbre, sal, nitro (o salitre) o sal amoniacal es dudoso que fuesen algo más que disoluciones de sales ácidas. Con todo, se suele atribuir a al-Razi la primera obtención de ácido sulfúrico.
Retrato de “Geber” del siglo XV, Codici Ashburnhamiani
Si bien al-Razi fue probablemente el primero que lo obtuvo y el pseudo-Llull el primero que proporcionó una receta “moderna” para obtenerlo, el primero en describir el ácido sulfúrico fue el que para algunos es el alquimista musulmán más influyente Abu Mūsa Ŷābir ibn Hayyan (s. IX), latinizado Geber, o mejor, el o los europeos que usaron su nombre en los siglos posteriores para firmar textos alquímicos (pseudo-Geber).
De lo que parece que no cabe duda es de que el empleo de los métodos descritos por al-Razi y la modificación del diseño de los dispositivos de destilación los alquimistas en Europa obtuvieron por primera vez ácido sulfúrico, nítrico y clorhídrico en el siglo XIII, tal y como los describe pseudo-Geber. Un proceso paralelo al que siguió la obtención del alcohol absoluto.
“Aqua regia” disolviendo oro
Los experimentos con los nuevos ácidos llevaron muy pronto a descubrimientos increíbles y de gran significado para unos alquimistas cada vez más místicos. Mezclando ácido nítrico y ácido clorhídrico en las cantidades adecuadas se obtenía un “agua”, el aqua regia, capaz de disolver el mismísimo oro. Este fenómeno alimentó la imaginación de los europeos que habían estado leyendo acerca de la teoría de la transmutación y sobre cómo, con la combinación de ingredientes apropiados uno podía obtener una fortuna con una tinaja y poco más instalada en la cuadra.
Si bien la Iglesia se había resistido inicialmente, la información química de los paganos griegos y de los musulmanes se terminó abriendo paso hasta las estanterías y los laboratorios de los estudiosos europeos. Éstos ahora disponían de información sobre la pólvora, el alcohol y los ácidos minerales, información que se reunió en textos enciclopédicos, y que era saboreada, digerida e interpretada dentro de nuevas escuelas de pensamiento; algunos atrevidos incluso harían nuevos experimentos.
Los nuevos productos y la nueva mentalidad estaban listos para ver nacer a una nueva generación de alquimistas místicos: los alquimistas europeos.
El artículo Ácidos minerales y alquimistas europeos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Implantes orales profilácticos
Las infecciones orales son consideradas hoy en día el principal motivo de fracaso o fallo de los implantes dentales. Una investigación de la UPV/EHU ha logrado desarrollar unos recubrimientos capaces de evitar una posible infección bacteriana, y en el caso de producirse, eliminarla, además de dotar a los implantes de propiedades osteointegradoras, es decir, que favorecen su correcto anclaje al hueso.
La búsqueda de superficies que sean capaces de evitar la adhesión y colonización bacteriana en la zona que rodea el implante “es un tema de indudable interés, y buena muestra de ello es la gran cantidad de publicaciones que se han ido desarrollando en este campo”, explica Beatriz Palla, investigadora del grupo de Biomateriales del Departamento de Ciencia y Tecnología de Polímeros de la UPV/EHU. De hecho, “aproximadamente el 10% de los implantes debe ser eliminado por problemas de osteointegración, o por la aparición de infecciones”, añade.
A la hora de diseñar estrategias para combatir estos problemas, hay que tener en cuenta el desafío que supone dotar a la superficie de los implantes de titanio de propiedades antibacterianas, y a su vez, la gran resistencia que son capaces de desarrollar las cepas bacterianas a las terapias convencionales con antibióticos.
Ese fue el reto que quiso superar el grupo de la UPV/EHU, que lleva un tiempo desarrollando materiales orientados a los implantes dentales. “Ya habíamos conseguido unos recubrimientos que favorecen la generación de hueso alrededor del implante, para de esta forma favorecer su anclaje al hueso. Queriendo ir un paso más allá, buscamos la forma de convertir esos recubrimientos en bactericidas”, comenta la investigadora.
El método que utilizaron para ello fue la síntesis sol-gel. La síntesis sol-gel se basa en la preparación de un disolución (sol) de los precursores que, tras un período de reposo, se convierte en un gel con el que se recubre la superficie del tornillo de titanio y, tras el tratamiento térmico a alta temperatura en estufa, queda adherido definitivamente al tornillo que será implantado. “Utilizamos el silicio como precursor, porque en muchos estudios se ha demostrado que este compuesto es osteoinductor, por lo que favorece uno de los objetivos que queríamos lograr. Además, para dotar a los materiales de características antibacterianas, añadimos diferentes agentes antibacterianos”.
En el estudio llevado a cabo, Palla desarrolló tres tipos de recubrimientos, en función de los diferentes agentes antibacterianos elegidos, cada uno de los cuales tiene un mecanismo de actuación contra las infecciones bacterianas, bien de manera profiláctica impidiendo la adhesión inicial bacteriana y la posterior infección, o bien eliminándola una vez formada.
En el caso de los recubrimientos profilácticos, era necesario “un material con un tiempo de degradación muy largo para que se mantenga el adherido al tornillo y actúe el mayor tiempo posible, impidiendo la adhesión bacteriana”, comenta Palla. En los recubrimientos que están destinados a erradicar una infección ya formada, sin embargo, “se requiere un material con una degradación rápida que sea capaz de liberar el agente antibacteriano lo más rápido posible atacando la infección”. Uno de los recubrimientos desarrollados para este fin, además, “está diseñado para ser utilizado in situ en la propia consulta odontológica, sobre el tornillo infectado sin necesidad de retirar el implante del paciente. Este nuevo material está en proceso de patente y bajo secreto industrial”, destaca la investigadora.
Vistos los resultados, Palla considera que “se puede afirmar que se han desarrollado recubrimientos con capacidad antibacteriana que no afectan a la correcta integración del implante en el hueso mandibular”. Aunque también reconoce que queda mucho trayecto por recorrer hasta una posible aplicación y utilización en las consultas odontológicas: “Además de todos los ensayos que quedarían por hacer, también sería conveniente seguir un poco más con las investigaciones, para conseguir optimizar más los resultados”.
Referencia:
Romero-Gavilán, F., Barros-Silva, S., García-Cañadas, J., Palla, B., Izquierdo, R., Gurruchaga, M., & Suay, J.. Control of the degradation of silica sol-gel hybrid coatings for metal implants prepared by the triple combination of alkoxysilanes. Journal of Non-Crystalline Solids, 453, 66-73. doi: 10.1016/j.jnoncrysol.2016.09.026
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Implantes orales profilácticos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Casos de corrupción
Corrupción: Definición ampliamente aceptada por los expertos: “Uso indebido de la función pública, la confianza o el poder para obtener beneficios privados”.
Diccionario de la Lengua: Definición 4ª: En las organizaciones, especialmente en las públicas, práctica consistente en la utilización de las funciones y medios de aquellas en provecho, económico o de otra índole, de sus gestores.
Comenzaré con un par de ejemplos de estudios publicados recientemente sobre la corrupción, para que nos vayamos haciendo al tema. Primero, una interesante investigación del grupo de Tarek Jaber-López, de la Universitat Jaume I de Castellón. Trabajan con 93 universitarios voluntarios, incluyendo 47 mujeres. Para detectar su reacción en los experimentos, miden la conductividad en la piel, que aumenta al sentir mayor emoción y estrés, ya que mide el paso de electricidad por la piel que, a su vez, crece con la secreción de sudor.
Se les ofrece actuar de jurado en un ayuntamiento para la concesión de obras públicas a empresas constructoras. Se presentan dos empresas y una de ellas ofrece un soborno en dinero al voluntario. Le avisa que el dinero que le ofrece, lo descontarán del proyecto de obra pública con lo que bajará la calidad final. El 82% de los voluntarios acepta el soborno y solo el 18% lo rechaza. Si se avisa que un inspector revisará el resultado del concurso y, si descubre irregularidades, habrá castigo, el número de voluntarios que acepta baja al 44% y, así, por miedo al castigo, el 56% no lo acepta. Nos queda la esperanza del 18% que no acepta, aún en el caso de no haber amenaza de castigo.
Cuando los autores miden las emociones con la conductividad de la piel, encuentran que los que rechazan el soborno se sienten estresados por hacerlo. Es decir, es más sencillo y menos estresante aceptar el soborno. Duele menos ser corrupto. Alguien dijo hace tiempo que la especie humana tiende biológicamente a la corrupción, o sea, a conseguir recursos como se pueda para el individuo y para el grupo al que pertenezca. Quizá por ello hay tantos familiares de corruptos implicados en estos asuntos.
La segunda investigación la publicaron Beatriz López Valcárcel y sus colegas, de la Universidad de Las Palmas. Crearon una base de datos, tomados entre 2001 y 2010, con municipios y sus características locales, factores económicos y corrupción a nivel municipal.
Cuando hacen el estudio estadístico y relacionan todos estos datos, descubren que un municipio sin corrupción tiene un 3.1% de posibilidades de caer en ella por cada municipio vecino que sea corrupto. Pero también encuentra la tendencia contraria y, así, un municipio sin corrupción aumenta en un 6.7% sus denuncias por corrupción a los tribunales por cada municipio vecino que sea corrupto. Solo hay que intentar promover esta segunda respuesta más que la primera. Aunque, como contaba el trabajo de la Jaume I de Castellón, sea más sencillo, fácil, menos estresante y agradable caer en la corrupción.
.
En fin, volvamos al principio. La corrupción de la cosa pública para el beneficio personal se da en todos los países, y da igual la época o el régimen político. En la mayoría de los casos y, como decía antes, se busca el beneficio personal y para parientes y amigos. En los países más ricos hay menos corrupción por la existencia de más leyes y mejor control policial y judicial y de los presupestos, además de que hay más riqueza a repartir. Pero si se encuentra corrupción suele aparecer según se baja en la escala jerárquica, a grupos más pequeños, a la familia y los amigos, al grupo más cercano. Y, por ello, es típica la corrupción en los municipios. La evolución, durante miles de años, nos juntó en grupos no muy grandes, familiares o tribales, y lo seguimos aplicando aunque, creo, se ha quedado anticuado, si se puede decir algo así de los resultados de la evolución. Nuestra sociedad es ahora enorme, incontrolable según los métodos que nos dio la selección natural. Algo hay cambiar con educación y control de las leyes y de las estructuras, como en la policía y en los tribunales, que prometen castigo que, como vimos antes, en el estudio de Jaber-López, ayudan contra la corrupción.
Lo que busca el corrupto es lo habitual, es decir, supervivencia y reproducción o, en concreto, recursos para ambos objetivos. En una sociedad desarrollada, cuenta para conseguir recursos, y mucho, el estatus social y económico que permitirá el acceso a esos recursos. Como ejemplo de este estatus que, da la posibilidad de evitar o dilatar el castigo, tan importante como veíamos antes, es el aforamiento de los políticos. Además, la psicología del corrupto incluye la carencia de conciencia social o, en concreto, de empatía y altruismo. Y, es de destacar, en la psicología de la corrupción está extendida la sensación de impunidad, de que nunca serán descubiertos.
Podemos plantear la hipótesis de que en un sistema democrático, los implicados en corrupción que conozcan los ciudadanos, recibirán un castigo en las elecciones. Juan Luis Jiménez, de la Universidad de Las Palmas, escribe que, entre 1999 y 2011, más de 200 municipios han sido acusados formalmente de corrupción: los datos electorales de estos municipios demuestran que los efectos en cuanto a castigo en las votaciones son relativamente modestos. Incluso hay algunos municipios en los que la corrupción premia con votos a los corruptos.
En las elecciones municipales entre 2003 y 2011, la caída media de votos del partido acusado de corrupción es del 9%, con el máximo en el 11.8%. En la mayoría de los municipios, el porcentaje de votos para cada partido no cambia, aunque, en casos extremos, cae, pero hay otros municipios donde los votos al partido corrupto aumentan.
En la bibliografía revisada por Jiménez, hay casos en que los votos caen un 4% pero, si hay atención de los medios a la corrupción en el municipio, la caída puede llegar al 14%. Y, es curioso, pero hay varios estudios en que, si la corrupción es en el PSOE, los votos pueden caer hasta el 2%, y, si es en el PP, los votos crecen hasta un 3%.
Nos podemos preguntar cómo es posible que no se castigue la corrupción e, incluso, que se premie. Quizá la respuesta está en Costa Rica y en el estudio de María del Mar Martínez Resón, de la Universidad de Burgos. Los datos los tomó del Barómetro de las Américas de 2006, con preguntas sobre honestidad, capacidad y buenas ideas de los políticos que cada encuestado responde.
La mayoría de los encuestados, el 76.8%, prefiere al político honesto aunque lo considere un incapaz. Pero hay un 23.2% que prefiere al deshonesto si está capacitado. Esta elección corresponde a hombres con pocos conocimientos políticos, a jóvenes y a los ciudadanos con más ingresos.
Además, en la investigación de Pablo Fernández Vázquez y su grupo, de la Universidad Vanderbilt en Nashville, y con datos, de nuevo, de elecciones municipales en España en los años 2007 y 2011, en más de 8000 municipios, confirman que, como hemos visto, el castigo electoral a los corruptos es más bien tibio. Así, el partido cuyo alcalde está implicado en casos de corrupción es reelegido en el 62.7% de los municipios en que se presenta. No es muy diferente del 67.9% de reelección de los partidos cuyo alcalde no está implicado en corrupción. En general, hay algunos candidatos que están acusados de corrupción cuyos resultados bajan pero lo habitual es que suban, incluso, un 10% o más.
Para los autores, estas diferencias en los resultados y la falta de influencia de la corrupción en las elecciones está causada por la sensación de los electores de sentirse perjudicados o beneficiados por la corrupción de sus dirigentes. En muchos municipios y en esas fechas, la corrupción se debe al urbanismo y al boom inmobiliario. Los electores consideran que esta corrupción no perjudica a nadie, excepto al erario público que, por otra parte, consideran que no les pertenece. En cambio, trae dinero al municipio, beneficia a muchos y, en último término, algo toca a todos.
La pertenencia al grupo es, ya lo hemos visto, típico de nuestra especie y, más todavía, de los que se dedican a política. Es uno de los caminos de la corrupción y Eva Anduiza y sus colegas, de la Universitat Autónoma de Barcelona, lo han estudiado, con una encuesta por internet a la que respondieron 2300 voluntarios, de 15 a 45 años, en 2010. Se les envía un recorte de prensa en el que se anuncia el inicio de una investigación de un fiscal sobre un alcalde por tráfico de influencias, acusado de colocar a familiares en el ayuntamiento. Al azar, en el recorte se indica, en unos casos, que el alcalde es del PSOE y en otros que es del PP. Se les pide que puntúen la gravedad de la situación entre 1 y 10, y que indiquen si simpatizan con el PSOE o con el PP.
La puntuación media de la corrupción, si se refiere al partido que nos gusta, es de 7.6. Si el voluntario no tiene una adscripción política definida, es de 7.7. Y si se refiere al partido contrario, es de 8.1. Si el voluntario se declara del PP, puntúa a su partido con 7.4, y al PSOE con 7.95. Si se declara al PSOE, puntúa al PP con 8.15 y al PSOE con 7.75. Como queda claro, el grupo al que uno pertenece sigue tirando.
Cuando se han hecho estudios en el laboratorio, incluyendo análisis de saliva para conocer las concentraciones de hormonas en sangre, el grupo de Jooa Julia Lee, de la Universidad de Harvard, ha encontrado que las concentraciones de testosterona y de cortisol, relacionadas con la agresividad y el estrés, deben ser altas para llevar al engaño y al fraude. Y lo han estudiado en 82 voluntarios, con el 54% de mujeres. En cuanto al apego al grupo, el grupo de Shaud Shalvi, desde la Universidad del Negev en Israel, explica que también la oxitocina, la hormona que lleva a las relaciones entre personas, ayuda a la corrupción.
A veces, estás investigaciones sobre corrupción descubren relaciones insospechadas. Por ejemplo, Aksel Sundström y Lena Wängnerud, de la Universidad de Goteborg, en Suecia, han estudiado la corrupción en 18 países europeos y su relación con la presencia de mujeres en los ayuntamientos. Y han descubierto que la corrupción supone un obstáculo para las mujeres en la política municipal. Los autores suponen que hay un previo acuerdo en la sombra por grupos de poder que son, mayoritariamente, de hombres, para elegir a los candidatos dentro de los partidos políticos. Y eligen, sobre todo, a personas que conocen de antes y de quienes se fían, es decir, hombres.
Por cierto, España se desvía en parte de las tendencias generales pues aparece en la mitad de la lista en corrupción, con Dinamarca a la cabeza y Bulgaria en la cola, y está muy arriba en presencia de mujeres, en segundo lugar detrás de Suecia y con Rumania en la cola.
Referencias:
Anduiza, E. et al. 2013. Turning a blind eye: Experimental evidence of partisan bias in attitudes toward corruption. Comparative Political Studies 46: 1664-1692.
Costas Pérez, E. et al. 2012. Corruption, scandals, voter information, and accountability. European Journal of Political Economy 28: 469-484.
Hernández-Vázquez, P. et al. 2015. Rooting out corruption or rooting for corruption? The heterogeneous electoral consequences of scandals. Political Science Research and Methods doi: 10.1017/psrm.2015.8
Jaber-López, T. et al. 2014. Physiological and behavioral patterns of corruption. Frontiers in Behavioral Neuroscience doi: 10.3389/fnbeh.2014.00434
Jiménez, J.L. 2013. Corrupción local en España. Cuadernos Económicos de ICE 85: 23-42.
Lee, J.J. et al. 2015. Hormones and ethics: Understanding the biological basis of unethical conduct. Journal of Experimental Psychology: General DOI: 10.1037/xge0000099
López-Valcárcel, B.G. et al. 2015. Danger: local corruption is contagious! Cátedra Pasquall Maragall Working Paper 1: 21 pp.
Martínez –Resón, M.M. 2016. Yo prefiero al corrupto: el perfil de los ciudadanos que eligen políticos deshonestos pero competentes. Revista Española de Investigaciones Sociológicas 153: 77-94.
Riera, P. et al. 2013. The electoral consequences of corruption scandals in Spain. Crime, Law and Social Change DOI: 10.1007/s10611-013-9479-1
Shalvi, S. & C.K.W. De Dreu. 2014. Oxytocin promotes group-serving dishonesty. Proceedings of tha National Academy of Sciences USA 112: 10651-10656.
Sundström, A. & L. Wängnerud. 2014. Corruption as an obstacle to women’s political representation: Evidence from local councils in 18 European countries. Party Politics DOI: 10.1177/1354068814549339
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Casos de corrupción se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:#Naukas16 Entramos en M1
.
Rosario Luque ha venido a hablar del DefCon1, ese estado de alerta militar que autoriza el uso de armas de destrucción masiva, a nivel celular y del papel que en él juegan los macrófagos.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo #Naukas16 Entramos en M1 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: