Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 11 mins 16 segs

Leonardo Torres Quevedo en Bilbao, 1919-2019: Naútica, Aeronáutica y Computación

Sáb, 2019/10/12 - 11:59
El catamarán que Leonardo Torres Quevedo diseñó y se construyó en los astilleros de Euskalduna en Bilbao. Conocido como «binave» se probó en la ría de Bilbao en 1918 por primera vez. Fotografía: Francisco Gonzalez Redondo – Museo Torres Quevedo

El ingeniero Leonardo Torres Quevedo (1852-1939) fue el protagonista de importantes sucesos ocurridos en Bilbao hace cien años. Por un lado, completó en la ría de la capital vizcaína las pruebas de su “Binave”, el primer catamarán moderno construido en los astilleros Euskalduna. Por otro, hacía público en el Teatro Arriaga el proyecto del dirigible trasatlántico “Hispania”, culminación de su obra aeronáutica.

Otro de los grandes logros del ingeniero de origen vasco fue su “aritmómetro electromecánico”, aparato que puede considerarse el primer ordenador de la historia en el sentido actual del término y que fue presentado en la Exposición de Material Científico.

Todos estos grandes inventos, entre otros, hicieron que fuera calificado en 1930 como el más prodigioso inventor de su tiempo, por lo que ocupa un importante lugar en la historia universal de la ciencia y la técnica. Francisco A. González Redondo, profesor de la Universidad Complutense de Madrid (UCM), analizó las grandes obras del ingeniero el pasado 18 de septiembre en la Biblioteca Bidebarrieta de Bilbao.

Francisco A. González Redondo es profesor en la Universidad Complutense de Madrid (UCM) en el Departamento de Didáctica de las Ciencias Experimentales, Sociales y Matemáticas, además de ser uno de los grandes especialistas en la vida y obra de Leonardo Torres Quevedo. Sobre él ha escrito una biografía y numerosos artículos, además de organizar numerosos congresos y exposiciones.

Edición realizada por César Tomé López

El artículo Leonardo Torres Quevedo en Bilbao, 1919-2019: Naútica, Aeronáutica y Computación se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. «Leonardo Torres Quevedo, el más prodigioso inventor de su tiempo» por F.A. González Redondo
  2. Neandertales ¿crónica de una muerte anunciada?, por María Martinón-Torres
  3. Francisco Ayala en Bilbao
Categorías: Zientzia

¿Quiere que coman fruta y verdura? Conviértalos en pequeños artistas

Vie, 2019/10/11 - 11:59


Edurne Maiz Aldalur

«Vertumnus» (1590/1591) de Gisussepe Arcimboldo

Las tasas de sobrepeso y obesidad infantil son preocupantes a nivel mundial. Por ello, se han llevado a cabo programas para promover hábitos alimentarios saludables. La mayoría se ha centrado fundamentalmente en la educación nutricional, pero esta no es la única estrategia posible. Nosotros hemos optado por una aproximación diferente a este problema.

Es habitual que niños y niñas rechacen probar nuevos alimentos, sobre todo frutas y verduras. Este comportamiento se denomina neofobia alimentaria y se considera como característico del desarrollo evolutivo entre los 2 y 6 años. Sin embargo, si no se gestiona adecuadamente puede prolongarse hasta la edad adulta.

Frutas y verduras son, además, una fuente de minerales y vitaminas. Por todo ello es sumamente importante explorar nuevas estrategias para fomentar el consumo de estos alimentos entre la población infantil.

El papel de los sentidos

La simple exposición ha sido una de las estrategias más utilizadas para inducir el consumo de nuevas frutas y verduras. De esta manera, el niño se familiariza con el alimento. Además, durante un tiempo se consideró que en su aceptación era decisivo el sentido del gusto y, por eso, había que probar y saborear estos alimentos.

No obstante, otros autores observaron que la información de los sentidos del tacto, de la vista y del olfato también eran importantes para probar nuevas verduras.

Centrémonos en el sentido de la vista. En un estudio donde se presentaron los vegetales con diferentes formas (enteros, a rebanadas, en palitos y con figuras de estrella), los resultados mostraron que los pequeños preferían mucho más las verduras con figura de estrella.

De manera similar, otros autores encontraron que los niños comieron el doble de fruta cuando esta se presentaba decorada con palillos para cócteles y dentro de una sandía que cuando se mostraba de manera habitual. Los elementos divertidos siempre han resultado atractivos para los más pequeños: un claro ejemplo de ello es la variedad de colores y formas que presentan la mayoría de golosinas.

Efecto ‘Ikea’

Hasta el momento, varios estudios han identificado una relación entre la participación de los niños en la preparación de los alimentos (concretamente, en la compra y el cocinado) y el aumento de su disposición a probar cosas nuevas.

Este tipo de actividades prácticas son muy valoradas entre los pequeños, y se ha demostrado que aportan una sensación de responsabilidad y orgullo. Dichas emociones han sido explicadas a través del denominado “Efecto Ikea” o, más específicamente en relación a la comida, “lo cocino para mí”.

Este fenómeno explica cómo los consumidores aprecian más (por tanto, les gusta más e ingieren mayor cantidad) aquellas comidas que han preparado ellos mismos, comparadas con las elaborados por otras personas. Además, crear experiencias positivas con nuevos alimentos es también interesante, ya que la aceptación de nuevos sabores puede generalizarse y aumentar así la de otros diferentes.

Preparar platos artísticos

En un estudio, llevado a cabo en el departamento de I+D del Basque Culinary Center de Donostia-San Sebastián analizamos los efectos en el consumo y el agrado de nuevas frutas y verduras al involucrar a los niños en la creación de una merienda artística.

Uno de los platos artísticos preparados para el experimento.

Para ello, se crearon tres grupos:

  1. El grupo ART, en el que los pequeños elaboraron ellos mismos el plato artístico y luego lo comieron para merendar.
  2. El grupo VISUAL, donde los niños participaron en una actividad creativa de tipo collage con imágenes de frutas y verduras. A continuación merendaron el mismo plato artístico que el grupo anterior, pero elaborado por los investigadores.
  3. El grupo CONTROL, en el que los niños participaron en la misma actividad creativa que el grupo anterior y merendaron los mismos alimentos que el resto, pero presentados de la manera habitual (simplemente cortados).

Los resultados mostraron que tanto el grupo ART como el VISUAL aumentaron su disposición a probar y comer nuevos alimentos. Esto indica que tanto la creación como la presentación del plato artístico pueden ser dos estrategias válidas para fomentar el consumo de nuevas frutas y verduras.

Proceso de elaboración del plato.

Este experimento ha demostrado, además, que los niños también “comen primero con la vista”.

No obstante, el grupo que elaboró el plato por ellos mismos (ART) mostró un estado de ánimo más positivo, así como una mayor dominancia. Esto prueba que participar en la elaboración tiene un mayor impacto en el estado emocional que el simple hecho de comer algo elaborado por otro.

También es importante recalcar la importancia de jugar con los alimentos, tocándolos con las manos e implicando diferentes sentidos. Al final, crear comidas artísticas es una nueva forma de jugar y divertirse en familia.The Conversation

Sobre la autora: Edurne Maiz Aldalur es profesora adjunta de la Facultad de Psicología, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Quiere que coman fruta y verdura? Conviértalos en pequeños artistas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Acumuladores térmicos domésticos más pequeños usando parafinas
  2. Artistas científicos
  3. Artistas que miran a las matemáticas
Categorías: Zientzia

A la sombra de un Adagio

Jue, 2019/10/10 - 11:59
Imagen de Almudena M. Castro (@puratura)

El Adagio de Barber ha sonado en cientos de funerales, exequias y homenajes. Pero hubo uno donde su ausencia se hizo notar: el funeral de su propio compositor, Samuel Barber. Él mismo lo vetó poco antes de su muerte, cansado del que fue simultáneamente su mayor éxito y un espejo asfixiante durante toda su carrera.

Barber copuso su famoso Adagio en 1936, cuando apenas tenía 26 años. Pocos años antes, había conocido a Arturo Toscanini, uno de los compositores más célebres de su tiempo, quien le había animado a enviarle alguna de sus obras. Barber, un compositor joven y deseoso de darse a conocer, arregló rápidamente el movimiento lento de un cuarteto de cuerda que había compuesto poco antes y así nació su famoso Adagio para cuerdas.

La obra se estrenó el 5 de noviembre de 1938. Un selecto grupo de melómanos fue invitado al Estudio 8H del Rockefeller Center para ver a Toscanini dirigir la premier al frente de la Orquesta Sinfónica de la NBC. La obra además se grabó y emitió en directo para todos los oyentes de la Radio Nacional. Hasta la fecha, pocas obras del repertorio clásico se habían estrenado ante una audiencia tan inmensa y un público tan pequeño.

Desde entonces, y a partir de las primeras críticas positivas, su fama no dejó de crecer. Funerales, elegías, películas, televisión… durante el s. XX, no hubo lugar triste donde no sonase el Adagio. A día de hoy, algunas orquestas aún lo ensayan periódicamente, por si a alguna celebridad le da por estirar la pata.

Sin embargo, el compositor acabó lamentando este éxito tan temprano. Por un lado, su tremenda intensidad emocional fijó un estándar que Barber se sentía presionado a replicar en cada un de sus obras, condenado a destilar, una y otra vez, la fórmula que le había llevado al éxito. Pero además, sucedió que esta ópera prima eclipsó por completo el resto de su obra (y lo sigue haciendo a día de hoy, basta con buscar Samuel Barber en Spotify, por ejemplo).

Barber estaba convencido de haber escrito obras al menos igual de buenas que el Adagio, como sus conciertos para violín y para piano. Por eso no entendía que estas no llenasen los escenarios. Su irritación se volvía evidente, cada vez que alguien le comentaba cuánto admiraba su (dichoso) Adagio. En una entrevista de 1949, un periodista de la CBS le interpela, admirado, explicando que el Adagio fue la primera composición de Barber que él conoció. El compositor le contesta, “ojalá hubieses escuchado alguna de las nuevas” y añade con desdén “todo el mundo toca esa”. Hacia 1979, la acidez parece haber ido in crescendo: “A veces me aburro escuchando el Adagio. Pero me divierto durante las representaciones porque sé que siempre va a haber un error en alguna parte; simplemente espero que suceda. Es una obra tan sencilla, que ni siquiera se molestan en ensayarla”. A pesar del paso de los años, su Adagio lo seguía y ocultaba como una sombra, un espejo plano y oscuro en el que el compositor ya no se reconocía y que otros se empeñaban en mostrar.

No es de extrañar, por tanto, que Barber pidiese excluirlo de su propio funeral. Carlo Menotti, su pareja de toda la vida, se aseguró de que así fuera: durante la ceremonia sonaron corales de Bach, otras obras de música vocal de Barber, un madrigal del propio Menotti… ni resto del Adagio. Sin embargo, no logró silenciarlo durante la agonía del pobre Barber, atrapado en el hospital a causa del cancer: poco antes de su muerte, el director Lukas Foss dirigió su propia interpretación al frente de la Orquesta Filarmónica de Brooklyn y se la dedicó al compositor convaleciente. También Bernstein lo dirigió como homenage, poco tiempo después. Los amigos de Barber fueron a visitarle al hospital y le tocaron el Adagio en directo con todo su amor (y para aburrimiento mortal del compositor, segúnel testimonio de Menotti)… no falta comedia en esta pequeña tragedia, si uno la quiere ver.

Referencia:

Thomas Larson (2012) «The Saddest Music Ever Written: The Story of Samuel Barber’s Adagio for Strings»

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo A la sombra de un Adagio se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – Ángel Gómez Roldán: Tras la sombra de la Luna
  2. Tema y variaciones
  3. El último puzle de Bach
Categorías: Zientzia

42, la respuesta definitiva a la vida, el universo y todo lo demás

Mié, 2019/10/09 - 11:59

Una serie clásica de novelas de ciencia ficción de la década de los años 1980 es La guía del autoestopista galáctico, del escritor inglés Douglas Adams (1952 – 2001). Originalmente fue una serie para la radio, de 1978, con ese mismo nombre. La serie literaria se compone de cinco libros, el primero que da título a toda la serie, La guía del autoestopista galáctico, fue publicado en 1979, al que siguieron El restaurante del fin del mundo; La vida, el universo y todo lo demás; Hasta luego, y gracias por el pescado e Informe sobre la Tierra.

Portadas de las novelas de la serie de ciencia ficción La guía del autoestopista galáctico, publicadas por la editorial Anagrama, y cartel de la película

En la novela aparece un superordenador, llamado Pensamiento Profundo y que es el segundo ordenador más grande del universo del espacio y del tiempo, que ha sido construido por una raza de seres “pan-dimensionales” que buscan el sentido de la vida. Cuando le preguntan al superordenador cuál es la “respuesta definitiva a la vida, el universo y todo lo demás”, éste contesta, después de siete millones y medio de años haciendo cálculos, que “cuarenta y dos”.

– Buenos días –dijo al fin Pensamiento Profundo.

– Hmmm… Buenos días, Pensamiento Profundo –dijo nerviosamente Loonquawl–, ¿tienes… hmmm, es decir…?

– ¿Una respuesta que daros? –le interrumpió Pensamiento Profundo en tono majestuoso–. Sí, la tengo.

Los dos hombres temblaron de expectación. Su espera no había sido en vano.

– ¿De veras existe? –jadeó Phouchg.

– Existe de veras –le confirmó Pensamiento Profundo.

– ¿A todo? ¿A la gran pregunta de la Vida, del Universo y del Todo?

– Sí.

Los dos hombres estaban listos para aquel momento, se habían preparado durante toda la vida; se les escogió al nacer para que presenciaran la respuesta, pero aun así jadeaban y se retorcían como criaturas nerviosas.

[…] Los dos hombres se agitaron inquietos. La tensión era insoportable.

– En serio, no os va a gustar –observó Pensamiento Profundo.

– ¡Dínosla!

– De acuerdo –dijo Pensamiento Profundo–. La Respuesta a la Gran Pregunta…

– ¡Sí…!

– … de la Vida, del Universo y de Todo… –dijo Pensamiento Profundo.

– ¡Sí…!

– Es… –dijo Pensamiento Profundo, haciendo una pausa.

– ¡Sí…!

– Es…

– ¡¡¡¿Sí…?!!!

– Cuarenta y dos –dijo Pensamiento Profundo, con calma y majestad infinitas.

Ante el asombro de sus creadores, el supercomputador les plantea que tienen que buscar cuál es la “pregunta definitiva”. Y como ese ordenador no puede contestar a esa pregunta construyen el superordenador más grande del universo, llamado Tierra, que es destruido antes de responder a la cuestión de cuál es la “pregunta definitiva” y se pierde la posibilidad de conocer esa información de vital importancia.

Esta historia de La guía del autoestopista galáctico es el motivo por el cual cuando hace unas semanas se pudo leer en la prensa que los matemáticos habían resuelto un problema relacionado con el número 42, a muchas personas nos vino a la cabeza la “respuesta definitiva a la vida, el universo y todo lo demás”.

El número 42 era el último número de la conocida sucesión de números 4, 8, 15, 16, 23, 42 de la serie de televisión Lost. Aquí vemos el billete de lotería que, en la serie, tocó a uno de los personajes, Hurley

 

Algunos de los titulares de prensa que pudieron leerse hace unas semanas fueron

Matemáticos resuelven el diabólico acertijo del número 42, sin solución durante 65 años” (ABC Ciencia)

Un viejo problema sobre el 42, resuelto” (Investigación y Ciencia)

Resuelven por fin un misterioso problema matemático que lo puede cambiar todo” (El Confidencial)

Dejando la ciencia ficción a un lado, expliquemos cuál es el problema matemático al que se estaban refiriendo los titulares de la prensa. El problema es el siguiente.

Problema: ¿cómo expresar los números naturales del 1 al 100 como suma de tres cubos de números enteros?

Si lo escribimos de forma algebraica sería lo siguiente. Dado un número natural k, entre 1 y 100, buscar los números enteros x, y, z tales que verifican la ecuación diofántica:

x3 + y3 + z3 = k.

Empecemos explicando qué es una ecuación diofántica. Estas son ecuaciones polinómicas de dos o más variables x, y, z, etc, para las que se estudian las soluciones con números enteros (los naturales, el cero y los negativos).

Por ejemplo, se puede considerar la ecuación, en las variables x, y, z, relacionada con el teorema de Pitágoras x2 + y2 = z2 y estudiar sus soluciones enteras. Una solución de esta ecuación es la clásica (3, 4, 5), ya que 32 + 42 = 52. Estas soluciones enteras se conocen con el nombre de ternas pitagóricas. Otras ternas pitagóricas son (5, 12, 13) o (8, 15, 17). Los griegos se dedicaron a investigar la existencia de diferentes ternas pitagóricas. El matemático griego Diofanto, que vivió en Alejandría en el siglo III, escribió un libro sobre ecuaciones algebraicas de título Arithmetica. En particular, Diofanto elaboró una regla general para encontrar todas las ternas pitagóricas, y se interesó por el estudio de lo que hoy llamamos ecuaciones diofánticas.

Portada de la edición de 1621 de la Arithmetica de Diofanto. Imagen de Wikimedia Commons

Pero volviendo a nuestro problema, a la ecuación diofántica concreta x3 + y3 + z3 = k, o cómo expresar los números naturales del 1 al 100 como suma de tres cubos de números enteros, esta cuestión fue planteada de forma explícita y extensamente estudiada en un artículo publicado en 1955, en la revista Journal of the London Mathematical Society, por los matemáticos ingleses, J. C. P. Miller y M. F. C. Woollett, con el explícito título Solutions of the Diophantine Equation x3 + y3 + z3 = k.

Estos matemáticos se interesaron por este problema a raíz de un comentario del matemático inglés L. J. Mordell en otro artículo anterior, de 1953, en la misma revista:

No sé absolutamente nada sobre las soluciones enteras de x3 + y3 + z3 = 3, más allá de la existencia de (1, 1, 1) y (4, 4, – 5); y tiene que ser realmente muy difícil descubrir algo sobre otras soluciones”.

Además, Mordell sugirió a sus colegas Miller y Woollett que utilicen el ordenador ERSAC, de la Universidad de Cambridge, para obtener soluciones de la ecuación diofántica x3 + y3 + z3 = k, para valores de k menores, o iguales, a 100. Fruto de ese trabajo es el mencionado artículo.

Aunque ya con anterioridad de había estudiado la ecuación x3 + y3 + z3 = k. En la revista inglesa de matemática recreativa The Ladies’ Diary se publicó en 1825, por S. Ryley, una familia de soluciones racionales, no enteras, de esa ecuación. Y las primeras soluciones enteras fueron obtenidas para las ecuaciones diofánticas x3 + y3 + z3 = 1 y x3 + y3 + z3 = 2 (k = 1, 2), en 1908 y 1936, respectivamente.

Portada de 1740 de la revista The Ladies’ Diary, en la que aparece un retrato de Carolina de Brandeburgo-Ansbach, reina consorte del rey Jorge II de Gran Bretaña [*]. Desde el inicio de la revista se incluían en la portada retratos de mujeres prominentes británicas, para atraer a las mujeres a leer la revista. Imagen de la Princeton University Library, a través de Google Books 

Pero volvamos a la ecuación diofántica x3 + y3 + z3 = k y al estudio de sus soluciones enteras.Veamos algunos ejemplos que nos permitan entender mejor la cuestión. Podríamos incluso plantearnos primero la ecuación x3 + y3 + z3 = 0, la cual por el último teorema de Fermat (véase la entrada Euler y el último teorema de Fermat) no tiene soluciones más allá de las triviales, del tipo (a)3 + (– a)3 + 03 = 0.

Para k = 1, además de la solución trivial 13 + 03 + 03 =1, se pueden encontrar otras soluciones, como 93 + (–8)3 + (–6)3 = 729 – 512 – 216 = 1 o (– 12)3 + 103 + 93 = –1728 + 1000 + 729 = 1. De hecho, en 1908 se demostró que existen infinitas formas de obtener 1 como suma de cubos, como aparece en el artículo de Miller y Woollett:

(9 t4)3 + (3 t – 9 t4)3 + (1 – 9 t3)3 = 1.

Este resultado se extiende, de forma natural, a los números que son cubos, a3. Luego, para números menores de 100 serían 8, 27 y 64.

También se probó, en 1936, que para k = 2, algunas de cuyas soluciones son 13 + 13 + 03 = 2 y 73 + (– 5)3 + (–6)3 = 2, existen, de nuevo, infinitas soluciones:

(6 t3 + 1)3 + (– 6 t3 + 1)3 + (– 6 t2)3 = 2,

que se extiende a los números que son el doble de un cubo, 2 a3. Para menores de 100 serían 16 y 54.

Para el 3, como menciona Mordell, se conocían solo las soluciones 13 + 13 + 13 = (– 5)3 + 43 + 43 = 3. A pesar de los intentos computacionales de encontrar más soluciones a esta ecuación diofántica x3 + y3 + z3 = 3, no se produjo ningún avance. Solo, en 1985, se demostró que una condición necesaria para que una terna de números enteros (x, y, z) fuese solución de esa ecuación debía de cumplir que x, y y z fuesen congruentes entre sí, módulo 9. Es decir, que el resto al dividirlos por 9 fuese el mismo. Pero ninguna solución particular fue encontrada.

Ahora tocaría el turno a los números 4 y 5. Aunque os recomiendo que no lo intentéis, puesto que no es posible. De hecho, el resultado es más general.

Proposición: No existen soluciones de la ecuación diofántica x3 + y3 + z3 = k, para valores de k “congruentes con 4 o 5, módulo 9”, es decir, que al dividirlos por 9 el resto de la división es 4 o 5, como los números 4, 5, 13, 14, 22, 23, 31, 32, 40, 41, 49, 50, 58, 59, 67, 68, 76, 77, 85, 86, 94 y 95.

Esto se debe a que cualquier número elevado al cubo a3 es congruente con 0, 1 u 8, módulo 9, es decir, el resto de dividir a3 entre 9 solo puede ser 0, 1 u 8. Por lo tanto, la suma de tres cubos no puede ser congruente con 4 o 5, módulo 9, puesto que no hay forma de sumar tres valores (pueden ser repetidos) de 0, 1 u 8 para que quede un resultado congruente con 4 o 5, módulo 9. Por ejemplo, los siguientes cubos 23 = 8, 33 = 27, 53 = 125, son congruentes con 8, 0 y 8, módulo 9, respectivamente, luego su suma es congruente con 8 + 0 + 8 = 16, es decir, congruente con 7, módulo 9. Efectivamente, 8 + 27 + 125 = 160 es congruente con 7, módulo 9, ya que al dividir 160 entre 9 nos queda 17 y de resto 7.

Ordenador británico Electronic delay storage automatic calculator (EDSAC), de la Universidad de Cambridge, fue utilizado por los matemáticos Miller y Woollett para encontrar soluciones a las ecuaciones diofánticas. Las primeras tareas de EDSAC, en 1947, fueron el cálculo de una tabla de cuadrados de números y un listado de números primos. Imagen de la Universidad de Cambridge

Los matemáticos británicos Miller y Woollett, utilizando el ordenador EDSAC, encontraron soluciones particulares para 69 valores de k entre 1 y 100, buscando en un rango de valores de x, y, z comprendidos entre – 3.164 y 3.164. Si tenemos en cuenta que además había 22 valores, menores que 100, para los que no existen soluciones, quedaron sin resolver las ecuaciones diofánticas correspondientes a nueve valores, a saber, 30, 33, 39, 42, 52, 74, 75, 84 y 87.

Llegados a este punto de esta entrada del Cuaderno de Cultura Científica, os animo a que os enfrentéis vosotros mismos a la búsqueda de soluciones particulares al problema de expresar los números naturales del 1 al 100 (evitad los nueve valores que no consiguieron resolver Miller y Woollett, así como los 22 valores que no tienen solución) como suma de tres cubos de números enteros. Para algunos valores de k no es difícil encontrar soluciones, mientras que para otros no es tan sencillo, aunque para la mayoría existen soluciones con x, y, z menores, en valor absoluto, que 25 (esto es, entre – 25 y 25). En particular, para k = 16 la solución de Miller y Woollett es complicada,

16263 + (– 1609)3 + (– 511)3 = 16.

Bueno, pues si os animáis, disfrutad del problema/juego… divertíos… pero no os olvidéis de seguir leyendo esta entrada.

A partir del artículo Solutions of the Diophantine Equation x3 + y3 + z3 = k, de J. C. P. Miller y M. F. C. Woollett, se empezó a trabajar en la solución de estos nueve números menores que 100 que quedaban pendientes, pero también se estudió la ecuación diofántica x3 + y3 + z3 = k, para valores de k mayores que 100, en particular, se puso mucho énfasis en los menores que 1.000. Para resolver estas ecuaciones diofánticas se desarrollaron nuevos algoritmos computacionales y se amplió el rango de valores para x, y, z.

Hasta el año 2001 se había resuelto el problema para todos los números menores que 100, salvo 33, 42 y 74, para los cuales se sabía que no existían soluciones para x, y, z menores (en valor absoluto) que 1011. Así mismo, se habían encontrado soluciones para las ecuaciones diofánticas de todos los valores menores de 1000, salvo veinte, además de los tres anteriores.

Hubo que esperar a 2016 para obtener una solución para el número 74 y al inicio de este año 2019, aún quedaban por resolver los números 33 y 42.

En abril de este año, 2019, el matemático británico Andrew Booker, de la Universidad de Bristol, empezó a trabajar en el problema de escribir el número 33 como suma de tres cubos a raíz del video The uncracked problem with 33 [https://www.youtube.com/watch?v=wymmCdLdPvM] del canal de Youtube Numberphile.

Booker desarrolló un nuevo algoritmo que le permitiera buscar soluciones enteras con números de 16 dígitos de la ecuación diofántica x3 + y3 + z3 = 33. Y, con ayuda de este algoritmo, encontró la buscada solución. Como cuenta el propio Andrew Booker en una entrevista para Numberphile, saltó de alegría en su despacho cuando encontró esa solución.

Y a principios del pasado mes de septiembre (de 2019) Andrew Brooker, junto con el matemático estadounidense Andrew Sutherland del MIT, han conseguido la solución del número que faltaba, el 42. Para ello han tenido que subir el rango de las posibles soluciones x, y, z a números de 17 dígitos. En concreto, el 42 se puede expresar como suma de tres cubos de la siguiente forma

Booker y Sutherland también encontraron algunas soluciones para números menores que 1000, como 165, 795 y 906. De esta forma ha quedado resuelto el problema, hasta los 100 primeros números, aunque hasta 1.000 aún quedan unos pocos… 114, 390, 579, 627, 633, 732, 921 y 975, sobre los que se seguirá trabajando en el diseño de algoritmos que los resuelvan.

Pero, ¡sorpresa! Solo diez días más tarde del anuncio de que habían conseguido resolver el problema de expresar el 42 como suma de tres cubos, Booker y Sutherland volvieron a hacer otro importante anuncio, relacionado con este problema. Por fin, habían encontrado una nueva solución de la ecuación diofántica citada por el matemático británico L. J. Mordell en 1953, x3 + y3 + z3 = 3, más allá de las ya conocidas (1, 1, 1) y (4, 4, – 5). Los números de esta solución no trivial tienen 21 dígitos.

Para resolver estos complicados problemas de computación, asociados a la solución de la ecuación diofántica, los matemáticos Andrew Booker y Andrew Sutherland utilizaron la aplicación Charity Engine, que conecta más de 500.000 ordenadores personales de todo el planeta, creando una red planetaria de ordenadores.

Existen muchos otros problemas que implican la suma de cubos de números, por ejemplo, el problema de ver qué números, en progresión aritmética, verifican que la suma de sus cubos es, de nuevo, un cubo. Por ejemplo, 33 + 43 + 53 = 63 (por cierto, que a este número, 63, se le conoce como el número de Platón) o 113 + 123 + 133 + 143 = 203, pero eso es otra historia que será contada en otra ocasión.

Floating cubes, an essay in superrealism (1962), del artista irlandés Harry Kernoff (1900 – 1974). Imagen de la galería WHYTE’S

 

Bibliografía

1.- University of Bristol: Sum of three cubes for 42 finally solved

2.- Andrew R. Booker, Cracking the problem with 33, Res. Number Theory vol. 5, n. 29, 2019.

3.- John Pavlus, Sum-of-Three-Cubes Problem Solved for “Stubborn” number 33, Quanta Magazine, March, 2019.

4.- J. C. P. Miller y M. F. C. Woollett, Solutions of the Diophantine Equation x3 + y3 + z3 = k, Journal of the London Mathematical Society, vol. 30, pp. 101 – 110, 1955.

5.- L. J. Mordell, On the integer solutions of the equation x2+y2+z2+2xyz = n, Journal London Math. Soc, vol. 28, pp. 500-510, 1953.

6.- Armen Avagyan, Gurgen Dallakyan, A New Method in the Problem of Three Cubes, Universal Journal of Computational Mathematics vol. 5, n. 3, pp. 45-56, 2017.

7.- J. W. S. Cassels, A Note on the Diophantine Equation x3 + y3 + z3 = 3, Mathematics of Computation, vol. 44, n. 169, pp. 265-266, 1985.

8.- University of Bristol: Almost imposible 66-years-old maths puzzle solved

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

Nota del editor: Como es costumbre en España se traduce el nombre del rey o la reina y su correspondiente consorte. También es correcto su título como «rey de Gran Bretaña»; la denominación «Gran Bretaña» para el estado duró desde el 1 de mayo de 1707 al 1 de enero de 1801, momento en el que pasó a ser «Reino Unido de la Gran Bretaña e Irlanda» («…Irlanda del Norte» desde 1927).

El artículo 42, la respuesta definitiva a la vida, el universo y todo lo demás se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. 1 = 0, la prueba definitiva
  2. Cuando todo tu universo es un sólido
  3. El universo en un día: El origen de la vida, por Carlos Briones
Categorías: Zientzia

El tamaño del átomo de hidrógeno

Mar, 2019/10/08 - 11:59
Visualización real de los estados de Stark de un átomo de hidrógeno. Fuente: A. S. Stodolna et al (2013) Hydrogen Atoms under Magnification: Direct Observation of the Nodal Structure of Stark States Phys. Rev. Lett. 110, 213001

Sin duda, una prueba de fuego para el modelo de Bohr tendría que ser explicar los espectros de los elementos, empezando por el del hidrógeno. Pero antes tenía que pasar una prueba cuantitativa básica: el tamaño del átomo derivado del modelo tenía que ser compatible con los datos ya conocidos.

De entrada estaban los órdenes de magnitud impuestos por los resultados de dispersión obtenidos por el laboratorio de Rutherford. De ellos se podían deducir algunas cosas interesantes. Para empezar, el tamaño aproximado del núcleo atómico. Supongamos que una partícula α se mueve directamente hacia un núcleo. Su energía cinética se transforma en energía eléctrica potencial: se ralentiza y finalmente se detiene, como una pelota rodando cuesta arriba. Lo más cerca que la partícula estará del núcleo puede calcularse a partir de la energía cinética original de la partícula y las cargas de la partícula y el núcleo. El valor calculado resulta ser de unos 3·10-14 m.

Si la partícula no penetra en el núcleo, esta distancia debe ser, al menos, la suma de los radios de las partículas y el núcleo; de aquí, el radio del núcleo no podría ser mayor que aproximadamente 10-14 m. Pero 10-14 m es solo aproximadamente 1/1000 del radio que establece la teoría cinética para un átomo. Como el volumen total del átomo es proporcional al cubo de su radio, eso quiere decir que el átomo está mayormente vacío, con el núcleo ocupando solo una milmillonésima parte del espacio. Esto explica cómo las partículas o los electrones pueden penetrar miles de capas de átomos en láminas de metal o en gases, con solo una desviación grande ocasional de la trayectoria y muy pocos rebotes.

Con estas condiciones de contorno veamos la aplicación del modelo de Bohr al átomo más sencillo, el hidrógeno que, recordemos, tiene un solo electrón alrededor del núcleo. Bohr supuso que las posibles órbitas de los electrones son circulares por simplicidad. El resultado de Bohr para los radios de las posibles órbitas estables rn fue rn = a·n2, donde a es una constante (a = h2 / 4π2mkqe2) [1] que se puede calcular a partir de valores físicos conocidos, y n representa cualquier número entero, n = 1, 2, 3… .

El resultado de Bohr es muy llamativo. En los átomos de hidrógeno los posibles radios orbitales de los electrones son múltiplos enteros de una constante que se puede calcular fácilmente; es decir, n2 adquiere valores de 12, 22, 32,. . . , y todos los factores a la izquierda de n2 en rn = a·n2 son cantidades conocidas previa e independientemente.

El valor de a es aproximadamente de 5,3·10-11 m. Por lo tanto, según el modelo de Bohr, los radios de las órbitas estables tenía que se n2 veces 5,3·10-11 m. Es decir, para n = 1, la primera órbita permitida el radio era, precisamente, 5,3·10-11 m, 4 veces esta cantidad la segunda y 9 veces la tercera. Entre ellas, simple y llanamente, no podía estar el electrón.

En resumen, las distintas órbitas electrónicas están espaciadas alrededor del núcleo de manera regular, con los radios permitidos cuantificados de manera regular. Por lo tanto, la emisión y absorción de luz debe corresponder a la transición del electrón de una órbita permitida a otra. La emisión de luz ocurre cuando el electrón «cae» de un estado de energía más alto a un estado más bajo; la absorción de luz ocurre cuando el electrón «salta» desde un estado de baja energía hasta un estado de mayor energía. Un resultado muy bonito que indica qué radios son posibles y dónde se encuentran. Pero hasta ahora, todo esto es la construcción de un modelo. ¿Soporta la comparación con los datos conocidos?

En su primer artículo de 1913, Bohr pudo dar al menos un «sí» parcial como respuesta. Hacía tiempo que se sabía que el átomo de hidrógeno normal «no excitado» tenía un radio de aproximadamente 5·10-11 m (es decir, el tamaño del átomo obtenido, por ejemplo, al interpretar las características medidas de los gases en términos de la teoría cinética) [2]. Este valor conocido de aproximadamente 5·10-11 m se corresponde mejor que bien con la predicción de la ecuación para el radio orbital r si n tiene el valor más bajo, es decir 1. El modelo proporcionaba un mecanismo para entender el tamaño del átomo de hidrógeno neutro y no excitado. Para cada átomo, el tamaño corresponde al tamaño de la órbita electrónica más interna permitida.

Nota:

[1] Esta constante, llamada radio de Bohr, comparte el honor con la constante de Boltzman o la constante de Avogadro, de haber sido descritas en realidad por otras personas (respectivamente, Haas, Planck y Cannizaro). Pero esto es otra historia…

[2] Este valor de 5·10-11 m para un átomo de hidrógeno no es más que la mitad del 10-10 m que proporcionaba la teoría cinética para la molécula de hidrógeno.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El tamaño del átomo de hidrógeno se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las regularidades en el espectro del hidrógeno
  2. La carga del núcleo y el sistema de periodos
  3. Un átomo con un centro masivo diminuto
Categorías: Zientzia

¿Es contagiosa la enfermedad de Alzheimer?

Lun, 2019/10/07 - 11:59

 

Angélique Igel-Egalon

Foto: Simon Wijers / Unsplash

En la actualidad se conocen más de cincuenta demencias resultantes de enfermedades neurodegenerativas, y la enfermedad de Alzheimer es la más extendida. Se estima que cerca de 35 millones de personas la sufren en el mundo, y que el número de enfermos podría alcanzar los 115 millones de personas en los próximos 30 años.

Aunque en algunos casos —pocos— el alzhéimer puede deberse a un problema genético, el factor de riesgo principal es el envejecimiento. Así pues, es lógico que la prevalencia de estas enfermedades guarde relación con el aumento de la esperanza de vida.

No obstante, recientemente se han llevado a cabo trabajos que también apuntan a que, en determinadas condiciones, la enfermedad de Alzheimer podría transmitirse entre personas. Es cierto que su mecanismo recuerda el de las enfermedades producidas por priones, como la enfermedad de Creutzfeldt-Jakob, de la que se produjeron decenas de casos como consecuencia de la crisis de las vacas locas. A continuación ofrecemos algunas explicaciones.

La enfermedad de Alzheimer, un problema de proteínas

Desde un punto de vista sintomático, el alzhéimer se caracteriza por un deterioro drástico de las facultades psíquicas y físicas debido a la muerte de las neuronas cerebrales. Cuando se analizan los cerebros de los pacientes fallecidos, se observa la presencia de dos tipos de depósitos de proteínas.

Las proteínas son moléculas de gran tamaño constituidas por una secuencia de moléculas más pequeñas denominadas aminoácidos. Se trata de componentes esenciales de la vida: las células y los tejidos de los seres vivos contienen miles de proteínas, que cumplen funciones variadas y específicas (hormonas, enzimas, proteínas de estructura como el colágeno, la tubulina, que constituye el “esqueleto” de las células y les da su forma, etc.). En la enfermedad de Alzheimer, algunas de estas proteínas se vuelven anormales y se acumulan.

El primer tipo de depósitos proteicos encontrados en el cerebro de pacientes con esta demencia contiene una proteína denominada “Tau” (del inglés Tubulin-associated unit). En condiciones normales, una de sus funciones es estabilizar la estructura de las neuronas. En la enfermedad de Alzheimer, Tau se modifica y deja de cumplir su función. Las neuronas se degeneran, mientras que las proteínas anormales se agregan unas a otras y se acumulan en las células nerviosas.

El péptido Aβ se produce a partir de un corte en la secuencia de aminoácidos de una gran proteína denominada APP o precursor proteico amiloide. Esta proteína se sitúa en la superficie de las neuronas e interviene sobre todo en su crecimiento, su supervivencia y su reparación.

En condiciones normales, los péptidos Aβ se eliminan, pero en la enfermedad de Alzheimer se acumulan en el exterior de las células nerviosas, en forma de placas amiloides, también denominadas placas seniles. Estos depósitos se encuentran, asimismo, alrededor de los capilares sanguíneos del cerebro y pueden ser causa de microhemorragias cerebrales denominadas angiopatías amiloides cerebrales.

Formación de las placas amiloides.
Wikimedia, CC BY

Proteínas capaces de contaminar otras

El aspecto más destacable de los mecanismos que dan lugar al alzhéimer es que la neurodegenerescencia no se deriva de una simple acumulación pasiva de proteínas.

En realidad, las proteínas implicadas cambian de forma, lo que modifica su acción a escala celular. Cabe señalar que la función de una proteína depende generalmente de su forma (que, a su vez, depende en gran medida de la secuencia de los aminoácidos que la compone). Este cambio de morfología es lo que confiere al péptido Aβ propiedades totalmente diferentes de las de su forma normal. Al ser capaz de autoagregarse, puede formar los depósitos de fibras amiloides que, probablemente, causan la muerte de las neuronas.

Pero aún hay más: los investigadores han demostrado que las formas tóxicas son capaces de obligar a sus álter ego normales a imitarlas y a adoptar a su vez una forma patógena. Este fenómeno, denominado “autorreplicativo”, explica cómo una célula enferma que produce la forma tóxica del péptido puede “contaminar” la célula vecina.

Este contagio de una célula a otra también explica por qué, durante la evolución de la enfermedad de Alzheimer, la propagación de las lesiones cerebrales se extiende de forma progresiva a todo el cerebro siguiendo un esquema bien determinado que se observa en todos los pacientes.

¿Qué es la enfermedad de Alzheimer?

Mecanismos similares a los de los priones

Este proceso autorreplicativo es similar al que se observa en el caso de otra enfermedad neurodegenerativa, la enfermedad de Creutzfeldt-Jakob. Esta se debe a la propagación en el seno del cerebro de un agente patógeno muy particular: el prion.

Aunque no es una bacteria, ni un parásito, ni un virus, ni un hongo, el prion es, sin embargo, transmisible. El descubrimiento de estas “partículas proteicas infecciosas” (el acrónimo prion procede del inglés proteinacious infectious particule) ha sido objeto de un amplio debate y ha obligado a los investigadores a crear un nuevo concepto, el de “agentes transmisibles no convencionales”. Al contrario de lo que ocurre con los otros agentes patógenos, los priones están desprovistos de genoma (no tienen ADN ni ARN) y se componen exclusivamente de una única proteína.

Como sucede con las proteínas implicadas en la enfermedad de Alzheimer, las células producen de forma natural una versión “normal” del prion. Esta versión cumpliría numerosas funciones biológicas, pero todavía no se conocen bien sus diversas utilidades. También posee la propiedad de replegarse y agregarse para formar partículas infecciosas. En su forma infecciosa, los priones son capaces de infectar a un nuevo individuo tras la ingesta de determinados tejidos contaminados, o a través de la sangre, por ejemplo.

La gran resistencia de los priones a los procesos de destrucción clásicos ha dado lugar a varias crisis económico-sanitarias de gran alcance, como la crisis de las vacas locas en los años ochenta y noventa o el escándalo de la hormona del crecimiento contaminada.

¿Es contagiosa?

Los procesos de agregación del péptido Aβ y de la proteína Tau presentan semejanzas con el proceso observado en los priones. Así pues, ¿es posible que la enfermedad pueda transmitirse entre personas, según un mecanismo idéntico al del prion? Diversos grupos de científicos han intentado responder a esta pregunta.

De forma experimental, varios equipos de investigadores han podido inducir la proliferación de agregados de péptidos Aβ en animales de laboratorio. Por otra parte, más recientemente, se han llevado a cabo diferentes trabajos que apuntan a la existencia de casos de transmisión iatrogénica del péptido Aβ patógeno, lo que ha dado lugar a angiopatías amiloides cerebrales. Las hormonas de crecimiento producidas, en particular, antes de 1977 no solo habrían estado contaminadas por el prion, sino también por el péptido Aβ, y habrían podido intervenir en el desarrollo de la enfermedad de Alzheimer.

Paralelamente a la publicación de estos trabajos, se ha detallado de manera especial otra población llamada “de riesgo”, la de los pacientes que han recibido un trasplante de duramadre. Esta fina membrana fibrosa que protege el cerebro podía extraerse de cadáveres y utilizarse como “gasa” tras la realización de operaciones neuroquirúrgicas invasivas. Esta práctica se prohibió en Francia en 1994, pues los trasplantes de duramadre dieron lugar a casos de transmisión iatrogénica del prion humano.

Se llevaron a cabo tres estudios (suizo, japonés e internacional) que mostraron respectivamente que el 71,4%, el 81% y el 61,5% de los pacientes que recibieron este tipo de trasplante desarrollaron posteriormente angiopatías amiloides cerebrales. Aunque no es posible aportar la prueba formal de la contaminación por causa de los trasplantes, la localización de las lesiones y de los depósitos proteicos indica con claridad que el trasplante es la causa del cambio de forma y de la agregación de los péptidos Aβ del receptor.

Un estudio también ha señalado que los instrumentos quirúrgicos utilizados en neurocirugía tal vez podrían constituir a veces una fuente de contaminación, aunque el riesgo es probablemente muy bajo. No obstante, los autores de estos trabajos proponen que se mejoren los procedimientos de esterilización.

¿Es una enfermedad producida por priones?

Desde un punto de vista mecanístico, queda claro que la enfermedad de Alzheimer se parece a las enfermedades producidas por priones. Si nos atenemos a la definición estricta de la palabra prion —partícula proteica infecciosa—, la enfermedad de Alzheimer debería estar incluida, puesto que ha quedado demostrado el carácter transmisible de los ensamblajes proteicos tóxicos que la causan, al menos de forma experimental.

No obstante, de acuerdo con los resultados de investigación, el concepto de prion se ha ampliado: se ha revelado la existencia de diferentes cepas de priones así como su capacidad para “mutar” y adaptarse a su nuevo huésped. En este aspecto, las enfermedades producidas por priones se diferencian de la enfermedad de Alzheimer. Así pues, de acuerdo con el nivel de conocimientos actual, parece más justo calificar esta última como “enfermedad de tipo prion” o “de amiloides infecciosos”. O ampliar el término de agente transmisible no convencional a los ensamblajes proteicos causantes de la enfermedad de Alzheimer.

Sobre la autora: Angélique Igel-Egalon es ingeniera de investigación del grupo de macroagregados proteicos y enfermedades priónicas del Inra

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Es contagiosa la enfermedad de Alzheimer? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Prevenir y tratar la enfermedad de Alzheimer: Una visión moderna
  2. El papel de la insulina en la enfermedad de Alzheimer
  3. El citoesqueleto de las neuronas y el alzhéimer
Categorías: Zientzia

Sin intimidad genética

Dom, 2019/10/06 - 11:59
Fuente: Pixabay

Madonna, la conocida cantante, contrata equipos para que limpien de manera concienzuda las habitaciones de hotel en que se ha alojado. Pretende evitar así que alguien consiga muestras biológicas de las que extraer material que pueda ser utilizado para secuenciar su genoma. Puede ser prudencia exagerada, pero no es ninguna extravagancia.

Al lado de la información genética que pueda extraerse de una muestra biológica mínima y, sobre todo, de la forma en que esa información sea transmitida al gran público, las imágenes que capturan hoy los paparazzi de las celebridades serían juegos de patio de colegio. ¿Se lo imaginan?

Angelina Jollie se sometió a sendas operaciones quirúrgicas para extirparse las mamas y los ovarios porque tenía, por causas genéticas, un 87 y un 50% de probabilidades de sufrir cáncer de mama y cáncer de ovario respectivamente. Hizo públicas esas decisiones porque quiso. Pero lo que teme Madonna es que otros, sin que ella pueda ejercer control alguno, puedan hacer pública alguna información de ese estilo relativa a su persona.

¿Se imaginan lo que harían ciertos medios o algunos políticos con información genética relativa a un adversario? Un candidato a ocupar un alto cargo podría ser presentado a la opinión pública como alguien predispuesto genéticamente a adoptar comportamientos de riesgo, por ejemplo. Incluso suponiendo que hubiera algo de verdad en esa supuesta propensión, ¿cómo lo presentaría un medio sensacionalista? ¿cómo se haría alusión a ello en las tertulias de radio o televisión? ¿cómo lo entendería el máximo responsable de su partido? ¿qué pensaráin los votantes de ese partido? Presumo que esas prácticas no serían legales, pero ¿supodría ello una diferencia importante en la práctica?

Análisis genéticos comerciales han servido ya en los Estados Unidos para localizar a la madre de un donante de semen. Cuando esa práctica se generalice, los donantes dejarán de ser anónimos, lo que introducirá cambios importantes en las reglas o podría, incluso, conducir a la desaparición de esa modalidad de donación.

Pero la pérdida del anonimato no se limita al ámbito de los donantes de semen. Solo en Estados Unidos hay del orden de 90 empresas que hacen análisis de ADN para rastrear los ancestros de quienes recurren a sus servicios. Pues bien, el acceso a un porcentaje muy pequeño de la población es suficiente para poder trazar la ascendencia de la gran mayoría. Eso, que resulta sorprendente, es consecuencia de la tupida red de relaciones familiares que tiene cada persona. En los Estados Unidos, por ejemplo, desde el 2% se puede acceder, a traves de primos terceros, a la información genética del 99% de la población.

En esa progresiva pérdida de intimidad, el rizo lo ha rizado Ancestry, una conocida compañía norteamericana de genealogía que comercializa tests genéticos. Tras aliarse con Spotify la conocida firma de música on-line, ofrece, además del correspondiente test de ADN, la lista de música inspirada, supuestamente, en los orígenes del cliente. Nada hay en el ADN de una persona que pueda servir a tal fin. Por mucho que el gusto genérico por la música pueda de alguna forma estar codificado en el genoma, no hay manera de saber qué música escuchaban nuestros ancestros, si es que escuchaban alguna, a partir de su análisis. Porque la particular forma que adquiere la expresión musical es un rasgo cultural y se transmite, por ello, mediante aprendizaje y contagio social.

Envoltorio musical aparte ¿a nadie se le ha ocurrido pensar el uso que una red social como Spotify podría hacer de la información genética de miles de usuarios? Recuerden lo que ha hecho Facebook con información igualmente sensible pero de otra naturaleza.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sin intimidad genética se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Poca influencia genética en el desempeño educativo
  2. Contra el furtivismo, genética molecular
  3. Genética en las aulas
Categorías: Zientzia

Materiales inteligentes y multifuncionales para impulsar el desarrollo tecnológico

Sáb, 2019/10/05 - 11:59

Los materiales inteligentes, también denominados activos o multifuncionales, son estructuras capaces de modificar sus propiedades como respuesta a estímulos físicos o químicos externos, como la presión, la temperatura o la humedad del entorno.

Por sus características, estos componentes ofrecen un elevado potencial de aplicación en sectores como el transporte, la energía o la biomedicina. Combinados con técnicas de fabricación avanzada como la fabricación aditiva o las nuevas tecnologías de impresión, estos materiales resultan particularmente relevantes en ámbitos como la Industria 4.0 o el denominado “Internet de las cosas”, con importantes implicaciones sociales, económicas y laborales, entre otras.

El físico Senentxu Lanceros-Mendez, actual director científico del BCMaterials (Basque Center for Materials, Applications and Nanostructures), analizó la relevancia de estos elementos en la conferencia titulada “Importancia de los materiales inteligentes y multifuncionales en el desarrollo tecnológico actual”, que se celebró el pasado 27 de febrero en la Biblioteca Bidebarrieta de Bilbao. El investigador Ikerbasque explica en ella no solo  los aspectos más destacados de los nuevos materiales inteligentes, sino también las aplicaciones hasta hace poco inimaginables que estos permiten y sus implicaciones económicas y sociales.

Senentxu Lanceros-Mendez es licenciado en Física por la UPV/EHU y doctorado por la Universidad Julius-Maximilians-Universität Würzburg (Alemania). Su investigación está centrada en el desarrollo de nuevos materiales inteligentes y multifuncionales para su aplicación en sensores, actuadores, energía y biomedicina.

La charla se enmarca dentro del ciclo “Bidebarrieta Científica” una iniciativa que organiza todos los meses la Cátedra de Cultura Científica de la UPV/EHU y la Biblioteca Bidebarrieta para divulgar asuntos científicos de actualidad.

Edición realizada por César Tomé López

El artículo Materiales inteligentes y multifuncionales para impulsar el desarrollo tecnológico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un atlas para materiales 2D
  2. Ciencia, arte y cultura callejera: materiales y obra artística
  3. Un algoritmo genético para buscar materiales 2D
Categorías: Zientzia

¿Son evitables los ataques con drones?

Vie, 2019/10/04 - 11:59


Julián Estévez Sanz

Foto: photoAC / Pixabay

La respuesta corta a la pregunta del título es: ahora mismo, no.

Si algún lector quiere seguir leyendo, desarrollaré un poco más la explicación. Al hilo de los ataques sufridos en las instalaciones de Saudi Aramco, muchas personas se preguntan si el ataque se pudo evitar. O incluso, pensando en el futuro, si se podrá evitar cuando vuelva a pasar. La respuesta es que no será nada fácil. No hay un sistema de contramedidas 100 % fiable.

¿Se acuerdan los lectores de que el año pasado unos drones obligaron a cerrar el aeropuerto de Gatwick? Fíjense en el caos y en la dificultad para tratar estas emergencias, que incluso las autoridades llegaron a pensar que quizás esos drones nunca habían existido. Había tal confusión que, meses más tarde, la policía en uno de sus informes finales recogió más de 100 visiones de estos multirrotores.

Unos drones domésticos paralizaron el aeropuerto de Gatwick.

El caso de Gatwick es diferente del de Aramco, ya que no se emplearon los drones para el ataque. Estas máquinas se llevan usando para hacer daño al enemigo desde hace bastante tiempo. Ya en el siglo XIII a.C. la dinastia china Song usaba cometas para sobrevolar por encima de sus enemigos, a las que entonces prendía fuego. Ese episodio representa el primer vestigio de la guerra con drones.

Si viajamos a tiempos más recientes, en 2003 la OTAN lanzó un programa que duraría 10 años para el estudio de contramedidas contra esta tecnología. Este informe no ha sido abierto al público. En 2008, el think tank RAND Corporation publicó un informe sobre la amenaza que los robots voladores suponían para la seguridad de Estados Unidos. El ISIS usó con gran éxito estos aparatos en sus ataques. Una de las maniobras más sonadas fue la de enero de 2018, cuando este grupo terrorista coordinó una docena de estos ingenios contra dos instalaciones militares en Rusia.

Además, a los responsables de seguridad les pone los pelos como escarpias la aparente naturalidad con la que los vehículos aéreos no tripulados se acercan a objetivos muy sensibles. Como Pedro por su casa, que dirían. En 2013, por ejemplo, el Partido Pirata alemán voló un drone muy cerca de Angela Merkel, sin ningún peligro, pero dejando muchas dudas sobre la preparación de la seguridad ante estas eventualidades. Incluso en 2015, un hombre estrelló su juguete en los terrenos de la Casa Blanca.

Medidas de defensa

Conviene aclarar que las medidas antiaéreas tradicionales no sirven de nada contra estos aparatos. En 2016, un sencillo drone que sobrevoló el cielo de Israel procedente de Siria no sucumbió ante el ataque de dos misiles Patriot ni de un misil aire-aire lanzado desde un avión israelí. Las medidas antidrones son más sutiles.

Actualmente, los sistemas para combatir a los vehículos aéreos no tripulados los podemos clasificar en los siguientes tipos:

Detección

Los drones son tan pequeños que no son fáciles de detectar con un radar. Se emplean otras tecnologías como sensores de radiofrecuencia, acústicos y ópticos. Estas medidas tienen la desventaja de que necesitan tener línea directa de visión con la máquina voladora. Para solventarlo, existen sensores acústicos, que se valen de grandes librerías que intentan detectar el sonido característico de estos aparatos. Pero la incorporación al mercado de estos drones es muy rápida, y la librería no siempre es fácil de mantener actualizada. Todas estas imprecisiones llevan a que haya un gran número de falsos positivos, lo cual no es nada deseable.

Interceptación

Estas medidas consisten en interrumpir las comunicaciones del drone. Ya sea con el operador que lo maneje, con una estación o con un satélite. Esto tampoco es 100 % efectivo, ya que muchos están programados para navegar de manera autónoma.

Por otro lado, también se contempla la idea de lanzar redes para atascar los rotores del drone. Hay espectaculares vídeos comerciales sobre estas iniciativas de derribo de UAVs con unas armas bastante aparatosas que normalmente requieren un espacio aéreo totalmente despejado.

Vídeo promocional de SkyWall 100, una bazuca anti drones.

En esta línea encontramos también el famoso caso de las águilas usadas por la policía holandesa, aunque esta idea se rechazó finalmente.

Algunos fabricantes de drones tienen la opción de configurar en qué área geográfica pueden operar sus productos, tal y como lo demostró la empresa DJI en el conflicto de Siria. Esta medida parece fácilmente salvable por unos terroristas.

Aunque el mayor problema de atacar un drone que transporta una bomba es: ¿qué hacer cuando caiga? Por lo tanto, vuelve a quedar claro que no existen medidas 100 % efectivas de interceptación.

Conclusión

El número y el mercado de contramedidas se ha multiplicado en los últimos años y la amenaza hace tiempo que está detectada. Muchas medidas que he presentado aquí no se pueden usar directamente en un aeropuerto, ya que podría interferir en la comunicación con los aviones, así que un caso como el de Gatwick podría repetirse.

Sin embargo, tanto pero no significa que evitar este tipo de ataques sea imposible. Aunque no sean tan mediáticos, ya existen casos de interceptación de drones, como en el aeropuerto de Londres hace unos pocos días. El interés de las fuerzas de seguridad y los ejércitos en este ámbito va en aumento.

Sobre el autor: Julián Estévez Sanz es profesor ayudante de Robótica e Inteligencia Artificial en el Departamento de Ingeniería Mecánica de la Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Son evitables los ataques con drones? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ataques preventivos
  2. Marcas de agua digitales, qué son y para qué sirven
  3. Insectos agrícolas
Categorías: Zientzia

Adulterar los cigarrillos electrónicos te puede matar

Jue, 2019/10/03 - 11:59
Foto de Austin Lawrence

 

  • 805 afectados y 12 muertos

El New York Times alertaba a principios de septiembre de una nueva muerte consecuencia del vapeo en el estado de Oregón. Es la segunda muerte registrada después de la acontecida en Illinois hace casi dos meses.

Cuando el número de afectados ingresados llegó a 53, el Departamento de Salud Pública de Illinois elaboró un informe acerca de las similitudes de estos pacientes. Todos ellos presentaban infiltraciones pulmonares, es decir, tenían sustancias adheridas a los pulmones que dificultaban su normal funcionamiento, provocando inflamación e impidiendo la respiración. Fueron tratados con esteroides para frenar la inflamación, coma inducido, lavado broncoalveolar, antibióticos para tratar las neumonías y con respiración asistida. Los expertos se enfrentan a un nuevo síndrome cuyas causas, aseguran en el informe, requieren un estudio urgente.

Según los CDC (Centros para el Control y la Prevención de Enfermedades de Estados Unidos) los casos de enfermedad pulmonar asociados al mal uso de cigarrillos electrónicos aumentaron un 52% en la última semana. Hay 805 afectados y 12 muertos. En su mayoría adolescentes. En todos los casos parece que los consumidores manipularon los vapeadores para fumar otro tipo de sustancias, diferentes a las que contienen los cigarrillos electrónicos convencionales, y utilizaron cartuchos del mercado negro. La inhalación de sustancias tóxicas es el origen del misterioso síndrome pulmonar.

  • La “epidemia” no es por vapear. Hay algo más.

Lo más importante de este suceso es que los afectados no fumaban con vapeadores normales, sino que los manipularon y usaron cargas irregulares.

Mas del 90% de los afectados reconoció haber utilizado vapeadores cargados con aceites que contenían cannabinoides, como el THC (tetrahidrocannabinol) y el CBD (cannabidiol). Es decir, alteraron las cargas originales de estos dispositivos.

Se están estudiando otros posibles contaminantes como hidrocarburos aromáticos policíclicos, compuestos liposolubles como la vitamina E, nitrosaminas, productos químicos orgánicos volátiles como el formaldehído y productos químicos inorgánicos como metales. También se han detectado endotoxinas y compuestos aromatizantes como el diacetilo y la 2,3-pentanodiona.

En busca de respuestas, NBC News encargó a CannaSafe, un laboratorio experto en análisis de cartuchos de vapeadores, el análisis de 18 cartuchos, 3 comprados en dispensadores legales de California y 15 del mercado ilegal. De los tres comprados en dispensarios legales, la compañía de pruebas CannaSafe no encontró metales pesados, pesticidas o disolventes residuales como la vitamina E. Pero 13 de las otras 15 muestras de cartuchos de THC del mercado negro sí contenían vitamina E.

La vitamina E es una sustancia liposoluble, es decir, en los pulmones puede comportarse como un aceite que se va adhiriendo al árbol respiratorio. El organismo se defiende intentando eliminar ese cuerpo extraño y para ello utiliza las células expertas en ello: los eosinófilos. El resultado de esto puede derivar en neumonía eosinófila aguda.

CannaSafe también probó pesticidas en 10 de los cartuchos no regulados. Los 10 dieron positivo. Todos los productos contenían el fungicida myclobutanil, una sustancia que puede transformarse en cianuro de hidrógeno cuando se quema. El cianuro es tóxico por inhalación, ya que inhibe la respiración celular. Es mortal a partir de 300 ppm de concentración.

Los jóvenes afectados por esta “epidemia” no habían utilizado cápsulas comerciales, sino que las habían adulterado para poder fumar otras drogas o ahorrar dinero.

La razón por la que llevamos meses preguntándonos si el origen de este misterioso síndrome pulmonar está en los cigarrillos electrónicos, es que muchos de los jóvenes afectados ocultaron la información. Los médicos no sabían qué estaban fumando. Esto obstaculiza el tratamiento y el diagnóstico.

  • Composición de los cigarrillos electrónicos convencionales

Los principales componentes de los cigarrillos electrónicos convencionales a base de nicotina incluyen propilenglicol y glicerina, además de la nicotina. También algún aromatizante. En ningún caso contienen aceites.

A excepción de la nicotina, inhalar estas sustancias no supone ningún peligro. Sin embargo, aunque en estos dispositivos no se producen reacciones de combustión, tal y como ocurre con el tabaco convencional, sí se produce calentamiento. El calentamiento sí puede dar lugar a la formación de otras sustancias que están en el punto de mira. Se sigue estudiando la formación de sustancias peligrosas como el formaldehído y las acroleínas como subproducto de reacción en algunos de estos dispositivos. Sea como fuere, los niveles de estas sustancias potencialmente tóxicas que se pueden formar en los cigarrillos electrónicos estarán muy por debajo de las que se forman en el tabaco. Desde el punto de vista exclusivamente bioquímico, atendiendo a las sustancias presentes en el humo y su impacto en la salud, los cigarrillos electrónicos no son totalmente inocuos, pero sí son más seguros que fumar tabaco convencional.

  • Pros de los cigarrillos electrónicos

Durante la combustión del tabaco convencional se producen sustancias relacionadas con el cáncer, como bencenos, alquitrán y amoniaco. Sustancias que no se producen en los vapeadores.

Un estudio de Sigma Dos asegura que el 96,3% de los españoles recurren al cigarrillo electrónico como sustituto del tabaco. De ellos, el 69,8% ha logrado cambiar el humo por el vapor; reemplazar por completo el tabaco por los nuevos dispositivos electrónicos de liberación controlada de nicotina consiguiendo así no volver a fumar tabaco convencional.

Sin embargo, los estudios realizados hasta la fecha no son muy prometedores con respecto al abandono del tabaquismo. Aunque fumar es significativamente más insalubre que vapear, no hay evidencias sobre que el vapeo sea una estrategia útil para dejar de fumar. Al menos no parece ofrecer una tasa de éxito mayor que otras estrategias.

No obstante, en 2015 el Gobierno del Reino Unido decidió autorizar a los médicos de su sistema público de salud a prescribir los vaporizadores como tratamiento alternativo para dejar de fumar, igual que ocurre en España con las terapias de reemplazo de nicotina, como los parches o chicles de nicotina. Una decisión avalada por un informe del Real Colegio de Médicos británicos que asegura que el uso de vaporizadores es «un 95% menos dañino» que el tabaco.

Aunque los autores del trabajo en el que se citaba este dato fueron acusados de conflicto de interés, la evidencia científica nos dice que los cigarrillos electrónicos ofrecen niveles mucho más bajos de carcinógenos que los cigarrillos convencionales. No son inocuos, pero sí suponen una mejora significativa.

Con respecto a la salud cardiovascular, el cigarrillo electrónico no parece ofrecer ventajas frente al tabaco convencional. El riesgo de infarto de miocardio e ictus es prácticamente el mismo.

  • Contras de los cigarrillos electrónicos

Aunque la evidencia científica es escasa, con respecto a enfermedades pulmonares, todo apunta a que el cigarrillo electrónico podría aumentar el riesgo de bronquitis y asma. Pero este no es el contra más importante.

Austin Lawrence retratado por Matt Martin para GQ

Este tipo de dispositivos se han introducido en el mercado como sustitutos del tabaco, como una transición plácida hasta dejar definitivamente de fumar. Aparentemente es un win-win. Los consumidores van dejando de fumar y esto sigue reportando beneficios a la industria del tabaco. British American Tobacco (BAT), Philip Morris, Japan Tobacco International (JTI) y Altadis, las cuatro grandes del sector, comercializan distintas modalidades de cigarrillos electrónicos.

Pero a su vez, estos dispositivos que se presentaban como una alternativa para dejar de fumar, se han colado en el mercado como un caballo de Troya capaz de persuadir a nuevos clientes. Vapear se ha convertido en una moda que arrasa en las redes sociales. Uno de los más famosos es Austin Lawrence, que cuenta con más de 3 millones de seguidores en Intagram y en Youtube.

Los adolescentes son atraídos mediante técnicas de marketing que van desde el «esto que fumas no hace daño» hasta el «te ofrezco sabores como el de pepino«, claramente dirigidas a los más jóvenes. Las campañas publicitarias son del tipo “glamur y libertad”. Nos recuerdan a las que en su día se hacían con el tabaco convencional. Quienes comienzan a fumar utilizando cigarrillos electrónicos con nicotina no deberían olvidarse de que la nicotina es una sustancia adictiva, y la adicción es contraria a la libertad.

  • Los jóvenes fuman menos y empiezan más tarde, pero vapean más

En la encuesta Estudes sobre consumo de drogas entre estudiantes se muestra que el 20,1% de los alumnos ha utilizado cigarrillos electrónicos alguna vez en su vida, observándose una mayor extensión entre los chicos. Entre los que admiten haber vapeado en alguna ocasión, el 52,6% utilizó cartuchos sin nicotina, el 22,4% con nicotina y el 24,9% admitieron haber utilizado ambos tipos. La proporción de usuarios de cigarrillos electrónicos es considerablemente más alta ente los que fuman tabaco a diario que entre los que no lo hacen.

El 34,7% (31,4 en 2014) de los alumnos ha fumado tabaco en el último año. El consumo diario se sitúa en el 8,8% (8,9% en 2014), cifra mínima de la serie histórica de Estudes. En 2004, el 21,5% de este sector de la población fumaba a diario. Por término medio, el primer consumo de tabaco se produce a los 14,1 años; por primera vez a lo largo de toda la serie histórica de Estudes se supera la frontera de los 14 años. La adquisición del hábito de fumar diariamente, igual que ocurría en 2014, comienza a los 14,6 años de media, apenas medio año después de haberlo probado por primera vez. Parece que la irrupción del cigarrillo electrónico no ha aumentado el número de fumadores adolescentes ni la edad a la que empiezan a fumar. Parece que un hábito ha reemplazado en parte al otro.

Meme creado por Adam Padilla

 

Aunque el juguete mi primer vapeador no existe, fue un meme creado por Adam Padilla, sí se comercializaron cigarrillos de chocolate, que vienen a ser lo mismo. Los cigarrillos de chocolate fueron creados por Milton Snavely Hershey en 1906 y se popularizaron en España en la década de los 80, cuando un tercio de la población era fumadora. En 2005 fueron retirados del mercado español debido a la aprobación de la Ley Antitabaco, que especifica: «En particular, se prohíbe la venta de dulces, refrigerios, juguetes y otros objetos que tengan forma de productos del tabaco y puedan resultar atractivos para los menores».

La prohibición de los cigarrillos de chocolate pretendía lanzar el mensaje de que el tabaquismo no es un juego. El meme de Adam Padilla pretende lo mismo con respecto al vapeo. Del mismo modo, decenas de sociedades médicas han firmado la llamada Declaración de Madrid, promovida por el Comité Nacional de Prevención del Tabaquismo, que insta a aplicar la actual regulación sobre espacios sin humo a los cigarrillos electrónicos. El objetivo es doble. Por un lado, evitar la toxicidad pasiva que estos ocasionan, y por otro, conseguir la desnormalización del vapeo en lugares públicos.

  • Reflexión final

La manipulación de cigarrillos electrónicos ha causado la muerte de 12 personas y ya hay 805 afectados por un síndrome pulmonar grave. Los afectados adulteraron deliberadamente estos dispositivos, por lo que no podemos culpar a los cigarrillos electrónicos de esta “epidemia”. Lo responsable desde los medios de comunicación es alertar del peligro que supone adulterar estos dispositivos.

La evidencia científica apunta a que es mucho peor para la salud fumar que vapear. No está tan claro que sea una buena estrategia para dejar de fumar, pero al menos vapear en lugar de fumar sí es un cambio a mejor siempre y cuando se utilice tal y como indica el fabricante y con las recargas oficiales.

Aunque vapear no es totalmente inocuo, el principal contra no está tanto en las sustancias que se inhalan, sino en el hábito al que inducen.

Los cigarrillos electrónicos irrumpieron en el mercado como una estrategia más para dejar de fumar. La intuición nos dice que es una estrategia ganadora, ya que imita el hábito de fumar, cosa que no ocurre con los chicles o los parches de nicotina. El cigarrillo electrónico era un objeto tosco y caro, así que en principio era difícil imaginarse que el vapeo se convertiría en una actividad lúdica. Pero el glamur es muy importante. Los cigarrillos electrónicos son dispositivos cada vez más sofisticados. Además, la nube de vapor que crean al exhalar es muy estética. Permite hacer trucos visuales, como aros y otras formas, muy atractivos para la fotografía. El vapeo es instagrameable. La publicidad ha hecho el resto.

Que los jóvenes vapeen con cigarrillos electrónicos en lugar de fumar tabaco convencional no es el escenario ideal, pero siempre y cuando no manipulen los dispositivos, desde el punto de vista de la salud pública puede verse como una mejora. No obstante, las restricciones legales del tabaco convencional deberían extenderse al cigarrillo electrónico, a fin desincentivar su uso. La situación ideal sería que los jóvenes no fumasen si lo uno ni lo otro. Pero no vivimos en un mundo ideal.

La realidad es que si los cigarrillos electrónicos e Instagram hubiesen existido cuando yo tenía 15 años, en lugar de dar una primera calada a un pitillo, se la habría dado a un cigarrillo electrónico. Porque cuando tienes 15 años, molar es lo más importante. Habría sido mejor, pero no lo mejor. Ojalá hubiese sabido que para molar no hacía falta inhalar mierdas.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Adulterar los cigarrillos electrónicos te puede matar se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Polímeros biocompatibles para integrar dispositivos electrónicos en nuestro cuerpo
  2. Todo lo que se puede medir en un río
  3. Lo que la tensión puede hacer en dos capas de grafeno
Categorías: Zientzia

Dos teoremas de la amistad

Mié, 2019/10/02 - 11:59

 

Entre los individuos, la amistad nunca viene dada, sino que debe conquistarse indefinidamente.

Simone de Beauvoir

Decir amistad es decir entendimiento cabal, confianza rápida y larga memoria; es decir, fidelidad.

Gabriela Mistral

Recordemos que, en matemáticas, un grafo está definido por un conjunto de vértices y un conjunto de aristas uniendo algunos de estos vértices. Un grafo se llama plano cuando puede dibujarse en el plano sin que ninguna arista se cruce. Los ejemplos más sencillos de grafos no planos son los conocidos como K5 y K3,3.

Grafos K5 y K3,3.

 

De hecho, en 1930, el matemático y lógico Kazimierz Kuratowski (1896-1980) demostró este bello teorema que caracteriza la ‘planitud’ de cualquier grafo:

Un grafo es plano si y solo si no contiene ningún subgrafo homeomorfo a K5 o K3,3.

El grafo de la amistad Fnse construye uniendo n copias del grafo cíclo C3 a través de un vértice común.

El grafo de la amistad F8 como unión a través de un vértice de 8 copias de C3.



Se trata de un grafo plano que posee 2n+1 vértices y 3n aristas.

Grafos de la amistad F2, F3 y F4

 

En 1966 Paul Erdős, Alfréd Rényi y Vera T. Sós demostraron el que llamaremos el primer teorema de la amistad, que dice lo siguiente (ver [2]):

Los grafos finitos con la propiedad de que dos vértices cualesquiera tienen exactamente un vértice vecino en común son precisamente los grafos de la amistad.

Una manera de pensar en este teorema –y de allí su nombre– es el siguiente: si un grupo de personas posee la característica de que cada par de ellas tiene exactamente un amigo en común, entonces debe de haber una persona que sea amiga de todas las demás.

El primer teorema de la amistad no funciona para grafos infinitos, es decir, pueden existir grafos infinitos diferentes, con la propiedad de que ‘dos vértices cualesquiera tienen exactamente un vértice vecino en común’ y con el mismo cardinal (ver [3]).

Por cierto, Vera T. Sós (1930) es una especialista en combinatoria. Esa “T.” corresponde al apellido de su marido, Pál Turán (1910-1976). Ambos fueron estudiantes de Lipót Fejér… y ambos poseen número de Erdős igual a 1.

Para establecer el segundo teorema de la amistad, supongamos que en una fiesta hay 6 personas. Si tomamos dos de ellas al azar, o bien se encuentran por primera vez –les llamaremos mutuamente extraños– o bien se conocían previamente –los llamaremos mutuamente conocidos–. El teorema dice entonces lo siguiente:

En cualquier grupo de seis personas, existen tres personas que son mutuamente conocidas o mutuamente desconocidas.

Este problema puede reformularse en términos de teoría de grafos. Recordemos que un grafo se llama completo si es un grafo simple –sin aristas múltiples entre vértices, en particular, sin bucles– donde cada par de vértices está conectado por una arista. Un grafo completo de n vértices se denota Kn –antes hemos hablado de K5–.

K6 contiene 15 aristas.

Grafo K6.

 

Cada persona asistente a esa fiesta se puede representar por uno de los vértices. Coloreemos la arista uniendo dos vértices de rojo si las personas correspondientes son mutuamente conocidas y de azul si son mutuamente extrañas.

El segundo teorema de la amistad se reformula entonces en términos de coloreado de grafos:

Si coloreamos con rojo o azul las 15 aristas de K6 siempre habrá un triángulo rojo o un triángulo azul.

La prueba es muy sencilla. Elegimos un vértice cualquiera V. Cinco aristas inciden con V, y serán de color rojo o azul. El principio del palomar garantiza que al menos tres aristas deben ser del mismo color; supongamos que es rojo. Llamemos A, B y C los vértices correspondientes a estas tres aristas. Si alguna de las aristas AB, BC, CA es roja, entonces esta arista junto con las dos aristas incidentes a V forman los lados de un triángulo rojo. Si ninguna de las aristas AB, BC, CA es roja, entonces las tres aristas son de color azul y se tiene el triángulo azul ABC.

El matemático Frank P. Ramsey (1903-1930) demostró un teorema general de combinatoria en su artículo On a problem of formal logic, este fue el origen de la llamada teoría de Ramsey. El segundo teorema de la amistad es un caso particular de este resultado.

Por cierto, el segundo teorema de la amistad no funciona para grupos de menos de 6 personas

Referencias

[1] Dutch Windmill Graph, Wolfram MathWorld

[2] Paul Erdős, Alfréd Rényi and Vera T. Sós, On a problema of graph theory, Studia Scientiarum Mathematicarum Hungarica 1 (1966) 215-235

[3] Václav Chvátal, Anton Kotzig, Ivo G Rosenberg and Roy O. Davies, Roy O., There are 2ℵα friendship graphs of cardinal ℵα, Canadian Mathematical Bulletin 19 (4) (1976) 431-433

[4] Teorema de la amistad, Wikipedia (consultado el 18 septiembre 2019)

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Dos teoremas de la amistad se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El juego del Sim
  2. Shizuo Kakutani y sus teoremas
  3. El teorema de los cuatro colores (3): Tras más de un siglo de aventura… ¿un ordenador resuelve el problema?
Categorías: Zientzia

Los postulados de Bohr

Mar, 2019/10/01 - 11:59
Imagen: Gerd Altmann / Pixabay

Si suponemos, como hizo Rutherford, que un átomo consiste en un núcleo cargado positivamente rodeado de varios electrones cargados negativamente, ¿qué impide que los electrones y el núcleo se unan debido a la atracción eléctrica? Una posible respuesta es que un átomo podría ser como un sistema planetario, con los electrones girando en órbitas alrededor del núcleo [1]. Podemos pensar en un planeta que orbita alrededor del Sol como sujeto a una fuerza atractiva hacia el centro [2]. Si no fuese así el planeta seguiría en línea recta, de acuerdo con la primera ley del movimiento de Newton. Esta fuerza hacia el centro a menudo se llama fuerza centrípeta. Para los planetas, esta fuerza surge de la atracción gravitacional del Sol sobre el planeta [2]. Para el caso de los electrones en los átomos Rutherford sugirió que, haciendo el papel de fuerza gravitacional, la fuerza de atracción eléctrica entre el núcleo y el electrón suministraría una fuerza centrípeta. Esta fuerza centrípeta mantendría en órbita al electrón en movimiento.

La idea parece ser una buena base para un modelo útil de la estructura atómica. Pero surge un grave problema con respecto a la estabilidad de un átomo «planetario». Según la teoría del electromagnetismo de Maxwell, una partícula cargada pierde energía cuando se acelera. Un electrón que se mueve en una órbita alrededor de un núcleo cambia continuamente su dirección, por lo tanto, también su vector de velocidad. En otras palabras, siempre está siendo acelerado por la fuerza eléctrica centrípeta.

El electrón, por lo tanto, debería perder energía emitiendo radiación y, por lo tanto, acercándose constantemente al núcleo. En muy poco tiempo, el electrón que pierde energía se termina precipitando en el núcleo. [1] Según la física clásica, la mecánica y el electromagnetismo, un átomo planetario no sería estable durante más de una fracción muy pequeña de un segundo. Con todo, y a sabiendas de esta dificultad insalvable desde el punto de vista clásico, la idea de un átomo planetario era muy atractiva.

La comunidad física continuó buscando un modelo que incluyese una estructura planetaria estable y que, entre otras cosas, pudiese explicar los espectros de emisión de los elementos. Niels Bohr, entonces un físico danés desconocido que acababa de recibir su doctorado, logró construir un modelo muy interesante en 1912-1913. Este modelo se conoce como modelo de Bohr o modelo cuántico del átomo [4], porque incorporó con éxito la idea cuántica de Einstein y Planck. Fue ampliamente reconocido como una gran victoria. Aunque tuvo que modificarse más tarde para tener en cuenta muchos más fenómenos, mostró cómo atacar problemas atómicos mediante el uso de la teoría cuántica. Dado que Bohr incorporó la idea de átomo nuclear de Rutherford, algo crucial para el modelo, el nombre más apropiado para éste quizás sería modelo de Rutherford-Bohr.

El modelo de Rutherford-Bohr en una imagen. La expresión en rojo es otra forma de escribir hf = Ei – Ef. Imagen: Wikimedia Commons

Bohr introdujo dos nuevos postulados [5] específicamente para explicar la existencia de órbitas de electrones estables y espectros de emisión diferentes para cada elemento. Estos postulados pueden expresarse de la siguiente manera:

1. Contrariamente a las predicciones de la física clásica, que después de todo había sido probada solo para circunstancias relativamente a gran escala, existen estados para un sistema atómico en el que no se emite radiación electromagnética a pesar de la aceleración de las partículas cargadas (electrones) . Estos estados se denominan estados estacionarios del átomo.

2. Cualquier emisión o absorción de radiación, ya sea como luz visible u otra radiación electromagnética, corresponde a una transición repentina de la carga entre dos de estos estados estacionarios. La radiación emitida o absorbida tiene una frecuencia f determinada por la relación hf = Ei – Ef (en esta ecuación h es la constante de Planck, y Ei y Ef son las energías del átomo en los estados estacionarios inicial y final, respectivamente.

La teoría cuántica había comenzado con la idea de Planck de que los átomos emiten luz solo en cantidades definidas de energía. Este concepto fue ampliado por la idea de Einstein de que la luz viaja solo como paquetes definidos, cuantos, de energía. Ahora se extendía aún más por lel postulado de Bohr de que los átomos existen en un estado estable solo en estados de energía definidos y «cuantizados». Pero Bohr también usó el concepto cuántico para decidir cuál de todos los estados estacionarios concebibles son realmente posibles. Veremos un ejemplo en la siguiente entrega de la serie.

Notas:

[1] La imagen del sistema planetario atómico es parte del desarrollo histórico del modelo. Debemos recordar que los átomos NO son sistemas planetarios de la misma forma que no son pudin de pasas.

[2] Este es el modelo newtoniano. Sabemos desde la aparición de la relatividad general que esto es solo una aproximación válida matemáticamente.

[3] Parecido a lo que le ocurre a un satélite artificial, que pierde energía debido a la fricción en la atmósfera superior, y gradualmente se mueve en espiral hacia la Tierra. Caería si no se corrigiese su trayectoria con propulsores.

[4] Se lo conoce así pero, en realidad, el modelo de Bohr es el quinto modelo cuántico construido. Más sobre ello en este vídeo.

[5] Son postulados porque se postulan, es decir, al asumir que son ciertos el modelo arroja resultados coherentes con los datos experimentales. No hay otro razonamiento más que este.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los postulados de Bohr se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Quantum13 Bohr no fue el primero
  2. 1913-2013: del modelo atómico de Bohr al Higgs
  3. Bohr y la veneración de la autoridad
Categorías: Zientzia

Lo prudente es hablar de emergencia climática

Lun, 2019/09/30 - 11:59


Daniel Ortiz Gonzalo

Río Segura a su paso por Murcia tras las intensas lluvias provocadas por el fenómeno DANA a principios de septiembre.
Jose y yo Estudio/Shutterstock

No podíamos seguir permitiéndonos en España una falta de atención mediática al cambio climático. Y menos tras haber sufrido una gota fría sin precedentes en diversos puntos de la costa mediterránea.

Se dijo que “era demasiado pronto” para relacionar las lluvias torrenciales con el cambio climático. Y mucha gente nos preguntamos hasta cuándo iba a seguir siendo demasiado pronto y si no era contraproducente guardar cautela a la hora de informar acerca de uno de los mayores retos de nuestro tiempo.

Frente a esa prudencia de no querer atribuir un evento regular como la gota fría al cambio climático, existe el consenso científico de que el aumento de la temperatura está detrás de la intensificación y la recurrencia de estos fenómenos.

Imágenes del municipio de Los Alcázares (Murcia) y el mar Menor del 19 de agosto de 2019 (izquierda) y del 13 de septiembre (derecha), tras el episodio de lluvias torrenciales.
Satélites Sentinel del programa europeo Copernicus/SnapPlanet

Dada la inacción política frente a la crisis climática, no querer precipitarse en mencionar el cambio climático solo ha retrasado el momento de poner sobre la mesa medidas urgentes tanto para mitigar emisiones como para adaptarnos a fenómenos extremos. Quizás, lo “prudente” sea informar con frecuencia sobre la emergencia climática.

Signos de una crisis sin precedentes

Si repasamos la actualidad climática, los últimos cinco años han sido los más cálidos jamás registrados. Así lo indica el reciente informe de la Organización Meteorológica Mundial encargado para la cumbre de la ONU sobre Acción Climática que se celebra estos días en Nueva York.

Mensajes clave del informe ‘Unidos en la ciencia’ producido por el Grupo Asesor de Ciencias Climáticas de la Cumbre de Acción Climática de la ONU 2019, Nueva York.
Organización Meteorológica Mundial

El hemisferio norte acaba de experimentar el verano más caluroso desde que se tienen registros. La proporción de ciclones tropicales intensos (categorías 4 y 5) se ha incrementado en el Atlántico Norte desde 1970.

Dorian ha sido el huracán más potente jamás registrado en azotar Las Bahamas. Ha dejado el archipiélago devastado a su paso. En su deriva hacia el norte, Dorian irrumpió en la circulación atmosférica de latitudes medias, generando perturbaciones en la corriente en chorro (chorro polar o jet stream).

Como si fuera el meandro abandonado de un río, de las ondulaciones generadas se descolgó una bolsa de aire frío –una depresión aislada en niveles altos (DANA) o gota fría– que llegó a alcanzar la franja mediterránea.

Mapa animado de isobaras donde se aprecian las perturbaciones generadas por Dorian y la formación de una DANA o gota fría. Alicia M. Bentley, Ph.D.

Sabemos desde hace tiempo que la temperatura superficial del Mediterráneo ha subido 1,27 °C de media en los últimos 35 años. Es una media aritmética, lo que significa que existe una mayor amplitud en eventos puntuales.

Un mar caliente junto con bolsas de aire frío en altura son dos de los ingredientes principales para el desarrollo de fenómenos convectivos adversos, como las intensas tormentas de las pasadas semanas.

Incertidumbre no significa inacción

Pese a la incertidumbre que pueda existir al relacionar los puntos arriba mencionados, no podemos permitirnos el lujo de continuar desperdiciando ocasiones para informar sobre la necesidad de actuar frente al cambio climático. Lo prudente es hablar de soluciones a la emergencia climática.

Si alguien todavía considera que la evidencia científica no es suficiente, las compañías aseguradoras también manejan una gran cantidad de indicadores al respecto.

Dado el grado de inacción, los peores escenarios pueden pasar a ser probables. Y recordemos que la comunidad científica tiende a ser conservadora en sus predicciones.

Hoy sabemos que, lejos de ser alarmistas, los científicos han subestimado la velocidad, la magnitud y la recurrencia de algunos de los impactos que estamos viviendo como consecuencia del cambio climático.

Más allá de la dimensión biofísica, los modelos económicos también han subestimado, o directamente omitido, muchas de las graves consecuencias del fenómeno en los medios de vida de las personas. Así lo pone de manifiesto el reciente informe de perspectiva política publicado por The Earth Institute, The Grantham Research Institute on Climate Change and the Environment y The Postdam Institute for Climate Impact Research.

Un punto de inflexión

La crisis climática no nos va a afectar menos por dejar de mentarla. Sin embargo, aumentar la cobertura mediática es fundamental para el llamamiento a la acción.

Iniciativas recientes como Covering Climate Now (The Nation y Columbia Journalism Review) y la Declaración de los Medios de Comunicación Frente al Cambio Climático (ECODES, MDCS y periodistas especializados) están logrando un punto de inflexión a la hora de informar sobre la emergencia climática.

Se trata del mayor esfuerzo hasta ahora realizado por los medios de comunicación para dar cobertura a la crisis climática. Y se refieren a crisis climática o emergencia climática porque el término cambio climático no reflejaba la urgencia del momento.

“Covering Climate Now es inusual, ambicioso, oportuno y bienvenido, sobre todo porque es raro ver medios de comunicación a menudo altamente competitivos colaborando por un propósito compartido”.

Editorial de Nature (15 de septiembre, 2019).

Llamamiento a la acción política

La atención mediática se suma al poderoso altavoz de la movilización mundial por el clima, que protagonizan los más jóvenes en todos los rincones del planeta. Desde que el año pasado Greta Thunberg comenzara las huelgas escolares Fridays for Future, millones de personas inspiradas por Greta, conscientes de la urgencia climática, se han sumado al llamamiento a la acción en más de 163 países.

¿Ha existido alguna vez una movilización tan extendida en todo el planeta? Probablemente no. Es, sin duda, un movimiento histórico, desde la base de la sociedad y sustentado en la ciencia, que está transformando el mundo a través de la equidad y la justicia intergeneracional.

Las movilizaciones por el clima, el apoyo de los medios de comunicación y la nueva convocatoria de elecciones en España suponen una oportunidad histórica para trasladar, de una vez por todas, la necesidad de acción climática a los responsables políticos.

No permitamos de nuevo que la crisis climática quede omitida o silenciada durante la campaña ni en los debates políticos. Solo así podremos elegir, de manera informada, líderes del lado de la ciencia para hacer frente a los retos del siglo XXI.

Daniel Ortiz Gonzalo es p ofesor e investigador postdoctoral en la Facultad de Ciencias, Departamento de Geociencias y Gestión de los Recursos Naturales, University of Copenhagen

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Lo prudente es hablar de emergencia climática se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
  2. Los ecosistemas acuáticos de África y el cambio climático
  3. Hablar de lo que pasa y de lo que pasó
Categorías: Zientzia

La tabla periódica en el arte: Plata

Dom, 2019/09/29 - 11:59

 

La plata es un metal de propiedades fascinantes: conduce la electricidad y el calor como ningún otro, es muy maleable y hasta posee propiedades desinfectantes. Sin embargo, quedémonos con un detalle que podría pasar inadvertido: es el único elemento “femenino” de la tabla periódica. A ninguno de los otros 117 elementos le acompaña el artículo la. Precisamente la plata está vinculada a divinidades femeninas en muchísimas culturas, casi siempre asociadas a la luna. Quizás la unión más hermosa sea la de civilización incaica que considera que la plata proviene de las lágrimas de la Mama Killa (Madre Luna), hermana y esposa de Inti, divinidad solar asociada al oro. Vemos, por tanto, que para este pueblo los metales preciosos tenían también valor religioso y no es de extrañar que elaborasen con ellos una gran cantidad de objetos ceremoniales. En la Imagen 1 podemos ver la representación de una llama trabajada en una aleación de plata, aunque en este caso de femenino tiene poco.

Imagen 1. Efigie inca de una llama (1450-1550), aleación de plata (4,5 x 4,5 x 1 cm). Fuente: Museum of Fine Arts Boston

Recordemos que una aleación es una mezcla de metales como, por ejemplo, cobre y estaño para formar bronce o cobre y zinc para crear latón. La mayoría de los objetos de plata están elaborados realmente con aleaciones, ya que en su forma pura es excesivamente maleable. Así que si tu collar o brazalete no es cien por cien plata, no te preocupes, se le ha añadido algún otro metal (generalmente cobre) para mejorar sus propiedades mecánicas. Así, cuando leas: realizado en plata de ley 925 (plata esterlina), significa que el 92,5 % de esa aleación es plata. En las joyerías podréis encontrar diferentes aleaciones que indican la proporción de ese metal: 800, 900, 958, etc. Claro que no todas las aleaciones tienen tanta plata. El vellón, por ejemplo, es una aleación que supera el 50 % de cobre. Se empleó mucho para acuñar monedas y, en ausencia de mejores materiales, para elaborar alhajas. Pese al bajo contenido en plata de esta aleación, puede haber casos peores: la plata que no es plata. Nos referimos a la alpaca, una aleación de cobre, zinc y níquel que en apariencia se asemeja al metal precioso que nos ocupa (no en vano también se conoce como plata alemana). Lo podéis juzgar en la Imagen 2.

Imagen 2. Boys Toys, de Willem Lenssinck (2014). Fuente: Willem Lenssinck

Posiblemente, al relacionar la plata con el arte, lo primero que nos venga a la cabeza sean objetos como los que acabamos de ver o delicadas piezas de orfebrería (platería, mejor dicho). Sin embargo, el papel de la plata en la Historia del Arte va mucho más allá y abarca ámbitos tan dispares como la fotografía, las vidrieras o el dibujo. Pasen y vean.

Una calle de París

El 19 de agosto de 1839 Louis Daguerre presentaba en la Academia de Ciencias de París una técnica que permitía capturar la realidad en una placa. En un alarde de imaginación la llamó daguerrotipia. Ya desde el siglo anterior se sabía que las sales de plata eran fotosensibles, así que sólo era necesario lograr un método para, valiéndose de esa propiedad, plasmar imágenes en un soporte sólido. Daguerre lo consiguió suspendiendo una placa de plata (o cobre plateado) sobre vapores de yoduro caliente, de modo que en la superficie se crease una capa de yoduro de plata (AgI). A continuación la placa se introducía dentro de una cámara oscura y se exponía a la luz durante varios minutos. Así, la luz provocaba que los iones de plata de la sal se convirtiesen en plata metálica, dando lugar a una imagen latente (con más plata donde más luz incidía). Posteriormente esa imagen latente se hacía visible gracias a la formación de amalgamas de mercurio y plata, para lo que era necesario exponer la placa a vapores del tan tóxico elemento. Finalmente, para que la imagen se fijase, se empleaba una disolución de sal común (que luego se sustituyó por tiosulfato de sodio por sugerencia de John Herschel). Mediante esta proceso fotográfico Daguerre capturó el Boulevard du Temple(Imagen 3), la primera fotografía que se conserva en la que aparecen humanos. Curiosamente sólo podemos ver a dos (en la parte inferior izquierda): un limpiabotas y su cliente, los únicos que permanecieron relativamente estáticos durante los más de diez minutos de exposición.

Imagen 3. Vista del Boulevard du Temple, de Louis Daguerre (1838 ó 1839): Fuente: Wikimedia Commons.

 

Nótese que la de Daguerre es la primera fotografía en la que aparecen personas, pero no es la primera fotografía que se conserva. Sería injusto quitarle ese mérito a Nicéphore Niépce con quien Daguerre colaboró hasta la muerte del primero en 1833. Niépce ya había conseguido realizar fotografías hacia 1816, aunque la más antigua que se conserva data de 1826 (Imagen 4). Para ello empleó betún de Judea, un material fotosensible que necesita varias horas de exposición. Sin embargo, tampoco fue Niépce el primero en realizar una fotografía. En 1802, Thomas Wedgwood publicó, nada más y nada menos que junto a Humphry Davy, un artículo en el que describía el uso de nitrato de plata para capturar fotogramas, pero, como no consiguió que la imagen se fijase, no ha tenido tanta transcendencia.

Imagen 4. Placa original de Vista desde la ventana en Le Gras, de Nicéphore Niépce (1826) en el Harry Ransom Center.

 

Los daguerrotipos tuvieron un gran éxito en Europa continental hasta 1860 y eclipsaron provisionalmente el trabajo presentado por William Fox Talbot en Inglaterra durante los años 30. El británico había seguido explorando las posibilidades que ofrecía el nitrato de plata y había logrado el primer papel fotográfico. Bajo la exposición a la luz y el posterior fijado, se conseguía una imagen en negativo (Imagen 5) que luego se podía pasar a positivo de una forma relativamente sencilla todas las veces que se desease. A partir de ahí se fue mejorando el método con el desarrollo de papeles fotográficos (colodión, baritado…) y emulsiones fotográficas, por lo que podemos considerar el proceso de Talbot como la base de la fotografía del s. XIX y el s. XX

Imagen 5. La ventana de Oriel en la Abadía de Lacock fotografíada por William Fox Talbot hacia 1835. Nótese que las zonas con más luz están más oscuras (lo que conocemos como negativo). Fuente: The Met.

Y se hizo la luz

Durante el siglo XIII el estilo gótico se extendió por gran parte de Europa. Así, las otrora sólidas paredes se poblaron de ventanales y rosetones decorados con vidrieras en las que se narraban historias de Cristo, la Virgen y los santos. Los artesanos lograron auténticas maravillas pese a una enorme limitación técnica: tenían vidrios de diferentes colores, pero no podían “pintar” otro color sobre ellos. Cada vez que querían cambiar de color tenían que usar un trozo de vidrio diferente, como si de un puzle se tratase. Todo lo que podían hacer era emplear una pasta negra o marrón que servía para realizar dibujos o cambiar las tonalidades y que se fijaba al vidrio tras un proceso de horneado (es decir, trabajaban con grisalla). Entonces llegó el amarillo de plata y lo cambió todo. Con este amarillo se podían colorear las vidrieras sin tener que añadir nuevas piezas al puzle. Puede parecer intranscendente, pero las posibilidades se multiplicaron. Ya no había que recurrir a otros trozos de vidrio para representar coronas, cabellos, nimbos o detalles dorados. Curiosamente las vidrieras se llenaron de oro gracias a la plata. Es más, combinando el amarillo de plata con vidrios azules se lograba verde, por lo que se podía obtener este color sin tener que usar trozos de vidrio verdes. Así se simplificó el arduo trabajo de plomado y el arte de la vidriera se acercó al de la pintura.

Imagen 6. Vidriera del s. XV de la iglesia de San Pedro de Mancfrot en Glasgow Museums.

 

Todo esto fue posible gracias al modo en el que el amarillo de plata interacciona con el vidrio. Al contrario de lo que pasa con muchas otras substancias, no se queda en la superficie de la vidriera, sino que penetra al interior hasta formar parte del vidrio. Se trata de un fenómeno fisicoquímico de gran interés que trataremos de resumir. Cuando se deposita una sal de plata (nitrato, normalmente) en la parte trasera del vidrio y se mete al horno (a unos 500 ó 600 ⁰C) los iones de plata viajan al interior reemplazando a iones de potasio o sodio. Poco a poco los iones siguen penetrando por difusión hasta zonas más profundas, por lo que no estamos hablando de un fenómeno superficial. Estos iones tomarán parte en reacciones de oxidación-reducción en las que los iones de plata se transformarán en plata metálica. Finalmente, los átomos de plata que se han creado formarán agregados hasta crear partículas microscópicas entre uno y cien nanómetros (cualquier bacteria es más grande que eso). Estas partículas interaccionan con la luz de diferente forma creando tonalidades que varían del amarillo al naranja. La nanotecnología al servicio del arte en pleno s. XIV.

Imagen 7. El Arcángel Miguel derrotando al demonio (27cm), copia de una xilografía de Jacob Cornelisz van Oossanen en vidrio incoloro con amarillo de plata (ca. 1530). Fuente: Getty Museum.

 

Cuestión de óxidos

Si tienes un anillo de plata o te regalaron una cubertería de este brillante metal el día de tu boda, sabrás que se oscurece con el tiempo. La formación de esta pátina oscura se debe a un proceso de oxidación (entendido como la pérdida de electrones) en el que se crea una capa oscura de sulfuro de plata (Ag2S) sobre la superficie del metal. Por cierto, existen remedios caseros para devolver el brillo al objeto que se basan en revertir ese proceso empleando algo que todos tenemos en casa: papel de aluminio. El aluminio es un reductor excelente (concede electrones) y en una disolución acuosa junto con bicarbonato o sal permite que la plata recupere los electrones que había perdido volviendo a su estado original.

Imagen 8. Un cáliz de plata de época bizantina (s. VI) Fuente: The Walters Art Museum

En cualquier caso, la capa de sulfuro no siempre es algo indeseable. El lustre que otorga a los objetos puede resultar atractivo, por lo que se buscan métodos para provocar el oscurecimiento. Eso es lo que se logra mediante el “hígado de azufre”, un producto rico en sulfuros (normalmente sulfuro de potasio) que se emplea en joyería. También hay una opción más casera: usar huevos cocidos, una excelente fuente de azufre. De hecho, el mal olor de los huevos podridos se debe al ácido sulfhídrico (H2S).

Imagen 9. Un anillo de plata oscurecido mediante hígado de azufre. Fuente: Mauro Cateb.

La oxidación de la plata es también un proceso trascendental en una técnica de dibujo antiquísima: la punta de plata. En esta técnica se emplea una varilla del noble metal para realizar trazos sobre un papel previamente preparado para tal uso (de lo contrario la plata no dibuja bien sobre papel). Una vez finalizado, el dibujo será tenue y tendrá el característico brillo grisáceo de la plata, pero, según pase el tiempo, la plata irá oscureciéndose y el dibujo cobrará tonalidades marrones más perceptibles. La punta de plata ya se empleaba en época medieval sobre pergamino y fue muy popular entre grandes artistas del Renacimiento como Leonardo o Durero (Imagen). Quítense el sombrero ante el autorretrato del alemán con tan solo trece añitos.

Imagen 10. Izquierda: Busto de un guerrero (29×21 cm), de Leonardo da Vinci (ca. 1475). Derecha: Autorretrato a la edad de 13 años (28×20 cm), de Alberto Durero (1484) Fuente: British Museum y Wikimedia Commons.

 

Para saber más:

D. Stulik y A. Kaplan, Salt Print en The Atlas of Analytical Signatures of Photographic Processes (2013) The Paul Getty Trust, Los Angeles. LINK

J. Delgado et al. Characterisation of medieval yellow silver stained glass from Convento de Cristo in Tomar, Portugal. Nuclear Instruments and Methods in Physics Research Section B: Beam Interactions with Materials and Atoms 269 (20) (2011) 2383-2388. DOI.

JCE Staff. Silver to black and back. Journal of Chemical Education. 77 (3) (2000) 328A-328B. DOI.

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

El artículo La tabla periódica en el arte: Plata se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tabla periódica en el arte: Titanio
  2. La tabla periódica en el arte: Cobre
  3. La tabla periódica en el arte: Arsénico
Categorías: Zientzia

José Ramón Alonso – Naukas Bilbao 2019: Son nuestros amos y nosotros sus esclavos

Sáb, 2019/09/28 - 11:59
Foto: Ian Espinosa / Unsplash

Hay charlas que te impactan. Y hay charlas que van más allá del impacto, como las de José Ramón Alonso. Seguro que esta no te deja indiferente. Te adelanto que no va de la alienación de los trabajadores que explicaba Marx precisamente. Va de suicidios.

José Ramón Alonso: 'Son nuestros amos y nosotros sus esclavos'

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo José Ramón Alonso – Naukas Bilbao 2019: Son nuestros amos y nosotros sus esclavos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Curso de verano “La ciencia de nuestras vidas”: Neurobiología del amor. ¿Una locura transitoria?, por José Ramón Alonso
  2. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
  3. Naukas Bilbao 2017 – María José Calderón y Belén Valenzuela: Esta física es la leche
Categorías: Zientzia

El Universo en un supercomputador

Sáb, 2019/09/28 - 11:59

La Biblioteca Bidebarrieta de Bilbao acogió los pasados febrero y marzo dos conferencias organizadas en el marco de la segunda edición del ciclo sobre cine y ciencia “Lo Desconocido”, un evento impulsado por el Donostia International Physics Center (DIPC) de San Sebastián y la Filmoteca Vasca.

La segunda conferencia del ciclo (la primera, en euskara, puede verse aquí) titulada “El Universo en un supercomputador”, se celebró el día 6 de marzo a partir de las 19:00 horas, y corrió a cargo del astrofísico e investigador Ikerbasque del Donostia International Physics Center (DIPC) Raúl Angulo.

El investigador, especializado en cosmología computacional, comenta en esta charla los últimos avances realizados en esta rama de la astrofísica moderna. Los estudios en este ámbito han permitido en los últimos años realizar grandes descubrimientos en torno a la formación y evolución del Universo.

En su ponencia, Angulo nos cuenta cómo los astrónomos usan los ordenadores más grandes del mundo para simular las leyes de la física durante el equivalente a miles de millones de años. Gracias a estas simulaciones, hoy en día los científicos pueden empezar a explicar el mundo astronómico que nos rodea, pero también abrir nuevos y apasionantes interrogantes acerca de la naturaleza de nuestro Universo.

Edición realizada por César Tomé López

El artículo El Universo en un supercomputador se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El Universo en un día: El final del Universo, por Aitor Bergara
  2. Un universo inesperado, por Ana Achúcarro
  3. El mito de Arquímedes, mención especial del jurado “On zientzia”
Categorías: Zientzia

Nunca es tarde para volver a empezar, lo dice el cerebro

Vie, 2019/09/27 - 12:00

Cada vez que alguien plantee como único argumento para resistirse al cambio que así se ha hecho toda la vida habría que pedirle que preguntara a su cerebro qué opina de esa respuesta, porque resulta que el órgano que rige la actividad del sistema nervioso no solo no es refractario a las transformaciones, sino que tiene la capacidad de reprogramarse y reconfigurarse para seguir aprendiendo y volver a empezar.

Esta capacidad, denominada plasticidad cerebral, es el pilar en el que el equipo del doctor Juan Antonio Barcia, del Hospital Clínico San Carlos de Madrid, se ha apoyado para lograr operar tumores cerebrales que hasta ese momento eran inoperables y lo ha conseguido mediante una técnica revolucionaria que ha permitido trasladar funciones esenciales, como el habla o la movilidad, a zonas del cerebro no afectadas por la enfermedad.

Imagen: El periodista Antonio Martínez Ron en las calles de Bilbao antes del inicio de su conferencia en la Biblioteca Bidebarrieta, «Plasticidad a la carta, un plan B para salvar cerebros«. (Fotografía: Iñigo Sierra)

Con la intención de narrar este hito, el divulgador científico Antonio Martínez Ron ha invertido cinco años en recoger las historias de las personas a las que el doctor Barcia y su equipo han intervenido con éxito y crear el documental “Vida Extra”, un trabajo realizado con la productora 93 Metros que relata la vida de esas personas a las que la pericia de los médicos, el esfuerzo personal y la capacidad de reinventarse de su propio cerebro han dado una segunda oportunidad.

Este 25 de septiembre, como cierre a la programación del evento de divulgación científica Bizkaia Zientzia Plaza, el periodista compartió con la audiencia el fruto de ese esfuerzo en la charla “Plasticidad a la carta, un plan B para salvar cerebros”, en la Biblioteca Bidebarrieta de Bilbao.

Martínez Ron acercó al público los casos de algunos pacientes de Barcia para ilustrar el concepto de plasticidad cerebral, pero también se valió de otros ejemplos reales no vinculados a la terapia del neurocirujano para demostrar cómo el cerebro es capaz de reiniciarse.

“El documental se estrenará pronto y con él buscamos explicar lo increíble que es la plasticidad cerebral”, aseguró Martínez Ron.

Imagen: Antonio Martínez Ron explicó en su conferencia que en algunos casos de tumores malignos no se puede operar porque el precio a pagar por el paciente es demasiado alto. (Fotografía: Iñigo Sierra)

Durante la charla, el periodista explicó que “cuando un tumor se encuentra en un área funcional que afecta al habla o a la capacidad de movimiento, los cirujanos solo pueden retirar tejido hasta el punto límite que no afecte a esas funciones”.

Esa limitación fue el detonante que hizo al doctor Barcia desarrollar una técnica que consiste en forzar al cerebro, mediante estimulación eléctrica, a mover las funciones de lugar para poder extirpar el tumor. “Es como mover los muebles de sitio para poder pintar una habitación”, precisó el divulgador.

En concreto el método se centra en retirar el tejido canceroso hasta donde sea posible y, en esa intervención, introducir una manta de electrodos. En las siguientes semanas se inhibe la actividad de esas áreas mediante descargas eléctricas, al tiempo que se activa una rehabilitación intensiva de las funciones que podrían deteriorarse para que el cerebro las comience a trasladar a zonas adyacentes. Una vez que el paciente ha desplazado la función crítica a una zona sana del cerebro, se le vuelve a operar para eliminarle la totalidad del tumor.

Imagen: Tras finalizar la conferencia Antonio Martínez Ron respondió las muchas preguntas de los asistentes a Bidebarrieta Científica. (Fotografía: Iñigo Sierra)

Durante la charla, Martínez Ron contó el caso de un paciente de epilepsia al que se le trasladó la función del lenguaje de un hemisferio a otro para poder retirarle el foco epiléptico y que hoy hace una vida completamente normal. También relató la historia del canadiense Stephen Sumner, amputado de una pierna tras un accidente de tráfico, que recorre Asia para ayudar a personas que han perdido alguna extremidad y sufren dolores en la parte del cuerpo desaparecida, un fenómeno conocido como “dolor de miembro fantasma”.

Sin otro transporte que su bicicleta, Sumner visita a los pacientes cargado de espejos para enseñarles a mitigar su dolor mediante la técnica desarrollada por el neurocientífico indio V.S. Ramachandran, que consiste en reeducar al cerebro gracias a un espejo que permite ver el miembro amputado en el lugar en el que ya no se encuentra y paliar de esta forma el dolor. Este sencillísimo método se apoya también en el concepto de plasticidad cerebral.

Parece arte de magia, pero en realidad es una capacidad humana y natural. Así que la próxima vez que parezca que es demasiado tarde, tal vez valga la pena preguntarle al cerebro ¿tú, qué opinas?

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Nunca es tarde para volver a empezar, lo dice el cerebro se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Nunca es tarde
  2. Los escultores del cerebro, charla de Mara Diersen
  3. Lo mejor de dos mundos para avanzar en el tratamiento del cáncer
Categorías: Zientzia

¿Por qué escuchamos música triste?

Jue, 2019/09/26 - 11:59

“En cuanto la música empezó a sonar, el hermoso mundo que había dejado en casa y que había olvidado […] lo inundó de golpe. Fue entonces cuando las lágrimas empezaron a brotar […] —dijo que lloró y lloró hasta que su almohada se empapó— dijo que nunca había sentido semejante “feliz infelicidad” —esas fueron sus palabras. Le gustaba la música pero no sabía que le apasionaba —no sabía lo que podía hacerle— dijo que durante la siguiente semana, cuando miraba a las cosas que siempre había mirado —el cielo azul, el verde de la selva, la claridad del agua corriente, incluso los ojos cansados de sus compañeros— lloró otra vez —podía llorar cuando alguien le daba un cigarrillo— cuando alguien le preguntaba por su mujer y sus hijos —al recordar que era el cumplaños de su niño— al recordar el sabor del pastel de cumpleaños o de una mazorca de maíz, o el olor a palomitas en una sala de cine, o la cara de su hijo mientras dormía. Lloró —y lloró también al contarme esta historia— dijo que era todo por culpa de la música […] sabía que quizás no la volvería a escuchar —porque le devolvería a ese momento—el momento de “feliz infelicidad”.

Thomas Larson (2012) «The Saddest Music Ever Written: The Story of Samuel Barber’s Adagio for Strings». Traducción de Almudena M. Castro.

Foto: Benjamin Wagner / Unsplash

En 2004, la BBC Radio lanzó una encuesta a sus oyentes para elegir la música más triste jamás escrita. Tras recibir más de 400 propuestas, sometieron las 5 más populares a votación. El resultado fue concluyente: el Adagio para cuerdas, de Samuel Barber quedó en primer lugar, con un 52.1% de los votos. En el podio le seguían:

El sondeo en sí es puramente anecdótico, por supuesto; el palmarés de la tristeza bien afinada se encuentra mucho más reñido. Si uno le pregunta a Google por “la música más triste”, lo que encuentra son cientos de antologías en tono menor compitiendo, a su vez, entre los resultados. Aún así, el famoso Adagio de Barber acumula muchos méritos para encontrarse entre las vencedoras. Desde su estreno en 1938, el Adagio ha acompañado los funerales de personalidades como Einstein (1953), Grace Kelly (1982) o el Príncipe Rainier de Mónaco (2005), entre otros personajes famosos y tantos más desconocidos. Fue la música que acompañó el anuncio televisado del asesinato de Kennedy en 1963, el relato en la BBC Radio de la muerte de Roosevelt (1945) y de la Princesa Diana (1997). Se ha utilizado para homenajear a las víctimas del 11S (2011), a las víctimas del tiroteo contra Charlie Hebdo (2015), a las víctimas del atentado de Manchester (2017)…

El adagio para cuerdas de Barber es lo que técnicamente se conoce como un dramón. Y dada su histórica trayectoria de infligir tristeza allá donde suena, cabe preguntarse por qué nadie querría escucharlo. A fin de cuentas, la tristeza no es una emoción que, a priori, parezca deseable sentir. ¿Por qué nadie querría provocársela a sí mismo?, ¿por qué diseñar melodías que nos asedian, nos roban el pulso, nos bloquean los párpados y la garganta?

Decía Oscar Wilde que “después de tocar Chopin, me siento como si hubiese estado llorando por pecados que yo nunca cometí, lamentando tragedias que no son mías1”. Lo raro es que este afán por llenarse de “tragedias ajenas” sea tan habitual, tanto que un 10% de la población afirma preferir la música triste a cualquier otro tipo de música y apenas un 1% dice odiarla2 . Entre estos dos extremos, la mayoría de la gente (entre el 66 y el 80 %) dice disfrutar de este tipo de música en general y son bastantes menos los que parecen no apreciarla (entre un 10 y un 33%).

Las variaciones entre unos grupos y otros podrían tener que ver con diversos factores personales y sociológicos. Como por ejemplo, la edad: los niños, en concreto, muestran una clara preferencia por la música alegre frente a la triste y tienden a evitar esta última. También, la personalidad de cada cual: la apertura experiencias nuevas, la empatía3 y también cierta tendencia a la introversión y la inestabilidad emocional, correlan bastante bien con el gusto por la música triste. Pero también, y de manera significativa, la cultura: no en todos los contextos se tolera la tristeza por igual, ni se valora estéticamente. En un estudio de 2011 en el que 116 participantes debían evaluar distintos fragmentos de bandas sonoras, las valoraciones de “belleza” parecían relacionarse con la música triste mucho antes que con la alegre, lo cual parece indicar que la apreciación estética podría jugar un papel importante en nuestro disfrute de la tristeza4 (valga como ejemplo el Adaggieto de Mahler, que mencionábamos antes: medalla de bronce en la encuesta de la BBC… y mucho más hermoso que triste, diría yo).

El investigador David Huron, de la Universidad de Ohio (EEUU), sostiene una hipótesis alternativa. Su idea es que, al escuchar música triste nuestro cuerpo responde al dolor liberando una hormona llamada prolactina5 cuyo efecto es el de calmarnos y consolarnos. En último término, sin embargo, la causa de esa tristeza es puramente ficticia: como dice Wilde, nos sentimos como si lamentásemos tragedias, pero en realidad estas nunca fueron nuestras. Y, a pesar de ello, logramos obtener consuelo, bienestar… nuestro cuerpo entero cantando “eaea” para que podamos regodearnos en nuestra “feliz infelicidad”.

Coda: Música para llorar a gusto

Hace unos meses pregunté a Twitter por su música triste preferida. En apenas unas horas, recibí tantas respuestas que me resulta sencillamente imposible recopilarlas aquí. Pero podéis verlas todas todas pinchando en el tuit. Por cierto, el Adagio de Barber sale hasta 4 veces:

(Hoy es un lunes como para preguntar esto…

Categorías: Zientzia

Blanca Martínez: “Los geólogos le tenemos mucho cariño a Godzilla”

Mié, 2019/09/25 - 11:58

“Godzilla no es un dinosaurio, es un anfibio radioactivo y Rodan es un reptil volador. En realidad estos monstruos son un reflejo de cómo los humanos recurrimos a la mitología para dar una explicación a los fenómenos de la naturaleza”, asegura la doctora en Geología Blanca Martínez García, que ha aprovechado los conflictos que enfrentan a estas criaturas de ficción en las calles de Tokio para explicar las causas de los movimientos sísmicos al público de Naukas Bilbao, el evento de divulgación científica que se ha desarrollado los días 20 y 21 de septiembre en el Palacio Euskalduna de la capital vizcaína.

Imagen: Blanca Martínez García, doctora en Geología, durante el desarrollo de su conferencia «Godzilla, king of the geologists» en Naukas Bilbao 2019. (Fotografía: Iñigo Sierra)

Resulta que cuando Godzilla es despertado por unas pruebas nucleares llevadas a cabo en el Pacífico, sale del agua y provoca un tsunami. Mientras que Rodan está relacionado con la entrada en erupción de un volcán. Pero es que, además, cuando ambos animalitos “se zurran entre ellos” se producen terremotos y se caen los edificios.

Cada vez que el ser humano tiene dificultades para encontrar la causa de temas complejos pide auxilio a la mitología, vamos, que se cuenta un cuento, y este ha sido el hilo conductor de la charla “Godzilla, king of the geologists”, una intervención con la que la experta, además de rendir homenaje al célebre monstruo japonés, ha conseguido explicar cómo funciona la tectónica de placas y cuál es el origen de terremotos, volcanes y tsunamis.

El planeta Tierra tiene diferentes capas. La que está en el exterior, denominada corteza, es rígida, pero se trata de una superficie discontinua, está fragmentada, dividida en pedazos que reposan sobre el manto terrestre. A diferencia de la corteza, el manto no es rígido, es más bien una masa cremosa. Para explicarlo, Martínez García ha recurrido a una analogía de lo más golosa: “es como un bol con natillas con una galleta encima. Si rompes en pedazos esa galleta tendrías la corteza terrestre sobre el manto”.

Esos fragmentos de galleta flotando sobre las natillas son las placas tectónicas que, al desplazarse, pueden causar terremotos. Japón se encuentra situado en el límite entre tres placas tectónicas y, por ese motivo, su actividad sísimica es tan potente. Parece natural que, de entre todos los pueblos del planeta, sea precisamente el nipón el que más necesidad haya tenido de alumbrar criaturas mitológicas para explicar por qué la tierra se mueve bajo sus pies con tanta asiduidad.

Imagen: La geólogao Blanca Martínez explicó en su charla porqué los geólogos le tienen tanto cariño a Godzilla. (Imagen: Iñigo Sierra)

Para contrarrestar los efectos negativos de estos fenómenos, los japoneses son toda una referencia en la construcción de edificios sismorresistentes. Es decir, construcciones que se apoyan en cimientos que oscilan con las ondas sísmicas como si fueran muelles y no se desploman aunque los bichos hagan de las suyas.

La idea de que los responsables de los movimientos de las placas sean unos enormes y tremendos monstruos es bastante seductora, pero en realidad las causas de este tipo de fenómenos tienen su perfecta explicación en la ciencia, en concreto en la geología, una disciplina rigurosa que, sin embargo, siente una gran inclinación por el relato de ficción.

“Los geólogos le tenemos mucho cariño a Godzilla”, dice Martínez García, quien, para ilustrar su afirmación, explica que el paleontólogo estadounidense Kenneth Carpenter bautizó a un dinosaurio como Gojirasaurus en su honor (Gojira es Godzilla en japonés).

Los científicos buscan en la ciencia las respuestas a sus preguntas, pero, a veces, también ellos distraen la vista de las fórmulas matemáticas y las demostraciones empíricas para que les cuenten un buen cuento.

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Blanca Martínez: “Los geólogos le tenemos mucho cariño a Godzilla” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Zientziateka: Blanca Mª Martínez García – La geología fantástica de Verne, Poe y H.P. Lovecraft
  2. Ciencia en primera persona: Icíar Martínez
  3. De robots geólogos y rayos X
Categorías: Zientzia

Lo mejor de dos mundos para avanzar en el tratamiento del cáncer

Mar, 2019/09/24 - 11:59

El tratamiento del cáncer avanza hacia fórmulas menos agresivas para el organismo como la inmunoterapia, que consiste en desarrollar estrategias que hagan posible estimular la respuesta del sistema inmunitario contra las células tumorales.

Desde la perspectiva funcional, el sistema inmunitario en realidad no es uno, sino varios. Por un lado está el sistema inmunitario innato, que constituye la primera línea de defensa frente a agentes infecciosos. En segundo lugar está el sistema adaptativo, que elabora una respuesta específica para cada agente patógeno y se activa cuando la inmunidad innata no ha funcionado.

Imagen: Antonio Pérez-Martínez, jefe del servicio de Hemato-Oncología Infantil del Hospital Universitario de la Paz en su intervención en Naukas Bilbao 2019. (Fotografía: Iñigo Sierra)

Partiendo de este conocimiento, el jefe del Servicio de Hemato-Oncología Infantil del Hospital Universitario de La Paz (Madrid), Antonio Pérez Martínez, ha explicado como la combinación “de lo mejor del sistema inmune innato con lo mejor del sistema inmune adaptativo” abre nuevas vías para avanzar en el tratamiento de algunos tipos de cáncer durante el evento de divulgación científica Naukas Bilbao, que se ha desarrollado los días 20 y 21 de septiembre en el Palacio Euskalduna de la capital vizcaína. Su intervención se titulaba “Lo mejor de dos mundos” por una buena razón.

El especialista ha condensado en sus diez minutos de charla el funcionamiento terapéutico de la célula CAR-T, un medicamento generado en el laboratorio que combina las funciones de un anticuerpo y de un linfocito T. Este medicamento está cambiando la historia natural de los pacientes con leucemia aguda linfoblástica B, una dolencia que afecta especialmente a los niños, pero también tiene aplicación en pacientes con linfoma difuso de célula grande B y, en este segundo caso, se trata mayoritariamente de adultos.

Para ilustrar su exposición, Pérez Martínez ha empleado vídeos en los que se ha podido ver el propio funcionamiento del sistema inmunitario y cómo éste reconoce las células tumorales, pero también imágenes que reflejan los trabajos que él y su equipo de investigadores realizan en el laboratorio para desarrollar nuevas terapias basadas en células quiméricas que no solo incluyen anticuerpos y linfocitos T, sino también receptores y otras células del sistema inmune innato como las células NK.

Imagen: Antonio Pérez-Martínez, oncólogo infantil explicó en su conferecia «Lo mejor de dos mundos» el funcionamiento terapéutico de la célula CAR-T. (Fotografía: Iñigo Sierra)

El objetivo ha sido mostrar a la audiencia que la suma de fuerzas entre las capacidades de cada uno de los sistemas inmunitarios puede ser una fórmula para el tratamiento de enfermedades complejas, de la misma forma que la suma del conocimiento acumulado a través de siglos de estudio en medicina, con los trabajos de investigación actuales -realizados con tecnologías punteras que hace apenas unos años no existían- conquistan avances de calado.

“Por separado cada sistema inmune tiene una función. La célula híbrida CAR-T es un medicamento nuevo, un constructo, que une lo mejor de cada sistema inmunológico para eliminar de forma específica células tumorales, intentado hacerlo con menos efectos adversos que los tratamientos convencionales”, precisa el doctor.

Todavía es pronto para determinar si este tipo de terapias serán eficaces contra otros tumores hematológicos o tumores sólidos. De momento, esta célula híbrida “está curando a niños con leucemia, que antes no se curaban”.

Cada día se da un pasito más y es de esta forma como se recorren las rutas de larga distancia.

Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Lo mejor de dos mundos para avanzar en el tratamiento del cáncer se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Nanopartículas para reducir la metástasis hepática del cáncer de colon
  2. Seguridad diagnóstica en el cáncer de colon y tratamiento del de páncreas
  3. Medicina regenerativa: utilización de células madre para el tratamiento de enfermedades humanas
Categorías: Zientzia

Páginas