Los experimentos de Joule
Cerca de medio siglo después james Prescott Joule repetiría los experimentos de Rumford a una escala menor. Comenzó en los años cuarenta del siglo XIX y los repitió durante muchos años, refinando cada vez más sus aparatos y sus técnicas. En todos los casos, cuanto más cuidadoso era más exacta encontraba la proporcionalidad de la cantidad de calor, medida como cambio en la temperatura y la cantidad de trabajo realizado. Como Joule hacía sus experimentos con agua, como el resto de investigadores de la época, asumía que la proporcionalidad que encontraba entre la cantidad de calor producida, simbolizada por la letra Q (Q es un símbolo habitual para el calor) era igual a la cantidad de agua expresada como su masa, m, multiplicada por el cambio (que se simboliza con la letra griega Δ, delta) de la temperatura, T; con lo que llegaba a la expresión: Q = m·ΔT.
Hoy sabemos que la cantidad de calor que corresponde a un determinado cambio de temperatura es diferente para diferentes sustancias (incluso que puede variar con la temperatura). Para tener esto en cuenta en la expresión anetrior basta con introducir una constante c, a la llamaremos calor específico de la sustancia en cuestión. Así, la relación entre calor y cambio de temperatura puede escribirse como: Q = m·c·ΔT.
La cantidad de calor puede expresarse en una unidad llamada caloría. La caloría se define como la cantidad de calor que se requiere para elevar la temperatura de 1 g de agua 1 ºC en condiciones estándar. De aquí que el calor específico del agua expresado en calorías sea exactamente 1, es decir, para el agua c = 1 cal /gºC. Por tanto, si estamos hablando en estas unidades, se cumple la relación de Joule: Q = m·ΔT

James Prescott Joule
Joule realizó experimentos muy variados y empleando medios diferentes para poder establecer una relación independientemente del sistema empleado.
Para uno de sus primeros experimentos sobre la relación entre calor y trabajo Joule construyó un generador eléctrico sencillo, cuya fuerza motriz era un peso que dejaba caer. Hacía pasar la corriente eléctrica generada así por un cable que estaba sumergido en un contenedor con agua, a la que calentaba. A partir de la distancia que recorría el peso al caer Joule podía calcular el trabajo realizado (recordemos que el trabajo no es más que la fuerza por la distancia, y el peso es una fuerza; también es en este caso, una disminución de la energía potencial, esa que está relacionada con la posición en un campo como el gravitatorio). El producto de la masa de agua, m, en el contenedor por el aumento de su temperatura, ΔT, le permitió a Joule calcular la cantidad de calor producida, Q.
En otro experimento Joule comprimía gas en una botella sumergida en agua, miediendo el trabajo hecho para comprimir el gas por el pistón. Medía después la cantidad de calor aportada al agua por el calentamiento del gas al comprimirse.
Probablemente la serie de experimentos más famosa es aquella que empleaba un aparato en el que unos pesos que descendían lentamente hacían girar una rueda de paletas en un contenedor de agua. Debido a la fricción enre la rueda y el líquido, la rueda realizaba trabajo sobre el líquido, aumentando su temperatura.
Todos estos experimentos, algunos repetidos muchas veces con aparatos cada vez mejores, llevaron a Joule a enunciar dos resultados cuantitativos muy importantes en 1849 que, expresados en lenguaje actual, son:
- La cantidad de calor producida por la fricción de los cuerpos, ya sean sólidos o líquidos, es siempre proporcional a la cantidad de energía gastada.
- La cantidad de calor (en calorías) capaz de incrementar la temperatura de 1 kg de agua en 1 ºC requiere el cambio en la energía mecánica representada por la caída de 1 m de un peso de 4.180 N (newtons)
La primera firmación de Joule es la prueba de que el calor es una forma de energía, en contra de la teoría del calórico de que el calor es un fluido. La segunda da la magnitud numérica de la proporción que había encontrado entre energía mecánica y su energía térmica equivalente. Esta proporción entre energía mecánica, E, y la cantidad equivalente de energía térmica, Q, se llama habitualmente equivalente mecánico del calor. A principios de del siglo XX su valor numérico quedaría establecido en 4,186 J/cal (julios, la unidad de energía, por caloría).
En la época en la que joule realizó sus famosos experimentos, la idea de que es el calor es una forma de energía estaba ganando aceptación. Si bien Joule no fue el único en expresar estas ideas, sus experimentos fueron clave para su consolidación.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Los experimentos de Joule se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los asesinos
No les asesinaron delincuentes
de pasados lastimeros,
ni sádicos sumidos en las simas del sexo.
No fueron bárbaros
habitados por ideas de exterminio,
ni esclavos de sectas que anulan la razón,
sus verdugos.
Tampoco les mató la locura que a veces
engendran las ciudades.
El horror fue obra, la historia se repite,
de escrupulosos funcionarios.
José Ovejero, en “El Estado de la Nación” (2002), tomado de “El eco de los disparos” (2016) de Edurne Portela.
Hay mucho que escribir sobre asesinos, aunque casi siempre basado en textos confusos, a partir de experiencias personales, y con falta de revisiones actuales y ajustadas. Pero algo hay que decir y aquí va, quizá con una cierta falta de orden.

Gary Cooper en una escena de “El sargento York” (1941)
Primero, hay que distinguir entre los criminales habituales y las personas de la sociedad civil que han cometido algún delito en una sola ocasión. Pero nunca hay que olvidar que las personas de la sociedad civil también son capaces de matar, y mucho (repasar la película El Sargento York, de 1941, con Gary Cooper de protagonista). También hay que recordar que estos ciudadanos son los protagonistas del genocidio nazi en el Tercer Reich o de las matanzas xenófobas en guerras como en la antigua Yugoeslavia o Ruanda, por recordar solamente algunas de las más recientes.
Los que asesinaron a lo largo de la historia de nuestra especie fueron, en una gran mayoría, personas normales rodeadas de circunstancias que, por diversas razones, les llevaron a justificar la violencia contra los catalogados como enemigos.

Richard Loeb (izquierda) y Nathan Leopold (derecha)
Nathan Leopold y Richard Loeb: El asesinato del Superhombre
Eran dos genios. Dos niños ricos, inteligentes, universitarios, de buena presencia, a los que sobraban tiempo y dinero, y que quisieron demostrarse a sí mismos que eran más listos que nadie. Planearon y ejecutaron el crimen perfecto. Y cometieron los errores más estúpidos, les pillaron, acabaron en la cárcel y poco faltó para que les ahorcaran.
Ambos de Chicago, Nathan F. Leopold, Jr. nació en 1904 y Richard Loeb en 1905, con sólo unos meses de diferencia. Después del crimen y la condena, Leopold murió en libertad a los 66 años de edad y Loeb, en cambio, murió apuñalado en la cárcel a los 30 años. Fueron condenados a cadena perpetua por el secuestro y asesinato de Bobby Franks, un chaval de 14 años, amigo y vecino, el tercer hijo de una familia feliz. Fue su “crimen perfecto”.
Su defensor en el juicio, el famoso abogado Clarence Darrow, les salvó de la horca con un brillante alegato contra la pena de muerte y a favor de un sistema penal rehabilitador de delincuentes.
También conocidos por sus apodos, Babe y Dickie, Leopold tenía 19 años y Loeb 18 en el momento de los hechos y eran seguidores fanáticos de Nietszche y de su teoría del Superhombre. Poco antes del crimen, Leopold escribió a Loeb que “un superhombre es un compendio de cualidades superiores y está liberado de las leyes ordinarias de los hombres; de nada de lo que haga es responsable.” Sorprendente que dos chicos judíos de Chicago piensen igual que un tal Adolf Hitler que, por aquel entonces, empezaba a ser conocido en las cervecerías de Munich. Leopold era un superdotado que había empezado a hablar a los cuatro meses de edad y tenía un cociente de inteligencia de 200. Hablaba cuatro idiomas y, graduado por la Universidad de Chicago, ya había sido admitido para el siguiente curso en la Facultad de Derecho de la Universidad de Harvard. Además y por afición, era un experto ornitólogo. Su intención era ingresar en Harvard después de un viaje por Europa. Loeb había sido el graduado más joven de la Universidad de Michigan y también iba a ingresar en la Facultad de Derecho después de seguir unos cursos de posgrado. Leopold era antipático y un solitario que sólo se sentía a gusto con sus pájaros; Loeb era guapo y sociable. Leopold era algo pedante, estudioso, susceptible y amigo de jóvenes muy “machos”; Loeb, por el contrario, pertenecía a una fraternidad en el colegio, quedaba con chicas, amaba las fiestas y era un aficionado entusiasta de las novelas de detectives. Ambos bebían licor de contrabando (estamos en la Prohibición), fumaban sin parar y les gustaban los coches caros.
Los dos jóvenes y la víctima, Bobby Franks, vivían en Kenwood, un conocido barrio de judíos ricos situado en el sur de Chicago. Leopold y Loeb eran vecinos, con dos manzanas de distancia entre sus casas, y formaban, creían ellos, la perfecta pareja de “superhombres”. Preparando su crimen perfecto, comenzaron con pequeños robos hasta culminar sus planes con el secuestro y asesinato de Bobby Franks.
Durante siete meses planearon el secuestro, sobre todo el cobro del rescate, siempre el momento más peligroso. La víctima, Bobby Franks, era vecino y pariente lejano de Loeb. El 21 de mayo de 1924 se pusieron en marcha. Alquilaron un coche y, mientras uno conducía, el otro se sentaba en el asiento trasero. A las cinco de la tarde, Bobby regresaba del colegio a casa, y los jóvenes le convencieron de que subiera al coche. Según entró, uno de ellos, no se sabe quién de los dos, el que iba sentado en el asiento trasero, le golpeó varias veces en la cabeza con el mango de un formón y le ahogó metiéndole unos trapos en la garganta. El chico murió al poco tiempo. En el juicio quedó establecido que, a pesar de los rumores y de algunas insinuaciones del fiscal, no hubo abusos sexuales.
Los asesinos, con el cuerpo en el coche, van hasta Wolf Lake, cerca de Hammond, en Indiana, en las afueras de Chicago. Desnudaron el cadáver y tiraron la ropa en la cuneta; regaron el cuerpo con ácido clorhídrico para dificultar la identificación, repusieron fuerzas con un “perrito caliente” y, finalmente, abandonaron el cadáver en una alcantarilla del tren de la Pennsylvania Railroad, cerca de la calle 118, al norte del Wolf Lake.
Volvieron a Chicago y llamaron a la madre de Bobby (el padre estaba en la calle buscando a su hijo desaparecido) para decirle que había sido secuestrado y exigirle el pago de 10000 dólares. Al día siguiente recibieron una nota reclamando el rescate. Los padres, que ya habían denunciado la desaparición, estaban dispuestos a pagar el rescate. Mientras tanto, Leopold y Loeb, ya en su casa, quemaron su ropa, manchada de sangre, e intentaron limpiar la tapicería del coche alquilado. Después pasaron el resto del día jugando a las cartas, a la espera de continuar con su “plan perfecto”.
Pero, antes de que la familia de Bobby pague el rescate, Tony Minke, un inmigrante polaco, encuentra el cadáver. Cuando Leopold y Loeb se enteran, destruyen la máquina de escribir utilizada en la preparación de la nota de rescate, aunque no les servirá de mucho pues es la misma que utilizaba Leopold para sus trabajos de clase; también queman la manta con la que habían envuelto el cadáver.
Cerca de la vía de la Pennsylvania Railroad, a pocos metros del cadáver de Bobby, el detective Hugh Patrick Byrne encuentra unas gafas muy especiales, con un sistema de pliegue situado en el centro de la montura, en el puente de la nariz, entre los dos ojos. En la identificación del cadáver, estas gafas provocaron cierta confusión puesto que Bobby Franks no las utilizaba. Cuando se investigó su origen, se descubrió que sólo se habían vendido tres en Chicago, y uno de los compradores se llamaba Nathan Leopold. En el interrogatorio declaró que las había perdido hace un tiempo, en uno de sus paseos para observar pájaros; recordar que era un conocido ornitólogo y uno de sus lugares preferidos era, precisamente, el Wolf Lake. Loeb le apoyó al afirmar que habían pasado la noche juntos, en el coche de Leopold y con dos mujeres de las que no sabían el nombre. Pero el chófer de los Leopold declaró que, esa noche, el automóvil había estado en el garaje y él lo había estado reparando.
Los interrogatorios continuaron; la presión de la opinión pública sobre la policía era enorme, y la policía la traspasaba a Leopold y Loeb. Estaban convencidos de que eran los culpables. Primero confesó Loeb y, poco después, lo hizo Leopold. En general, ambas confesiones coincidían excepto en un punto: cada uno de ellos acusaba al otro de haber dado el golpe mortal que acabó con la vida de Bobby Franks. No se aclaró en el juicio, y aunque todos estaban convencidos de que había sido Loeb, hubo un testigo que les había visto en el coche poco antes del secuestro y conducía Loeb y era Leopold el que iba sentado detrás.
La vista se inició el 24 de julio de 1924, y fue uno de tantos “juicios del siglo” que se celebraron en Estados Unidos durante el siglo XX. Para la prensa de Chicago, todo este asunto también había sido “El Crimen del Siglo”. La familia Loeb acertó a contratar a Clarence Darrow como abogado defensor. Experimentado, brillante y famoso a sus 67 años, Darrow lo sería todavía más al año siguiente por el llamado “Juicio del Mono” contra el profesor John Scopes por enseñar el evolucionismo en las aulas. Ante la sorpresa general, Darrow aconsejó y consiguió que sus defendidos se declararan culpables y, de esta manera, evitó el juicio con jurado, y dejó toda la responsabilidad sobre la sentencia en las manos de un solo hombre, el juez del Condado de Cook, John R. Caverly.
Las alegaciones finales de Darrow duraron casi doce horas, y se considera su discurso como el más brillante de su carrera. Presentó argumentos como que “este crimen terrible es inherente al organismo y proviene de algún antepasado”, “¿Es que se puede reprochar a alguien que se tome la filosofía de Nietszche en serio?”, “¿Por qué mataron a Bobby Franks? No por dinero, no por rencor, no por odio; Lo mataron como podían haber matado una araña o una mosca; lo mataron por probar la experiencia”, o que “es duro ahorcar a un joven de 19 años a causa de la filosofía que le han enseñado en la universidad”. Los psiquiatras que examinaron a los acusados y declararon en el juicio, tanto del fiscal como de la defensa, no se pusieron de acuerdo y sus conclusiones fueron contradictorias. En realidad, los psiquiatras de la acusación buscaban daños orgánicos, que no encontraron, mientras que los de la defensa buscaron traumas infantiles y juveniles en los acusados, que encontraron; las conclusiones, al investigar desde premisas diferentes, no podían llegar a otra conclusión que al desacuerdo. Así, entre Darrow y los informes de los psiquiatras, la duda quedó instalada en el juez.
Finalmente, el 10 de septiembre y en una sentencia cuya lectura se retransmitió en directo por radio y paralizó Chicago, el juez Caverly condenó a Leopold y Loeb a cadena perpetua por el asesinato y a 99 años de cárcel por el secuestro. Era la primera vez que un juez consideraba que los acusados no eran totalmente responsables de sus actos a causa, por lo menos en parte, de rasgos heredados. Como dijo Darrow en el juicio, por ello, los acusados son “máquinas rotas”. En realidad, saber si Leopold y Loeb mataron porque eran los superhombres de Nietszche, unos adolescentes superconsentidos y caprichosos o unos jóvenes profundamente perturbados era la pregunta que muchos se hacían durante el juicio y que queda sin respuesta. Incluso hubo quien afirmó que Leopold era un “asesino filósofo.”
Años más tarde, el 28 de enero de 1936, Loeb fue asesinado en la cárcel por otro recluso, con más de 50 puñaladas, en un asunto, nunca aclarado, en el que se unían sexo y dinero.
Leopold permaneció 33 años en la cárcel y en 1958 salió en libertad bajo palabra. Escribió un libro de memorias, se trasladó a Puerto Rico, se casó con la viuda de un médico de Baltimore, y Nate, que era como le conocían sus vecinos, trabajó como ayudante de rayos X en un hospital, cursó un máster de medicina social en la Universidad de Puerto Rico, publicó un libro sobre los pájaros de la isla y trabajó en una cura para la lepra. Murió de un ataque al corazón en 1971, a los 66 años. Donó sus córneas para trasplante; una se implantó en una mujer, la otra, en un hombre.
El grupo de Robert Hanton, de los Neuropsychological Associates de Chicago, clasifica a los asesinos en dos grupos. Los reactivos son impulsivos, reaccionan a posibles riesgos y peligros, y se acompañan de emociones como el miedo y la ira. Además, la falta de control implica niveles de frustración muy bajos y falta de resistencia a los disgustos. Cuando algo sale mal o no funciona a veces se reacciona con violencia, incluso con violencia desmedida.
Los premeditados dependen de la motivación para el crimen, actúan con intencionalidad y no sienten emociones intensas. Planifican con detalle y cuidado, se toman su tiempo y matan más de una vez si lo consideran necesario o, dicho de otra forma, si les parece conveniente o les apetece.
En las comparaciones entre ambos grupos destaca, por ejemplo, que el cociente de inteligencia medio en los impulsivos es de 79 y en los premeditados llega a 93. Son psicóticos el 34% de los impulsivos y el 61% en los premeditados. Tienen problemas cognitivos el 59% de los impulsivos y el 36% de los premeditados. Y, finalmente, utilizan alcohol o drogas en el momento del crimen el 93% de los impulsivos y el 76% de los premeditados. Cuando Matt DeLisi y sus colegas, de la Universidad Estatal de Iowa, analizan a 18 homicidas menores de 18 años, encuentran que tienen un cociente de inteligencia bajo, una mayor exposición a la violencia durante su día a día, son conscientes de vivir en un entorno desordenado y con una mayor presencia habitual de armas.
En general, los factores relacionados con la violencia proceden del entorno y son, entre otros, la pobreza, el desempleo o la dificultad para la educación, pero también hay características personales que se asocian con las oportunidades externas que tienen las personas para ser violentas.
En la violencia política hay expertos que aseguran que, para muchos asesinos, siempre se trata de una venganza personal justificada con una reivindicación política. Eligen como víctimas a los que consideran responsables de sus problemas y justifican sus actos como un tipo de protesta social personalizada.

Idoia López Riaño
Idoia López Riaño, (a) “La Tigresa”: El enigma de ETA
No se sabe qué hay de verdad en la imagen que de Idoia López Riaño, (a) “La Tigresa”, nos transmiten los medios. Sospecho que una cosa es lo que nos cuentan de ella y otra lo que es, o siente o quiere ser en realidad. Lo que la audiencia quiere escuchar y ver y los periodistas dan quizá no sea lo que Idoia López Riaño, o “La Tigresa”, quiere y piensa de sí misma y de sus motivos para vivir la vida que ha vivido. Para empezar, y ya me provoca una cierta precaución, lo que nos llega es a través de periodistas, hombres en su gran mayoría, que lo primero que destacan es su belleza, sus ampliamente conocidas trasgresiones sexuales para una organización tan puritana como ETA, por otra parte como cualquier otro ejército, y, en consecuencia, de sus enfrentamientos con sus superiores jerárquicos, la mayoría, también hombres. Queda por saber que nos contaría alguna periodista o, incluso, ella misma. Aunque hay veces en que las cosas no cambian tanto pues, cuando fue capturada en Francia en 1995, Anne McElvoy, corresponsal del Times, la describió, como hacían los periodistas, con “el aspecto de una estrella de cine mediterránea” y que era “una de las pocas mujeres capaces de mantener su buen aspecto incluso en un tiroteo con la policía”. Me recuerda a la terrorista vasca que acompaña a Harrison Ford en la última versión cinematográfica de “Chacal”.
Por cierto, culpa mía seguramente, pero no he conseguido averiguar de dónde viene el alias de “La Tigresa”. Está publicado que el primer DNI falso que recibió Idoia se lo entregó Santi “Potros” y estaba a nombre de Margarita, que le quedó como apodo, aunque parece que no le gustaba en absoluto, entre otras cosas porque así se llamaba la vaca de Fernandel en la película “La vaca y el prisionero” (1959) lo que, por otra parte, demuestra una cultura cinematográfica no muy habitual. Años más tarde, ya en Argelia con Soares Gamboa, adoptó el alias de “Tania”, en recuerdo de la compañera del Che Guevara. Pero de “La Tigresa” no tengo datos.
Con Idoia López Riaño y las descripciones que de ella se hacen, es evidente que, para los medios, son más importantes su apariencia y su conducta que sus ideas, opiniones y objetivos políticos. Y “La Tigresa” lo sabe y, quizás, actúa en consecuencia; solo hay que ver la secuencia de fotografías obtenidas en uno de sus últimos juicios, charlando con Santi “Potros” en la conocida jaula de cristal.
Y, por supuesto, también interesa a los medios la vida sentimental de “La Tigresa”: “sus míticas proezas sexuales”, sus ligues con guardias civiles y policías, sus salidas nocturnas de discotecas y drogas y, últimamente, si está casada o no y con quién.
Apariencia física y vida sentimental son intereses de “prensa rosa”, no de periodistas serios dedicados, se supone, a la política y, más en concreto, al terrorismo. Pero es el efecto que produce una mujer terrorista en los medios. Dentro de este esquema se incluye hasta el inicio de su biografía en ETA. Entró en el comando Oker porque allí estaba su novio de toda la vida. Vamos, que entró en ETA por amor.
Ella misma niega con energía y convicción este enfoque “rosa” de su vida. En sus declaraciones argumenta que esta manera de describirla es una maniobra más de la policía para desacreditarla. Y afirma que “esa imagen de podredumbre física o moral nada tiene que ver conmigo, ni con mi vida personal o militante, pero sí mucho con el aspecto misógino de la cosa… En tanto que mujer y como militante vasca, los epítetos, apodos, sambenitos y calificativos que me dedican y la saña con que se abalanzan a descuartizarme, deberían tal vez humillarme o hacerme sentir parte de una calaña femenina que pulula en el MLNV. Pues no, no son sino creaciones y fantasmas obsesivos de la policía española, de la Guardia Civil, de todo su aparato terrorista informativo estatal.”
Nació en San Sebastián el 18 de marzo de 1964, de padre salmantino y madre extremeña, y se crió en Rentería. Hasta los 16 años, por lo menos y que se sepa, llevó la vida habitual de familia y colegio de cualquier adolescente. Hasta esa edad pasaba los veranos con sus padres y su hermana en el pueblo de Salamanca en que había nacido su padre, en Puerto Seguro. Pero dos años después, en 1982 y con 18 años, su primer novio, José Ángel Aguirre, la integró en ETA a través del comando Oker. Parece que ya en esos años frecuentaba ambientes abertzales.
El primer asesinato en el que interviene es el del francés Joseph Couchot, al que acusaban de pertenecer al GAL, y que murió el 16 de noviembre de 1984. Unos meses después, en febrero de 1985, asesinaron al marinero Ángel Facas, acusado de tráfico de drogas, y en mayo, al policía Antonio García. Pero su novio es detenido en un atraco a la Caja Postal en Rentería e Idoia huye a Francia. Ya entonces se les conocía como Bonnie & Clyde por su participación en atracos a bancos en busca de financiación.
Es en esta época cuando comienza la leyenda de “La Tigresa” pues se dice, que aburrida en Francia, pasa los fines de semana en San Sebastián con su cuadrilla.
En abril de 1986 se integra en el comando Madrid junto a Miguel Soares Gamboa, Belén González Peñalba, Iñaki de Juana y varios etarras más, y continúan los asesinatos. El teniente coronel Carlos Besteiro, el comandante Sáenz de Iniestrillas y el chófer del coche en que iban, el recluta Francisco Casillas, son asesinados el 17 de junio de 1986. Soares Gamboa ha relatado cómo fue este atentado y lo ha convertido en una charlotada cruel y sangrienta marcada por el histerismo y los nervios de “La Tigresa”. Un mes después, un coche bomba mata doce personas en la Plaza de la República Dominicana en uno de los atentados más sangrientos de la historia de ETA. Poco meses más tarde, en 1987, junto a Soares Gamboa, “La Tigresa” pasó a Francia y, después, a Argelia.
Regresó a España en vísperas de la Olimpíada de Barcelona, en el comando Levante o itinerante, con José Luis Urrusolo Sistiaga. Se cuenta que una de las labores de Idoia en el comando era ser un topo del entonces máximo dirigente de ETA, Francisco Múgica Garmendia, (a) “Pakito”, que no se fiaba de Urrusolo que, a su vez, no tragaba al jefe y le consideraba poco menos que un imbécil.
Se han sumado 23 asesinatos en el curriculum de “La Tigresa” entre 1984 y 1991 formando parte de estos tres comandos.
Fue detenida el 28 de agosto de 1994 en Aix-en-Provence, junto a su compañero sentimental, el francés Olivier Lamotte, y extraditada a España el 9 de mayo de 2001. De su estancia en las cárceles francesas destaca la carta que enviaron a Gara un grupo de reclusas de ETA, entre ellas Idoia. Se publicó el 18 de mayo de 1999 y comienza con “Hace mucho tiempo, demasiado, que tus calles no sienten nuestros pasos recorriéndolas tranquilamente… (y)… pasear por ellas.” Hablaba de extradiciones, cárcel y tortura, y acaba con un “Mientras tanto, Euskal Herria… resistiendo.”
Ya en cárceles españolas, en 2002, fue juzgada por su participación en el asesinato del marinero y drogadicto Ángel Facal en 1985. Justificó su muerte declarando que “ETA tiene ciertos valores y aquí no se habla de las víctimas que eran los niños del colegio donde este introducía heroína para asegurarse futuros clientes… Aquí no se habla de la rentabilidad que el Estado sacaba con este tráfico, todos sabemos que rentabilidad era.”
Ese mismo año, 2002, fue juzgada por el atentado de la Plaza de la República Dominicana en 1986. Expresó su opinión sobre el futuro y declaró que “Mientras ustedes se empecinan en que nos van a asimilar con este engendro de Estado, nosotros seguiremos enfrente hasta que dejéis Euskal Herria en paz.”
Condenada por unos delitos o a espera de juicio por otros, ha estado en las cárceles Puerto II, Badajoz y Granada hasta 2010. En julio de este año, se hace público su abandono de ETA y pronto es trasladada a la cárcel de Nanclares, cerca de Vitoria. En respuesta, ETA la expulsó de la organización en noviembre de 2011. Hacía ya varios años que estaba en desacuerdo con ETA, con sus dirigentes y con sus objetivos y acciones.
Es Idoia de físico espectacular, ojos grandes y hermosos, abundante pelo rizado, chupa de cuero, pantalones ceñidos… La misma Anne McElvoy, del Times, la describe “con maquillaje oscuro marcando los ojos, lápiz de labios fucsia y grandes pendientes que tintinean cuando mueve su oscuro cabella rizado”. Los periodistas afirman, quizá porque se copian unos a otros, que le encantaba tirarse a los cuerpos y fuerzas de Seguridad del Estado y hablan de novio guardia civil de Intxaurrondo, de la Discoteca Cobre de Madrid cuando formaba parte del comando que, con desesperación por su indisciplina y el riesgo que suponía, dirigía Urrusolo Sistiaga. En muchas noticias de prensa se describe a “La Tigresa” como capaz, cada noche, de recorrer varias discotecas buscando algún policía para llevara a la cama y unos días después, con toda calma, disparar a algún colega de su último ligue.
Pero también los periodistas, a menudo los mismos periodistas, la describen como no muy inteligente, aventurera, altiva, desafiante, coqueta, caprichosa, indisciplinada,… En resumen, como escribe Matías Antolín, es de esas mujeres con trenes llenos de soldados a las que canta Joaquín Sabina en “Mujer fatal”. En realidad, todas estas historias forman parte de esa leyenda tan querida por muchos de que, si una mujer es descrita como irracionalmente violenta, su conducta vital incluye, sin duda, una vida sexual desenfrenada. Como destaca Sweta Madhuri Kannan, la sexualidad de estas mujeres relacionadas con el terrorismo se utiliza como explicación o como causa de su violencia.
Los que participan en actos terroristas son, en general, personas que representan a la población normal, con un nivel educativo y estatus socioeconómico, como poco, medio, y características sociales y personalidad habituales en su entorno. Presentan algunos rasgos peculiares: viven en un entorno acostumbrado, o dispuesto a usar, la violencia, suelen ser jóvenes, están adoctrinados y son fanáticos en religión o en ideología política, con una organización que los apoya y anima, y con motivos personales concretos como venganza, deseo de justicia, resentimiento, falta de identidad, cumplimiento del deber, odio heredado,…
Son dos los pilares en que se asienta su conducta: social, con amplio respaldo ciudadano, e individual, con motivación altruista, incluso para sacrificar la vida por el bien común. Hay entre los expertos un debate sobre las posibles enfermedades mentales en terroristas, sobre todo entre los que actúan en solitario, aunque los últimos estudios no apoyan esta hipótesis.
También Hancock y su grupo analizaron en 2011 el lenguaje utilizado por condenados por asesinato, psicópatas y no psicópatas, cuando se les pide que relaten sus crímenes. Los psicópatas utilizan más justificaciones, enumeradas como las causas que provocan efectos que son sus crímenes. Esas causas son, sobre todo, necesidades materiales como bebida, comida o dinero. Les cuesta verbalizar las emociones y usan más el tiempo en pasado que en presente, como si sintieran una cierta distancia con lo que hicieron. Su lenguaje es, en general, poco emocional e intenso.

Belle Starr (izquierda) en 1886
Belle Starr: Del inmenso Oeste
Su nombre real era Myra Maybelle Shirley, conocida como Belle Starr, nació en Carthage, Missouri, el 5 de febrero de 1848, y murió en Eufaula, Oklahoma, el 3 de febrero de 1889, con 41 años. La traigo aquí no por matar, que quizá lo hizo más de una vez aunque nunca se pudo probar, sino por su extraordinaria capacidad de doma y control de peligrosos bandidos y asesinos que, además, mataban por ella. Por algo se la conoció como The Bandit Queen, La Reina de los Bandidos.
De padres granjeros, cuando Myra Maybelle tenía 8 años, se trasladaron a la ciudad y prosperaron con negocios en establos, tabernas y hoteles. La niña fue bien educada, como era habitual en una familia respetable de la época, con clases de música, lenguas clásicas y piano. Le gustaba cabalgar y aprendió a usar armas de fuego. La Guerra Civil llevó a la familia Shirley a la ruina. Sureños, del bando perdedor, y su hijo murió en las guerrillas de Quantrill. Tuvieron que mudarse a Scyene, en Texas.
En aquellos años de derrota y miseria, alojaron en su casa a grupos de sureños fugitivos de la ley y procedentes, en su mayoría, de las guerrillas de Quantrill y camaradas de su hermano muerto. Así conoció Myra Maybelle a Jesse James y su banda ya que Cole Younger, compañero de James, era su amigo desde la infancia.
Pronto conoció a Jim Reed, viejo amigo de la familia y también miembro de las guerrillas, con quien Myra Maybelle se casó en 1866, con 18 años. Se establecieron cerca de Scyene y, al año, marcharon a Missouri donde nació su hija Rose Lee, alias “Pearl”, que se sospecha era hija de Cole Younger. Jim conoció a un bandido de origen Cherokee, Tom Starr, y juntos robaron ganado y vendieron whisky de contrabando. Jim y Belle marcharon a California cuando él fue acusado y perseguido por asesinato. Y en California nació su hijo Ed. Siempre en busca y captura, volvieron a Texas. Jim pasó dinero falso y tuvieron que huir al Territorio Indio, hoy parte de Oklahoma, para escapar de un sheriff que les perseguía y con recompensa ofrecida por su captura. En 1874, y de nuevo en Texas, Jim Reed murió en un atraco.
Un año antes, en 1873, Jim Reed y un par de colegas asaltaron la casa de un rico granjero de origen indio y se llevaron 30000 dólares en billetes y monedas de oro. Se acusó de cómplice a Belle pero no había pruebas, aunque admitió que estuvo presente durante el atraco. Sin embargo, el oro sí se lo gastó. Marchó a Dallas y jugó y bebió y se compró ropa de vaquero elegante, incluyendo el sombrero Stetson y un par de pistolas. De vez en cuando, galopaba por las calles de la ciudad alborotando y disparando sus armas. Esta conducta enloquecida fue el principio de su leyenda como pistolera fuera de la ley.
Belle, viuda con 26 años y 2 hijos, parece, como ya he relatado, que se vio involucrada en crímenes que quizá, solo quizá, no había cometido. Vivió con Bob Younger en Texas durante un tiempo, y en 1880 se casó con Sam Starr, hijo de aquel Tom Starr amigo de su difunto marido. Ahora la leyenda tiene nombre pues Myra Maybelle Shirley, luego Reed, ahora es Belle Starr, y así será conocida en adelante.
Vivieron en Texas, en Arkansas dentro del Territorio Indio, y fueron condenados por robo de caballos, ayudaron a escapar a fugitivos, robaron, o robó Sam Starr, el correo, y Belle fue acusada de asalto, juzgada y absuelta. En fin, hasta ahora una vida agitada.
Y en 1886, Sam Starr murió en un tiroteo con un antiguo enemigo. Ya van dos, Jim Reed y Sam Starr. Poco después vivió con otro bandido, Jack Spaniard, que fue detenido, juzgado y ahorcado. Son ya tres, que se sepa. Por cierto, Bob Younger murió de tuberculosis en la cárcel en 1889.
Belle se volvió a casar, ahora con Jim (o quizá Bill) July Starr, hijo adoptivo de su suegro Tom Starr y, por tanto, algo así como su cuñado adoptivo, y unos 15 años más joven que ella.
En febrero de 1889, Belle marchó a la ciudad de San Bois para hacer unas compras y su marido Jim hacia Fort Smith para ser juzgado. El 3 de febrero, domingo, Belle volvía a su casa en Eufaula, Oklahoma, pero nunca llegó. Fue emboscada y asesinada cerca de su rancho, con un tiro en la espalda y a dos días de cumplir 41 años. Nunca se encontró al culpable.
En vida, Belle Starr declaró que “Me considero una mujer que ha visto mucho de la vida”. Tenía razón. Aunque también es cierto que hoy en día es difícil distinguir entre su vida y su leyenda. En aquella época, siglo XIX, y en aquel lugar, el Oeste, los forajidos eran más famosos que los predicadores y ser sheriff o juez era ser tan duro y arbitrario como los bandidos a los que detenían, juzgaban y colgaban. De sheriff a bandido no había más que un paso, que a menudo se daba a la inversa y muchos forajidos famosos acabaron siendo agentes de la ley. Solo se necesitaba una oferta aceptable y hecha por un grupo de ciudadanos deseosos de ley y orden. Y la Guerra de Secesión no ayudó mucho pues dejó sueltos por el Oeste a muchos furibundos y derrotados sureños y a mucho sinvergüenza y victorioso soldado de la Unión. En ese caldo de cultivo, violento e inestable, creció Belle Starr, su verdad y su leyenda.
Y repasen la película que Hollywood rodó sobre Belle Starr, con ese título una hermosa y poco creíble Gene Tierney como protagonista, y un guión todavía menos creíble.
En general, en los individuos con conducta antisocial, agresiva e impulsiva, hay una deficiencia de serotonina y altos niveles de dopamina. A más serotonina, menos impulsividad y más control, y con menos serotonina, más relación psicopática con otras personas. Todo está relacionado con el funcionamiento de la amígdala, en el sistema límbico del cerebro. Tienen el sistema cerebral de recompensa del nucleus accumbens exageradamente sensible y, a la vez, esta la zona del cerebro donde se sintetiza la dopamina que activa la impulsividad, la conducta agresiva y antisocial y el abuso de sustancias y, todo ello en conjunto, provoca la sensación de recompensa por su conducta. En pocas palabras, agresividad y recompensa están, de alguna forma, unidas.
Los principales cambios detectados en el cerebro de adultos violentos incluyen la pérdida unilateral del tejido de la amígdala y el hipocampo, irritación en el sistema límbico, activación de regiones del lóbulo frontal, y descenso de glucosa en el cuerpo calloso.
Los estudios más detallados identifican en el cerebro varios procesos que activan o inhiben la agresividad y, por tanto, la violencia. Los diferentes tipos de agresión difieren en el neurotransmisor que actúa en cada uno de ellos y según la zona del cerebro donde lo hace. En un principio, y se sigue investigando en ello, se relacionan diversas sustancias con algunas conductas concretas pues ya sabemos que la acción resultante, compleja y simultánea, depende de más de un neurotransmisor. No actúan en solitario sino que se modulan en interacciones complejas. Por ejemplo, bajos niveles de serotonina varían el umbral de la irritabilidad pero, además, cambian el metabolismo de la glucosa y el ciclo sueño/vigilia, entre otras funciones.
En la violencia intervienen varios mensajeros y nunca es uno solo el responsable único de una determinada conducta. La conducta violenta es compleja con causas inmediatas muy variadas como ira, ataque, defensa, agresión y otras, con impulsos repentinos o con premeditación, y es resultado, en parte, de la genética y del ambiente. Todo ello es peculiar de cada individuo y modulado por cada grupo social y su cultura concreta.
Como ejemplo nos sirve de nuevo la serotonina. Interviene en aspectos del comportamiento como depresión, ansiedad, violencia, agresión, adicción, suicidio, impulsividad, cooperación, timidez, y algunas conductas más. O, también, estimulan la agresión varios neurotransmisores y hormonas como vasopresina, dopamina, noradrenalina, acetilcolina, carbacol, opiáceos, picrotoxina o testosterona. Inhiben la agresión la oxitocina, serotonina, fluoxetina, fenilfuramina, haloperidol, naxolona o GABA.

Felix Yusupov
Felix Yusupov: El asesino incompetente
Famoso por lo que no hizo, por lo que inició y no supo acabar. Fue un aristócrata de la Rusia zarista, con títulos de príncipe y conde, que intentó matar a Rasputín y no lo consiguió. Necesitó ayuda, mucha ayuda.
Había nacido en San Petersburgo el 23 de marzo de 1887, de noble familia pues su padre, conde, era entonces Gobernador de Moscú, y murió en París el 27 de septiembre de 1967. Era, de joven, gamberro, juerguista y, a veces, hasta místico. Se casó en 1914 con la Princesa Irina Aleksandrovna Romanova, sobrina del Zar Nicolás, y así conoció al otro protagonista de esta historia, al santón Grigori Rasputín. Durante un tiempo fueron compañeros de juergas y borracheras.
Grigori Rasputín había nacido en la aldea siberiana de Prokovskoie el 22 de enero de 1869 y, como dice Martín Olmos, desde pequeño se esforzó o, si se quiere, trabajó con ahínco para liarse con todas las mujeres a su alcance y para evitar, como fuera, complicarse la vida con un trabajo honrado. Era un caradura borracho y pendenciero que se convirtió a golpes, al estilo de San Pablo, aunque los recibió de un padre, muy molesto por las atenciones Rasputín con su hija. Comenzó a tener fantasías místicas, peregrinó a lugares santos, ayunó, consiguió fama de adivino y sanador y recomendaciones de gente importante y, de esta manera, llegó a confesor de la Zarina Alejandra. Era un milagrero y tanto expulsaba demonios o como evangelizaba prostitutas.
El heredero del trono, Alexis, que entonces tenía dos años, era hemofílico y sufría frecuentes hemorragias que ponían en peligro su vida. Nadie sabe cómo ni por qué, pero Rasputín tranquilizaba al heredero y le detenía la pérdida de sangre. Así, primero la Zarina y, después, el propio Zar, llamaban a Rasputín para escuchar sus consejos, sus inventos y sus profecías. Su influencia era enorme y se rodeó de partidarios y lameculos que, no podría ser de otra manera, montaban unas juergas enormes y, un escándalo en la época, hasta bebían champán en los zapatos de hermosas mujeres que, ya no son rameras de la calle, sino duquesas de la corte.
Y llegó el momento, para muchos hartos de su poder, de quitar de en medio a Rasputín, y no de civilizada manera sino, de ser posible, por medio del asesinato. Los conspiradores formaban un gran grupo de gente variopinta e importante. Allí estaban el diputado Vladimir Purishkevich, que acababa de lanzar un incendiario alegato contra el siberiano en la Duma, y estaba el Gran Duque Demetrio Romanov, primo del zar. Entre ambos idearon el plan de asesinato. El doctor Lazavert aportó el cianuro y el pánfilo príncipe Yusupov fue la mano de obra.
Yusupov le invitó a cenar, y Rasputín, como le gustaba Irina, la mujer de Yusupov, aceptó encantado. El príncipe puso música, llenó las copas de champán y sacó, para picar, unos pasteles con cianuro. Rasputín cantó, bailó, bebió y comió lo que quiso, y el cianuro no lo mató. Yusupov, harto de esperar a que palmara, sacó su Browning y le pegó un tiro en el pecho. Rasputín, en vez de morir sin más, como cualquier otro, salió huyendo del palacio. Los conspiradores le esperaban en el patio, le dispararon unos tiros más y Rasputín, por fin, cayó. Pero seguía moviéndose, y Yusupov le arreó con atizador de hierro en la cabeza. Después, ataron el cuerpo con unas cuerdas y lo envolvieron con una lona y, por si acaso, lo arrojaron al río Neva. A la mañana siguiente, apareció el cadáver sobre el río helado, sin cuerdas ni lona y con los brazos extendidos. Según la autopsia, murió ahogado.
Todo esto ocurrió el 29 de diciembre de 1916. Yusupov, el asesino incompetente, murió en París el 27 de julio de 1967, en la cama.
Referencias:
Antolín, M. 2002. Mujeres de ETA. Piel de serpiente. Ed. Temas de Hoy. Madrid. 245 pp.
Baatz, S. 2008. Leopold and Loeb’s criminal minds. Smithsonian Magazine August, 8 pp.
Buckholtz, J.W., M.T. Treadway, R.L. Cowan, N.D. Woodward, S.D. Benning, R. Lui, M.S. Ansari, R.M. Baldwin, A.N. Schwartzman, E.S. Shelby, C.E. Smith, D. Cole, R.M. Kessler & D.H. Zald. 2010. Mesolimbic dopamine reward system hypersensitivity in individuals with psychopathic traits. Nature Neurosciences 13: 419-421.
Hamilton, C. 2007. Political violence and body language in life stories of women ETA activists. Signs: Journal of Women in Culture and Society 32: 911-932.
Hancock, J.T., M.T. Woodworth & S. Porter. 2011. Hungry like the wolf: A word-pattern analysis of the language of psychopaths. Legal and Criminological Psychology DOI: 10.1111/j.2044-8333.2011.02025.x
Hanlon, R.E., M. Brook, J. Stratton, M. Jensen & L.H. Rubin. 2013. Neuropsychological and intellectual differences between types of murderers. Affective/impulsive versus predatory/ instrumental (premeditated) homicide. Criminal Justice and Behavior DOI: 10.1177/0093854813479779
Hodgins, S. et al. 1996. Mental disorder and crime. Evidence from a Danish birth cohort. Archives of General Psychiatry 53: 489-496.
Larson, E.J. 2010. An American tragedy: Retelling the Leopold-Loeb story in popular culture. American Journal of Legal History 50: 119-156.
McElvoy, A. 1995. The trapping of a Tigress. Times of London. 9 September.
Murray, J., P.C. Hallal, G.I. Mielke, A. Raine, F.C. Whermeister, L. Anselmi & F.C. Barros. 2016. Low resting heart rate is associated with violence in late adolescence: a prospective birth cohort study in Brazil. International Journal of Epidemiology doi: 10.1093/ije/dyv340
Nacos, B.L. 2005. The portrayal of female terrorists in the media: Similar framing patterns in the news coverage of women in politics and in terrorism. Studies in Conflict & Terrorism 28: 435-451.
Olmos, M. 2010. El conspirador torpe. El País 30 mayo.
Ramirez, J.M. 2007. Neurorreguladores cerebrales de la agresión. Psicofarmacología de las conductas agresivas. Anuario 2007 Métode 123-127.
Sadeh, N., S. Javdani, J.J. Jackson, E.K. Reynolds, M.N. Potenza, J. Gelernter, C.W. Lejuez & E. Verona. 2010. Serotonin transporter gene associations with psychopathic traits in youth vary as a function of socioeconomic resources. Journal of Abnormal Psychology 119: 604-609.
Sáiz-Pardo, M. 2011. ETA expulsa a “La Tigresa” y a su novio por pedir perdón a las víctimas. El Correo 23 noviembre.
Wellman, P.I. 1968. Los fuera de la ley. Luis de Caralt Ed. Barcelona. 399 pp.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Los asesinos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Historias de la malaria: El charlatán y caballero Sir Robert Talbor
- Ingredientes para la receta: el ajo
- Historias de la malaria: El parásito
La importancia del ritmo en la carrera de fondo
Un nuevo estudio del profesor Jordan Santos-Concejero, del Departamento de Educación Física y Deportiva de la UPV/EHU, sugiere que los corredores kenianos de élite no pueden defender su oxigenación cerebral cuando se les obliga a correr hasta la extenuación y cerca de sus límites fisiológicos. Esto contradice en parte los resultados de un estudio publicado previamente y enfatiza la importancia crítica del control del ritmo en su éxito en las pruebas de resistencia.
El estudio inicial, realizado por el doctor del Departamento de Educación Física y Deportiva de la UPV/EHU, sugería que la capacidad de los atletas kenianos de mantener su oxigenación cerebral en un rango estable durante esfuerzos máximos (sobre una contrarreloj de 5 kilómetros), podría ser una de las razones que explicara el éxito de estos corredores en las pruebas de fondo.
Sin embargo, teniendo en cuenta que una contrarreloj sobre esa distancia implica la posibilidad de los atletas a elegir el ritmo, se planteó la necesidad de estudiar las respuestas de la oxigenación cerebral en un esfuerzo máximo donde la intensidad del ejercicio les fuera impuesta. Para ello, se diseñó un test interválico de repeticiones de 1.000 metros a una velocidad un 5% superior a la media obtenida en la contrarreloj de 5 km, con una recuperación de 30 segundos entre repeticiones. El objetivo era hacer el mayor número de repeticiones posible, por lo que se ofreció a los atletas incentivos económicos por cada repetición extra completada (como dato, el mejor de los atletas fue capaz de completar 8 repeticiones de 1.000 metros a una velocidad de 2 minutos y 48 segundos por kilómetro en el tapiz rodante).
Con ese protocolo de ejercicio, que aseguraba la extenuación total, se obtuvieron resultados que contradicen en parte los del estudio publicado originalmente, ya que se observó una caída en la oxigenación cerebral de todos los atletas en la parte final del test interválico. “La caída en su oxigenación cerebral creemos que puede estar motivada por una reducción en la presión parcial de CO2 en sangre (hipocapnia), como resultado de la hiperventilación consecuencia del ejercicio”, explica el profesor Santos-Concejero.
La hiperventilación es una de las respuestas fisiológicas del organismo a la reducción del pH sanguíneo que se observa durante ejercicios de alta intensidad. Esa caída en el pH estimula quimiorreceptores periféricos que promueven una potente respuesta respiratoria para mantener el pH dentro de un rango definido, en gran medida por medio de la expulsión del exceso de CO2 derivado de la acción del tampón fisiológico del bicarbonato para compensar la acidosis.
La hipocapnia resultante de esta potente respuesta respiratoria (una vez superado el conocido como “punto de compensación respiratoria”) puede provocar así una vasoconstricción a nivel cerebral que reduciría el flujo sanguíneo, afectando de esta manera a la oxigenación cerebral, como se ha visto en el estudio.
En cualquier caso, la intensidad de ejercicio a la que se produce la caída en la oxigenación cerebral de los kenianos del estudio (95% de su VO2máx) está por encima de lo documentado nunca antes por atletas de élite de cualquier disciplina. Además, curiosamente, los mejores atletas del estudio (aquellos que consiguieron no sólo completar más series de 1.000 metros, sino que lo hicieron a un ritmo superior) fueron capaces de soportar mayores caídas en su oxigenación cerebral antes de colapsar; una prueba más de la importancia de ese factor como limitante del rendimiento humano.
Referencia:
Santos-Concejero, J., Billaut, F., Grobler, L., Oliván, J., Noakes, T.D., Tucker, R.. ‘Brain oxygenation declines in elite Kenyan runners during a maximal interval training session’. European Journal of Applied Physiology 2017 Mar 20. DOI: 10.1007/s00421-017-3590-4
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La importancia del ritmo en la carrera de fondo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los corredores de élite kenianos oxigenan su cerebro de forma diferente
- La importancia de las micorrizas
- La importancia de la coherencia cuántica en los dispositivos fotovoltaicos orgánicos
La ciencia de Edgar Allan Poe
A la Ciencia
¡Ciencia! ¡verdadera hija del tiempo tú eres!
que alteras todas las cosas con tus escrutadores ojos.
¿Por qué devoras así el corazón del poeta,
buitre, cuyas alas son obtusas realidades?
¿Cómo debería él amarte? O ¿cómo puede juzgarte sabia
aquel a quien no dejas en su vagar
buscar un tesoro en los enjoyados cielos,
aunque se elevara con intrépida ala?
¿No has arrebatado a Diana de su carro?
¿Ni expulsado a las Hamadríades del bosque
para buscar abrigo en alguna feliz estrella?
¿No has arrancado a las Náyades de la inundación,
al Elfo de la verde hierba, y a mí
del sueño de verano bajo el tamarindo?
Edgar Allan Poe, 1829.
En “La verdad sobre el caso Valdemar”, Poe nos ofrece una narración fría y minuciosa de un experimento de mesmerismo en que se hipnotiza a un enfermo terminal con tuberculosis y se detiene su muerte. La descripción de los pulmones del enfermo trata de demostrar los conocimientos de patología que Poe no tenía y que, seguramente, no le interesaban demasiado. El texto dice así, en traducción de Julio Cortázar:
“desde hacía dieciocho meses, el pulmón izquierdo se hallaba en un estado semióseo o cartilaginoso, y, como es natural, no funcionaba en absoluto. En su porción superior el pulmón derecho aparecía parcialmente osificado, mientras la inferior era tan sólo una masa de tubérculos purulentos que se confundían unos con otros. Existían varias dilatadas perforaciones y en un punto se había producido una adherencia permanente a las costillas…”
Y sigue la descripción del señor Valdemar, amigo del protagonista que nos cuenta la historia y que pretende hipnotizarle. Reconoce que nunca lo ha hecho con alguien a punto de morir.
Poe consiguió que el relato fuera considerado como una crónica periodística y su reseña incluso apareció en algún medio que lo aceptó como verosímil. Quizá, como afirma Joan Ferrús, de la Universitat Autónoma de Barcelona, lo que pretende Poe, por lo menos en este relato, es evidente: exagerar la situación de forma que consigue desacreditar el frío discurso de la ciencia con una historia que la supera. Es más, la primera parte del relato es científica en forma y contenido, con una descripción del experimento y observaciones certeras y detalladas. Sustituye la magia, el misticismo o la religión, que autores anteriores utilizaban para dar verosimilitud a sus personajes y tramas, por la ciencia. Pero, en la segunda parte del relato, con Valdemar detenido entre la vida y la muerte, y el final, con la rápida putrefacción del enfermo, escapa a la ciencia y se acerca al terror que tanto gusta al autor. Es la angustia que crea Poe:
“Perdí por completo la serenidad y, durante un momento, me quedé sin saber qué hacer. Por fin, intenté calmar otra vez al paciente, pero al fracasar, debido a la total suspensión de la voluntad, cambié el procedimiento y luché con todas mis fuerzas para despertarlo. Pronto me di cuenta de que lo lograría, o, por lo menos, así me lo imaginé; y estoy seguro de que todos los asistentes se hallaban preparados para ver despertar al paciente.
Pero lo que realmente ocurrió fue algo para lo cual ningún ser humano podía estar preparado.”
En otro relato, titulado Mellonta taula, claramente antecesor de muchos temas de la ciencia ficción del siglo XX, la trama está fechada en el año 2848, y la narradora protagonista se burla de la ciencia de Aristóteles, Euclides, Kant o Bacon, ataca el método científico y las técnicas de análisis por inducción y deducción. Dice, por ejemplo, que
“en todas las edades, los mayores obstáculos al progreso en las artes han sido creados por los así llamados hombres de ciencia.”
Para Poe, el método científico es “una noción tan absurda debió retrasar el progreso de todo conocimiento verdadero, que avanza casi invariablemente por saltos intuitivos.” Algo muy parecido declara el famoso personaje de Poe, el chevalier C. Auguste Dupin, en “El misterio de Marie Rogêt”,
“La historia del conocimiento humano ha mostrado ininterrumpidamente que la mayoría de los descubrimientos más valiosos los debemos a acaecimientos colaterales, incidentales o accidentales; se ha hecho necesario, pues, con vistas la progreso, conceder el más amplio espacio a aquellas invenciones que nacen por casualidad y completamente al margen de las esperanzas ordinarias. Ya no es filosófico fundarse en lo que ha sido para alcanzar una visión de lo que será. El accidente se admite como una porción de la subestructura. Hacemos de la posibilidad una cuestión de cálculo absoluto. Sometemos lo inesperado y lo inimaginado a las fórmulas matemáticas de las escuelas.”
Lo más importante, para el escritor, en la ciencia es la imaginación y, además, lo ideal es unir pensamiento e imaginación. Como ven, Poe fue un ilustre precursor del concepto de serendipia en la ciencia actual.
Edgar Allan Poe vivió en un siglo, el XIX, en el que todo progreso, bienestar y felicidad se basaba en la ciencia y en la tecnología. Solo hay que recordar a autores como Julio Verne y repasar alguna de sus obras, quizá “La isla misteriosa”, novela en que la sabiduría y los conocimientos del ingeniero Ciro Smith salvan a los náufragos y los aúpan a un progreso inconcebible.

Edgar “Sagan-Tyson” Poe
La sociedad del tiempo de Poe estaba ganada por una especie de fetichismo tecnológico (¿no les suena como algo muy de ahora?) y, en último término, científico. Y es curioso que el mismo Poe pensara, y quizá deseara, en algún momento de su vida de escritor que sería más recordado por sus ideas científicas, tal como aparecen en su extraordinario texto de astronomía titulado “Eureka”, que por sus relatos de ficción.
Pero, en muchos escritos de Poe la ciencia se utiliza para burlarse de la credulidad y fe de los lectores en ella o, también, para atacar el afán de explicar y justificar todo que caracteriza a muchos científicos, tal como ocurría en “La verdad sobre el caso Valdemar”.
En el relato titulado “El coloquio de Monos y Una”, Poe dedica un párrafo a los errores de la humanidad
“Como el hombre no podía dejar de reconocer la majestad de la Naturaleza, incurría en pueriles entusiasmos por su creciente dominio sobre los elementos de aquella. Mientras se pavoneaba como un dios en su propia fantasía, lo dominaba una imbecilidad infantil.”
Esto es la ciencia para Poe, “una imbecilidad infantil”.
Como escribió un experto en la obra de Poe, “fue el más calculador de los autores por lo que nunca debería confundírsele con los narradores perturbados, e incluso psicóticos, de sus relatos”. Para ello utilizaba la ciencia como hace en la historia de Valdemar con el mesmerismo. También recurre a la frenología para certificar la autenticidad científica del carácter de sus personajes y para confirmar su creencia personal de que el alma y el cuerpo forman una unión indisoluble.
En la tesis doctoral de María Isabel Jiménez, de la Universidad de Castilla-La Mancha en Ciudad Real, en su índice aparecen como temas recurrentes de ciencia en los escritos de Edgar Allan Poe la frenología, el mesmerismo, los viajes, la transformación de la materia y el paso de lo corpóreo a lo espiritual, los autómatas y la destrucción del universo. En este texto me centraré en los temas más cercanos a mis intereses como son la frenología, el mesmerismo y, también, en su libro sobre moluscos. Una ordenación de temas similar aparece en otra tesis, la de Carroll Laverty, de la Universidad de Duke, defendida en 1951. Es evidente que los expertos en la ciencia de Poe detectan parecidos temas científicos en su obra.

Edgar Allan Poe en 1848
Edgar Allan Poe nació en Boston en 1809 y murió en Baltimore en 1849. Fue, como describe Wikipedia, escritor, poeta, crítico literario y periodista. Y murió joven, a los 40 años, y de causa sin determinar aunque hipótesis hay muchas: alcohol, congestión cerebral, cólera, drogas, fallo cardíaco, rabia, suicidio, tuberculosis y algunas más. Su muerte, como su vida, también fue agitada y confusa.
Escribió cuentos, una novela, y poemas, y le hicieron conocido e influyente para muchos escritores de su época y posteriores. Algunos de sus textos se pueden clasificar en el género que ahora llamamos ciencia ficción. Se basaban en avances de la ciencia de su tiempo aunque, como hemos visto de sus cuentos, no sentía el optimismo típico de su siglo. Como formación científica y técnica tuvo un año de estancia en la Universidad de Virginia y recibió cursis en la Academia Militar de West Point.
En la historia de Valdemar, Poe utiliza el mesmerismo. Era, en su momento, una teoría que afirmaba que los seres vivos poseían una fuerza magnética, algún tipo de éter, que se podía liberar con varias técnicas y, entre ellas, la más utilizada y conocida era la hipnosis. Una vez liberado el magnetismo, servía para curar enfermedades. Como escribe Poe en el relato “Revelación mesmérica” : “Aunque la teoría del mesmerismo esté aún envuelta en dudas, sus sobrecogedoras realidades son ya casi universalmente admitidas”. Hoy el mesmerismo es considerado una pseudociencia.
El mesmerismo lo promovió el médico alemán Franz Mesmer, en el siglo XVIII, primero en Viena y, después, en París donde fue muy popular y solicitado por los enfermos. Ya en ese mismo siglo, el XVIII, y, más tarde, en el XIX, varias comisiones de académicos determinaron que no existía el fluido magnético y que las curaciones, si se producían, era por sugestión, lo que hoy llamamos efecto placebo. A pesar de estas conclusiones de los expertos oficiales, el mesmerismo fue muy popular en la primera mitad del siglo XIX y, por tanto, interesó a Edgar Allan Poe.
Como escribe Erik Grayson, Poe ridiculizaba la frenología pero, también, creía en ella y, en algunos escritos, comenta sus lecturas frenológicas y menciona que su propia cabeza ha sido examinada por varios expertos frenólogos. Así se describe a sí mismo:
“mi frente es extremadamente ancha, y se observan con prominencia los órganos del Idealismo, la Causalidad, la Forma, la Constructividad y la Comparación. Con órganos menores de la Eventualidad y la Individualidad.”
Fue una disciplina propuesta por el médico alemán Franz Joseph Gall a principios del siglo XIX. Hoy, como el mesmerismo, carece de toda validez y se clasifica como pseudociencia. Aquí debemos recordar a nuestro Sacamantecas, Juan Díaz de Garayo, y los frenólogos que estudiaron su cráneo ya en la segunda mitad del siglo XIX.
Su objetivo es la determinación del carácter según la forma del cráneo, la cabeza y el rostro. Cada cualidad de la persona se ubica en una zona concreta del cerebro y lo modifica, aumentando o disminuyendo su tamaño según la fuerza y uso de esa cualidad y, a su vez, los cambios de tamaño del cerebro provocan variaciones en el cráneo, con bultos y concavidades detectables al tacto. Palpando el cráneo se estudiaban sus formas y se podía determinar el carácter de la persona.
Sin embargo, los frenólogos nunca se pusieron de acuerdo ni pudieron demostrar qué zona del cerebro concreta albergaba y remodelaba el cráneo por cada cualidad del carácter. Cuando un frenólogo planteaba una hipótesis sobre estas localizaciones, no había otro que pudiera, o quizá quisiera, confirmarlo. Es en el relato “El demonio de la perversidad” donde Poe escribe lo que piensa de la frenología:
“En la consideración de sus facultades e impulsos de los prima mobilia del alma humana los frenólogos han olvidado una tendencia que, aunque evidentemente existe como un sentimiento radical, primitivo, irreductible, los moralistas que los precedieron también habían posado por alto.”
Poe afirma que ese sentimiento olvidado es la perversidad, que tanto le gustaban como tema de sus relatos, y que los frenólogos no habían sabido localizar en el cráneo. Poe cree en la frenología pero, como para toda ciencia humana, siente que es demasiado optimista en sus conclusiones y, por tanto, la deja de lado. Pero, sobre todo, estos párrafos frenológicos ayudan a Poe a confirmar con la ciencia la maldad de su protagonista. Da por hecho que sus lectores conocen y aceptan a la frenología como ciencia y saben los conceptos en que se basa.
Casi su única relación con la biología (aparte de “El Cuervo”) fue la publicación del “The Conchologist’s First Book, or A System of Testaceous Malacology”, con la primera edición en 1839. Fue la única obra de Poe reeditada, en 1840 y en 1845, en vida del autor.
El libro está firmado por Poe aunque nunca declaró, excepto en el prólogo del libro, que fuera su autor. Se basaba en el “Manual of Conchology”, de Thomas Wyatt, un reputado experto en moluscos de la época. Poe, y seguramente Wyatt, buscaban conseguir una versión reducida y más barata que interesara a los alumnos y a los principiantes en el estudio de los moluscos.
Como destaca Stephen Jay Gould, la mayor aportación al estudio de los moluscos en este libro es la unión de la Conchología con la Malacología, incluso desde el propio título. Hasta entonces no era habitual en estas guías pasar más allá de la descripción de la concha, más fácil de recolectar, estudiar y conservar en las colecciones. Pero Poe, en el Prefacio, reivindica el interés por las partes blandas de los moluscos y las añade a la descripción de las conchas, que ha tomado del libro de Wyatt. Parece que fue el mismo Poe el que tradujo del francés los estudios de las partes blandas según los estudios de Cuvier. Escribe Poe que “las relaciones del animal y la concha, con su misma dependencia… es radicalmente importante considerar ambas”.
Esta es parte de la ciencia de Edgar Allan Poe que si, por una parte parece que la despreciaba y solo la utilizaba para dar verosimilitud a sus relatos, por otra desconcierta por sus conocimientos científicos y por su admiración de los logros de la ciencia. Y, además, no olviden repasar “Eureka” para comprender la Astronomía que amaba Poe.
Referencias:
Ballesteros Roselló, F.J. & E. Llacer Llorca. 2015. Poe: A scientist at heart. The history of science fiction. Métode Science Studies Journal 5: 97-101.
Bonet Salfont, J.M. 2016. Science in Verne and Poe. The Pym case. Métode Science Studies Journal 6: 6-12.
Ferrús Vicente, J. 2009. El discurso científico en la obra de Edgar Allan Poe. Revista electrónica de teoría de la literatura y literatura comparada 1: 28-41.
Gould, S.J. 1997. El mayor de los éxitos de Poe. En “Un dinosaurio en el pajar”, p. 185-198. Crítica. Barcelona.
Grayson, E.W. 2005. Weird science, weirder unity: phrenology and physiognomy in Edgar Allan Poe. Mode 1: 56-77.
Jiménez González, M:I. 2013. Fantasía y realidad en la literatura de ciencia ficción de Edgar Allan Poe. Tesis Doctoral. Universidad de Castilla-La Mancha. Ciudad Real. 475 pp.
Laverty, C. 1951. Science and pseudo-science in the writings of Edgar Allan Poe. Tesis Doctoral. Duke University. Durham, NC.
Pizarro Obaid, F. 2011. Transformaciones y nuevas figuras de lo nervioso en la construcción de los relatos de Edgar Allan Poe. Acta Literaria 43: 79-93.
Scholes, R. & E.S. Rabkin. 1982. La ciencia ficción. Historia, ciencia, perspectiva. Taurus Ed. Madrid. 283 pp.
Urdiales Shaw, M. 2015. Disturbed minds in the nineteenth century. The tales of Edgar Allan Poe and Guy de Maupassant. Métode Science Studies Journal 5: 124-129.
Wikipedia. 2016. Edgar Allan Poe. 11 diciembre.
Yanes, J. 2010. Edgar Allan Poe, periodista científico. publico.es. 12 diciembre.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo La ciencia de Edgar Allan Poe se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¿Cómo sienten y piensan los bilingües?
Las lenguas nativas se adquieren en contextos emocionalmente ricos (como la familia), mientras que las extranjeras se adquieren en entornos académicos emocionalmente neutros. Como consecuencia de esta diferencia se ha sugerido que nuestra reactividad emocional se reduce cuando hablamos en un idioma extranjero. Diversos estudios han mostrado lo mucho que puede alterar el sistema cognitivo el hecho de hablar en una lengua extranjera, que afecta a procesos críticos en la vida diaria como la percepción de uno mismo, la toma de decisiones y los procesos de negociación.
El investigador del Basque Center on Cognition, Brain and Language (BCBL) Jon Andoni Duñabeitia habló sobre estas investigaciones en una conferencia titulada “¿Cómo sienten y piensan los bilingües?”.
La charla tuvo lugar el pasado 25 de enero en Azkuna Zentroa (Bilbao). Forma parte del ciclo de conferencias Zientziateka, que organizan todos los meses la Cátedra de Cultura Científica de la UPV/EHU y Azkuna Zentroa para divulgar asuntos científicos de actualidad.
¿Cómo piensan y sienten los bilingües?Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo ¿Cómo sienten y piensan los bilingües? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Fórmulas matemáticas y números: cómo ayuda la economía al fútbol
- La batalla contra el cáncer: la importancia de la alimentación
- Investigación con medicamentos en seres humanos: del laboratorio a la farmacia
Cuántica y relatividad por todas partes
Aunque la cuántica trata de la “física de lo muy pequeño” y la relatividad “de lo muy rápido” no es cierto que sus efectos sólo se perciban en el mundo microscópico o a velocidades próximas a la de la luz, respectivamente.
Quizá el problema sea percibir esas situaciones como poco cotidianas o los efectos macroscópicos perceptibles como situaciones excepcionales.
Antes de la teoría cuántica había un “problemita” que preocupaba a los científicos: “Si una carga en movimiento radia energía y, por lo tanto, la va perdiendo, ¿cómo se mantiene el electrón girando en el átomo de hidrógeno sin ir cayendo poco a poco al núcleo?” . Una tontería… la estabilidad de la materia.
Tuvimos que aceptar el concepto de “órbita mínima de la que no se puede caer”. Más adelante el de “niveles discretos” para comprender los espectros atómicos… pero tuvimos que llegar al concepto de fermión para entender que no se apelotonen todos los electrones en el nivel de menor energía.
De esta forma, la estabilidad del átomo, la existencia de atómos diferentes y la estructura de capas que dará lugar a toda la química son una expresión más que visible y cotidiana de la cuántica.

Modelo de Bohr | Fuente wikicommons
Respecto a la relatividad hay que recordar que antes del trabajo de Einstein ya se habían formulado las transformaciones de Lorentz. Me explicaré.
Ya se conocían las ecuaciones de Maxwell, que explican el electromagnetismo; una de las cosas que más nos gustan a los físicos por su potencia, su sencillez, su elegancia, por “unificar” la electricidad y el magnetismo, por predecir las ondas electromagnéticas… en fin, por tantas cosas. Como iba diciendo, ya se conocían estas ecuaciones, pero tenían un pequeño problema… no eran compatibles con la relatividad de Galileo, con algo tan de “sentido común” como que si dos observadores se mueven a velocidad constante uno respecto del otro (sistemas inerciales), su tiempo discurra igual y obtengamos las velocidades aparentes en cada sistema compensando (sumando o restando) con la velocidad entre ellos. Un problemita de nada… porque no ser compatible significa que los fenómenos electromagnéticos no serían iguales para dos observadores en esos sistemas… y no sólo deben serlo, sino que podemos medir que lo son.

El experimento de Michelson-Morley demostró que la velocidad de la luz no variaba al moverse la Tierra | Fuente wikicommons
Con todo el dolor, nos vimos obligados a dejar algo tan querido como las transformaciones de Galileo por las de Lorentz. Más tarde se vio cómo eran deducibles en el contexto de la relatividad especial asumiendo simplemente que la velocidad de la luz fuera constante e independiente del observador y que el espacio fuera homogéneo e isótropo.
Así que, nada menos que la consistencia de que todos los fenómenos electromagnéticos sean iguales para dos observadores inerciales necesita de la relatividad especial.
Con estos ejemplos no es difícil ver que la cuántica y la relatividad son imprescindibles para la explicaciones de lo más sencillo y cotidiano, pero fíjate además en estos dos aspectos:
- Fue así como históricamente llamaron nuestra atención, mostrándose en el mundo macroscópico y perceptible por nuestros sentidos.
- Necesitamos de los efectos perceptibles para poder tomar medidas en esos mundos de otra manera inaccesibles.
Quizá la forma más sencilla de entenderlo es que nosotros y nuestro mundo está compuesto por cosas muy pequeñas que se mueven muy rápido… y se nota.
NOTA 1: Los electrones, como otros fermiones, no pueden ocupar el mismo estado cuántico. Así que si vamos añadiendo electrones a un sistema estos tienen que ir ocupando los estados libres, aunque tengan mayor energía. En el caso del átomo los distintos orbitales en los sucesivos niveles de energía.
NOTA 2: Las transformaciones de Lorentz permiten cambiar entre sistema de referencia inerciales sin que los fenómenos electromagnéticos se distorsionen y se reducen a las de Galileo si la velocidad es mucho menor que la de la luz.
Este post ha sido realizado por Javier Fernández Panadero (@Javierfpanadero) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Cuántica y relatividad por todas partes se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los vacíos cósmicos y la relatividad general
- La primera imagen de Sagitario A* podría ser la prueba “definitiva” de la relatividad general
- Una puerta cuántica robusta y ultrarrápida
Descartes se equivocó: “una persona es una persona a través de otras personas”
Abeba Birhane

Detalle de “Young Moe” (1938) de Paul Klee. Cortesía de la Phillips collection/Wikipedia
Según la filosofía ubuntu, que tiene su origen en la antigua África, un bebé recién nacido no es una persona. La gente nace sin “ena”, o individualidad, y en vez de eso debe adquirirla a lo largo del tiempo a través de interacciones y experiencia. Por tanto la distinción “yo/otro” que es axiomática en la filosofía occidental es mucho más borrosa en el pensamiento ubuntu. Tal y como lo expresó el filósofo nacido en Kenia John Mbiti en African Religions and Philosophy (1975): “Yo soy porque nosotros somos, y como nosotros somos, por tanto yo soy”.
Sabemos por la experiencia diaria que una persona se forja parcialmente en el crisol de la comunidad. Las relaciones influyen en nuestra autocomprensión. Quien soy yo depende de muchos “otros”: mi familia, mi cultura, mis compañeros de trabajo. El yo que llevo a comprar comida, por ejemplo, es diferente en sus acciones y comportamientos del yo que habla con mi director de tesis. Incluso mis reflexiones más personales y privadas están entrelazadas con las perspectivas y voces de diferentes personas, sean las que están de acuerdo conmigo, las críticas, o las que me elogian.
Con todo las idea de un yo ambiguo y fluctuante puede ser desconcertante. Podemos anotar esta incomodidad, en buena medida, en la cuenta de René Descartes. El filósofo francés del siglo XVII creía que un ser humano estaba esencialmente autocontenido y era autosuficiente; un sujeto confinado a la mente, inherentemente racional, que debería afrontar el mundo fuera de su cabeza con escepticismo. Si bien Descartes no creo la mente moderna él solo, él tuvo mucho que ver a la hora de definir sus contornos.
Descartes se había propuesto resolver un rompecabezas muy concreto. Quería encontrar un punto de vista estable desde el que mirar el mundo sin depender de sabidurías por decreto divino; un lugar desde el que podría discernir las estructuras permanentes bajo los cambiantes fenómenos de la naturaleza. Pero Descartes creía que había una compensación entre la certidumbre y una especie de riqueza social y mundana. Lo único de lo que puedes estar seguro es de su propio cogito – el hecho de que estás pensando. Las otras personas y cosas son intrínsecamente volubles y erráticas. Así que no deben tener nada que ver con la constitución básica del yo consciente, que es un todo necesariamente separado, coherente y contemplativo.
Pocos filósofos y psicólogos de prestigio se identificarían como dualistas cartesianos estrictos, en el sentido de creer que la mente y la materia están completamente separadas. Pero el cogito cartesiano está todavía por todas partes. El diseño experimental de las pruebas de memoria, por ejemplo, tiende a partir de la suposición de que es posible hacer una distinción nítida entre el yo y el mundo. Si la memoria simplemente vive en el interior del cráneo, entonces es perfectamente aceptable aislar a una persona de su entorno y relaciones cotidianas y comprobar sus recuerdos usando tarjetas o pantallas en los límites artificiales de un laboratorio. Una persona se considera una entidad autocontenida, independiente de su entorno, grabada en el encéfalo como una serie de procesos cognitivos. La memoria debe ser simplemente algo que tú tienes, no algo que haces dentro de un contexto determinado.
La psicología social pretende examinar la relación entre la cognición y la sociedad. Pero incluso entonces, la investigación supone a menudo que un colectivo de sujetos cartesianos son el foco real de la investigación, no yoes que co-evolucionan con otros a lo largo del tiempo. En la década de los sesenta, los psicólogos estadounidenses John Darley y Bibb Latané se interesaron en el asesinato de Kitty Genovese, una joven blanca que había sido apuñalada y agredida en su camino a casa una noche en Nueva York. Muchas personas habían presenciado el crimen, pero ninguna intervino para evitarlo. Darley y Latané diseñaron una serie de experimentos en los que simularon una crisis, como un ataque de epilepsia, o humo que entra desde la habitación de al lado, para observar lo que la gente hacía. Fueron los primeros en identificar el llamado “efecto espectador”, en el que las personas parecen responder más lentamente ante alguien en peligro si hay otras alrededor.
Darley y Latané sugirieron que esto podría provenir de una “difusión de responsabilidad”, en la que la obligación de reaccionar se diluye en un grupo más grande de personas. Pero como argumentó la psicóloga estadounidense Frances Cherry en The Stubborn Particulars of Social Psychology: Essays on the Research Process (1995), este enfoque numérico borra la información contextual vital que podría ayudar a entender los motivos reales de la gente. El asesinato de Genovese tenía que ser visto con un telón de fondo en el que la violencia contra las mujeres no se tomaba en serio, apuntaba Cherry, y en el que la gente era reacia a entrar en lo que podría haber sido una disputa doméstica. Por otra parte, el asesinato de una mujer negra pobre habría atraído mucho menos interés mediático. Pero el enfoque de Darley y Latané hace que los factores estructurales sean mucho más difíciles de ver.
¿Hay alguna manera de reconciliar estos dos relatos del yo: la versión relacional, que se integra en el mundo, y la autónoma e interna? El filósofo ruso Mikhail Bakhtin del siglo XX creía que la respuesta estaba en el diálogo. Necesitamos a otros para evaluar nuestra propia existencia y construir una auto-imagen coherente. Piensa en ese momento luminoso cuando un poeta captura algo que has sentido pero que nunca habías expresado; o cuando tuviste dificultades para concretar tus pensamientos, pero se cristalizaron en la conversación con un amigo. Bakhtin creía que sólo mediante un encuentro con otra persona podrías llegar a apreciar tu propia perspectiva única y verte a ti mismo como una entidad completa. “Mirando a través de la pantalla del alma del otro”, escribió, “vivifico mi exterior.” La personalidad y el conocimiento son evolutivos y dinámicos; el yo nunca está terminado – es un libro abierto.
Así que la realidad no está simplemente ahí fuera, esperando a ser descubierta. “La verdad no nace ni se va a encontrar dentro de la cabeza de una persona individual, nace entre las personas que buscan colectivamente la verdad, en el proceso de su interacción dialógica”, escribió Bakhtin en Problems of Dostoevsky’s Poetics (1929). Nada es simplemente ello mismo, fuera de la matriz de relaciones en la que aparece. En cambio, ser es un acto o evento que debe suceder en el espacio entre el yo y el mundo.
Aceptar que otros son vitales para nuestra autopercepción es un correctivo a las limitaciones de la visión cartesiana. Consideremos dos modelos diferentes de psicología infantil. La teoría del desarrollo cognitivo de Jean Piaget concibe el crecimiento individual en una forma cartesiana, como la reorganización de los procesos mentales. El niño en desarrollo es representado como un aprendiz solitario – un científico ingenioso, luchando de forma independiente para dar sentido al mundo. Por el contrario, las teorías “dialógicas”, llevadas a la vida en experimentos como el “estudio de casa de muñecas” de Lisa Freund de 1990, enfatizan las interacciones entre el niño y el adulto quien puede proporcionar “andamios” con los que entender el mundo.
Un ejemplo más duro podría ser el confinamiento solitario en las cárceles. El castigo fue originalmente diseñado para fomentar la introspección: tornar los pensamientos del preso hacia el interior, para motivarlo a reflexionar sobre sus crímenes, y en último término ayudarlo a regresar a la sociedad como ciudadano purificado moralmente. Una política perfecta para la reforma de individuos cartesianos. Pero, de hecho, los estudios de estos presos sugieren que su sentido del yo se disuelve si son castigados de esta manera durante el tiempo suficiente. Los presos tienden a sufrir profundas dificultades físicas y psicológicas, tales como confusión, ansiedad, insomnio, sentimientos de inadecuación y un sentido del tiempo distorsionado. Privada de contacto e interacción – la perspectiva externa necesaria para consumar y sostener una auto-imagen coherente – una persona corre el riesgo de desaparecer en la inexistencia.
Los campos emergentes de la cognición corpórea y enactiva han comenzado a tomar más en serio los modelos dialógicos del yo. Pero en su mayor parte, la psicología científica sólo está dispuesta a adoptar posturas cartésicas individualistas que cortan las redes que unen al yo con los demás. Hay una frase zulú, ‘Umuntu ngumuntu ngabantu‘, que significa ‘Una persona es una persona a través de otras personas.’ Esta es una explicación más rica y mejor, creo, que ‘pienso, por lo tanto soy.’
Sobre la autora: Abeba Birhane está realizando su tesis doctoral en neurociencia cognitiva en el University College Dublin.
Texto traducido y adaptado por César Tomé López a partir del original publicado por Aeon el 7 de abril de 2017 bajo una licencia Creative Commons (CC BY-ND 4.0)
El artículo Descartes se equivocó: “una persona es una persona a través de otras personas” se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Ciencia en primera persona: Agustín Sánchez-Lavega
- Ciencia en primera persona: Iker Badiola
- ¿Eso qué es? Y otras formas de ser curioso
Si te preocupa el aceite de palma, que sea por las razones adecuadas
Últimamente el aceite de palma ocupa un gran número de titulares en los medios de comunicación. Diferentes fabricantes y distribuidores de la industria de la alimentación han optado por eliminarlo de sus productos, generalmente alegando motivos de salud.
El aceite de palma está presente en multitud de alimentos, incluso lo encontramos en las leches infantiles. ¿Es tan preocupante como parece?
El aceite de palma se extrae del fruto de la especie Elaeis guineensis, conocida como palma africana o aceitera que, con origen en el continente africano se introdujo de forma masiva en el suroeste asiático a principios del siglo XX. Es un aceite vegetal, como también lo son el aceite de girasol, de oliva o de soja.
La diferente calidad nutricional entre unos aceites y otros estriba en su perfil lipídico, es decir, en los ácidos grasos que los componen. Generalmente se hace la distinción en función de su contenido en ácidos grasos saturados e insaturados.
Aceite de palma y salud
Consideramos saludables a los ácidos grasos insaturados, mientras que la mayoría de ácidos grasos saturados están relacionados con ciertas enfermedades metabólicas. Los principales organismos oficiales en temas de salud, como la Autoridad Europea de Seguridad Alimentaria (EFSA) y la Organización Mundial de la Salud (OMS), recomiendan reducir al mínimo la ingesta de ácidos grasos saturados por su implicación en el aumento del colesterol LDL (el malo) y en el aumento del riesgo de padecer cardiopatías.
Los ácidos grasos saturados más comunes en alimentación son el ácido palmítico, el mirístico, el láurico y el esteárico. Todos tienen diferentes propiedades y características con efectos distintos sobre la salud. Por ejemplo, el ácido esteárico tiene un efecto menor sobre los lípidos y las lipoproteínas plasmáticas (molécula de proteína unida con un lípido cuya función es el transporte de lípidos a los tejidos del organismo), sobre todo en contraste con el resto de grasas saturadas. Esto explica que el consumo de chocolates con alto contenido en manteca de cacao, rica en este ácido, no influya tanto en el colesterol plasmático. En cambio, el ácido palmítico sí incrementa los niveles de colesterol total y de LDL.
Encontramos ácido palmítico en diferentes aceites vegetales y grasas animales. Está presente en el aceite de oliva (14%), en el aceite de soja (10%) y obviamente en el aceite de palma (50%).
Aceite de palma en los alimentos
Hay dos motivos principales por los que se utiliza aceite de palma en alimentación:
1. Motivos tecnológicos: resulta interesante su textura, su fácil conservación y su punto de fusión. Es una grasa que se puede mantener sólida a temperatura ambiente, resulta untuosa y se derrite en la boca. También se emplea como estabilizante. Se utiliza en panes de molde, galletas o bollería industrial porque mantiene el producto fresco durante más tiempo.
2. Motivos económicos: el aceite de palma es una grasa barata.
Aunque el aceite de palma forma parte de la lista de ingredientes de multitud de alimentos, lo encontramos mayoritariamente en los alimentos ultraprocesados. Un alimento ultraprocesado es, según la clasificación NOVA que categoriza a los alimentos en función del procesamiento que han recibido, aquel que se elabora a partir de ingredientes procesados y no contiene ingredientes frescos o que puedan identificarse en su presentación final. Son ultraprocesados la mayoría de las galletas y la bollería, de los cereales de desayuno, de los snaks dulces y salados, de los embutidos como las salchichas o la mortadela, de los nuggets de pollo, pescado o similares y de muchos precocinados. Hay que tener en cuenta que no todos los alimentos procesados son nocivos, sino que en algunos casos son una buena alternativa a tener en cuenta: verduras congeladas, ensaladas de bolsa, legumbres procesadas y derivados lácteos como los yogures.
Los alimentos ultraprocesados los encontramos en la cima de la pirámide nutricional. Esto quiere decir que no son beneficiosos para la salud y que, por tanto, su consumo ha de ser ocasional, por placer, nunca por un criterio de salud.
Es un error creer que eliminado el ácido palmítico de un alimento ultraprocesado, éste va a convertirse en un alimento saludable. Los alimentos ultraprocesados suelen incluir altas dosis de azúcares, de harinas refinadas, de sal y de grasas de mala calidad, por lo que siempre van a ser una pésima elección. Cambiar el ácido palmítico por otro ácido graso de propiedades tecnológicas similares, como bien puede ser el ácido esteárico, no es una medida que apele a la salud nutricional del producto, sino a un populista lavado de imagen apoyado por toda esta vorágine mediática.
Aceite de palma en leches infantiles
El aceite de palma lo encontramos mayoritariamente en alimentos de consumo ocasional como los ultraprocesados. Entonces, ¿por qué lo lleva la leche infantil?
La razón es sencilla: las leches infantiles de fórmula han de parecerse lo máximo posible a la leche materna y la leche materna ya contiene, de serie, ácido palmítico.
La grasa constituye la mitad del contenido energético de la leche materna y de las fórmulas infantiles. Esta grasa está en forma de triglicéridos de los que forman parte tanto ácidos grasos saturados como insaturados.
El ácido palmítico es el ácido graso más abundante en el organismo y tiene distintas funciones además de la producción de energía, entre otras la capacidad de unirse a determinadas proteínas necesarias para algunas funciones del sistema nervioso y respiratorio.
La leche materna es el alimento ideal en el lactante y el modelo sobre el que se desarrollan sus sustitutos. De todos los ácidos grasos saturados de la leche materna, el ácido palmítico es el mayoritario.
Existen dos formas del ácido palmítico, la alfa y la beta, llamadas alfa-palmitato y beta-palmitato respectivamente. La leche materna contiene ambas formas, siendo la beta la mayoritaria. Estas dos formas se comportan de forma ligeramente diferente en el organismo.
El ácido palmítico que se extrae del aceite de palma tiene la forma alfa, y esa forma alfa impide que se absorban correctamente algunos nutrientes como grasas y calcio. Por este motivo las heces de los bebes que se alimentan con leche de fórmula son habitualmente más duras que las de los bebés que se alimentan con leche materna.
Actualmente ya existen fórmulas infantiles que contienen la forma beta del ácido palmítico, en una proporción análoga a la leche materna. Por esta razón la presencia de aceite de palma en las leches infantiles no ha de ser un motivo de preocupación.
La polémica sobre el aceite de palma no es nada nuevo
En diciembre de 2011 se publicó el Reglamento Europeo 1169/2011 Sobre la información alimentaria facilitada al consumidor, en el que se especifica que Los aceites refinados de origen vegetal [si bien] podrán agruparse en la lista de ingredientes con la designación “aceites vegetales”, [deberán ir] seguida inmediatamente de una lista de indicaciones del origen específico vegetal.
Este reglamento se hizo efectivo en la práctica en 2014, con lo que todos los alimentos que incluyan aceite vegetal entre sus ingredientes, deben especificar cuál de estos aceites vegetales utilizan, si es aceite de oliva, de girasol, de palma, etc. Con anterioridad, la denominación aceite vegetal servía para enmascarar los aceites empleados, normalmente cuando estos desdeñan la calidad del producto, como ocurre con el aceite de palma.
Algunos fabricantes se empeñan en disfrazar el aceite de palma entre sus ingredientes a través de otras denominaciones permitidas para la misma sustancia: aceite de palmiste, grasa vegetal fraccionada e hidrogenada de palmiste, estearina de palma, palmoleina u oleina de palma, manteca de palma o haciendo uso del nombre científico de la especie (Elaeis guineensis).
Pero, las primeras noticias que hicieron que el aceite de palma ocupase las portadas de los medios de comunicación, ya había empezado en los años 90. El motivo, por aquel entonces, no era sanitario, sino medioambiental. Los principales países productores de aceite de palma destinaron una parte importante de sus terrenos a plantaciones intensivas de palma, lo que produjo un grave impacto medioambiental, afectando a la biodiversidad y a la huella de carbono.
Impacto medioambiental del aceite de palma
Los principales productores mundiales de aceite de palma son Indonesia y Malasia. Curiosamente, la palma es una especie foránea que proviene de África occidental, así que para su plantación se requiere la previa deforestación de los terrenos y la introducción de esta nueva especie. Como cabe esperar, este tipo de prácticas afectan gravemente a la supervivencia de los ecosistemas autóctonos.
El caso más clamoroso de deforestación e impacto medioambiental ha sucedido en la isla de Borneo. Se calcula que en 2022 se habrá destruido el 98% de sus bosques, principalmente debido a la tala ilegal y los incendios forestales provocados con el fin de continuar y ampliar las plantaciones de palma. Esta deforestación indiscriminada ha afectado a la biodiversidad: los orangutanes nativos de esta isla, cuya población se ha reducido en un 91 por cierto desde 1900, desaparecerán en un par de décadas. También afecta a las tribus indígenas, ya que la calidad del agua que consumen depende de la calidad de sus bosques.
Este método de producción masivo también afecta brutalmente a la huella de carbono desde tres frentes: deforestación, transporte de los subproductos de la palma y uso final que, sorpresa, no es tanto como ingrediente alimentario, sino como combustible.
El aceite de palma se usa mayoritariamente para producir combustibles
A causa del bombardeo informativo sobre el aceite de palma y su uso en alimentación, podemos olvidarnos de su uso mayoritario: la producción de biocombustibles como el famoso biodiesel. Si el aceite de palma sólo se utilizase como un ingrediente más de los alimentos ultraprocesados, el problema medioambiental sería secundario, cuando realmente es el problema fundamental del uso de este aceite.
Si a la cifra del biodiésel se suma la de electricidad y calor producidos con aceite de palma, la bioenergía copa los usos con el 61%, seguido de la alimentación, con el 34%. El restante 5% se lo reparten otros usos industriales y piensos para la alimentación de animales.
El biodiésel de aceite de palma, es continuamente cuestionado, entre otros, por informes presentados por la Comisión Europea, como el basado en el Global Biosphere Management Model (Globiom), en el que expone que una vez aplicado el cambio indirecto del uso de tierras (ILUC, en inglés) emite mucho más CO2 que el diésel fósil.
El prefijo bio que comúnmente relacionamos con los productos medioambientalmente amigables, en este caso sólo sirve para disfrazar de sostenible algo que no lo es en absoluto.
¿Por qué ha surgido de nuevo la polémica?
La Autoridad Europea de Seguridad Alimentaria (EFSA) publicó recientemente una alerta relacionada con el aceite de palma. No fue con referencia a las características nutricionales del aceite de palma, sino a los contaminantes generados en el proceso de refinamiento (3-MPD, glicidol y sus ésteres) en la que se revisaron los límites máximos permitidos de estos compuestos.
Valiéndose de esta nueva información, varios medios de comunicación aprovecharon para divulgar las implicaciones sanitarias del consumo del aceite de palma y su presencia en, sobre todo, alimentos ultraprocesados. La atención quedó, por tanto, desviada hacia un nuevo enemigo oculto en alimentación, desbancando al enemigo más mediático de las últimas fechas: el azúcar.
Esta nueva polémica sobre el aceite de palma es una farsa
La mayor parte de las plantaciones de palma se utilizan para producir biocombustible, con la terrible repercusión que ello causa en el medioambiente. Cualquier información diferente a esta, es una forma de desviar la atención de lo importante a lo anecdótico. Porque la presencia de aceite de palma de los alimentos y sus implicaciones en la salud son anecdóticas. El aceite de palma está, sobre todo, en alimentos ultraprocesados que, lleven o no aceite de palma, van a ser alimentos poco saludables.
Toda esta polémica ha desvirtuado la verdadera preocupación que subyace del uso del aceite de palma, que es exclusivamente medioambiental. Se ha servido de la efectiva y efectista táctica de inventarse un enemigo en casa. Es la farsa de moda.
Tenemos una historia con todos los ingredientes que garantizan que funcione, que se vuelva viral y que además nos haga partícipes de su lucha. Por un lado tenemos al Mal, un enemigo grande, poderoso, corporativo, a toda una industria, en este caso a la industria alimentaria. Por otro lado tenemos al Bien. Los buenos son los informantes, bienhechores indefensos ante el gigante industrial, forrados de datos y haciendo un humilde alarde de gallardía.
Los ciudadanos van con los buenos. Se implican en esta lucha casera y rudimentaria, la elevan a categoría ideológica, de carácter social, revolucionaria, que les define como ciudadanos comprometidos e informados, ciudadanos a los que ningún ente difuso y malicioso debería engañar. Ciudadanos del retuit, de la firma en change, armados con los altavoces sociales de la moralidad. Ciudadanos de obscena valentía. Aunque las razones sean impostadas, protestan llevando sus emociones como bandera. Las redes sociales funcionan así, creando islas ideológicas donde los usuarios tienden a recibir solamente los argumentos afines, las noticias reales o falsas que corroboran sus prejuicios.La posverdad es esto.
Si vamos a implicarnos y a preocuparnos por algo, que sea por las razones adecuadas.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Si te preocupa el aceite de palma, que sea por las razones adecuadas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Vas a freir pescado? Usa aceite de oliva virgen extra
- El calentamiento global y el aceite de oliva
- Lo dicen en la tele: un alimento natural no lleva aditivos
La fusión nuclear como fuente de neutrones eficiente

La nueva cápsula esférica desarrollada en este trabajo
Las fuentes de neutrones tienen muchas aplicaciones: desde estudiar la estructura de un nuevo material a la localización de menas minerales subterráneas. El problema está en su tamaño, demasiado grande para algunas de esas aplicaciones. Un nuevo trabajo de investigación encabezado por G. Ren, del Instituto de Física Aplicada y matemática Computacional (China) podría ser una solución a ese problema.
Ren y sus colegas han desarrollado un nuevo diseño robusto que emplea láseres para inducir la fusión nuclear en una cápsula que contiene hidrógeno pesado (un protón y un neutrón en el núcleo). En las pruebas preliminares este método ha producido del orden de mil millones de neutrones por pulso láser, lo que es 100 veces más que otros métodos similares
Las fuentes habituales de neutrones que suministran haces de alta intensidad para los estudios de materiales son aceleradores de alta energía o reactores de fisión, algo que dista mucho de ser flexible. Sin embargo, el deseo de disponer de fuentes de menor tamaño ha llevado a centrar la atención en las técnicas basadas en láseres. Un diseño típico implica iluminar con un pulso láser agrupaciones de isótopos de hidrógeno. Como resultado los átomos se ionizan y colisionan, produciendo reacciones de fusión que emiten neutrones; eso sí, no son reacciones automantenidas (como en una bomba de hidrógeno o en un reactor de fusión nuclear), sino que duran tanto tiempo como dura la iluminación. El problema es que en los diseños típicos el rendimiento es insuficiente para muchas aplicaciones.
El nuevo método de Ren et al. es una variación de la fusión por confinamiento inercial (FCI), cuyo objetivo es conseguir reacciones de fusión automantenidas mediante el bombardeo con láseres de pélets de hidrógeno. La FCI puede producir neutrones con rendimientos enormes, pero está sujeta también a grandes inestabilidades. El grupo chino las resuelve empleando una geometría del blanco diferente. En vez de pélets usan una cápsula esférica cuya superficie interior está recubierta por una capa de hidrógeno. La luz del láser calienta el hidrógeno, haciendo que implosiones y se fusiones en el centro de la cápsula.
Los experimentos con pulsos láser de 6,3 kilojulios produjeron unos pocos miles de millones de neutrones. Láseres más potentes y un combustible más rico en neutrones podría aumentar el rendimiento más de 1000 veces.
Referencia:
G Ren et al (2017) Neutron Generation by Laser-Driven Spherically Convergent Plasma Fusion Physical Review Letters doi: 10.1103/PhysRevLett.118.165001
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo La fusión nuclear como fuente de neutrones eficiente se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La fusión a un paso gracias al hidrógeno líquido
- Que 100 años no es nada… o por qué aún no tenemos una central nuclear de fusión
- La estructura en común de estrellas de neutrones y aparcamientos
Artistas que miran a las matemáticas
No es la primera vez que desde esta ventana matemática del Cuaderno de Cultura Científica miramos hacia el arte que se ha inspirado en las matemáticas. Obras de arte relacionadas con el teorema de Pitágoras (en la entrada Cultura pitagórica: arte), el infinito (en A infinito), la sucesión de Fibonacci (Póngame media docena de fibonaccis), los cuadrados latinos (Cuadrados latinos, matemáticas y arte abstracto), los mapas (Arte cartográfico, arte con mapas), el hipercubo y la cuarta dimensión (Hipercubo, visualizando la cuarta dimensión, parte 1 y parte 2), los números (Matemática pop o Vi el número cinco en oro), las fórmulas y expresiones matemáticas (Bernat Venet, la estética de las matemáticas) o la catenaria (Catenarias en las artes plásticas), aunque esto es solo una pequeña muestra del arte que toma la Ciencia de Pitágoras como inspiración.

Obra de la artista alemana Linda Ross, “Espirale II” (2011), que se inspira en la espiral áurea o de Durero
En la entrada de hoy queremos centrar nuestra atención, una vez más, en aristas que se han acercado a las matemáticas, han reflexionado sobre ellas y las han incorporado a sus creaciones.
Nuestra primera artista, con una obra muy geométrica, es la italiana Luisa Sartori, que vive en Nueva York desde los años 1980. Las primeras obras que vamos a mostrar pertenecen a la exposición “Circles, triangles, and then…” (que podemos traducir como, “círculos, triángulos, y entonces…”), que tuvo lugar en la Galería A.I.R. (Artists in Residence = Artistas en residencia) de Brooklyn, Nueva York, en 2010.

Obras de Luisa Sartori, “Celaya” y “Nohar” (2010), lápiz y óleo sobre papel preparado
En esta serie de obras Luisa Sartori investiga sobre el proceso creativo de los diseños geométricos, tan frecuentes en el arte, el diseño y la arquitectura, como son, por ejemplo, los mosaicos geométricos de la Alhambra de Granada. Trabajando con figuras geométricas básicas, círculos, triángulos o cuadrados, se construyen complejos diseños y formas geométricas.
En estas pinturas el proceso de creación del diseño geométrico es parte importante de la propia obra, por lo que no se muestra el mosaico terminado y perfecto, sino que se pueden apreciar, en lápiz, las líneas de las figuras geométricas que han participado en el proceso, como si fuese una obra que aún está sin terminar.
Más aún, algunas de las obras de la exposición, como las dos siguientes, son simplemente los procesos creativos de diseños geométricos.

Obras de Luisa Sartori, “Sin título #2” y “Sin título #5” (2010)
En algunas de las obras, como las dos siguientes, los diseños que aparecen son embaldosados uniformes.
Los embaldosados son cubrimientos de una superficie plana mediante baldosas de unas determinadas formas. Cuando las baldosas son todas iguales y con forma de polígono regular, hablamos de embaldosados regulares. Se puede probar fácilmente (véase la explicación en la entrada Diseños geométricos de chocolate) que solamente existen 3 embaldosados regulares, los clásicos cuyas baldosas son triángulos equiláteros, cuadrados y hexágonos reglares.

Los tres embaldosados regulares
Utilizando un razonamiento similar se puede demostrar que existen 21 embaldosados uniformes diferentes, que son aquellos embaldosados en los que se puede utilizar baldosas con diferentes formas de polígonos regulares, pero con la condición de que alrededor de cada vértice del embaldosado se tiene la misma configuración de polígonos regulares. Por ejemplo, en las dos pinturas siguientes los embaldosados uniformes que aparecen son el embaldosado 4.8.8, ya que alrededor de cada vértice hay un cuadrado, un octógono y otro octógono, y el embaldosado 3.4.6.4, con un triángulo equilátero, un cuadrado, un hexágono regular y otro cuadrado, alrededor de cada vértice.

Obras de Luisa Sartori, “Kendai” y “Thun” (2010), lápiz y óleo sobre papel preparado
Una explicación un poco más extensa sobre los embaldosados uniformes la podéis encontrar en la guía didáctica de la exposición Imaginary, creada por el Instituto Oberwolfach (Alemania) y que ha estado en diferentes ciudades españolas de la mano de la Real Sociedad Matemática Española.
Más aún, utilizando las mismas técnicas que empleaba el artista M. C. Escher, se pueden construir nuevos embaldosados, con baldosas no regulares, pero con formas más o menos sugerentes, construidas a partir de embaldosados regulares. Esta es la técnica empleada en la obra Dhiban (2010).

Obra de Luisa Sartori, “Dhiban” (2010), lápiz y óleo sobre papel preparado
Se parte de un embaldosado cuadrado, es decir, la baldosa es cuadrada, y se transforma de la siguiente forma. Lo que quitamos de un lado del cuadrado se lo añadimos en el lado contiguo, al realizar un giro de 90º, como se muestra en la siguiente imagen. Mediante reglas similares se pueden construir embaldosados muy hermosos, como los que realizaba Escher. Véase de nuevo la guía didáctica de la exposición Imaginary para conocer más sobre esta técnica.

Construcción de la baldosa de la obra “Dhiban” de Luisa Sartori
La propia Luisa Sartori realiza una obra basada únicamente en la construcción de este embaldosado.

Obra de Luisa Sartori, “Sin título #6” (2010)
En muchas de sus obras, pertenecientes al conjunto de su producción artística, incluye diferentes elementos geométricos, aunque hoy aquí mostraremos solamente un par de ejemplos más. La primera obra, perteneciente a la serie “Here-There /High-Low” (Aquí-Allí / Alto-Bajo), incluye la conocida como espiral áurea, o de Durero, que se construye formando trozos de circunferencia a partir de una sucesión de rectángulos áureos (como se mostró en la entrada Visitad los museos, también en clave matemática).

Espiral áurea o de Durero

Obra de Luisa Sartori “Tabla II” (2009), lápiz y óleo sobre papel preparado
O en la siguiente obra que encontramos uno de los poliedros de da Vinci (la esfera de 72 caras), el cubo de Metatron (formado por círculos, uno central, rodeado de otros seis, creando una estructura hexagonal, y luego otros círculos alrededor) y la imagen plana de la curva loxodrómica o de rumbo constante.

Obra de Luisa Sartori “Tabla I” (2009), lápiz y óleo sobre papel preparado
Otra exposición muy interesante, desde la perspectiva de la geometría, de Luisa Sartori es su exposición de 2005, Around the center –alrededor del centro-, en la cual el círculo es un elemento principal.
Nuestra siguiente artista es la estadounidense Laura Battle. Entre sus complejas obras geométricas destacan una serie de obras que recuerdan a los hiloramas, es decir, a los diseños artísticos realizados con una serie de hilos de colores que van uniendo diferentes clavos distribuidos formando geométricas. Esta solía ser una actividad plástica muy frecuente en la educación.

Hilorama geométrico relacionado con un grupo algebraico, en concreto, el grupo E8
A continuación, observamos una de las obras de Laura Battle que nos recuerda a un complejo hilorama.

Obra de Laura Battle, “Sin título” (2009)
Otra obra con diseños geométricos al estilo de los hiloramas y que además contiene una serie de curvas que nos recuerdan a las curvas trigonométricas es la obra “Color Drawing” (cuadro de color).

Obra de Laura Battle, “Color Drawing”
A lo largo de la historia del arte se pueden encontrar muchos diseños geométricos realizados mediante la intersección de circunferencias, desde la sencilla “vesica piscis” formada por la intersección de dos circunferencias y que está muy presente en el arte religioso, hasta el diseño llamado en la actualidad “flor de la vida”.
El diseño llamado “flor de la vida” está formado por una serie de circunferencias, en concreto 19 circunferencias, que se intersecan formando una estructura hexagonal. Este nombre es moderno y está relacionado con creencias místicas modernas, con lo que se ha dado en llamar la Geometría Sagrada y con el movimiento New Age, sin embargo, diseños similares a este ya a aparecen en el arte desde hace siglos.

Diseño geométrico “Flor de la vida” realizado con té y tinta por el artista inglés Carne Griffiths
Por ejemplo, nos lo encontramos en un mosaico en Éfeso, una localidad del siglo IX a.c. en la actual Turquía.

Diseño de 19 circunferencias en un mosaico de Éfeso, Turquía
O diseños similares, como el que aparece en el Codex Atlanticus de Leonardo da Vinci.

Estudio de Leonardo da Vinci sobre intersección de circunferencias en su “Códex Atlanticus”
En las obras de Laura Battle también nos encontramos estudios de intersección de circunferencias, del estilo de la “flor de la vida”, como en su obra Bloom #2, realizada a lápiz.

Obra de Laura Battle, “Bloom #2”, realizada a lápiz
Sin embargo, son varias las obras de Laura Battle en las que la artista ha creado diseños geométricos mediante la intersección de circunferencias. Por ejemplo, en su obra Sin título (2006), en la que entre las formas que nos encontramos está la vésica piscis o en sus obras Roma (2004) e Incantation –Hechizo– (2010).

Obra de Laura Battle, “Sin título (2006)”, realizada al óleo

Obra de Laura Battle, “Roma (2004)”, realizada con tinta

Obra de Laura Battle, “Incantation (2010)”, realizada al óleo
Mucho se podría decir de las obras de Laura Battle y su contenido, pero vamos a terminar con una obra más, de título Year of the cicada –el año de la cigarra– (2013), en la que encontramos elipses e intersección de las mismas, una espiral, el número primo 17, los números impares, diseños geométricos de colores o diseños de tipo fractal.

Obra de Laura Battle, “Year of the cicada” (2013), realizada al óleo
Y para terminar la entrada de hoy en la sección Matemoción del Cuaderno de Cultura Científica, una tercera artista, Cinthia Fisher, que se inspira en la ciencia, y en las matemáticas, para crear parte de sus mosaicos abstractos.
En su obra Arrangement in Black, White and Gray –Disposición en negro, blanco y gris– (2010) utiliza espirales como elemento central de su mosaico.

Obra de Cinthia Fisher, “Arrangement in Black, White and Gray -Disposición en negro, blanco y gris-” (2010)
Se inspira en los fractales para su obra Pavement fractals -fractales de pavimiento- (2009).

Obra de Cinthia Fisher, “Pavement fractals” (2009)
Y para terminar una obra que se inspira en el clásico problema de la cuadratura del círculo. Este es un problema clásico de la matemática griega, obtener un cuadrado con la misma superficie que un círculo dado utilizando solamente la regla y el compás. En el siglo XIX se demostró que era imposible cuadrar un círculo, con únicamente la regla y el compás. Sin embargo, sí se puede cuadrar un círculo haciendo uso de la espiral de Arquímedes, que es el diseño que utiliza la artista en su obra Squaring the circle –cuadradando el círculo-.

Obra de Cinthia Fisher, “Squaring the circle”
Bibliografía
1.- Página web de Luisa Sartori
2.- Página web de Laura Battle
3.- Página web de Cinthia Fisher, Big Bang Mosaics
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Artistas que miran a las matemáticas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Bernar Venet, la estética de las matemáticas
- Matemáticas en el juego de cartas SET (1)
- El cubo soma: diseño, arte y matemáticas
Efectores osmóticos

Efectores osmóticos
Muchos animales tienen la capacidad de mantener constante la concentración osmótica de su medio interno. Es una de las modalidades en que se manifiesta un fenómeno más general denominado homeostasia. Los vertebrados tenemos esa capacidad, por ejemplo. Actuando sobre los elementos de ganancia y pérdida de agua, y también sobre los flujos de sales, podemos mantener relativamente constante la concentración osmótica del medio interno y la de cada una de las sales principales. La constancia absoluta no es posible, claro.
Pero hay muchos animales que carecen de esa capacidad. La composición de sus líquidos extracelulares no está regulada en absoluto o, si se ejerce algún control, la regulación resultante es sólo parcial. A los animales que regulan la concentración osmótica del medio interno los llamamos osmorreguladores. A los que no lo hacen, osmoconformadores. Y de los que lo hacen de forma parcial o imperfecta, los denominamos osmorreguladores parciales.
Como vimos en Animalia hace unas semanas, podemos clasificar a los animales en tres grandes grupos en lo relativo a las características de sus medios internos e intracelulares. Por un lado están los invertebrados marinos que no regulan la concentración osmótica de su medio interno. Los de los otros dos grupos regulan la concentración osmótica de su medio interno, y aunque los de uno y otro grupo presentan particularidades de interés, no nos ocuparemos aquí de ellos.
En esta ocasión nos interesan los del primer grupo. Aunque les hemos atribuido la condición de animales marinos, lo cierto es que buen número de ellos han de hacer frente a cambios en la salinidad del medio externo. Nos referimos a animales de aguas salobres o de estuario, animales que viven bajo condiciones de cierta variabilidad osmótica, normalmente por efecto de los movimientos de marea. La subida de la marea suele conllevar aumentos de la salinidad, y lo contrario ocurre con la bajada. Como es lógico, dado que son animales osmoconformadores, la concentración de su medio interno varía como lo hace el medio externo, razón por la cual sus células se encuentran también expuestas a esas variaciones; experimentan, por lo tanto, cambios en la concentración osmótica intracelular.
¿Resulta eso un problema? ¿Qué riesgos afronta un animal cuyas células experimentan cambios en su concentración osmótica? Si reparamos en el hecho de que las células animales pueden tener concentraciones osmóticas altas (como las de un calamar, por ejemplo) o bajas (como las de un mejillón cebra o las de una rana), enseguida nos daremos cuenta de que la vida animal es perfectamente posible de una y otra forma. Sin embargo, lo que puede no ser inocuo es la forma en que las células expuestas a un medio interno (extracelular) de diferente concentración osmótica se adaptan a la nueva situación.
De entrada, lo que le ocurre a una célula expuesta a un medio más concentrado es que tiende a perder agua. Como consecuencia, su volumen disminuye –se encoge-, aumenta la concentración de todos los solutos intracelulares, y la célula en su conjunto se deforma, especialmente la membrana celular. Todo eso es peligroso: la deformación pone en riesgo la viabilidad celular, especialmente porque los procesos que dependen de la membrana pueden verse alterados; y hay solutos cuya concentración ha de mantenerse en ciertos niveles, como ocurre muy especialmente con el K+, como vimos aquí.
Si la célula se expone a un medio más diluido tiende, como es lógico, a ganar agua. Como consecuencia, su volumen aumenta y la concentración interna de solutos disminuye. El aumento de volumen es peligroso porque puede provocar la rotura de la membrana, lo que supondría la desaparición de la célula como entidad funcional. Y en relación con la dilución interna, también esta puede resultar nociva por sus efectos sobre la concentración de ciertos solutos.
Por las razones dadas, no es conveniente que el equilibrio entre las concentraciones osmóticas interna y externa se alcance mediante flujos de agua en uno u otro sentido. La solución ha de consistir en un mecanismo diferente. Tampoco sería viable la opción de modificar la concentración intracelular del soluto intracelular inorgánico más importante –el potasio- por las razones ya apuntadas.
Pero en el interior de las células de los animales marinos que no regulan la concentración osmótica de su medio interno hay un tipo de solutos cuya concentración es relativamente alta: las sustancias orgánicas nitrogenadas, aminoácidos principalmente. Esos solutos son responsables de dos tercios de la concentración osmótica intracelular, y muchos de ellos no cumplen ninguna función específica en el metabolismo celular.
Son precisamente las sustancias nitrogenadas intracelulares las que experimentan cambios de cierta magnitud cuando las variaciones en la concentración del medio interno (extracelular) son susceptibles de provocar modificaciones en el volumen celular. Las llamamos efectores osmóticos por esa razón, porque cumplen la función de igualar o aproximar las concentraciones osmóticas intra y extracelular de manera que se eviten o minimicen los flujos de agua que pudieran provocar variaciones peligrosas en el volumen de las células.
No deja de resultar lógico que las mismas sustancias cuya concentración en el interior celular varía entre animales en función de cuál es la concentración osmótica de sus medios internos, sean las que permiten a aquellos que experimentan variaciones osmóticas a corto plazo mantener relativamente constante el volumen de sus células. En otras palabras, esos aminoácidos han cumplido en la evolución animal un papel equivalente al que desempeñan en los procesos de ajuste del volumen celular en respuesta a cambios ambientales de salinidad. En ambos casos han servido para igualar la concentración osmótica intracelular a la del medio interno (o extracelular).
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Efectores osmóticos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La distribución del agua animal y el curioso caso del potasio
- El flujo sanguíneo se reorganiza en respuesta a las necesidades
- Historia mínima de la complejidad animal
El calor no es un fluido
Un libro se desliza por la superficie de una mesa. Si la superficie es rugosa ejercerá una fuerza de fricción considerable sobre el libro que tendrá que vencer el impulso inicial si ha de moverse y que hará que termine parándose en cuanto la energía cinética (esa que tiene por el hecho de moverse) desaparezca. Como la superficie de la mesa es horizontal esa desaparición de energía cinética no se ha convertido en energía potencial (la que se tiene por la posición en un campo gravitatorio, por ejemplo), como hubiera ocurrido si hubiésemos lanzado el libro al aire en vertical. Entonces, ¿qué ocurre? ¿Que la energía en este caso no se conserva?
Un examen minucioso del libro y de la superficie de la mesa demostrarían que ambos han sufrido un ligerísimo incremento de temperatura. La desaparición de la energía cinética del libro se ha visto acompañada por la aparición de eso que llamamos calor.
Este experimento tan simple sugiere, pero en ningún caso prueba (correlación no implica causalidad), que la energía cinética se habría transformado en calor. Si esto es así, el calor debe ser una forma de energía.
Iniciamos así una exploración muy sencilla de los aspectos esenciales de la dinámica del calor o, en una palabra, de la termodinámica. En ella primaremos la comprensión de las ideas fundamentales frente al formalismo, por lo que, de aparecer, las fórmulas matemáticas serán extremadamente simples y completamente explicadas. La idea es ayudar a estudiantes de secundaria y primeros años de universidad a aprehender las ideas para no perderse en los cálculos; también proporcionar al lector interesado una introducción asequible a los conceptos fundamentales de la termodinámica y la teoría cinética sin necesidad más que de unas nociones intuitivas muy generales de física y poco más que las cuatro reglas aritméticas.
La equivalencia de calor y trabajo
Hasta mediados del siglo XIX se pensaba que el calor era una especie de fluido llamado fluido calórico. Cuando se mezclan cuerpos calientes y fríos, como agua a 90 ºC con agua a 4º C en iguales cantidades, no se pierde ni gana calor sino que se obtiene el doble de agua a unos 47 ºC. Uno podría concluir que el fluido calórico se conserva en un experimento de este tipo. Algunas sustancias, como la madera o el carbón vegetal, parecen almacenar el fluido calórico, que liberarían cuando arden. Este era el planteamiento entonces.
Si bien la ideas de que el contenido de calor de una sustancia se represente por una cantidad de un fluido que se conserva era aparentemente útil, la realidad es que es incapaz de explicar algunos fenómenos cotidianos. La fricción, con la que empezábamos, produce calor; si tienes frío en las manos tu reacción instintiva es frotarlas entre sí para conseguir que se calientes. ¿De dónde viene entonces el fluido calórico?
La creencia en la existencia del calórico se mantuvo en la primera mitad del XIX, por motivos filosóficos, por una parte y, por otra, porque aunque no explicaba fenómenos simples como el de la fricción sí permitía entender otros aparentemente más complejos, como las reacciones químicas. De hecho el calórico fue introducido por Lavoisier (uno de los padres de la química moderna) a finales del XVIII.

Benjamin Thompson en 1783, un año antes de que Carlos III de Inglaterra lo hiciese Sir y dos años antes de mudarse a Baviera y llegar a ser conde von Rumford
Justo en esa misma época, Benjamin Thomson fue creado en 1791 conde del Sacro Imperio Germánico pasando a la historia como Reichsgraf von Rumford por sus servicios al príncipe-elector de Baviera. Entre estos servicios estuvo la reorganización del ejército y, como parte de ellos, la supervisión de la construcción de nuevo armamento. Los cañones se fabricaban haciendo un agujero en una pieza de metal macizo y Rumford observó que se generaba una enorme cantidad de calor en el proceso. Algunas de las virutas que salían despedidas de la zona en la que el taladro estaba trabajando haciendo el alma (hueco) del cañón estabn tan calientes que estaban al rojo, esto es, emitían luz visible.
Rumford podía haber tomado nota y ya está pero, en vez de eso, hizo varias mediciones y experimentos meticulosos. Para ello sumergió en agua una masa metálica acoplada al taladro que perforaba el cañón y midió la velocidad a la que subía la temperatura del agua mientras el taladro trabajaba en la pieza. Sus resultados demostraban que si no se enfriaba activamente con agua el calor generado hubiese sido suficiente como para fundir toda la pieza.
Después de repetir el experimento en muchas ocasiones, Rumford llegó a la conclusión de que el calor no se conserva sino que se genera cuando se realiza trabajo. Debido a las limitaciones técnicas de su experimento su cálculo de la proporción de calor producido por unidad de trabajo realizado es del orden de 10 veces (un orden de magnitud o 101) del valor que se acepta hoy día.
Los experimentos de Rumford y trabajos similares de Humphry Davy en la Royal Institution de Londres no convencieron a muchos científicos de la época. La razón puede estar en que Rumford no aportó una idea de qué podía ser el calor, al menos no en unos términos que fuesen compatibles con los modelos aceptados en la época para la materia.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El calor no es un fluido se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Fuego y calor, esas materias inexistentes
- De las leyes de conservación (II)
- El primer transistor activado por calor
Errar es humano

Mafalda por Quino
Cometemos errores continuamente. Quizás no nos gusta que nos lo digan o nos cueste reconocerlo, pero así es, nos equivocamos con frecuencia. En ocasiones, además, erramos en el juicio o apreciación de forma sistemática; me refiero a eso que se denomina sesgos cognitivos. Algunos sesgos de ese carácter bien conocidos están en la base de muchas creencias irracionales y, por ello, en varias modalidades de pensamiento mágico.
Por otro lado, en el mundo de la ciencia estamos familiarizados con la existencia de lo que llamamos errores de tipo I y errores de tipo II. Pero esta distinción no tiene por qué limitarse al mundo de la investigación científica. En la vida cotidiana cuando realizamos juicios bajo condiciones de incertidumbre, podemos cometer errores de esos dos tipos. Los de tipo I son los que llamamos también falsos positivos; cuando los cometemos creemos ver algo que no hay. Los de tipo II son falsos negativos; lo que ocurre en esos casos es que no detectamos algo que sí ocurre o que sí existe.
Aunque esa distinción pueda parecer anecdótica, la verdad es que puede tener consecuencias muy importantes. No es lo mismo cometer un error de un tipo o del otro. Si, pongamos por caso, vemos que se dirige hacia nosotros un animal con cuernos de cierto porte, lo más probable es que salgamos corriendo en la dirección contraria. No solo es lo más probable, también es lo más sensato. Si luego resulta que el astado en cuestión era un manso, nuestra deducción habría sido equivalente a un falso positivo. O sea, en ese caso habremos cometido un error de tipo I, pero no creo que eso nos importase demasiado, porque lo más normal es que las consecuencias del error habrían sido de orden menor o prácticamente irrelevantes. Si, en vez de salir corriendo pensando que se trataba de un toro bravo, nos quedamos sentados tranquilamente porque nos parecía que era un pacífico buey que, casualmente, caminaba hacia nosotros, podíamos haber cometido un error de fatales consecuencias. Porque podía haberse tratado de un toro bravo. En ese caso habríamos incurrido en un error de tipo II, un falso negativo. Creo que, llegados a este punto, está bastante claro por qué puede tener muy diferentes consecuencias cometer un error de un tipo o cometerlo del otro.
Los psicólogos piensan que la evolución nos ha equipado con un sistema cognitivo que tiende a seleccionar los errores menos costosos en aquellas disyuntivas en las que las consecuencias o costes de los errores de juicio son asimétricos. Algunas observaciones avalan esa idea.
Cuando estimamos distancias verticales, por ejemplo, tendemos a cometer un error muy util. Al asomarnos a un balcón o a una ventana y mirar hacia abajo, lo normal es que estimemos una distancia hasta el suelo bastante mayor de la que realmente hay. Además, el sesgo aumenta cuanto mayor es la altura desde la que miramos. Por ejemplo, una altura de 14 m nos puede parecer que es de 21 m. Ese sesgo nos protege porque al asomarnos a la ventana nos lo pensaremos dos veces antes de decidirnos a saltar al suelo o a la ventana de enfrente, si fuese esa la opción que valorábamos al mirar hacia abajo y hacer la estimación.
Otro ilustrativo ejemplo de uno de esos sesgos útiles es el de los niños que, al contemplar un animal inmóvil, piensan que está dormido en vez de pensar que está muerto. Los niños que, en el pasado de nuestro linaje, pensaron que un animal, por estar quieto, estaba muerto no dejaron descendencia, por lo que no transmitieron sus genes a las siguientes generaciones.
Errar es humano. Es más, en muchas ocasiones, además, la tendencia a errar de forma sistemática puede salvarnos la vida. Más que humano, pues, puede resultar providencial.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Errar es humano se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un viaje a través del sistema circulatorio humano
- Los fundamentos del altruismo humano
- 10.000 años de uso humano del abrigo de Atxoste
Cuando los bebés comienzan a combinar gesto y habla
Asier Romero Andonegi, Aintzane Etxebarria Lejarreta, Ainara Romero Andonegi e Irati de Pablo Delgado, profesores e investigadores de la Escuela Universitaria de Magisterio de Bilbao de la UPV/EHU, han estudiado cómo emprenden los bebes de entre 9 y 13 meses su tránsito desde el balbuceo inicial al uso de combinaciones de gesto y habla.
La ciencia muestra que el estudio del lenguaje y la comunicación humana no se pueden llevar a cabo solo con un análisis del habla. Entre los aportes que ha realizado este trabajo Asier Romero destaca que es el “primer estudio” en exponer con niños y niñas con lengua materna euskera “cómo y cuándo” los bebés desarrollan y utilizan “un patrón para coordinar el gesto con el habla”.
“Hemos descubierto que cuando el bebé abandona el balbuceo caracterizado por las vocalizaciones de cadenas de sílabas repetidas y largas a los 9 meses y empieza la etapa prelingüística más compleja en torno a los 11 meses, los gestos del bebe comienzan a ser producidos principalmente en combinación con la producción vocal, más que como un acto únicamente de gestos. Es decir, el sistema gestual y del habla ya están estrechamente relacionados”, explica Romero.
Así mismo, el investigador ha querido destacar que la tipología de los gestos en estas combinaciones de gesto y vocalización son “principalmente deícticos”, esto es, “gestos de ejecución, como apuntar, dar, mostrar, ofrecer y realizar peticiones para dirigir la atención del adulto hacia un objeto por el cual el bebé siente interés por obtenerlo con una intención declarativa, es decir, para informar al adulto de su interés por un objeto”.
Para Romero, este estudio muestra que el habla y la gestualidad son dos “elementos necesarios” para estudiar la comunicación humana, pues cada vez hay más pruebas de que ambas están estrechamente coordinadas, y “es quizá una condición fundamental para el desarrollo posterior del primer léxico ya en la etapa lingüística”.
De hecho, revela el investigador, “cada vez hay más evidencias científicas” que muestran que la combinación de balbuceo y gesto de los bebés “están relacionadas” con un desarrollo posterior del lenguaje, y por tanto, son un elemento predictivo. “Por ello investigaciones de este tipo podrían ayudar a predecir alteraciones lingüísticas en el trastorno específico del lenguaje”, avanza el investigador.
El objetivo de este trabajo fue investigar el proceso de adquisición y desarrollo del lenguaje en relación con la coordinación temporal de gestos y habla de niños. Para ello, los investigadores grabaron en vídeo a dos bebés nacidos en familias vascohablantes, desde que los niños tenían 9 meses hasta que cumplieron 13 meses.
“Las grabaciones se realizaron en sus domicilios junto con sus progenitores. En total, se obtuvieron más de 1.260 actos comunicativos producidos por los dos, a través de unas 6 horas de grabación, que fueron analizadas posteriormente mediante la aplicación del software específico ELAN, “esta herramienta permite realizar y procesar anotaciones en líneas digitales de información de forma conjunta para distintos tipos de archivos de audios y videos”, explica.
Esta investigación ha abierto nuevas líneas de trabajo, y por otra parte confirma lo ya señalado en diferentes investigaciones con bebés catalanes e ingleses.
Referencia bibliográfica
Romero Andonegi, A., Etxebarria Lejarreta, A., De Pablo Delgado, I. y Romero Andonegi, A.. ‘The interrelation of gestures and vocalization in early communication functions: Evidence from Basque language’. Signos. Estudios de Lingüística, 50(93), 96-123 (2017). DOI: 10.4067/S0718-09342017000100005.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Cuando los bebés comienzan a combinar gesto y habla se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cuando las proteínas son robots
- Daño cerebral por ictus o cuando un neurotransmisor se convierte en neurotoxina
- Cuando sí es lupus
Culturas del honor
En un estudio realizado hace dos décadas en los Estados Unidos, observaron que los jóvenes blancos procedentes del Sur tienden a responder a los insultos de forma más agresiva que los del Norte. Entre los negros no observaron diferencias. También encontraron que en unos y otros estados se cometía un número similar de asesinatos en coincidencia con la comisión de otros delitos, y sin embargo, en los del Sur eran más frecuentes los producidos como consecuencia de una discusión que acaba de la peor manera posible.
Esos comportamientos están asociados a algo que antropólogos culturales y otros científicos sociales denominan “culturas del honor”. En las culturas del honor hay una gran preocupación por la reputación y una propensión a responder de forma violenta a cualquier actitud que sea interpretada como menosprecio o falta de respeto. Buscan así defender su prestigio aunque para ello tengan que recurrir a la violencia. Pero hay más: quienes forman parte de esas culturas son muy reacios a aceptar que tienen problemas de salud mental, pues ello conllevaría reconocer una forma de debilidad y, por ende, de vulnerabilidad. No es sorprendente, por ello, que traten de evitar el uso de antidepresivos y que la incidencia de suicidios sea alta. Por contraste, las denominadas “culturas de la dignidad” se caracterizan por comportamientos muy diferentes. En éstas las personas son valoradas simplemente por el hecho de serlo, por su condición de seres humanos. En las culturas de la dignidad no es normal el recurso inmediato a comportamientos violentos como consecuencia de una ofensa o lo que pueda interpretarse como tal.
Al parecer, en las culturas del honor las personas valen lo que vale su reputación y esa es la razón por la que su defensa es tan importante. Hay numerosos precedentes en Occidente de fenómenos propios de esas culturas, como las justas medievales y otras modalidades de duelos que perduraron hasta hace poco más de un siglo. Y en la actualidad son muy comunes en las áreas ya citadas en los Estados Unidos y en otras como Paquistán, Afganistán o Somalia.
Uno de los investigadores que realizaron el estudio antes citado pensaba que la cultura del honor podría estar relacionada con el fervor religioso. Al fin y al cabo, tanto la población de los estados del Sur norteamericano como la de los países musulmanes citados se caracterizan por una fuerte religiosidad. Sin embargo, los datos no avalan la existencia de tal vínculo. Al parecer, las culturas del honor suelen desarrollarse en grupos humanos en los que reinan condiciones de gran inseguridad, tanto de naturaleza económica como la derivada de la ausencia de leyes o de su frecuente incumplimiento; bajo esas condiciones, la reputación puede ser una buena forma de defensa cuando no hay instituciones que puedan prestar socorro y protección en caso de necesidad o, de haberlas, cuando se prefiere no recurrir a ellas. Así se explica, por ejemplo, la importancia de la cultura del honor en grupos mafiosos y bandas de delincuentes.
Se trata de culturas muy persistentes. Su importancia entre los hombres blancos del Sur de los Estados Unidos se retrotrae a la llegada de ganaderos de origen escocés procedentes del Ulster en la primera mitad del siglo XVII, quienes hubieron de enfrentarse a todo tipo de amenazas y, muy especialmente, a la de los ladrones de ganado. El tiempo habría atenuado las manifestaciones más extremas de esa cultura, pero no las ha eliminado. No deberíamos, por tanto, descartar que ciertos comportamientos chulescos y respuestas airadas a bromas de escasa trascendencia que observamos en nuestro entorno, tengan su origen en una cultura del honor heredada.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 4 de diciembre de 2016.
El artículo Culturas del honor se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La élite de las dos culturas
- Las dos culturas y más allá: Ciencia, Sociedad y Desarrollo (curso de verano)
- Las dos culturas: ciencia ficción en la universidad
Las máquinas moleculares que han ganado un Nobel
El Nobel de Química de 2016 premió la creación de las máquinas más pequeñas del mundo. El francés Jean-Pierre Sauvage, el británico Fraser Stoddart y el holandés Bernard Feringa recibieron el galardón por haber desarrollado moléculas con movimientos controlables, capaces de llevar a cabo tareas cuando se les proporciona energía. Según la Academia, este hallazgo puede conducir a una revolución tecnológica.
El catedrático de Química Física de la UPV/EHU Jesús Ugalde explicó la importancia de este descubrimiento en la conferencia titulada “Las máquinas moleculares que han ganado un Nobel”, que tuvo lugar el pasaso 16 de noviembre.
Las máquinas moleculares que han ganado un NobelLa Zientziateka es una iniciativa que organizan mensualmente la Cátedra de Cultura Científica de la UPV/EHU y Azkuna Zentroa para divulgar asuntos científicos de actualidad.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Las máquinas moleculares que han ganado un Nobel se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El Nobel de Química 2013: Bailando con proteínas
- #Naukas14: Todos los matemáticos odiamos a Alfredo
- De la materia a la vida: ¿Química? ¡Química!, por Jean-Marie Lehn
Ciencia, Modernidad y Posmodernidad
En la historia hay edades que más o menos todos ubicamos bien. En lo que se refiere a Europa la Edad Antigua va desde las primeras civilizaciones hasta la caída del Imperio Romano de Occidente en el año 476; la Edad Media desde esta fecha al descubrimiento de América en 1492; la Edad Moderna desde este momento a la Revolución Francesa de 1789; y, desde entonces estaríamos en la Edad Contemporánea. Pero hay otra posibilidad de distinguir eras históricas que se basa en los conceptos de ciencia, tecnología y razón y sus papeles en el proceso histórico: Modernidad y Posmodernidad.

Hegel
El término “moderno” aparece por primera vez en el siglo XVI como una forma de señalar la separación del presente con el pasado. Y aunque en el siglo XVII los filósofos naturales experimentales se distinguían a sí mismos de las prácticas del pasado en el debate entre “antiguos” y “modernos”, fue Georg Wilhelm Friedrich Hegel (1771-1831) quien dio la primera definición formal de modernidad como la persistente re-creación del yo y las condiciones de vida. Desde Hegel existe quien da en llamar Modernidad al período que va de la Revolución Francesa (1789) al final de la Segunda Guerra Mundial (1946). En 1947 los arquitectos comienzan a hablar de la existencia de un estilo “posmoderno” y conforme avanza la Guerra Fría los filósofos y sociólogos articulan el significado (o mejor, significados) de Posmodernidad. Modernos y posmodernos varios coinciden en que la Posmodernidad es la era en la que estamos desde los ochenta.
Tras Hegel la Modernidad se refiere a dos narrativas “maestras”, a saber, el desarrollo de la promesa de la Ilustración de la liberación a través de la razón, y la unificación de todas las ramas del conocimiento mediante la extensión de los métodos racionales de la ciencia y la tecnología. Jürgen Habermas (n. 1929) mantiene que ambas narrativas se han empleado para legitimar la ciencia y la tecnología en el ámbito social desde 1800. La ciencia, para los teóricos de lo moderno, es una práctica representativa, una reproducción de la naturaleza, cuyas características son el resultado del consenso racional entre los que la practican, quienes, a su vez, establecen verdades científicas independientes de los intereses sociales. Desde el momento en que el consenso implica la ausencia de conflicto, desde el punto de vista moderno la ciencia es un instrumento racional de paz.
Hay pensadores, como Habermas o Bruno Latour (n. 1947), que creen que la Modernidad es un proyecto inacabado que aún merece la pena proseguir con objeto de conseguir una sociedad libre de conflictos en la que la comunicación clara y racional es posible. Desde la perspectiva modernista la historia de la ciencia y la tecnología se encuadra claramente dentro de las narrativas teleológicas de progreso, racionalización, secularización, burocratización e, incluso, de estado-nación.

Nietzsche
Los orígenes de la posmodernidad los podríamos trazar hasta la crítica de la razón de Friedrich Nietzsche (1844-1900) y otros a finales del XIX. Pero no será hasta después de las atrocidades del Tercer Reich que se empezó a dudar seriamente del proyecto moderno de liberación y unificación mediante la razón. La Posmodernidad no solo rechaza estas dos narrativas maestras de la Modernidad, sino también la idea de que la representación (tanto en las artes como en las ciencias) pueda ser un espejo preciso de la realidad objetiva.
Los posmodernos como Jean-François Lyotard (1924-1998) reconceptualizan las ciencias como actividades orientadas hacia la reproducción de las prácticas de investigación más que a la producción de resultados acerca del mundo. Lo que Lyotard llama “performatividad” en las ciencias puede apreciarse en la inclinación de las ciencias hacia la interdisciplinaridad y el trabajo en equipo. En la incesante búsqueda de “lo nuevo” (la invención de nuevos vocabularios, prácticas, reglas de investigación, consensos) la ciencia posmoderna es una forma de conocimiento que no reproduce lo conocido, sino que constantemente busca lo desconocido y lo indeterminado.
El carácter anti-representativo de la ciencia posmoderna significa que las imágenes (y las teorías) no representan la naturaleza, sino que son una proyección de los entornos políticos, sociales y económicos en los que se desarrolla la actividad científica. Dicho de otro modo, la naturaleza misma desaparece en un mundo creado de simulacros y simulaciones y la historia de las ciencias se convierte en la historia de las imágenes y de lo que se cree que se encuentra inmerso en ellas.
En la Posmodernidad las ciencias son una parte de la economía, pero en un papel muy diferente al que jugaban en la Modernidad. Ahora sus imágenes son sujetos de la ideología política y, por tanto, su verdad es relativa: frente a unos hechos, existen hechos alternativos. De aquí se sigue la “caridad epistemológica” hacia las creencias irracionales que se encuentra habitualmente entre los posmodernos.
Este post ha sido realizado por César Tomé López (@EDocet) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Ciencia, Modernidad y Posmodernidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Cuando los científicos marchan
El ejercicio de la ciencia es una metódica aproximación al uso más puro posible de la razón. En cada paso del método científico se intenta, con deliberación y cuidado, eliminar el más mínimo atisbo de emoción, de apego a las ideas propias, de rechazo de las ajenas basado en antipatías personales; se dan los pasos pertinentes para que sean los datos y no las emociones las que decidan. Y se fracasa, claro, porque los científicos son humanos; porque el cerebro humano en su propio modo de funcionamiento tiene la razón enredada con la emoción, los sentimientos creciendo como hiedras sobre los datos (o viceversa). En eso, ay, quienes se dedican a la ciencia no se diferencias del resto de sus compañeros de especie, y no pueden diferenciarse. Los científicos no son internamente ‘más racionales’ que los demás.
Pero lo intentan. Precisamente por eso existe el método científico: porque si quieres conocer la naturaleza con la mayor precisión posible es necesario filtrar, todo lo que se pueda, los factores emocionales. Para eso se hacen test de doble ciego, complejos diseños experimentales o enrevesados cálculos estadísticos. Por eso los artículos se codifican en un lenguaje artificial y preciso y se revisan por pares anónimos antes de salir publicados. Por eso los tribunales de tesis, y las solicitudes de proyectos con evaluadores externos. La diferencia entre los practicantes de ciencia y el resto de los mortales está en que los científicos son conscientes de las limitaciones de su propio conocimiento y luchan enconada y constantemente por eliminar las fuentes de conflicto entre emoción y razón. Es una lucha condenada a la derrota, porque ningún científico humano puede dejar de ser humano. Pero gracias a ella cada vez conocemos más hechos objetivos sobre el cosmos, lo cual es bello en sí mismo y además ha resultado ser enormemente útil a nuestra especie.
Por eso la ciencia es necesaria y automáticamente enemiga de cualquier doctrina religiosa o política que se base sobre todo en la emoción. Por la sencilla razón de que su método y objetivo final son incompatibles con las llamadas a guiarse por los sentimientos y abandonar la razón. Con independencia de las ideologías políticas o religiosas de cada cual la ciencia siempre se transforma en una muralla dirigida contra ciertas formas de religión o política: aquellas que prefieren fomentar sentimientos por encima de las realidades, las que agitan emociones sin tener en cuenta los datos. No porque la propia actividad científica tenga un sesgo político concreto, sino porque por definición la ciencia y quienes la practican están del lado de la razón y los hechos, y por tanto en contra de quienes se enfrentan al raciocinio o ignoran los datos para respaldar sus ideologías.
Éste es el verdadero trasfondo de las Marchas por la Ciencia del pasado 22 de abril de 2017, y la razón por la que se ha acusado a sus participantes de convertir a la ciencia en una pieza más del tablero político. Cosa que podrían haber hecho, legítimamente: determinadas opciones políticas han agredido a la actividad científica profesional a través de recortes de presupuestos, reducciones de plantillas, instituciones paralizadas y otras acciones que en general han resultado en menos sueldos, menos proyectos, mayores dificultades y menos futuro profesional. Los científicos, como los mineros, los médicos o los conductores de camión, tienen derecho a protestar cuando sus condiciones profesionales se deterioran como cualquier otro tipo de trabajador.
Aunque el impulso que ha sacado a los científicos a las calles de centenares de ciudades en todo el mundo va más allá; mucho más allá: se trata de una defensa del conocimiento y del raciocinio de la humanidad frente a fuerzas que pretenden llevarnos de vuelta a una concepción del cosmos en la que lo único que importa son las pasiones humanas y no la realidad. Se trata de defender la toma de decisiones que tiene en cuenta los datos; la existencia de una realidad empírica que no se puede obviar por mucho que se desee políticamente; el papel del conocimiento y la razón en los procesos que definen el futuro de las naciones. Quienes rechazan los datos y acusan de sesgada y comprometida a la ciencia pretenden que nadie oponga realidades a sus manipulaciones emocionales; que ni siquiera la realidad imponga límites a su voluntad, expresada en términos de pasión de las masas. Conocemos a dónde lleva este camino; ya lo hemos recorrido antes, siempre con terroríficos resultados.
La cultura gremial de quienes practican ciencia e incluso sus querencias personales no son las más dadas a la protesta pública que existen. De hecho por temperamento y por práctica diaria los científicos con meticulosos hasta la pedantería, extremadamente precisos en lenguaje y afirmaciones, críticos de cualquier detalle propio y ajeno, solitarios y poco dados a formar turbas. La comunidad científica tiene una cuota mayor de lo común de raros, obsesos, detallistas y tocanarices; los científicos muy raras veces están de acuerdo en algo, y de esas aún menos tanto como para salir a la calle en grandes prupos y exteriorizar su protesta. Esta vez ha sido así porque muchos de ellos sienten que la apuesta es mayor de lo normal; que el peligro va más allá de la financiación y los detalles de las becas o proyectos y afecta al futuro mismo de la sociedad. Una pancarta en una de las manifestaciones estadounidenses decía “So bad even the introverts are here’ (tan mal estamos que hasta los introvertidos estamos aquí). Porque cuando los científicos marchan es que el peligro es grande, y real.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo Cuando los científicos marchan se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- NASA, ¿cuándo vas a llevarnos a Venus en un barco (o en lo que sea)?
- ¿Son arrogantes los científicos?
- Artistas científicos
Un algoritmo genético para buscar materiales 2D
Las posibilidades que da la computación para la ciencia, sobre todo los ordenadores potentes pero para nada extraordinarios, es que permiten hacer predicciones que hace solo unos años serían impensables ni siquiera planteárselas. Una reciente investigación en busca de nuevos materiales 2D de uso en nanoelectrónica de un equipo encabezado por Arunima Singh del Instituto Nacional de Estándares y Tecnología de los Estados Unidos es un ejemplo estupendo de este uso.
El grafeno es una forma de carbono muy conocida. Sabemos que es una monocapa plana de átomos de carbono con propiedades muy interesantes. Bien, una de las cosas que demuestra el grafeno es que un material por lo demás ordinario, recordemos que la mina de un lápiz está hecha de láminas de grafeno unas encima de otras formando lo que llamamos grafito, se vuelve extraordinario si lo pasamos de 3 dimensiones a 2 dimensiones.
Efectivamente, algunas propiedades como la magnetorresistencia o la piezoelectricidad solo aparecen en las versiones 2D de los materiales. Entonces, ¿por qué no realizar una búsqueda sistemática de compuestos 2D de los materiales que son del grupo del carbono en la tabla periódica? Recordemos que los elementos de un mismo grupo tienen un comportamiento químico similar porque su estructura electrónica más externa es idéntica.
Antiguamente habría que haber hecho miles de cálculos a mano para intentar averiguar con poca precisión que compuestos 2D serían factible y cuáles podría tener propiedades diferentes. Hoy, lo que estos investigadores han hecho es crear un algoritmo que funciona eliminando todas las variaciones que no sean óptimas dese el punto de vista de estabilidad en un análisis de todas las estructuras 2D hipotéticas de todos los óxidos de cuatro elementos del grupo del carbono: silicio (Si), germanio (Ge), estaño (Sn) y plomo (Pb). Una vez que las tienen calculan las características electrónicas.
Pero esto es aún más complicado de lo que parece. A diferencia del carbono, cuya estructura cristalina 2D (grafeno) es la misma que la 3D (grafito), lo normal es que las estructuras 2D sean diferentes a las 3D. Así, por ejemplo, el cuarzo alfa (estructura 3D del dióxido de silicio, SiO2) tiene una estructura trigonal, pero la 2D, sintetizada recientemente, se ha comprobado que es bitetraédrica.
El algoritmo desarrollado por los investigadores es de los llamados genéticos, una clasificación del campo de la inteligencia artificial que engloba a los inspirados en la evolución biológica y su base genético-molecular. Lo que hace es tomar la población inicial de todos los óxidos posibles y dejarla evolucionar hasta que se encuentran las estructuras de menor nivel de energía y, por tanto, más estables; de éstas solo algunas serán 2D.
Los resultados indican que la forma estable del dióxido de germanio GeO2 debería ser monoclínica, mientras que los dióxidos de estaño SnO2 y plomo PbO2 2D deberían ser 1T (triclínicos, 1 capa), a diferencia de sus versiones 3D que tienen una estructura común de rutilo.
Cálculos adicionales muestran que estas estructuras deberían de poder sintetizarse en el laboratorio, bien sobre sustratos o, como el grafeno, como capas independientes. Los óxidos de germanio y estaño 2D podrían tener aplicaciones interesantes como dieléctricos en transistores mientras que el de estaño podría servir de protección en dispositivos nanoelectrónicos. Ya solo queda sintetizarlos y comprobarlo.
Referencia:
Arunima Singh et al (2017) Genetic algorithm prediction of two-dimensional group-IV dioxides for dielectrics Physical Review B doi: 10.1103/PhysRevB.95.155426
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Un algoritmo genético para buscar materiales 2D se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Siligrafeno, ¿el material para la revolución optoelectrónica?
- Usando ADN para sintetizar nanoestructuras de oro
- Un algoritmo para una resucitación eficiente
El teorema de los cuatro colores (1): una historia que comienza en 1852
Wolfgang Haken
Smote the Kraken
One! Two! Three! Four!
Quoth he: “the monster is no more”.
(W.T. Tutte)
El teorema de los cuatro colores se enunció en forma de conjetura en 1852, pero tuvo que esperar hasta el año 1996 para ser admitido como válido por la práctica totalidad de la comunidad matemática.
El poema que abre este escrito es precisamente el que William Thomas Tutte dedicó a Wolfgang Haken –uno de los investigadores que dio una primera prueba del teorema en 1977, aunque tuvo que esperar hasta 1996 a ser ratificada por otros investigadores– tras más de cien años de fallidos intentos por probar su validez.
El teorema de los cuatro colores afirma que, para colorear un mapa geográfico plano sin que dos países colindantes tengan el mismo color, basta con cuatro tonos diferentes.
Se imponen las siguientes restricciones a los mapas aludidos en el teorema:
-
son siempre conexos –es decir, de una pieza– y cada una de sus regiones también es conexa;
-
dos territorios distintos de un mapa no pueden tocarse sólo en un punto, es decir, para ser colindantes deben compartir frontera en el sentido indicado en la figura 1.

Figura 1.
Podría pensarse que un mapa con una gran cantidad regiones, poseyendo extrañas formas, y colindando de manera singular necesitaría mayor cantidad de colores que un mapa más sencillo. Pero, el teorema afirma que no es el caso.
Se trata de un problema topológico, ya que no es importante la forma de las regiones del mapa, sino la manera en la están colocadas las unas respecto a las otras.
¿Cómo empezó esta historia? El abogado y botánico Francis Guthrie observó que era capaz de colorear un mapa complicado de los cantones de Inglaterra con sólo cuatro colores, y conjeturó que debía suceder lo mismo con cualquier otro mapa geopolítico. En 1852, se lo comentó a su hermano Frederick y éste a su vez a Augustus de Morgan, su profesor.
Francis Guthrie observó, además, que tres colores no bastaban, mostrando lo que llamó el diagrama crítico (figura 2), que obviamente precisa de cuatro colores para no contradecir las condiciones de su conjetura –la parte blanca central es una región del mapa–.

Figura 2: el diagrama crítico.
Frederick Guthrie fue el primero en observar que el problema de los cuatro colores no se podía generalizar a dimensión 3: en efecto, según un ejemplo posterior de Heinrich Tietze, es posible construir un ejemplo de mapa tridimensional que precise tantos colores como se desee. Su propuesta consistía en tomar barras numeradas de 1 hasta n,ordenándolas como muestra la figura 3, y sobre ellas colocaba otras n barras numeradas de 1 hasta n, girándolas 45 grados. De este modo, Tietze conseguía un mapa tridimensional conn regiones (cada número correspondía a un ‘país’), que obviamente necesitaba exactamente n colores para no contradecir las reglas de la conjetura…

Figura 3: el ejemplo de Tietze para n=5.
Augustus de Morgan se interesó por la conjetura de Guthrie y la difundió entre sus colegas. El 23 de octubre de 1852 escribió a William Rowan Hamilton: “A student of mine [se refiere a Frederick Guthrie] asked me today to give him a reason for a fact which I did not know was a fact – and do not yet. He says that if a figure be any how divided and the compartments differently coloured so that figures with any portion of common boundary line are differently coloured – four colours may be wanted, but not more – the following is the case in which four colours are wanted. Query cannot a necessity for five or more be invented […]”

Figura 4: carta de De Morgan a Hamilton que incluye el diagrama crítico. Imagen Wikipedia.
En ese momento Hamilton estaba trabajando en teoría de cuaterniones, y respondió cuatro días después a De Morgan, con sarcasmo: “I am not going to attemt your quaternion of colour very soon”.
Decepcionado, De Morgan se puso en contacto con otros matemáticos. En 1853, escribió a William Whewell, describiendo la conjetura como un axioma matemático.
El problema de los cuatro colores cruzó el Atlántico: Charles Sanders Peirce dio un seminario sobre la demostración, aunque nunca la escribió.
Tras la muerte de De Morgan en 1871, el problema de los cuatro colores pareció olvidarse; aunque Peirce seguía buscando su demostración, ninguno de los amigos británicos de De Morgan lo mencionaban.
Años más tarde, en junio de 1878, Arthur Cayley hizo la siguiente pregunta en un encuentro de la London Mathematical Society: “Has a solution been given of the statement that in colouring a map of a country, divided into counties, only four colours are required, so that no two adjacent counties should be painted in the same colour”?.
Realmente interesado por el problema, en 1879 publicó una nota corta sobre el tema en los Proceedings of the Royal Geographical Society. Admitía la dificultad del tema: “I have not succeeded in obtaining a general proof: and it is worth while to explain wherein the difficulty consists”.
Entre otros, en esa nota observaba que, a la hora de probar el teorema, podían imponerse condiciones más restrictivas sobre los mapas a colorear, en particular, bastaba con limitarse a mapas cúbicos, es decir, aquellos en los que hay exactamente tres regiones en cada punto de encuentro. En efecto, si en un mapa hay más de tres regiones en alguno de los puntos de encuentro (ver figura 5); sobre este punto puede pegarse un pequeño parche que produce un mapa cúbico. Si se puede colorear este mapa con cuatro colores, también se puede obtener un 4-coloreado del mapa original: basta con colapsar el parche en un punto.

Figura 5 Basta con considerar mapas cúbicos.
Continuará en… El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba.
Referencias:
Marta Macho Stadler, Mapas, colores y números, Descubrir las matemáticas hoy: Sociedad, Ciencia, Tecnología y Matemáticas 2006 (2008) 41-68
Robin Wilson, Four colors suffice: how the map problem was solved, Princeton University Press, 2002.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo El teorema de los cuatro colores (1): una historia que comienza en 1852 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: