Círculos japoneses
El pasado mes de enero de 2017, la revista de cultura, moda y tendencias The Balde, que se publicaba en euskera e inglés, sacó su último número, el 89, tras 15 años en activo. Aunque el trabajo de todos estos años no se ha perdido, puesto que los 89 números de la revista siguen estando accesibles en la red en la siguiente dirección: the Balde .
En la entrada del Cuaderno de Cultura Científica de hoy os traigo precisamente un interesante proyecto artístico que fue publicado en el número 50 de The Balde, en el año 2010.
El artista navarro Txo!? hizo uso de círculos y elipses para crear algunos sencillos y hermosos retratos, que constituían un nuevo ejemplo de cómo crear bellas obras de arte mediante la utilización únicamente de elementos geométricos muy sencillos.
En el texto que acompañaba en la revista The Balde a los retratos, el propio artista Txo!? explicaba el origen de su idea.
“Viajé a Japón y me perdí por sus calles. Hasta que no realicé cuatro o cinco retratos rápidos, no me di cuenta de que las caras de las personas de aquel lugar podían ser descritas mediante círculos. Quizás esto tenía algo que ver con el círculo rojo de su bandera local.”
Nota: Mi más sincero agradecimiento a Txo!? por permitirme traer al Cuaderno de Cultura Científica sus obras publicadas en el número 50 de la revista The Balde.
Bibliografía
1.- Revista The Balde
2.- Página web de BYG
3.- Blog del artista Txo!?
4.- Página web del artista Txo!?
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Círculos japoneses se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Evolución de los sistemas nerviosos: cnidarios y gusanos no segmentados
Aunque puede que ocurriera en más de una ocasión, lo más probable es que las neuronas surgieran solamente una vez, en los cnidarios. Seguramente lo hicieron a partir de células epiteliales capaces de propagar potenciales de acción. Esas células estarían conectadas eléctricamente con otras de la capa superficial, para posteriormente pasar a establecer comunicación química entre ellas. Poríferos, placozoos y mesozoos carecen de sistemas nerviosos.
Los sistemas nerviosos surgen de la disposición de las neuronas en redes difusas o en cordones nerviosos. Se suele asumir que la presencia de redes difusas de neuronas es un rasgo de primitivismo. Sin embargo, es muy probable que se trate de un carácter ligado al tipo de simetría corporal y a las necesidades que impone el modo de vida de cada grupo o linaje. De hecho, en casi todos los grupos hay redes difusas de neuronas en los sistemas periféricos.
Pueden seguirse diferentes aproximaciones al estudiar el sistema nervioso. Cuando se analiza desde un punto de vista puramente anatómico, suele establecerse una distinción entre sistema central y sistema periférico. Y funcionalmente suelen considerarse el subsistema somático y el autónomo. También la dirección que siguen las señales se utiliza como criterio: Desde ese punto de vista se puede considerar un subsistema aferente, que es el que conduce las señales de los sistemas receptores al centro o centros en que se procesa la información; y también un subsistema eferente, que es el que conduce las señales elaboradas en los centros de procesamiento hasta los sistemas efectores encargados de dar respuestas. Pero en todo caso, no debe perderse de vista que se trata de clasificaciones que hacemos los biólogos para poner orden y facilitar el conocimiento de la materia de estudio, no de categorías que, como tales, hayan sido generadas por la naturaleza.
El sistema nervioso de los cnidarios consta de una o varias redes bidimensionales y difusas de neuronas. Y su comportamiento es, lógicamente, muy simple: comprende sobre todo movimientos de natación, defensa y captura de alimento. Algunas formas de comportamiento son rítmicas (natación en medusas, bombeo peristáltico en hidras, enterramiento en anémonas y ritmos de expansión y contracción en anémonas). Esos movimientos rítmicos son debidos a la acción de potenciales marcapasos por parte de células especializadas.
Como iremos viendo, la condensación de tejido nervioso y la posición del encéfalo o de los ganglios encefálicos son el resultado de presiones selectivas asociadas con la simetría bilateral y con modos de vida en los que los ancestros se desplazaban por encima de un sustrato. La cefalización surge en respuesta a la necesidad de disponer de una elevada concentración de estructuras sensoriales en el extremo anterior del cuerpo y al valor de que el encéfalo se encuentre lo más próximo posible a esas estructuras. De esa forma, las señales con información sensorial llegan en el tiempo mínimo posible al centro de procesamiento para, cuanto antes, elaborar la respuesta adecuada. El cordón nervioso longitudinal surge como el modo más eficaz para transmitir señales motoras a lo largo del cuerpo.
Las presiones selectivas que han actuado sobre los animales con simetría radial son muy diferentes. En estos, las estructuras sensoriales se distribuyen en los 360º y a menudo están asociadas con un sistema nervioso central de estructura anular. Ese sistema, que surge por condensación de redes nerviosas, envía señales a las estructuras efectoras mediante nervios radiales. Sistemas de este tipo se hallan en algunos cnidarios y en equinodermos.
Los platelmintos, los pseudocelomados y los filos menores de celomados representan la transición entre la organización del tipo red nerviosa al sistema nervioso central más desarrollado de los invertebrados superiores y vertebrados. Estos, como ya se ha dicho, presentan un elevado grado de cefalización y concentración de neuronas en un sistema nervioso central.
Los platelmintos o gusanos planos representan un estado intermedio en la transición. Poseen un encéfalo claramente definido y un par de troncos nerviosos que se extienden a lo largo del cuerpo. También poseen una red nerviosa distribuida por la superficie corporal. El encéfalo es el órgano que “toma decisiones” y la red nerviosa ejerce control local, incluyendo arcos reflejos, sobre los músculos. Así, aunque el control de la alimentación corresponde al encéfalo, ésta puede mantenerse, mediante reflejos, en su ausencia.
Por su parte, los nemátodos disponen de una red nerviosa periférica y la concentración de neuronas se produce en un cordón central sin ganglios. Un anillo en el extremo anterior puede ejercer las funciones del encéfalo. Acciones como deposición de huevos y defecación pueden realizarse sin el extremo corporal anterior.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Evolución de los sistemas nerviosos: cnidarios y gusanos no segmentados se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Potencia y eficiencia de una máquina
Lo útil que puede ser una máquina para una tarea concreta viene dado por el ritmo al que puede proporcionar energía. La velocidad a la que una máquina proporciona energía es a lo que llamamos potencia. Por definición, la potencia (P) es la cantidad de energía (E) proporcionada por unidad de tiempo (t), es decir, P = E/t
Existen varias unidades de potencia con definiciones basadas en la tradición. Entre ellas están los caballos de potencia, como cuando decimos que un coche tiene 300 CV, donde “CV” significa caballo de vapor. Antes de la máquina de vapor la fuente de potencia habitual era el trabajo de los caballos. Watt, con objeto de evaluar sus máquinas en una unidad que la gente de la época pudiese entender, midió la potencia de un caballo. Sus resultados mostraban que un caballo sano y fuerte, trabajando continuamente, podía levantar un objeto de 75 kg de masa, que pesa alrededor de 750 newtons, a una velocidad del orden de 1 m/s (ni que decir tiene que Watt empleó libras y pies y que nosotros usamos sus equivalentes en el Sistema Internacional). Aunque conserva el nombre, la unidad actual “caballo de potencia” tiene un valor dado por definición y no por un experimento.
En el Sistema Internacional la unidad de potencia se llama, como no podía ser de otra manera, watt, españolizada como vatio, de símbolo W. Un vatio se define como un julio de energía por segundo o, en símbolos, 1 W = 1 J/s. Así pues, el caballo de Watt tenía una potencia de 750 W, ya que desarrollaba un trabajo (energía) de 750 N · 1m/s y 1 J = 1 N·m. Según Watt, por tanto, 1 caballo de vapor eran unos 750 W.
Pero la potencia por sí misma no nos dice si el empleo de una máquina en concreto tiene sentido económico. Efectivamente, sabemos que la cantidad de energía mecánica que se corresponde a una unidad de energía térmica es el “equivalente mecánico del calor”. El hallazgo por parte de Joule de un valor para este equivalente mecánico del calor hizo posible definir las máquinas de una forma completamente nueva usando el concepto de eficiencia.
Este concepto de eficiencia puede aplicarse a una máquina o a cualquier dispositivo que transforma energía de una forma a otra como, por ejemplo, de energía térmica en energía mecánica. La eficiencia se define como la razón de la energía útil que proporciona la máquina o dispositivo, a la que llamaremos energía de salida Es, y la energía que hemos “introducido” en la máquina, Ei. Usando símbolos y empleando ef para eficiencia, podemos escribir: ef = Es / Ei. Algunas veces es cómodo expresar la eficiencia en porcentaje, por lo que en esos casos ef (%) = (Es / Ei) ·100.
Como la energía no puede destruirse, la máxima eficiencia de una máquina sería 100 %, lo que significa que toda la energía introducida a parece transformada en energía útil de salida. La eficiencia es tan importante como la potencia en el diseño de máquinas y dispositivos y, algunas veces más. Después de todo la energía que se introduce, ya sea en forma de combustible o de energía eléctrica, es una parte muy importante en el costo de operación, y cuanto más eficiencia más barato es de operar y, todo lo demás igual, menos contamina.
La máquina de Watt era más eficiente que la de Newcomen que, a su vez, era más eficiente que la de Savery. Pero, ¿existe algún límite a las mejoras en la eficiencia? El límite superior del 100 % viene impuesto por la ley de la conservación de la energía; es decir, ninguna máquina puede producir más energía mecánica de la que se le introduce en cualquiera de las formas posibles. Con todo, incluso antes de que se formulase expresamente la ley de conservación de la energía, un joven ingeniero francés, Sadi Carnot, estableció que en la práctica el límite superior de eficiencia es mucho menor. Las razones para la existencia de este límite son tan fundamentales como la propia ley de la conservación de la energía.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Potencia y eficiencia de una máquina se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¿Nacidos para creer?
¿Cuál es el origen de las creencias religiosas? ¿Cuál su razón de ser? ¿El tener creencias religiosas es inherente a nuestro “cableado” cerebral? ¿Las llevamos de serie? ¿Qué función cumplen?
A esas preguntas se les viene dando dos respuestas netamente diferenciadas aunque, a decir de algunos de sus defensores, no necesariamente contrapuestas. Unos sostienen que los seres humanos estamos predispuestos a creer en entes sobrenaturales, en la existencia de un propósito y un diseño para todo lo existente y en una (o varias) divinidad(es). Esta tesis se sustenta en los resultados de distintos estudios y, muy en especial, en los realizados con niños de muy corta edad, niños que muestran, en sus respuestas a determinados estímulos y cuestionarios, que están equipados con una especie de “lote” mental con esos componentes. Parece que la existencia de ese “lote” está muy relacionada con un sentido sobredesarrollado de las relaciones causa-efecto. El que confiesen una u otra religión, o incluso ninguna, sería consecuencia posterior del entorno formativo y religioso en que se educan. Según quienes promueven esta tesis, las creencias religiosas serían un subproducto del modo en que funciona nuestro cerebro. Esto es, sostienen que el fenómeno es similar a lo que ocurre con los sesgos cognitivos que dan lugar a otro tipo de creencias. Así pues, algunas de las capacidades cognitivas que nos han convertido en una especie tan exitosa, actuarían conjuntamente para crear una tendencia al pensamiento sobrenatural.
La otra postura sostiene que las creencias religiosas, las religiones, existen porque han ayudado a las colectividades humanas a perpetuarse en el tiempo. Esto es, existen porque han tenido valor adaptativo. Y eso puede ocurrir, por ejemplo, porque el sistema de valores compartido en que consiste una religión ayuda a que el grupo se encuentre más cohesionado y esto facilita su perdurabilidad y éxito a largo plazo. Algunos defensores de esta segunda idea consideran los sistemas de creencias como elementos culturales que se transmiten horizontal (entre los miembros de una misma generación) como verticalmente (de una generación a la siguiente dentro de una misma sociedad).
Como he apuntado al comienzo, las dos posturas no son necesariamente contrapuestas. Quienes así opinan sostienen que hay que distinguir la causa inmediata, esto es, el hecho de que haya una base neurológica (hard-wired) para las creencias religiosas (aunque sean éstas un subproducto de otros rasgos cognitivos), de la causa última, la relacionada con su valor adaptativo. Dicho de otra forma, las religiones surgirían por una razón, pero tienen éxito, perduran y se extienden por otra. David S. Wilson, Robin Dunbar y Richard Dawkins, por ejemplo, opinan que ambos puntos de vista son perfectamente compatibles.
Y claro está, una cosa es por qué la gente cree o no en un dios, y otra muy distinta es si esa creencia es verdadera o falsa. Son dos asuntos, aunque pueda no parecerlo, independientes.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo ¿Nacidos para creer? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Algoritmos de triaje para readmitidos en urgencias
Los hospitales y demás centros dedicados a la salud almacenan multitud de bases de datos con todos los registros de múltiples variables fisiológicas de los pacientes que atienden. El procesamiento y análisis de estos datos puede permitir al personal sanitario anticiparse y detectar aquellos pacientes que presentan mayor riesgo de tener una evolución desfavorable. Asier Garmendia, investigador del GIC (Grupo de Inteligencia Computacional) de la UPV/EHU ha desarrollado un sistema basado en inteligencia computacional para este fin.
En su estudio, y posterior desarrollo de los algoritmos necesarios para el sistema, utilizó dos bases de datos procedentes un hospital universitario de Santiago de Chile. Una de las bases de datos elegidas para este estudio corresponde a pacientes pediátricos que han sido ingresados alguna vez en las unidades de cuidados intensivos por problemas respiratorios, y la otra a pacientes que habiendo acudido a los servicios de urgencias son dados de alta pero tras varios días han vuelto y entonces han sido ingresados. Estas dos bases de datos coinciden “con dos de los mayores problemas del ámbito de la salud asociados a las grandes ciudades como Santiago de Chile, que son las enfermedades respiratorias originadas por la polución, y la gestión de la atención y cuidado de los pacientes que acuden en busca de atención médica”, comenta Garmendia.
En el primero de los casos, utilizando los registros de las variables que se toman a cada paciente cada cierto tiempo mientras está hospitalizado, el objetivo fue definir el nivel de triaje, que es la variable que clasifica a los pacientes en función de su gravedad, a partir del resto de variables medidas, como temperatura, saturación de oxígeno, frecuencia respiratoria, etc. “Mediante algoritmos de inteligencia computacional, se intenta predecir cuál debería ser el triaje” comenta el investigador”. El último objetivo de este sistema sería “monitorizar de forma automática a los pacientes, y que saltara una alarma cada vez que el triaje empeora”. Este estudio ha desvelado, asimismo, que la variable que mejor predice el nivel de triaje es la frecuencia respiratoria. “Esto resulta curioso, ya que los médicos responden que, en su opinión, la variable que mejor predice dicho triaje es la saturación de oxígeno en sangre”, añade.
En el segundo de los casos, lo que buscaron fue intentar detectar el destino que se les debería dar a los pacientes que acuden al servicio de urgencia, es decir, si darles el alta o ingresarlos. “El problema que existe en este aspecto es que una parte de los pacientes que son dados de alta en la primera consulta vuelven al servicio de urgencias al cabo de una serie de días, y entonces sí, son ingresados. Aproximadamente el 14% de los pacientes pediátricos que vuelven a acudir a la consulta en un intervalo de tiempo entre 3 y 7 días son hospitalizados. En el caso de los pacientes adultos, son 1 de cada 3”, explica Garmendia.
“El contar con un sistema que solucione esta problemática traería consigo una mejor atención a los pacientes, por supuesto, pero además supondría un ahorro económico importante. Por un lado, se gestionaría mejor los recursos de los servicios de salud, y por otro, se evitaría una situación que se da actualmente con los seguros: no se hacen cargo de los gastos derivados de la hospitalización en estos casos, por entender que se trata de una negligencia hospitalaria al haberle dado el alta en la primera consulta”, añade. Los algoritmos desarrollados para este fin dieron como resultado un nivel de precisión del 60 %; es decir, “nuestro sistema fue capaz de detectar la gravedad de seis de cada diez pacientes que en un principio no parecían susceptibles de ser ingresados inmediatamente”.
Los sistemas de predicción desarrollados “pueden ser extensibles y aplicables a cualquier hospital, a cualquier país”, comenta Garmendia. Eso sí, previamente “es necesario seguir trabajando en el diseño del sistema, ampliar el número de datos, y realizar los ajustes necesarios”, concluye.
Referencia:
A. Garmendia, M. Graña, J. M. Lopez-Guede, S. Rios. 2017. Predicting Patient Hospitalization after Emergency Readmission.. Cybernetics and Systems-An International Journal 48, Issue 3: 182-192. DOI: 10.1080/01969722.2016.1276772.
El artículo Algoritmos de triaje para readmitidos en urgencias se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El valor de la curiosidad
Muchos atribuyen a la falta de cultura científica el que haya amplios sectores de la población que no aceptan que el clima esté cambiando y que ese fenómeno tenga su origen en la actividad humana. Creen, en consecuencia, que proporcionando una buena educación científica el cambio climático acabará siendo aceptado como un hecho real. Las cosas, como en tantas ocasiones, no parecen ser tan sencillas.
El psicólogo de la Universidad de Bristol (Reino Unido) Stephan Lewandosky ha observado que la actitud de una persona para con el cambio climático depende más de factores emocionales ligados a la ideología que de elementos racionales. Y Dan Kahan -psicólogo también, pero de la Universidad de Yale (EEUU)- ha comprobado que cuanto mayor es el conocimiento científico de una persona más firme es la postura, sea a favor o sea en contra, que mantiene en esa controversia. De hecho, quienes saben manejar información científica suelen elaborar buenos argumentos a favor de sus ideas, a la vez que ignoran los contrarios. Al parecer, la culpa la tiene el llamado “razonamiento motivado”, fenómeno que está en la base de las paradojas que consisten en ignorar las pruebas que respaldan hechos contrastados, mientras se asumen como tales datos anecdóticos que respaldan la posición que mejor se acomoda a nuestros deseos y visión de la realidad.
El razonamiento motivado surte unos efectos tan poderosos que personas capaces de interpretar correctamente información estadística compleja sobre cuestiones variadas, pierden tal capacidad cuando lo que han de considerar son hechos o datos con implicaciones ideológicas. Si a las consecuencias del razonamiento motivado añadimos la influencia de las redes sociales de internet, por la ausencia de filtros de calidad al flujo de información y por su efecto de caja de resonancia de las ideas con las que más nos identificamos, la receta de la posverdad está servida.
En los ejemplos anteriores me he referido a sesgos característicos de perfiles ideológicos conservadores. Pero quienes se consideran a sí mismos progresistas tampoco están a salvo de los efectos del razonamiento motivado. Muchos lo ponen en práctica, por ejemplo, a la hora de evaluar cuestiones tales como los (supuestos) efectos sobre la salud de las radiaciones electromagnéticas de telefonía móvil o redes wi-fi, o los de las plantas transgénicas y del consumo de alimentos procedentes de esas plantas. Y además de las de carácter político, también hay motivaciones ideológicas con otras bases, por supuesto, como la religiosa.
Es fácil caer en la tentación fatalista y aceptar que es inevitable sufrir las consecuencias del razonamiento motivado y, por lo tanto, que estamos condenados, en un futuro de duración incierta, a convivir con la posverdad. Pero eso sería socialmente suicida, pues solo debates basados en datos contrastados pueden ser verdaderamente democráticos y útiles, condición necesaria para el progreso social. La clave está, quizás, en la formación que se dé a los niños y niñas de hoy y de mañana, una formación que debería servir para hacerlos más conscientes del peligro que entraña una comunicación de masas sin mediaciones, de la influencia de los sesgos, y del efecto de las emociones en nuestra capacidad para aprehender la realidad.
En medio de ese panorama, Dan Kahan también ha observado algo alentador: que las personas con curiosidad científica, sea cual sea su orientación ideológica, tienden a aceptar con facilidad hechos contrastados y, lo que es más importante, están más dispuestas a recurrir a fuentes diversas para informarse. El psicólogo norteamericano cree, por ello, que una clave para superar la posverdad puede radicar, precisamente, en la capacidad para cultivar la curiosidad en las generaciones más jóvenes.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 12 de marzo de 2017.
El artículo El valor de la curiosidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Redescubriendo el primer arte vasco: nuevos hallazgos, nuevas investigaciones
La prospección sistemática desarrollada conjuntamente por arqueólogos y espeleólogos durante la última década ha multiplicado la aparición de arte parietal paleolítico en diferentes puntos del País Vasco. Las cuevas de Atxurra (Berriatua) y Armintxe (Lekeitio), guardan en su interior sendos yacimientos que representan dos grandes ‘santuarios’ del arte rupestre. El reciente hallazgo y estudio de estas muestras ha aportado una nueva visión sobre los primeros indicios de arte creado por el ser humano en el territorio del País Vasco.
El técnico arqueólogo del Museo Arqueológico de Bizkaia, Diego Gárate, explicó la relevancia de estos hallazgos en una charla que tuvo lugar el pasado 20 de diciembre en Azkuna Zentroa (Bilbao), en el marco de ciclo de conferencias Zientziateka que organizan todos los meses la Cátedra de Cultura Científica de la UPV/EHU con el objetivo de divulgar acontecimientos científicos de actualidad.
Redescubriendo el primer arte vasco: nuevos hallazgosEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Redescubriendo el primer arte vasco: nuevos hallazgos, nuevas investigaciones se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Conspiraciones y ciencia defectuosa
¿Existen las conspiraciones? ¡Preguntad por Julio César, por las tabaqueras o por los casos aislados de corrupción en política! Desde que Homo sapiens es Homo sapiens grupos de al menos dos personas han estado reuniéndose para planear actos en secreto —los grupos de uno, también llamados «personas solas», no pueden conspirar etimológicamente hablando: solo pueden tramar, urdir o maquinar—. Bromas de diccionario aparte, la clave está en el secreto.
Es posible que los planes deban mantenerse ocultos porque sean ilegales, inmorales, o porque su encubrimiento les confiere ventajas para obtener algún tipo de ganancia, económica o de poder. Así, descubrir el secreto deviene un elemento fundamental a la hora de desenmascarar una conspiración; demuestra la intención de los confabulados y revela ante el mundo su doblez, intensificada por la colaboración necesaria para obtener sus fines.
La experiencia, los libros de historia e incluso las noticias de todos los días demuestran que las conspiraciones existen. ¿A qué llamamos entonces conspiranoia? Podríamos acordar en llamar con ese compuesto de conspiración y paranoia a la creencia individual en conspiraciones realmente grandes: contubernios que, de ser ciertos y revelarse, harían que nuestra forma de vida o nuestro sistema de creencias cambiaran de forma sustancial.
La religión organizada no es un ejemplo de conspiranoia: lo sería, por ejemplo, creer en alguna trama similar al conocido folletín de Dan Brown, «El código Da Vinci». No importa, por ejemplo, si Jesús de Nazaret existió o no, o si de existir fue hijo de quien se afirma. Los creyentes ya lo son, y no se basan para ello en ninguna evidencia documental, sino en la fe —¡mueve montañas, lectores míos! Sin embargo, la presunta existencia de documentos que demostraran, sin género de dudas, que el tal Jesús fue un salteador de caminos en la Galilea del siglo I y que toda la literatura posterior fue urdida por una camarilla de bromistas, siglo y medio después, en la Grecia latinizada sí constituiría un ejemplo perfecto de conspiranoia.
La mismísima navaja de Ockham —hija nada menos que de la escolástica del siglo XIV— o la famosa máxima de Sagan, de la que el astrónomo y divulgador es responsable de la económica fórmula «afirmaciones extraordinarias requieren de evidencia extraordinaria», aunque puedan trazarse pensamientos con análogo sentido al menos hasta las obras del gran filósofo ilustrado David Hume, han servido siempre para descontar las conspiranoias como posibilidad real. Sin embargo ¿no sería bonito disponer de alguna herramienta analítica para descartar, con ayuda de las matemáticas, las hipótesis de gran conspiración?
Eso mismo debió pensar David R. Grimes, un físico post-doc en la Universidad de Oxford. En 2016, en un estudio publicado en la revista PLOS ONE, se lanzó a la tarea de analizar matemáticamente la sostenibilidad de un modelo razonable de conspiración en función de tres variables fundamentales: su duración en el tiempo como secreto no expuesto, el número de personas involucradas y la probabilidad anual de que un participante «cantara» o sufriera una fuga de información involuntaria. No se conformó con establecer el modelo, sino que también realizó una estimación para cuatro casos de conspiranoia ampliamente conocidos:
- «Los alunizajes del Apolo fueron fingidos en un estudio de cine».
- «El cambio climático es mentira».
- «Las vacunas son peligrosas y la industria farmacéutica calla».
- «Existe una cura para el cáncer y la industria farmacéutica la oculta».
Grimes estimó que el programa Apolo empleó a 411000 personas tan solo en la NASA de los años 60; que hay alrededor de 405000 científicos involucrados en estudios sobre el cambio climático (incluyendo, entre otros, a los empleados actuales de la NASA); que 736000 personas —22000 si tan solo teniendo en cuenta empleados del Centre for Disease Control americano y la Organización Mundial de la Salud— controlan la información relacionada con las vacunas; y, por último, que los empleados de las grandes farmacéuticas (Johnson and Johnson, Pfizer, Sanofi, entre otras) suman un total de 714000 posibles soplones (o traspapeladores de información).
Con una probabilidad anualizada de fallo en la custodia del secreto por una persona estimada a partir de conspiraciones reales y descubiertas de 4,09×10⁻⁶ —es decir, cuatro entre un millón cada año, los resultados cantaron por sí solos:
La probabilidad de fallo en la conspiración L supera el 95% tras 3,68 años en el caso de los alunizajes del Apolo, tras 3,7 años para el cambio climático, tras 3,15 años para los posibles daños causados por las vacunas, y tras 3,17 años para la «supresión» de la cura del cáncer. Los plazos, naturalmente, se incrementan si se consideran subconjuntos de personas involucradas (por ejemplo, tan solo los organismos reguladores en las dos últimas conspiranoias). Una espectacular refutación del concepto de la gran conspiración. A menos que haya algo en el estudio que permita ponerlo todo en tela de juicio. ¿Lo hay?
Pues bien: el artículo original es prácticamente un ejemplo de manual de cómo no preparar un paper. Empezando por la probabilidad de fallo en la custodia del secreto por persona y año: ¿cómo se dedujo? Sería de esperar que el autor hubiera realizado un estudio pormenorizado para diferentes conspiraciones descubiertas, que estimara cuántas personas habrían estado involucradas y su tiempo de vida como secretos y a partir de ahí dedujera un valor para este parámetro tan importante. ¿Lo hizo? No. Tomó un atajo y analizó tres conspiraciones:
- El programa PRISM de vigilancia secreta de la Agencia de Seguridad Nacional (NSA) americana, desvelado por Edward Snowden en 2013.
- El experimento Tuskegee llevado a cabo por el Departamento de Salud Pública americano, que analizó la incidencia de la sífilis sobre la población afroamericana del estado de Alabama, y que negó el tratamiento conocido —penicilina— a cientos de personas infectadas desde finales de los años 40 hasta su revelación definitiva en 1972.
- El escándalo que afectó al laboratorio forense del FBI en 1998, en el que se descubrieron fallos graves en los protocolos de análisis que afectaron al resultado de juicios de más de 10000 personas, algunas de las cuales fueron condenadas a muerte con pruebas obtenidas de forma errónea.
No es necesario que nos detengamos demasiado en los riesgos de inferir valores para cualquier parámetro experimental basados en tres medidas, pero en este caso las medidas están, además, mal seleccionadas y tomadas sin cuidado, con incógnitas de gran magnitud que podrían afectar considerablemente al valor de la probabilidad de fallo en el secreto —hacia arriba o hacia abajo. Veamos: ¿cuántas personas estuvieron involucradas en cada caso? Para el caso de la NSA ofrece un número de 30000, lo que implica que la totalidad de los empleados de la agencia estarían potencialmente implicados en ese proyecto concreto. Todos los ejemplos llevan el sello de denominación de origen estadounidense, lo que podría minar la posible validez global de los resultados.
No solo eso; además, dos de ellos implican a agencias de seguridad, donde puede asumirse que el coste personal asociado a una revelación de secretos será particularmente alto. Los tres ejemplos implican a un número potencial de personas muy alto. Y por último: ¿dónde están los ejemplos de conspiraciones pequeñas?
Sin embargo, este fallo grave en la recogida de datos no es el único del artículo. El modelo matemático considera, para conspiraciones de suficiente duración, una tasa de desaparición de los conspiradores —entendamos que por fallecimiento, aunque nadie nos podría echar en cara que inventáramos explicaciones más creativas. Pues bien: echad un vistazo al siguiente gráfico de probabilidad acumulada de fallo en la conspiración (la misma variable L de los gráficos anteriores, solo que estimada para una conspiración sintética cuyas condiciones de contorno no vienen ahora al caso):
Como podéis observar, hay modelos en los que la probabilidad acumulada de fallo en la conspiración disminuye con el tiempo. Pero esto es equivalente a suponer que ¡la conspiración puede volver a ser secreta una vez revelada! La intuición más elemental afirma que a cualquier conspiración que llegue a ser conocida por el público debería aplicársele la máxima expresada al final del primer segmento del episodio 18 de la tercera temporada de Futurama, «Historias de Interés II»:
You watched it, you can’t unwatch it! (¡Lo habéis visto, no podéis des-verlo!)
Se supone que PLOS ONE es una publicación respetable y revisada por pares y no una revista de «estudios culturales posmodernos» como la que se tragó el cebo de Alan Sokal en 1996. Es legítimo preguntarse: ¿quién se durmió aquí al timón? ¿Ocurren casos así con la frecuencia suficiente como para preocuparse por la calidad de lo que llamamos «ciencia»? ¿Forma acaso todo esto parte de una conspiración?
Salvo la última pregunta, que claramente es una broma (sí, en serio), las otras dos son perfectamente pertinentes. La consecuencia es que si uno busca información acerca de la investigación de Grimes no es difícil encontrarse con la aseveración de que está desacreditada (debunked, en inglés). Lo cierto es que, solventados los errores matemáticos de planteamiento del modelo —cosa que hizo el autor en una corrección publicada en PLOS ONE poco después—, las conclusiones finales pueden seguir siendo consideradas válidas. Haría falta un trabajo más exhaustivo en lo referente a la estimación de la probabilidad de revelación de información por persona y año, pero la popularidad del chismorreo entre nuestra especie hace sospechar que quizá valores de una entre un millón sean excesivamente optimistas de cara a planear una conspiración de largo alcance. Porque las conspiraciones existen, las conspiraciones particularmente grandes son también extremadamente inviables, y la ciencia, con todos sus defectos, termina corrigiéndose para ofrecernos una —condicional, mejorable, pero sólida— última palabra.
Este post ha sido realizado por Iván Rivera (@Brucknerite) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU
Bibliografía y más información:
Grimes, D. R. (2016). On the Viability of Conspiratorial Beliefs. PLOS ONE, 11(1). doi:10.1371/journal.pone.0147905
Grimes, D. R. (2016). Correction: On the Viability of Conspiratorial Beliefs. PLOS ONE, 11(3). doi:10.1371/journal.pone.0151003
Robbins, M. (2016). The maths of the paper disproving conspiracy theories don’t add up. Visitado el 22/05/2017 en http://littleatoms.com/david-grimes-conspiracy-theory-maths
Sokal, A. D. (06/1996). A Physicist Experiments With Cultural Studies. Visitado el 22/05/2017 en http://www.physics.nyu.edu/faculty/sokal/lingua_franca_v4/lingua_franca_v4.html
Tuskegee Syphilis Study Legacy Committee. (05/1996). Final Report of the Tuskegee Syphilis Study Legacy Committee. Visitado el 22/05/2017 en http://exhibits.hsl.virginia.edu/badblood/report/
USDOJ/OIG (04/1997). The FBI Laboratory: An Investigation into Laboratory Practices and Alleged Misconduct in Explosives-Related and Other Cases. Visitado el 22/05/2017 en https://oig.justice.gov/special/9704a/
El artículo Conspiraciones y ciencia defectuosa se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Lo que los sabelotodos no saben, o la ilusión de competencia
Kate Fehlhaber
Un día, en 1995, un hombre grande y pesado de mediana edad robó dos bancos de Pittsburgh a plena luz del día. No llevaba máscara ni ningún tipo de disfraz. Y sonrió a las cámaras de vigilancia antes de salir de cada banco. Esa misma noche, la policía arrestaba a un sorprendido McArthur Wheeler. Cuando le mostraron las cintas de vigilancia, Wheeler las miró fijamente sin creer lo que veía. “Pero yo llevaba el zumo”. Al parecer, Wheeler había pensado que frotarse la piel con zumo de limón lo haría invisible a las cámaras de vídeo. Después de todo, el zumo de limón se utiliza como tinta invisible, por lo que, siempre y cuando no se acercara a una fuente de calor, debería haber sido completamente invisible.
La policía llegó a la conclusión de que Wheeler no estaba loco ni drogado, simplemente increíblemente equivocado.
La historia llamó la atención del psicólogo David Dunning de la Universidad de Cornell, quien reclutó a su estudiante de posgrado, Justin Kruger, para ver qué estaba pasando. Razonaron que, si bien casi todo el mundo tiene opiniones favorables de sus habilidades en diversos dominios sociales e intelectuales, algunas personas evalúan erróneamente sus habilidades como mucho más altas de lo que realmente son. Esta “ilusión de confianza” se denomina ahora “efecto Dunning-Kruger” y describe el sesgo cognitivo que infla la autoevaluación.
Para investigar este fenómeno en el laboratorio, Dunning y Kruger diseñaron algunos experimentos muy ingeniosos. En un estudio, hicieron una serie de preguntas sobre gramática, lógica y chistes a estudiantes universitarios, y luego pidieron a cada estudiante que estimara su puntuación general, así como su posición relativa con respecto a los otros estudiantes. Curiosamente, los estudiantes que obtuvieron la puntuación más baja en estas tareas cognitivas siempre sobreestimaron lo bien que lo habían hecho – por mucho. ¡Los estudiantes que obtuvieron puntuaciones en el cuartil inferior estimaron que lo habían hecho mejor que dos tercios de los otros estudiantes!
Esta “ilusión de confianza” se extiende más allá del aula y permea la vida cotidiana. En un estudio de seguimiento, Dunning y Kruger salieron del laboratorio y fueron a un campo de tiro, donde interrogaron a los aficionados sobre la seguridad de las armas. Al igual que en sus resultados anteriores, aquellos que respondieron correctamente a la menor cantidad de preguntas sobreestimaron mucho su conocimiento sobre las armas de fuego. Aparte del conocimiento basado en datos objetivos, sin embargo, el efecto Dunning-Kruger también se puede observar en la autoevaluación que hacen las personas de otras muchas habilidades personales. Si sigues algún programa de talentos en televisión, verás la sorpresa en los rostros de los concursantes que no pasan las audiciones y son rechazados por los jueces. Aunque es casi cómico para nosotros, estas personas son realmente inconscientes de cuánto han sido engañados por su ilusión de superioridad.
Sin duda, es típico que la gente sobreestime sus habilidades. Un estudio encontró que el 80 por ciento de los conductores se clasifican como por encima del promedio – una imposibilidad estadística. Y tendencias similares se han encontrado cuando las personas valoran su popularidad relativa y sus habilidades cognitivas. El problema es que cuando las personas son incompetentes, no sólo llegan a conclusiones equivocadas y toman decisiones desafortunadas, sino que también carecen de la capacidad de darse cuenta de sus errores. En un estudio semestral de estudiantes universitarios, los estudiantes buenos podían predecir mejor su desempeño en los exámenes futuros si se les daba retroalimentación sobre sus calificaciones y percentil relativo. Sin embargo, los peores no mostraron ninguna muestra de reconocimiento, a pesar de comentarios claros y repetidos, de que lo estaban haciendo mal. En lugar de estar confundidos, perplejos o reflexivos por sus errores, la gente incompetente insiste en que su forma de hacer las cosas es la correcta. Como Charles Darwin escribió en The Descent of Man (1871): “La ignorancia más frecuentemente genera confianza de lo que lo hace el conocimiento”.
Curiosamente, las personas realmente inteligentes también fallan a la hora de autoevaluar con precisión sus habilidades. Tanto como los peores estudiantes sobreestiman sus habilidades, los mejores subestiman las suyas. En su estudio clásico, Dunning y Kruger encontraron que los estudiantes de alto rendimiento, cuyas puntuaciones cognitivas estaban en el cuartil superior, subestimaron su competencia relativa. Estos estudiantes suponían que si estas tareas cognitivas eran fáciles para ellos, entonces debían ser tan fáciles o incluso más fáciles para todos los demás. Este denominado «síndrome del impostor» puede asimilarse al efecto inverso del efecto Dunning-Kruger, en el que las personas sobresalientes no reconocen sus talentos y piensan que los demás son igualmente competentes. La diferencia es que las personas competentes pueden y ajustan su autoevaluación dada la retroalimentación apropiada, mientras que las personas incompetentes no pueden.
Y ahí está la clave para no terminar como el tonto ladrón de bancos. A veces probamos cosas que conducen a resultados favorables, pero otras veces, como la idea del zumo de limón, nuestros enfoques son imperfectos, irracionales, ineptos o sencillamente estúpidos. El truco es no dejarnos engañar por ilusiones de superioridad y aprender a reevaluar con precisión nuestra competencia. Después de todo, como se supone que decía Confucio, el verdadero conocimiento es conocer el alcance de la propia ignorancia.
Sobre la autora: Kate Fehlhaber es editora jefe de Knowing Neurons y se está doctorando en neurociencia en la Universidad de California, Los Angeles.
Texto traducido y adaptado por César Tomé López a partir del original publicado por Aeon el 17 de mayo de 2017 bajo una licencia Creative Commons (CC BY-ND 4.0)
El artículo Lo que los sabelotodos no saben, o la ilusión de competencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La ciencia contra lo obvio
Escribir, dice un viejo proverbio literario, es duro porque hay que matar a todas tus amantes. No en el sentido literal, sino en el figurado: la mayor parte de las veces para que la trama fluya o para que el personaje encaje hay que eliminar justo aquellas partes de la escritura de las que uno se había enamorado. Las descripciones románticas y detalladas, los giros de la historia vital apasionantes, las disquisiciones filosóficas: todo eso que al escribir tanto nos gustó es lo que hay que quitar para que la novela tenga sentido, para que el libro funcione. La única forma de escribir algo que merezca la pena es matar a todas tus amantes. Y cuando en ciencia ocurre lo mismo.
No estimamos lo bastante hasta qué punto practicar ciencia consiste en demoler de forma sistemática y deliberada lo que parece obvio o evidente. Porque lejos de la idea ingenua de que la ciencia consiste en observar con nuestros propios ojos y escuchar con nuestros propios oídos para sacar nuestras propias conclusiones la verdad es que buena parte de la ciencia consiste en matar a todas nuestras amantes.
Tenemos que matar las impresiones falsas de nuestros sentidos y nuestro cerebro, que nos dan información parcial, sesgada e insuficiente del mundo real. Si tan sólo confiásemos en lo que vemos, olemos, gustamos y oímos una enorme parte del universo quedaría fuera de nuestro conocimiento para siempre. Por supuesto desconoceríamos todo aquello que no estamos equipados para detectar, pero también extraeríamos muchas conclusiones engañosas a partir de datos insuficientes mal interpretados por nuestro cerebro. Porque casi siempre lo que vemos y percibimos, lo que entendemos e integramos a partir de nuestros sentidos resulta ser insuficiente, cuando no falso. Para avanzar la ciencia tiene que matar lo obvio, lo directo, la realidad tal y como es a nuestros ojos.
Es obvio que la Tierra es plana, cuando miramos al horizonte; es obvio que los objetos más pesados caen más rápido, y que de la carne en descomposición surgen espontáneamente gusanos. Es obvio que las especies han sido siempre como son hoy y que la única forma de explicar el rayo y el trueno es que alguien muy poderoso está muy enfadado por encima de las nubes. Es obvio que las rocas no cambian de lugar y que los continentes están inmóviles, como es obvio que el observador, si es cuidadoso, puede mirar sin interferir con lo observado. Es obvio que el sol gira alrededor de la Tierra, como la Luna, y por tanto que somos el centro del universo.
Y como no nos gusta casi pensar que somos el centro del universo…
En ciencia matar a tus amantes significa saltarte las obviedades y mirar un poco más allá. Más lejos de donde llegan sus sentidos, pero también más lejos de lo que llega tu imaginación. Hay que perseguir lo obvio, poner en duda siempre lo que parece evidente, porque una buena parte del conocimiento del cosmos se esconde detrás de la primera (y obvia) impresión. Y por supuesto siempre hay que luchar por no enamorarse de las propias ideas hasta el punto de considerarlas sagradas, que es el camino hacia la fosilización del intelecto. Por eso de todas las amantes peligrosas nuestras propias teorías son las peores, y las que antes y con más razón merecen la muerte. Obviamente.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo La ciencia contra lo obvio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Encontrando exoplanetas tapando las estrellas
Un exoplaneta o planeta extrasolar es un planeta que está fuera de nuestro sistema solar. La primera detección confirmada de uno data de 1988, pero ha sido en los últimos años cuando el número de hallazgos confirmados se ha disparado. Los últimos datos oficiales (a cierre de abril) indican que se han encontrado 3.608 planetas en 2.702 sistemas planetarios de los que 610 tienen más de un planeta.
Un número que empieza a ser significativo hace que, por pura probabilidad, empiecen a aparecer planetas con características que los hacen potencialmente habitables, lo que ha acaparado portadas en prensa y que los exoplanetas sean conocidos por el público en general.
Con todo detectar exoplanetas no es precisamente fácil. Y ello se debe, fundamentalmente, a la enorme diferencia de luminosidad entre el planeta y la estrella que orbita, por lo que hay que recurrir a métodos indirectos y renunciar, en muchos casos, a disponer de información de sus atmósferas, por ejemplo, ya que no se pueden “ver”. Pero puede que esto cambie.
Artur Aleksanyan encabeza un grupo de astrónomos de la Universidad de Burdeos (Francia) que a propuesto una mejora a una de las técnicas que se emplean en la búsqueda de exoplanetas, en concreto la coronagrafía, que podría permitir ver directamente los exoplanetas en sistemas con dos o más estrellas, los más habituales en el universo hasta donde sabemos.
Un coronógrafo de vórtice fuerza una trayectoria espiral hacia el exterior a la luz entrante desde una fuente puntual en el espacio, “doblando” la luz a lo largo de una ruta que ya no coincide con la cámara del telescopio. Al hacerlo, bloquea la luz de la fuente, permitiendo que los objetos débiles cercanos a la fuente se vuelvan visibles: los fotones de los objetos pasan a través del dispositivo sin obstáculos. Esos objetos incluyen a los exoplanetas que orbitan a las estrellas. Pero los coronógrafos de vórtice actuales sólo pueden atenuar una fuente a la vez, eso está bien para conseguir imágenes de un planeta que tenga una sola estrella anfitriona, pero no para uno con múltiples estrellas.
El coronógrafo de vórtice propuesto por Aleksanyan y sus colaboradores utiliza defectos reconfigurables en un cristal líquido, que son los que fuerzan las trayectorias en espiral a las fuentes puntuales de luz. Los dispositivos tradicionales usan defectos únicos fijos de varios materiales. Usando rayos láser, se pueden escribir y borrar múltiples defectos del cristal líquido rápidamente y con una precisión extraordinaria. Esto permite que el dispositivo se configure fácilmente para cualquier sistema estelar, independientemente del número de estrellas que incluya.
Como demostración del principio de funcionamiento, los investigadores simularon un sistema de triple estrella en el laboratorio usando tres haces de luz, y dirigieron los haces hacia un dispositivo con tres defectos. Encontraron que el dispositivo atenuaba drásticamente la luz que llegaba a una cámara procedente de estas estrellas artificiales. El dispositivo podría incluir cualquier número de defectos, ampliando significativamente las capacidades de los coronógrafos de vórtice actuales, multiplicando así el número de exoplanetas que podrían descubrirse y, sobre todo, aumentando la calidad de la información sobre ellos.
Referencia:
Artur Aleksanyan, Nina Kravets, and Etienne Brasselet (2017) Multiple-Star System Adaptive Vortex Coronagraphy Using a Liquid Crystal Light Valve Physical Review Letters doi: 10.1103/PhysRevLett.118.203902
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Encontrando exoplanetas tapando las estrellas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El teorema de los cuatro colores (3): Tras más de un siglo de aventura… ¿un ordenador resuelve el problema?
Continuamos con la historia del teorema de los cuatro colores (ver [1] y [2]) cambiando de enfoque: existe una manera dual de abordar este problema, sustituyendo los mapas por grafos. ¿Cómo? Se marca la capital de cada país en el mapa, se unen las capitales de países contiguos y se obtiene el grafo dual del mapa. Colorear el mapa equivale a pintar las capitales (vértices del grafo), asignando distintos tonos a dos capitales unidas por una trayectoria (arista).
Puede demostrarse que los grafos duales de mapas son siempre planares, es decir, se puede dibujar en el plano una representación concreta del grafo, en la cual las aristas no se cortan excepto en un eventual vértice común (imagen 2).
Además, se puede probar que:
-
un mapa es cúbico (ver [1]) si y sólo si su grafo dual es triangular (grafo planar en el que cada cara tiene exactamente tres aristas),
-
el número de regiones colindantes coincide con el grado de cada vértice (número de aristas incidentes), y
-
los grafos duales heredan la fórmula de Euler:
Núm(vértices) – Núm(aristas) + Núm(caras) = 2
Imaginemos por un momento que el teorema fuera falso, es decir, que existen mapas (grafos) que no pueden 4-colorearse. Entre estos mapas (grafos) que necesitan cinco colores o más, debe de haber alguno con el menor número posible de regiones: es un minimal criminal. Así, un minimal criminal no puede 4-colorearse, pero un mapa (grafo) con menos regiones (vértices) sí.
Probar el teorema de los cuatro colores equivale a demostrar que no existen minimales criminales. De hecho, lo que Kempe demostró con su método de cadenas es que un minimal criminal no puede contener digones, triángulos o cuadrados (ver [2], figura 3), y cometió un error al intentar probar que tampoco puede contener pentágonos. Si hubiese conseguido esto último, habría quedado demostrado el teorema.
Los siguientes conceptos sobre grafos son fundamentales en la demostración del teorema:
-
una configuración es un ciclo con vértices internos triangulados;
-
un conjunto inevitable K es una familia finita de configuraciones tal que todo grafo contiene una copia conforme de una de K;
-
k es una configuración reducible, si se puede deducir el coloreado de cualquier grafo que contenga a k, a partir de un grafo menor.
La demostración del teorema de los cuatro colores copia la prueba de Kempe, pero para la inducción, en vez de eliminar un único vértice, se recorta una configuración.
El plan de la prueba consiste en encontrar conjuntos inevitables K; si K estuviese formado sólo por configuraciones reducibles, la demostración del teorema de los cuatro colores estaría terminada, ya que en tal caso no podría existir un minimal criminal.
En 1969, Heinrich Heesch sistematiza la prueba de la reducibilidad, desarrollando un algoritmo que intenta implementar en un ordenador. Realiza diversas pruebas en una máquina CDC1604A y entra en contacto con su alumno Wolfgang Haken (en EE. UU.), comentándole que la demostración necesita estudiar solamente 8.900 configuraciones.
A través de su algoritmo de descarga propone un método de construcción de conjuntos inevitables: Heesch considera el grafo como una red eléctrica; asociando a cada vértice una carga inicial de 6-d(v) (d(v) es el grado del vértice v).Usando la fórmula de Euler, demuestra que la suma de las cargas en un grafo triangulado es 12.
Desplazando las cargas eléctricas sobre la red (con su algoritmo de descarga), la suma total no varía: los vértices cargados positivamente pueden ceder cargas, los cargados negativamente pueden recibir y los de carga nula no intercambian. Con este sistema, su objetivo es eliminar de esta red eléctrica los vértices de carga negativa, obteniendo un conjunto de configuraciones con vértices de cargas positivas o nulas. Y como todo grafo triangulado es de carga total 12, debe contener al menos una de las configuraciones (cuya geometría dependerá del proceso de descarga elegido) del anterior conjunto, que forma entonces un conjunto inevitable.
Una vez obtenida la extensa lista de configuraciones inevitables, probando su reducibilidad, se tendría una prueba inductiva del teorema.
En 1976, Ken Appel y Wolfgang Haken dan una prueba cuyos principales ingredientes son precisamente los conceptos de reducibilidad y descarga.
La primera prueba de Appel, Haken y John A. Koch usa un algoritmo de descarga muy sofisticado, que produce una lista de 1.936 configuraciones inevitables, cada una de las cuales se demuestra reducible con la ayuda de un ordenador. Modificando consecutivamente el algoritmo de descarga, encuentran otro (con 300 reglas de descarga) produciendo 1.482 configuraciones inevitables, comprobando su reducibilidad mediante un ordenador programado por Koch: necesita 1.200 horas de cálculo en unIBM 360. Appel y Haken completan la demostración en 1976, tras seis años de duro trabajo: más de 100 páginas impresas, 400 microfilms con dibujos y la verificación de varios miles de casos particulares.
Todo este trabajo precisaba (en 1976) más de cincuenta días de trabajo en los tres ordenadores de la Universidad de Illinois, con un programa de varios miles de líneas… es decir, nadie podía comprobar la veracidad o falsedad del teorema a mano.
La hazaña de estos investigadores mereció un triunfal matasellos en 1977:
Appel y Haken reconocieron el papel fundamental de Kempe: Kempe’s argument was extremely clever, and although his “proof” turned out not to be complete, it contained most of the basic ideas that eventually led to the correct proof one century later.
Muchos matemáticos aceptan esta prueba como irrefutable, pero muchos otros argumentan que no se trata de una demostración matemática: la máquina había verificado que una enorme cantidad de mapas podían colorearse usando como mucho cuatro colores, pero, ¿y si existía un mapa que el ordenador no hubiese contemplado?
En 1996, un grupo de investigadores del Instituto de Tecnología de Georgia publicael artículo [6] en el que:
-
reducen las complicaciones, probando que la inevitabilidad de un conjunto reducible puede demostrarse con menos ejemplos que en la prueba de Appel y Haken;
-
su conjunto inevitable es solo de tamaño 633;
-
usan únicamente32 reglas de descarga;
-
la comprobación a mano de la inevitabilidad se reemplaza por una prueba formal verificable con un ordenador;
-
la verificación necesita únicamente tres horas en cualquier ordenador doméstico.
Posteriores investigaciones han ido confirmando cada una de las etapas de esta última prueba utilizando diferentes programas y métodos. Pero…El teorema de los cuatro colores (y 4): ¿Podemos creer la prueba de la conjetura?
Referencias
[1] Marta Macho Stadler, El teorema de los cuatro colores (1): una historia que comienza en 1852, Cuaderno de Cultura Científica, 26 abril 2017
[1] Marta Macho Stadler, El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba, Cuaderno de Cultura Científica, 10 mayo 2017
[3] Marta Macho Stadler, Mapas, colores y números, Descubrir las matemáticas hoy: Sociedad, Ciencia, Tecnología y Matemáticas 2006 (2008) 41-68
[4]K. Appel, W. Haken, Every planar map is four colourable, Part I: discharging, Illinois Journal of Mathematics 21, 429-490, 1977.
[5]K. Appel, W. Haken, J. Koch, Every planar map is four colourable, Part II: reducibility, Illinois Journal of Mathematics 21, 491-567, 1977.
[6]N. Robertson, D.P. Sanders, P. Seymour, R. Thomas, A new proof of the four-colour theorem, Electronic Announcements of the AMS 2, 17-25, 1996.
[7]R.J. Wilson, Four colors suffice: how the map problem was solved, Princeton University Press, 2002.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
Esta entrada participa en la Edición 8.4 “Matemáticas de todos y para todos” del Carnaval de Matemáticas cuyo anfitrión es, en esta ocasión, matematicascercanas.
El artículo El teorema de los cuatro colores (3): Tras más de un siglo de aventura… ¿un ordenador resuelve el problema? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El valor de la curiosidad
Muchos atribuyen a la falta de cultura científica el que haya amplios sectores de la población que no aceptan que el clima esté cambiando y que ese fenómeno tenga su origen en la actividad humana. Creen, en consecuencia, que proporcionando una buena educación científica el cambio climático acabará siendo aceptado como un hecho real. Las cosas, como en tantas ocasiones, no parecen ser tan sencillas.
El psicólogo de la Universidad de Bristol (Reino Unido) Stephan Lewandosky ha observado que la actitud de una persona para con el cambio climático depende más de factores emocionales ligados a la ideología que de elementos racionales. Y Dan Kahan -psicólogo también, pero de la Universidad de Yale (EEUU)- ha comprobado que cuanto mayor es el conocimiento científico de una persona más firme es la postura, sea a favor o sea en contra, que mantiene en esa controversia. De hecho, quienes saben manejar información científica suelen elaborar buenos argumentos a favor de sus ideas, a la vez que ignoran los contrarios. Al parecer, la culpa la tiene el llamado “razonamiento motivado”, fenómeno que está en la base de las paradojas que consisten en ignorar las pruebas que respaldan hechos contrastados, mientras se asumen como tales datos anecdóticos que respaldan la posición que mejor se acomoda a nuestros deseos y visión de la realidad.
El razonamiento motivado surte unos efectos tan poderosos que personas capaces de interpretar correctamente información estadística compleja sobre cuestiones variadas, pierden tal capacidad cuando lo que han de considerar son hechos o datos con implicaciones ideológicas. Si a las consecuencias del razonamiento motivado añadimos la influencia de las redes sociales de internet, por la ausencia de filtros de calidad al flujo de información y por su efecto de caja de resonancia de las ideas con las que más nos identificamos, la receta de la posverdad está servida.
En los ejemplos anteriores me he referido a sesgos característicos de perfiles ideológicos conservadores. Pero quienes se consideran a sí mismos progresistas tampoco están a salvo de los efectos del razonamiento motivado. Muchos lo ponen en práctica, por ejemplo, a la hora de evaluar cuestiones tales como los (supuestos) efectos sobre la salud de las radiaciones electromagnéticas de telefonía móvil o redes wi-fi, o los de las plantas transgénicas y del consumo de alimentos procedentes de esas plantas. Y además de las de carácter político, también hay motivaciones ideológicas con otras bases, por supuesto, como la religiosa.
Es fácil caer en la tentación fatalista y aceptar que es inevitable sufrir las consecuencias del razonamiento motivado y, por lo tanto, que estamos condenados, en un futuro de duración incierta, a convivir con la posverdad. Pero eso sería socialmente suicida, pues solo debates basados en datos contrastados pueden ser verdaderamente democráticos y útiles, condición necesaria para el progreso social. La clave está, quizás, en la formación que se dé a los niños y niñas de hoy y de mañana, una formación que debería servir para hacerlos más conscientes del peligro que entraña una comunicación de masas sin mediaciones, de la influencia de los sesgos, y del efecto de las emociones en nuestra capacidad para aprehender la realidad.
En medio de ese panorama, Dan Kahan también ha observado algo alentador: que las personas con curiosidad científica, sea cual sea su orientación ideológica, tienden a aceptar con facilidad hechos contrastados y, lo que es más importante, están más dispuestas a recurrir a fuentes diversas para informarse. El psicólogo norteamericano cree, por ello, que una clave para superar la posverdad puede radicar, precisamente, en la capacidad para cultivar la curiosidad en las generaciones más jóvenes.
El artículo El valor de la curiosidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El balance energético
La aptitud de biológica de un animal depende, en última instancia, de su capacidad para dejar tras de sí nuevos individuos cuyo genoma sea, en parte, copia del propio. Esa capacidad depende, en una primera aproximación, de la cantidad de recursos que es capaz de adquirir y destinar a la línea germinal, pues esa es la línea que da lugar a la gestación de nuevos individuos.
La forma más sencilla de abordar esta cuestión de forma analítica es recurrir al balance energético que resulta de la ingestión del alimento, su posterior aprovechamiento y la utilización de la fracción que ha podido aprovecharse para proveer la energía que necesitan las actividades que cada animal ha de desarrollar. No quiere decirse que la energía sea el único término a tener en cuenta si se quiere valorar con rigor el uso de los recursos que requiere y ha de conseguir un animal. Casi todos los elementos que necesita están sometidos a procesos de adquisición y de pérdida, como el nitrógeno, por ejemplo, o los nutrientes minerales, vitaminas, y demás; y con cada uno de ellos podría elaborarse un balance. Es más, un animal puede tener excedentes de carbono o de energía, pero ser deficitario en nitrógeno, o en calcio, por ejemplo. Sin embargo, la energía constituye el limitante principal de la mayoría de animales para generar nueva biomasa. Y esa es la razón por la que aquí recurrimos a ese término, sin olvidar que otros pueden acabar resultando tan o más limitantes que aquella.
Todos los animales han de alimentarse para conseguir los recursos que necesitan. Se incluyen en ese capítulo energía y componentes estructurales. Se alimentan consumiendo alimento. La ingestión o consumo (C) es el término que representa esa función. El alimento ha de ser digerido (fragmentación mecánica y química mediante el concurso de enzimas específicos) para que sus componentes básicos se puedan absorber. Como consecuencia de esos procesos, una parte de lo ingerido (C) es absorbido; a esta parte la denominamos absorción (A). Y otra parte no es absorbida y se elimina en forma de heces. A esta la denominamos egestión (F). Así pues, con los elementos considerados ya disponemos de un primer balance, el que nos da la energía absorbida (A), como A = C – F.
La mayor parte del alimento absorbido es asimilado. La asimilación (A) consiste en su incorporación al conjunto de procesos celulares que pueden incluir su degradación para obtener energía metabólica en forma, principalmente, de ATP, o su participación en vías de síntesis de otras sustancias. En términos de balance energético se suele diferenciar entre los términos “absorción” (tal y como se ha presentado en el párrafo anterior) y “asimilación”. La distinción se basa en la existencia de procesos de desaminación de moléculas que dan lugar a la aparición de restos nitrogenados (NH4+ en primera instancia) que, debido a su toxicidad, han de ser eliminados directamente o tras su conversión en otras sustancias (urea y ácido úrico, principalmente); la energía contenida en esas sustancias se expresa como U. A efectos de balance energético no se establece distinción entre los restos nitrogenados que resultan de la desaminación de sustancias recién absorbidas y los que proceden del permanente recambio (procesos de síntesis y degradación) de macromoléculas nitrogenadas. Así pues, tendríamos aquí un segundo balance: A´= C – F – U.
La energía asimilada tiene, por último, dos posibles destinos. Una parte se disipa en forma de calor; a esa la denominamos Gasto metabólico o, de forma más simple, Metabolismo (H). Y la otra parte es la que se deposita en forma de biomasa propia; a esta última la denominamos Producción (P). Más adelante nos referiremos a los tres usos posibles de la energía producida.
Conviene reparar en el hecho de que el término R tiene una doble cara. Da cuenta, por un lado, de la energía que se pierde por el simple hecho de que en todos los procesos que ocurren en las células animales una parte de la energía química se transforma en calor y se pierde de esa forma. Y por el otro lado, al ser esa disipación de calor consecuencia de las actividades biológicas, constituye un indicador del nivel de actividad del organismo.
Así pues, la energía asimilada puede entrar en las vías catabólicas que conducen a la producción de ATP o, alternativamente, dirigirse a (1) la síntesis de nuevas estructuras (somáticas y reproductivas), (2) la reparación y renovación de las ya existentes; y (3) el almacenamiento de sustancias de reserva.
Por su parte, el ATP producido en las vías metabólicas correspondientes es utilizado para proporcionar la energía que necesitan las actividades biológicas, como son (1) los procesos de biosíntesis para la producción de nuevas estructuras (nuevos tejidos somáticos y gametos) y la reparación o renovación de las existentes (enzimas, estructuras, neurotransmisores, hormonas, etc.); (2) las actividades de regulación (transporte de iones, secreción activa…); (3) otras actividades internas, como contracciones musculares, movimientos ciliares, etc.; y (4) las actividades hacia el exterior (contracciones musculares, movimientos ciliares, etc.
Todas las actividades anteriores conllevan un cierto gasto metabólico pues, como se ha visto, es a su desarrollo a lo que se destina el ATP que se obtiene de las vías catabólicas. Por ello, también podemos categorizar el gasto metabólico de la forma siguiente: (1) costes de mantenimiento del organismo, que son los derivados de las actividades de renovación y reparación de estructuras, las de regulación, y los movimientos internos; (2) costes del crecimiento y la reproducción, que son los asociados a los procesos biosintéticos de producción de biomasa; y (3) costes de la actividad, que son los ligados al desarrollo de actividades hacia el exterior.
La expresión definitiva del balance energético sería, por lo tanto, la siguiente:
P = C – F – U – R.
En teoría, y suponiendo que la energía es la unidad relevante a efectos de producción animal, mediante la determinación experimental de los términos contenidos en esa expresión se puede calcular la producción de un individuo bajo las condiciones experimentales establecidas. También permite analizar la forma en que diferentes factores ambientales (cantidad de alimento disponible, temperatura, etc.) afectan al balance y, por lo tanto, a la aptitud biológica del individuo.
Conviene precisar, para terminar, que la ecuación del balance energético refleja, por su naturaleza, el margen existente para la producción; de hecho, en inglés se denomina scope for growth al valor que resulta de la determinación experimental de sus componentes. Pero la medida de la producción real en condiciones naturales, y la proporción que cada individuo o grupo de individuos destina al crecimiento somático o a la reproducción, están también sometidas a control fisiológico (endocrino). Además, esas magnitudes son, en parte, el resultado de la historia evolutiva de cada linaje, pues son variables características del ciclo de vida, y en su definición intervienen elementos ambientales y demográficos. Pero de estos asuntos ya nos ocuparemos en otra ocasión.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El balance energético se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La máquina de vapor (2)
La máquina Newcomen fue ampliamente utilizada en Gran Bretaña y otros países durante el siglo XVIII. Según los estándares modernos, no era una máquina muy buena. Quemaba una gran cantidad de carbón, pero realizaba solo una pequeña cantidad de trabajo a una velocidad lenta y espasmódica. Pero la gran demanda de máquinas para sacar agua de las minas era un buen mercado, incluso para una máquina ineficiente.
El trabajo de un escocés, James Watt, condujo a una máquina de vapor muy mejorada y que tendría importantes consecuencias económicas. El padre de Watt era un carpintero con un negocio de éxito dedicado a vender equipamiento a los armadores de buques. Sería en el taller del ático de su padre donde James Watt desarrollaría una considerable habilidad en el uso de herramientas. Quería convertirse en un fabricante de instrumentos y fue a Londres para aprender el oficio. A su regreso a Escocia en 1757, obtuvo un puesto como fabricante de instrumentos en la Universidad de Glasgow.
En el invierno de 1763-1764, Watt fue requerido para reparar un modelo del motor de Newcomen que era utilizado en las clases prácticas de la universidad. Al familiarizarse con el modelo, Watt quedó impresionado por la cantidad de vapor que se requería para hacer funcionar la máquina. Realizó una serie de experimentos sobre el comportamiento del vapor y encontró que un problema importante era la temperatura de las paredes del cilindro. La máquina de Newcomen desperdiciaba la mayor parte de su calor calentando las paredes del cilindro, ya que las paredes se enfriaban en cada ciclo al inyectar agua fría para condensar el vapor y forzar el retorno del pistón con aire a presión.
A principios de 1765 Watt remedió esta ineficiencia ideando un tipo modificado de máquina de vapor. En retrospectiva, parece una idea tonta de lo simple que es, pero en su momento fue verdaderamente revolucionaria. Después de empujar el pistón hacia arriba, el vapor se hacía pasar a un recipiente separado, llamado condensador, donde el vapor se condensaba a una temperatura baja. Con este sistema, el cilindro que contiene el pistón podía mantenerse caliente permanentemente, y el condensador podía mantenerse frío todo el tiempo.
El uso de un condensador separado permitía grandes ahorros de combustible. La máquina de Watt podía hacer el doble de trabajo que el de Newcomen con la misma cantidad de combustible. Watt también agregó muchos otros refinamientos, tales como válvulas de control automático que se abrían y cerraban mediante la acción alternativa del propio pistón, así como un regulador centrífugo que controlaba la cantidad de vapor que llegaba a la máquina, lo que permitía mantener una velocidad constante. Esta idea de usar parte de la salida del proceso para regular el proceso en sí, se llama retroalimentación. Es una parte esencial del diseño de muchos sistemas mecánicos y electrónicos modernos.
Al igual que Thomas Edison más tarde, o los emprendedores tecnológicos de éxito en nuestros días, Watt y sus asociados aunaban ser buenos hombres de negocios y excelentes ingenieros. Hicieron una fortuna fabricando y vendiendo las máquinas de vapor mejoradas. Las invenciones de Watt estimularon el desarrollo de máquinas que podían hacer muchos otros trabajos. El vapor movía las máquinas en las fábricas, las locomotoras de ferrocarril, los barcos de vapor, e incluso los primeros coches de vapor, incluyendo maquinaria pesada semoviente. La máquina de Watt dio un estímulo enorme al crecimiento de la industria en Europa y América. Ayudó así a transformar la estructura económica y social de la civilización industrial. El desarrollo generalizado de motores y máquinas revolucionó la producción en masa de bienes de consumo, construcción y transporte.
El nivel de vida medio en Europa Occidental y los Estados Unidos aumentó considerablemente. Es difícil para la mayor parte de nosotros en los países industrializados “desarrollados” imaginar cómo era la vida antes de esta “Revolución Industrial”.
Pero no todos los efectos de la industrialización fueron beneficiosos. De hecho la palabra “medio” del párrafo anterior encubre una enorme desigualdad. El sistema manufacturero del siglo XIX proporcionaba a algunos empleadores codiciosos y crueles la oportunidad de tratar a los trabajadores casi como esclavos. Sin leyes laborales o de protección infantil, esos empleadores obtenían fortunas mientras mantenían a los empleados ya sus familias al borde de la inanición.
Según avanzaba el siglo XIX cada vez más personas abandonan las granjas, voluntariamente o forzadas por la pobreza y las nuevas leyes de propiedad, para trabajar en las fábricas. El conflicto se intensificó entre otra novedad, la clase obrera, formada por empleados, y la clase media, formada por empleadores y profesionales.
Al mismo tiempo, algunos artistas e intelectuales, muchos del movimiento romántico, comenzaron a atacar las nuevas tendencias de esta sociedad. Vieron esta sociedad cada vez más dominada por el comercio, la maquinaria y el énfasis en los bienes materiales. En algunos casos, confundieron la ciencia como tal, con sus aplicaciones técnicas y éstas con el uso comercial de las mismas por parte de empresarios sin escrúpulos. La reacción llevaba a estos intelectuales a echar en cara a los científicos el explicar todos los maravillosos misterios de la naturaleza. Estos artistas denunciaron tanto a la ciencia como a la tecnología, aunque en la mayor parte de los casos se negaban a aprender algo sobre ellas.
Estas actitudes siguen estando a la orden del día y son parte de una vieja tradición, que se remonta a ls antiguos opositores griegos al atomismo de Demócrito. Muchos escritores y artistas románticos atacaron la física galileana y newtoniana por supuestamente distorsionar los valores morales. El mismo tipo de acusación que se escucha hoy por parte de la anticiencia y que es un continuo desde la máquina de vapor.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La máquina de vapor (2) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ingredientes para la receta: El conejo
“casi ningún otro animal es más difícil de amansar que el gazapo de un conejo de monte, y apenas hay animal más manso que el gazapo del conejo amansado; pero difícilmente puedo suponer que los conejos domésticos hayan sido seleccionados frecuentemente, sólo por mansos, de modo que tenemos que atribuir a la costumbre y al prolongado encierro la mayor parte, por lo menos, del cambio hereditario, desde el extremo salvajismo a la extrema mansedumbre.”
Charles Darwin. El origen de las especies. 1859.
Hablemos del conejo común, también conocido como conejo europeo, y de nombre científico Oryctolagus cuniculus. Lo descubrieron por vez primera y según los textos escritos, primero, los fenicios y, después, los romanos al llegar a la Península Ibérica. Y, por cierto, Iberia deriva del nombre del conejo para los habitantes prerromanos de la Península. Su distribución después de las glaciaciones era relativamente pequeña y restringida al sudoeste de Europa, a la Península Ibérica y el sudeste de Francia. Es posible que llegara también al norte de África entre Marruecos y Túnez.
Son animales sociales que viven en grupos de tamaño medio en madrigueras excavadas en el suelo llamadas conejeras. Son activos, sobre todo, al atardecer y en el crepúsculo aunque no es raro verles de día en zonas con arbustos que les sirven de escondite en caso de peligro. Al anochecer salen a terreno abierto a buscar alimento.
No hace mucho que domesticamos al conejo. Es una especie de lo último que ha llegado a nuestro corral como animal domesticado, aunque durante miles de años, ya lo veremos, lo hemos consumido como caza abundante y fácil de obtener. En el esquema que Don y Patricia Brothwell publicaron con los periodos de domesticación de nuestro ganado, el conejo es el más reciente, como mucho de hace unos 2000 años. Ahora existen más de 100 variedades seleccionadas por el peso, el tamaño o el color del pelaje. Y son alimento, mascota, animal de exposición, con una piel apreciada para el vestido y la moda o, incluso, un estimado animal de laboratorio.
Hay dos subespecies del conejo, la cuniculus cuniculus y la cuniculus algirus. Su distribución en la Península es curiosa pues, si trazamos una diagonal desde Galicia a Murcia, al norte está el cuniculus cuniculus y al sur y en el norte de África el cuniculus algirus. Parece claro que el conejo doméstico viene de la subespecie cuniculus cuniculus.
Son Eudald Carbonell y Cinta Bellmunt, de las universidades Rovira i Virgili y Politécnica de Catalunya, los que cuentan que hay evidencias del consumo de conejo por nuestra especie desde hace más de 300000 años. En el nivel TD10-I de la Gran Dolina de Atapuerca, se alimentaban, entre otras presas, de conejos. Eran los neandertales e, incluso, quizá antecesores de los neandertales.
Los Homo se alimentan de lo que encuentran, animal o vegetal, grande o pequeño, fresco o desechos. Cuando caza en grupo prefiere animales grandes pues alimentan a más individuos, durante más tiempo y proporcionan más energía en forma de grasas. Si fueran conejos, se necesitarían, más o menos, un ejemplar al día por persona. Por todo ello, cuando aparecen restos en yacimientos de más de 50000 años, suelen ser escasos y mezclados con los huesos de animales de mayor tamaño. Todas las especies de homínidos muestran dietas con gran diversidad de alimentos y, aunque haya más restos de una o de pocas presas, habitualmente de gran tamaño y más numerosas, siempre hay otros animales y, entre ellos, está el conejo.
En concreto y en un tiempo más cercano, en el yacimiento de Molí de Salt, Tarragona, era el animal más consumido en la dieta de hace unos 13000 años. Manuel Vaquero y su grupo, de la Universitat Rovira i Virgili, encuentran que hasta el 91% de los restos encontrados en este yacimiento son huesos de conejo.
Como explican John Fa y sus colegas, del Grupo Durrell de Conservación de la Naturaleza de Trinity, en la isla de Jersey, el conejo fue, para los depredadores y para las especies de Homo, neandertales y sapiens, un recurso alimenticio importante. Como antes he mencionado, era una especie abundante y fácil de cazar.
En los yacimientos, los restos de conejo son escasos hasta que las poblaciones de presas de mayor tamaño comienzan a escasear. El consumo de carne de conejo aumenta con el tiempo y se convierte en parte esencial de la dieta de nuestra especie. Los neandertales lo capturaban en menor cantidad y su dieta se centraba en animales de mayor tamaño. Los autores concluyen, después de analizar los restos de 104 excavaciones en 30 yacimientos de la Península y del sur de Francia, que el cambio de dieta hacia el conejo y otras presas pequeñas se produjo hace más de 35000 años, lo que ya había ocurrido en el yacimiento de Molí de Salt.
Y en el interesante libro de Carbonell y Bellmunt, titulado “Recetas Paleo”, nos presentan un conejo a las hierbas al estilo de nuestros ancestros. Dice así, tal cual y sin ayudas entre paréntesis:
“Caza un conejo en el bosque, despelléjalo, lávalo con agua y pártelo en dos. Haz diez partes de una de las mitades.
Excava un agujero en el suelo, de unos dos palmos de ancho y algo más de profundidad. Que tenga sedimentos blandos en el fondo. Echa leña al agujero y quémala; si es posible que sea de olivo, encina o roble.
Para cocinar en conejo ponlo en una piedra cóncava, con ramas de romero y empapado en agua. Tápalo con otra piedra más plana.
Cuando la leña sea brasa y ceniza caliente, mete el recipiente con el conejo y tápalo todo con un recorte cuadrado de césped. Tiene que estar unas tres horas como poco pero, de vez en cuando, destápalo para ver cómo va. Con cuidado, pues la piedra quema, saca el recipiente del agujero y come el conejo con las manos.”
Citado por los fenicios en la Península, los romanos llevaron el conejo primero a su capital, a Roma, y, después, a su imperio. Como ejemplo nos sirve Gran Bretaña adonde lo llevaron los romanos en su conquista del año 43 y, ahora, son unos 40 millones. Y, añado, si le interesa conocer cómo viven los conejos en las Islas Británicas lea “La colina de Watership”, de Richard Adam, merece la pena.
En Roma y en su imperio se adaptaron a vivir en amplios recintos cerrados con paredes de piedra, llamados leporaria, pero no estaban domesticados tal como ahora entendemos el término. Recintos como estos se han encontrado, por ejemplo, en Bretaña y en otros yacimientos romanos de Europa occidental.
Era el siglo I, en la época imperial de Roma, y Marco Gavio Apicio, apreciado gastrónomo, escribió el libro de cocina De Re Coquinaria, que resume la sabiduría culinaria de aquellos años. Y solo nombra el conejo una vez y, además, para hacer albóndigas. Para Apicio, la carne de conejo estaba en tercer lugar como preferencia para las albóndigas, después del pavo real y del faisán, pero, avisa, siempre que se frían de manera que queden tiernos. Sin embargo, de aquella época también son algunos conocidos mosaicos que muestran apetecibles conejos.
Se cree que la domesticación comenzó en los monasterios de la Península Ibérica y, sobre todo, del sur de Francia y se incentivó por la Iglesia desde que, en el siglo VII, el Papa San Gregorio Magno había establecido que el gazapo, la cría del conejo, no era carne y, por tanto, se podía consumir en Cuaresma. Entre los siglos VI y X comenzó la domesticación en los monasterios franceses. En el siglo XVII ya existían varias razas seleccionadas por el color del pelaje.
Una de las diferencias más evidente entre el conejo silvestre y el domesticado es la conducta. El silvestre es un peligroso luchador en defensa de sí mismo y de su grupo. Golpea con las patas traseras y muerde con sus grandes y potentes incisivos. Las luchas de los machos por el control del grupo pueden llegar a las heridas graves y a la muerte del contrincante.
Por el contrario, el conejo doméstico no pelea, es tranquilo y, en general, se deja manipular. Se ha propuesto la hipótesis de que, en el proceso de la domesticación, parte de la información genética perdida o silenciada es la que provoca estos cambios en la conducta agresiva. De ahí la cita de Darwin, en El origen de las especies, que aparece al comienzo de este texto.
Su centro Vavilov, es decir, el área geográfica con mayor variabilidad genética y, por tanto, el origen de la especie domesticada, es la Península Ibérica. Para confirmarlo, Joel Alves y su grupo, de la Universidad de Oporto, han hecho el análisis genético de 471 individuos de 16 razas de conejos y de 13 localidades con conejos silvestres de Francis y del nordeste de España.
Los resultados demuestran que la población original del conejo domesticado, con la mayor diversidad genética, está en la Península. La colonización del sudeste francés, que los autores fechan hace 18000 años, supuso la pérdida del 12% de la variabilidad. La domesticación, mucho más reciente y en periodo histórico, fue hace 1500 años y se origina de los conejos silvestres de Francia. Provocó la pérdida de otro 21% de diversidad genética.
Un estudio similar de Miguel Carneiro y su grupo, del Campus Agrario de Varao, en Portugal, llega a conclusiones parecidas después de analizar 150 ejemplares de las razas más comunes de conejos domesticados. La relación de pérdida de diversidad genética es del 40% con los conejos silvestres de Francia.
Por tanto, el centro Vavilov de la domesticación del conejo está en el nordeste de España y el sudeste de Francia.
Durante muchos años, los conejos se criaron en las casas y cabañas de los campesinos solo para consumo propio. Los alimentaban con hierbas, semillas y restos no utilizables de sus cosechas. Pero en la economía rural más reciente e intensiva, los conejos pasaron a la producción industrial con el objetivo comercial de su venta y consumo para grandes poblaciones, todo ello solo en los países con tradición de consumir este tipo de carne.
El conejo supone carne barata y accesible en épocas de crisis. Así ocurrió en Europa y Estados Unidos en la Gran Depresión y en la Segunda Guerra Mundial. Los conejos se criaban fácilmente en casa, alimentados con restos de plantas y se reproducían rápido y, además, no ocupaban mucho espacio. Sin embargo, cuando pasan las crisis no tardan a recuperar su estatus de “comida para pobres”. Por si fueran pocas las ventajas, su escasez en grasas y colesterol los convierten en un alimento saludable. Los conejos europeos, con su adaptabilidad y enorme capacidad reproductora que llega a las once puestas al año y los gazapos en 8-10 semanas alcanzan la madurez, se han extendido por todos los continentes excepto la Antártida. Los llevaban los marinos y los dejaban en islas y lugares conocidos para, en otros viajes, disponer de carne fresca. En la actualidad se han detectado en más de 800 islas de todos los mares. Así llegaron, como ejemplo muy conocido, a Australia donde, a partir de dos docenas que llegaron en 1859, a los 30 años eran 20 millones y, un siglo después, eran 600 millones. Los australianos importaron el virus de la mixomatosis para controlar la población de conejos y provocaron el desastre contrario, con matanzas enormes. Cuando el virus regresó a Europa, de donde había sido importado, causó la casi extinción del conejo salvaje con la eliminación de entre el 90% y el 99% de los ejemplares. Además, el aspecto sanguinolento y llagado de los conejos enfermos provocaba asco y rechazo y, por ello, el consumo de carne de conejo disminuyó. A pesar de los intentos de reintroducir el conejo salvaje en muchos países de Europa, nunca se han conseguido recuperar las poblaciones anteriores a la mixomatosis.
En un entorno favorable, con mucho alimento y sin depredadores, el éxito del invasor es inevitable. Además, tienen un especial sistema de digestión que les permite aprovechar la celulosa de las plantas aunque no sean rumiantes. Las ingieren y pasan por su digestivo en el que viven bacterias simbiontes del género Anaerobacter. Estas bacterias digieren la celulosa y la convierten en ácidos grasos que el conejo expulsa en las heces que, a su vez, vuelven a ser ingeridas para poder absorber esos ácidos grasos.
Ahora, los mayores criadores de conejos son Francia, Italia, Malta y España. En 2015 la producción global fue de 1680 miles de toneladas. En España se consumieron 62.700 toneladas y a cada habitante le correspondieron 1.3 kilogramos de carne de conejo.
En el interesante libro “Cocina para pobres” del Dr. Alfredo Juderías, hay varias recetas de conejo tomadas directamente de fondas y casas de comida y de cocineros de su casa. Allí aparece este “Conejo adobado”, plato que no es fácil de hallar y probar y que, para terminar con un buen sabor de boca, creo que es apropiado:
“Se avía, se parte en trozos y se pone en una cazuela para que tome, durante un par de horas, más o menos, un adobillo a base de un cuartillo de vino blanco, laurel, ajo, pimienta, tomillo, orégano, sal, etc.
Después de escurridos, se embozan en harina y se echan a un sartén, a la lumbre, con aceite bien caliente.”
Sencillo, rápido y sabroso. Pruébenlo, se lo recomiendo.
Referencias:
Alda, F. & I. Doadrio. 2014. Spatial genetic structure across a hybrid zone between European rabbit subspecies. PeerJ DOI: 10.7717/peerj.582
Alves, J.M. et al. 2015. Levels and patterns of genetic diversity and population structure in domestic rabbits. PLOS ONE 10: e0144687
Apicio, Marco Gavio. 2007. El arte de la cocina. De Re Coquinaria. Comunicación y Publicaciones SA. Barcelona. 119 pp.
Blasco López, R. 2011. La amplitud de la dieta cárnica en el Pleistoceno medio peninsular: una aproximación a partir de la Cova del BOLOMOR (Tavernes de Valldigna, Valencia) y del subnivel TD10-I de Gran Dolina (Sierra de Atapuerca, Burgos). Tesis doctoral. Universitat Rovira i Virgili. Tarragona. 724 pp.
Brothwell, D. & P. Brothwell. 1969. Food in Antiquity. A survey of the diet of early peoples. Johns Hopkins University Press. Baltimore and London. 283 pp.
Callou, C. 1995. Modifications de l’aire de répartition du lapin (Oryctolagus cuniculus) en France et en Espagne, du Pléistocène à l’époque actuelle. État de la question. Anthropozoologica 21: 95-114.
Carbonell, E. & C.S. Bellmunt. 2016. Recetas Paleo. La dieta de nuestros orígenes para una vida saludable. Ed. Planeta. Barcelona. 143 pp.
Carneiro, M. et al. 2011. The genetic structure of domestic rabbits. Molecular Biology and Evolution 28: 1801-1816.
Cheeke, P.R. 2000. Rabbits. En “The Cambridge world history of food, Vol. I”, p. 565-567. Ed. por K.F. Kiple & K.C. Ornelas. Cambridge University Press. Cambridge.
Fa, J.E. et al. 2013. Rabbits and hominin survival in Iberia. Journal of Human Evolution doi: 10.1016/j.jhevol.2013.01.002
Juderías, A. 1980. Cocina para pobres. Ed. SETECO. Madrid. 325 pp.
Martínez Polanco, M.F. et al. 2016. Rabbits as food at the end of the Upper Palaeolithic at Molí del Salt (Catalonia, Spain). International Journal of Osteoarchaeology DOI: 10.1002/oa.2541
Wikipedia. 2017. Oryctolagus cuniculus. 5 abril.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Ingredientes para la receta: El conejo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Una nueva diana terapéutica para el neuroblastoma
Los cánceres infantiles del sistema nervioso simpático, o neuroblastomas, tienen una tasa anual de mortalidad de 10 por millón, en edades comprendidas entre 0 y 4 años. El trabajo de investigación en el que han participado Investigadores de la UPV/EHU y el centro Achucarro ha servido para identificar algunas mutaciones genéticas que ayudarán a mejorar el tratamiento de esta enfermedad.
Investigadores del Instituto de Investigación Sanitaria La Fe de Valencia dirigidos por Jaime Font de Mora, en colaboración con José Luis Zugaza, investigador Ikerbasque en la UPV/EHU y en el centro “Achucarro Basque Center for Neuroscience”, han identificado mediante NGS (Next Generation Sequencing) mutaciones en el gen Tiam1 que predicen un mejor pronóstico a pacientes con neuroblastoma.
El neuroblastoma es el tumor extracraneal sólido más frecuente en la infancia. Representa el 7% de todos los cánceres pediátricos y es la causa del 15% del total de defunciones por procesos oncológicos en la infancia. Su incidencia oscila entre 8 y 10 casos por millón de niños y año. Se han descrito casos familiares de neuroblastoma, pero son muy poco frecuentes. A día de hoy, se desconoce cómo se origina este tipo de cáncer raro.
El estudio revela que estas mutaciones que previenen la progresión de esta enfermedad están localizadas en diferentes dominios de Tiam1 relacionados con las GTPasas Ras y Rac así como con Myc, todas estas proteínas están implicadas en la etiología y progresión de este tipo cáncer.
Los resultados sugieren que el señalosoma controlado por Tiam1 puede ser esencial para el desarrollo del neuroblasoma y, por tanto, Tiam1 se posiciona como una diana que ayude a mejorar la eficacia de la terapia en neuroblastoma.
El siguiente paso es incorporar estos estudios a la práctica clínica para mejorar las herramientas y procedimientos de diagnóstico, en aras a implementar tratamientos más tempranos para los pequeños afectados.
Referencia:
Sanmartín E et al.. (2017) TIAM1 variants improve clinical outcome in neuroblastoma. Oncotarget DOI: 10.18632/oncotarget.16787.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Una nueva diana terapéutica para el neuroblastoma se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La inteligencia, la herencia y la madre
Todo comenzó hace más de cuatro décadas, a principios de los setenta, cuando el psicólogo Robert Lehrke, del Hospital Estatal de Brainerd, en Minnesota, publicó un artículo que resumía su tesis doctoral y presentaba una teoría, así lo llama el autor, sobre el desarrollo de la inteligencia. Trabajaba en un centro para discapacitados intelectuales y había encontrado que muchos genes relacionados con el desarrollo de la inteligencia y, en concreto, con las habilidades verbales y con la percepción de las relaciones espaciales, se localizaban en el cromosoma X que, de los cromosomas sexuales que todos llevamos, es el que viene de la madre.
Ahora y desde hace un par de años, abundan las noticias en los medios y las entradas en blogs que afirman que los genes más importantes de la inteligencia de los niños se heredan de la madre. En la red esta noticia es viral y, por ello, a muchos nos gustaría conocer que hay de cierto en ella.
Según esos escritos, los padres tendrían poco que ver en la determinación del cociente de inteligencia (CI) de sus hijos. No hay evidencias claras y rotundas de que exista esta herencia de la inteligencia entre madre e hijo. Los últimos estudios apuntan algo que es evidente: los genes de la inteligencia llegan tanto de la madre como del padre. Sin embargo, seguimos sin conocer con claridad y detalle el proceso debido a lo compleja que es la inteligencia.
Nuestra especie tiene en cada célula, excepto en las reproductoras, 46 cromosomas o, con más precisión, 23 pares de cromosomas, y en cada pareja de cromosomas, uno es del padre y otro es de la madre. Todos los pares están formados por cromosomas iguales y repetidos, excepto el par 23 formado por los cromosomas sexuales, que son diferentes según el sexo de la persona. Si es una mujer, tiene dos cromosomas iguales llamados X, y es por tanto un par XX. En los hombres, los cromosomas son diferentes, uno es X, que viene de la madre, y el otro es Y, que viene de padre y, por tanto, es un par XY. En conclusión, el par de cromosomas 23 de una mujer es XX, y el de un hombre es XY.
Por tanto, en un hombre el X viene de la madre y el Y viene del padre. Lehrke dice que hay muchos genes relacionados con la inteligencia en el cromosoma X que, si mutan y no funcionan bien, provocan la discapacidad intelectual en el hombre. Para 2010 ya había unos 300 genes localizados en el cromosoma X y relacionados con la discapacidad intelectual, según la revisión de Ulrich Zechner y su grupo, de la Universidad de Ulm, en Alemania. Ello supone que en el cromosoma X hay seis veces más genes relacionados con la inteligencia que en el resto de cromosomas. Además, suponen el 10% de todos los genes del cromosoma X.
En las mujeres que, repito, tienen dos cromosomas X, si falla un gen en uno de ellos se suple con el funcionamiento del mismo gen en el otro cromosoma X. Solo si falla en los dos cromosomas X aparece la discapacidad intelectual en la mujer. Hay entre un 30% y un 50% más de discapacitados intelectuales entre los hombres y se ha propuesto que es por esta causa: no tienen dos copias de los genes del cromosoma X y, si falla una de ellas, no pueden suplir el funcionamiento del que no lo hace bien. Así lo afirman Gillian Turner y Michael Partington, de los hospitales de Niños Príncipe de Gales de Sidney y de los Suburbios Occidentales de Newcastle, ambos en Australia.
Por cierto, si hay algún gen relacionado con la inteligencia en el cromosoma Y, típico del hombre, y muta, tampoco hay repuesto ya que solo hay una copia de este cromosoma.
También se ha propuesto la hipótesis de que esta presencia de genes relacionados con la inteligencia en el cromosoma X quizá tenga relación con el sexo y, en el proceso de la evolución, se ha seleccionado así porque una mayor inteligencia permite una mejor reproducción y, por tanto, un mayor éxito evolutivo. O sea, los hombres y las mujeres más inteligentes se reproducen mejor. Es otra hipótesis.
También se ha confirmado que la distribución en una gráfica de los CI de hombres y mujeres no es exactamente igual. Ambas tienen forma de campana, con un mayor número de hombres y mujeres con un CI medio y un número mucho menor con un CI muy alto o muy bajo. Pero esta campana en los hombres es más plana y alargada en los dos extremos. Implica que hay menos hombres con un CI medio y más número que en mujeres con un CI muy bajo, que son los discapacitados intelectuales que ya he mencionado, o con un CI muy alto. Se ignora como el cromosoma X, si es que lo hace, interviene para que existan esos CI altos.
Quizá ya ha llegado el momento de ver de qué estamos hablando y, para ello, transcribo una definición de inteligencia fechada en 1997 y apoyada por 52 expertos:
“Inteligencia es una capacidad muy general que, entre otras cosas, incluye la habilidad para razonar, planificar, resolver problemas, pensar en abstracto, comprender ideas complejas, aprender con rapidez y aprender de la experiencia. No es solamente aprender de los libros o la competencia académica o la rapidez en responder tests. Más bien refleja una capacidad amplia y profunda para comprender nuestro entorno, captarlo, dar sentido a las cosas o imaginar lo que son. Inteligencia, así definida, se puede medir, y los tests de inteligencia lo hacen bien.”
Según los neurobiólogos y los psicólogos, la inteligencia se hereda de una generación a la siguiente, pero en qué porcentaje se hereda y cuánto varía por causas del entorno como la alimentación, la educación o el ambiente en la infancia y adolescencia, se ignora. El porcentaje, según cada autor, va del 30% al 80%. La inteligencia es compleja en cuanto al número de genes implicados. Sabemos más de lo que perjudica a la inteligencia a causa de genes mutados que no funcionan bien y que llegan a 300 en el cromosoma X, como antes he mencionado. En conclusión, en muchas de las revisiones más recientes ni siquiera se menciona la herencia de la madre pues, aparte de las propuestas de Lehrke, poco más se ha averiguado sobre la función de esta herencia materna en la inteligencia de los hijos.
En un estudio del grupo de Min Zhao, de la Universidad de Pekín, aparece la revisión de la bibliografía sobre los genes relacionados con la inteligencia que conocemos hasta ahora. Hay 158 genes localizados y el 16% están en el cromosoma X.
Para terminar, y como hacen Jozef Gecz y John Mulley, de la Universidad de Adelaida, en Australia, podemos especular que, para conseguir que un órgano tan complejo como el cerebro funcione con normalidad, requiere no uno, ni dos, sino cientos o miles de genes integrados de tal manera que sus productos funcionen coordinados. Además, estas interacciones complejas deben mantenerse en equilibrio incluso bajo una enorme variedad de estímulos del entorno. Por el contrario, el fallo de un solo gen, como ocurre en el cromosoma X, puede romper catastróficamente el equilibrio y provocar una discapacidad más o menos grave.
En muchas entradas de blogs que tratan este asunto y que antes mencionaba, se cita como prueba de la herencia materna un estudio hecho en Glasgow, con 12686 voluntarios entre 14 y 22 años, en el que se compara su CI con el de sus madres, y se llega a la conclusión de que el 15% de la inteligencia de los jóvenes viene de su madre. Parece que es un trabajo del grupo de Ian Deary (grupo que ya he citado dos veces en este texto, en Deary et al, 2010, y Davies et al, 2015), de la Universidad de Edimburgo, que trabaja en neurociencia de la inteligencia desde hace años y con resultados muy interesantes.
Pues bien, este estudio tan citado en los blogs parece que no existe y no lo encuentro ni preguntando a los autores que, por lo que cuentan, tampoco saben cuál es su origen. Lo más parecido, con los 12686 voluntarios, es una investigación de este grupo sobre la relación de la inteligencia del niño con la lactancia materna. Los autores llegan a la conclusión de que la relación es con la inteligencia de la madre y que las madres con el CI alto dan más de mamar a sus hijos. Es la influencia de la alimentación en el desarrollo del niño que antes mencionaba. Pero lo del 15% de herencia materna no lo encuentro ni en esta ni en ninguna otra publicación. Me declaro incapaz de conseguir localizarla.
Referencias:
Davies, G. et al. 2015. Genetic contributions to variation in general cognitive function: a meta-analysis of genome-wide association studies in the CHARGE consortium (N=53949). Molecular Psychiatry 20: 183-192.
Deary, I.J. et al. 2010. The neuroscience of human intelligence. Nature Reviews Neuroscience 11: 201-211.
Der, G. et al. 2006. Effect of breast feeding on intelligence in children: prospective study, sibling pair analysis, and meta-analysis. British Medical Journal doi: 10.1136/bmj.38978.6995583.55
Gecz, J. & J. Mulley. 2016. Genes for cognitive function: developments on the X. Genome Research 10: 157-163.
Lehrke, R. 1972. A theory of X-linkage of major intelectual traits. American Journal of Mental Deficiency 76: 611-619.
Turner, G. & M.W. Partington. 1991. Genes for intelligence on the X chromosome. Journal of Medical Genetics 28: 429.
Zechner, U. et al. 2001. A high density of X-linked genes for general cognitive ability: a run away process shaping human evolution? Trends in Genetics 17: 697-701.
Zhao, M. et al. 2014. A systems biology approach to identify intelligence quotient score related genomic regions, and pathways relevant to potential therapeutic treatments. Scientific Reports 4: 4176.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo La inteligencia, la herencia y la madre se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Candida auris, el hongo que ha causado una alerta sanitaria internacional
En los últimos meses, varias agencias nacionales e internacionales han emitido diferentes alertas sobre la expansión de un tipo de hongo, denominado Candida Auris, que causa graves infecciones en pacientes hospitalarios críticos. Se trata de un agente infeccioso difícil de identificar y muy resistente a los fármacos existentes que puede provocar elevadas tasas de mortalidad. Su mayor incidencia hasta la fecha se ha producido en países como España, Dinamarca o EE.UU.
Guillermo Quindós, catedrático de Microbiología en la UPV/EHU, habló sobre este organismo en una conferencia tuvo lugar el pasado 4 de abril en Azkuna Zentroa (Bilbao). Este evento, forma parte del ciclo de conferencias Zientziateka, que organizan todos los meses la Cátedra de Cultura Científica de la UPV/EHU y Azkuna Zentroa para divulgar asuntos científicos de actualidad.
Candida auris, el hongo que ha causado una alerta sanitariaEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Candida auris, el hongo que ha causado una alerta sanitaria internacional se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Catástrofe Ultravioleta #16 RARO
En cada uno de nosotros hay pequeñas variaciones genéticas que nos hacen especiales y nos cambian la vida. Todos somos mutantes. El libro de instrucciones de un ser humano tiene alrededor de 3.000 millones de letras entre las que a menudo se cuelan gazapos o saltos de línea. “La mayoría son pequeñísimas mutaciones, de apenas una letra, pero algunas de estas variantes tienen consecuencias patológicas”, nos explica Lluís Montoliu. Pero, ¿cuándo empieza la enfermedad o qué es eso que llamamos “normalidad”?
En en este episodio os explicaremos por qué “todos somos mutantes” y en qué consisten esas pequeñas variaciones que cambian la vida de las personas. Sabremos qué es una enfermedad rara, hablaremos de ratones mutantes y os sumergiremos en las aventuras de un “Retrón ninja” capaz de hacerle una pirueta a su destino y reírse en su cara. Dale al ‘play’ y sumérgete en nuestro programa más “raro”.
Agradecimientos: A Raúl Gay (retrón indómito), Oihana Iturbide y Laura Morrón (Next Door editores), Lluís Montoliu (CNB), Pepe Solves y Patty Bonet. Y a Ray Jaén por prestarnos su voz.
* Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) con el apoyo de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.
Puedes conocernos en nuestra web: Catastrofeultravioleta.com y seguirnos en el twitter Catastrofe_UV. También puedes encontrar todos los capítulos en este enlace.
El artículo Catástrofe Ultravioleta #16 RARO se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: