De cómo la ludificación del aula prepara a los niños para vivir en un estado policial
Laura R. Pinkerton
Es bien sabido que la vigilancia afecta a cómo nos comportamos. Un estudio reciente sobre el tema mostró que el tráfico en los artículos de Wikipedia sobre temas polémicos cayó significativamente después de que Edward Snowden desvelase la amplitud de la vigilancia que sobre Internet realizan la NSA y GCHQ [véase nota del traductor 1].
Esto demuestra tanto el efecto a corto como a largo plazo que la intrusión en nuestra vida privada puede tener sobre actividades perfectamente legales. También refleja el “efecto panóptico” descrito por el teórico social francés Michel Foucault.
El panóptico [2] era una prisión del siglo XVIII diseñada de tal manera que los guardias de la prisión podían ver el interior de las celdas de la prisión desde su torre, pero los prisioneros no podían ver a los guardias. Su propósito era motivar a los presos a comportarse bien, no a través de la fuerza bruta, sino a través de su miedo a ser vistos.
Si bien la vigilancia masiva en Reino Unido no conlleva la misma amenaza de daño físico experimentada por aquellos que viven bajo dictaduras violentas, sí amenaza con moldear nuestra manera de hablar y actuar unos con otros, creando una sociedad menos libre.
Ludificando el aula
Este aumento en la vigilancia masiva también está ocurriendo en el aula: a través del uso de juegos en línea que guardan la puntuación e informan al maestro en tiempo real sobre el comportamiento y habilidades del alumno.
La “ludificación” en las escuelas enseña a los niños que deben esperar que todos sus movimientos van ser vigilados, evaluados y posiblemente compartidos públicamente. Hace que la falta de privacidad parezca normal y prepara a los jóvenes para aceptar la vigilancia masiva en su vida adulta.

El Presidio Modelo, un diseño panóptico, en la Isla de la Juventud (Cuba). Fuente: Friman/Wikipedia
Mientras que la ludificación ha jugado un papel en la educación a través de estrategias de enseñanza no-digitales tales como gráficos de pegatinas y escuelas, en los últimos años el interés ha aumentado. Ahora los maestros usan nuevas herramientas digitales tales como plataformas de gestión del aula y programas educativos parecidos a juegos para ver, capturar y juzgar una gama más amplia de comportamientos infantiles con un detalle cada vez mayor.
Algunos proveedores de sistemas educativos, como el supercomputador de lectura de emociones Watson de IBM y el editor de materiales educativos Pearson, incluso esperan registrar y entender cómo piensan y sienten los estudiantes.
Observaciones sobre el terreno
Mi estudio sobre cómo los nuevos estándares de computación en el currículo nacional de Inglaterra se están experimentando en las aulas de la escuela primaria ha documentado varios casos de ludificación que se han convertido en Big Brother [3]. En un colegio vi la introducción de un nuevo sistema de casas [4] donde los puntos los daban los estudiantes veteranos, que se ocultaban en las esquinas de los pasillos, tomando notas sobre niños desprevenidos.
Estas notas se subían todas las noches a ClassDojo (una plataforma en la nube para el seguimiento e información del comportamiento de los estudiantes) para que los padres las pudiesen ver. El agregado semanal de estas puntuaciones se mostraba a toda la clase cada viernes, para que los estudiantes pudieran ver sus resultados y compararse con sus compañeros.

El aula: ludificada. Fuente: Pexels
En otra colegio su profesor recordaba frecuentemente a los estudiantes fueron que ella podía ver todo lo que hicieron en sus iPads individuales mediante un programa de captura de pantalla. Más tarde, esta maestra compararía su estilo de enseñanza relativamente suave con el utilizado en algunos de los padres de los niños en el extranjero, donde los estudiantes tenían que arrodillarse sobre cáscaras de coco rotas hasta que recitaban con éxito sus tablas de multiplicar.
Supongo que es fácil ver cómo este tipo de seguimiento moderno se ve como relativamente inofensivo en comparación con la violencia experimentada por algunos escolares en otras partes del mundo.
Más mal que bien
Pero aunque la ludificación del aula a través del software educativo es claramente menos violenta físicamente que el castigo corporal, no debemos engañarnos creyendo que la ludificación es una experiencia universalmente divertida y atractiva para todos los niños. Y puede incluso causar daño o tener un impacto negativo en los estudiantes, si se usa sin comprender los riesgos que conlleva.
Incluso en los casos en que tenga un efecto positivo en el comportamiento del estudiante, debemos proceder con cautela. Porque, si no tenemos cuidado, corremos el riesgo de enseñar a los niños pequeños a aceptar un ojo que todo lo ve omnisciente en sus vidas. Y que esta mirada “panóptica” debe ser temida y valorada más que las motivaciones internas como la curiosidad, la pasión y el impulso.
La popularidad de la ludificación es comprensible. El aprendizaje debe ser divertido al menos parte del tiempo y los maestros necesitan saber lo que los estudiantes están haciendo en su aula. Pero con cada vez más medios de vigilancia de masas en el mundo adulto, deberíamos estar enseñando a los niños a pensar críticamente acerca de la privacidad y el miedo, en lugar de entrenarlos para que renuncien a la primera y vivan según el segundo.
Sobre la autora:
Laura R. Pinkerton es ayudante de investigación en el Oxford Internet Institute de la Universidad de Oxford (Reino Unido).
Texto traducido y adaptado por César Tomé López a partir del original publicado por The Conversation el 12 de mayo de 2017 bajo una licencia Creative Commons (CC BY-ND 4.0)
Notas del traductor:
[1] NSA = National Security Agency, Agencia de Seguridad Nacional de los Estados Unidos; GCHQ = Government Communications Headquarters, Cuartel General de Comunicaciones del Gobierno del Reino Unido
[2] Panóptico
[3] Big Brother (literalmente, gran hermano o hermano mayor) es un personaje de la novela de George Orwell “1984” que representa el control omnipresente y opresivo del estado totalitario.
[4] El sistema de casas es una forma de organización de los colegios británicos. Si ha visto alguna película o leído algún libro de la saga Harry Potter el lector está familiarizado con él sin saberlo, ya que el colegio Hogwarts está dividido en cuatro casas, perteneciendo Potter a una de ellas, Gryffindor.
El artículo De cómo la ludificación del aula prepara a los niños para vivir en un estado policial se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- #Naukas16 Cómo escribir un libro de ciencia para niños
- ¿Quién quiere vivir para siempre?
- Es hora de prepararse para el Maquinoceno
Adiós a las microesferas de plástico en los cosméticos
Las microesferas de plástico son las minúsculas partículas de plástico que contienen algunos productos cosméticos, como pastas de dientes, geles de ducha o exfoliantes, que las incluyen por su capacidad abrasiva.
Los microplásticos son una parte teóricamente pequeña del problema de la contaminación por plásticos, pero su impacto es especialmente grave porque se utilizan en productos cuyos residuos se van por el desagüe y llegan con mucha facilidad a los sistemas de tratamiento de aguas, donde no siempre pueden ser eliminados de forma eficaz y acaban acumulándose en el mar.
¿Para qué usamos cosméticos con microplásticos?
La mayor parte de los cosméticos que contienen microplásticos están diseñados para exfoliar la piel.
La exfoliación es un proceso de renovación natural de la piel a través del que se eliminan las células muertas de la epidermis. Cuando las células muertas de la epidermis se acumulan (hiperqueratosis) provocan un indeseable engrosamiento de la piel.
La exfoliación también se puede inducir utilizando productos exfoliantes. Estos cosméticos se emplean para eliminar esas escamas o células muertas de piel mediante una acción química o física. Se usan para mejorar el aspecto de la piel dañada por el sol, disminuir arrugas, mejorar cicatrices de acné o varicela, y decolorar o eliminar manchas [1].
En la exfoliación química (también denominada peeling químico) se utilizan enzimas o sustancias ácidas, como el ácido salicílico y ácido tricloroacético. Debido a su elevada capacidad de penetración en la piel y a su poder abrasivo, deben ser aplicados con supervisión profesional.
En la exfoliación física (también denominada exfoliación mecánica) se emplean materiales que, por roce con la piel, ayudan a sustraer las células muertas y los contaminantes que se acumulan en la epidermis. Se emplean sales minerales, semillas molidas, polvos de piedra pómez y, sobre todo, microplásticos. Estos microplásticos son partículas de un milímetro de diámetro o menos que suelen ser de polietileno (PE). También los hay de tereftalato de polietileno (PET), polipropileno (PP) y polimetacrilato de metilo (PMMA).
El mar de plástico
Han bastado un par de generaciones en las que hemos utilizado plásticos de forma masiva, para generar un problema de contaminación marina que ahora la ciencia trata de abordar. Todavía hay muchas incógnitas, pero algunas estimaciones ayudan a vislumbrar la magnitud del posible desastre. Cada año llegan al mar unos ocho millones de toneladas de plástico. China, Indonesia y Filipinas encabezan la clasificación de los países que más cantidad arrojan, y los 20 primeros –todos en Asia y África, excepto Estados Unidos y Brasil– son responsables del 83% del plástico mal gestionado que puede acabar en el mar [2].
De todo el plástico que llega al mar, el 1,5% son microplásticos [3]. Parte de estos microplásticos antes eran botellas, tapones, redes, cualquier cosa, y se han ido fragmentando hasta hacerse tan pequeños que son muy difíciles de eliminar. Se denominan microplásticos secundarios.
A estos microplásticos secundarios que se van produciendo en el proceso de biodegradación natural, hay que sumarles los microplásticos de los productos cosméticos.
Probablemente, el estrato de plástico que deje nuestra civilización sea uno de nuestros legados geológicos [4]. Un legado geológico de cuyas consecuencias ecológicas se tienen cada vez más indicios: la vida marina no solo incorpora estos residuos a sus hábitos (para depositar huevos o desplazarse, por ejemplo), sino que existen evidencias de ingestión y ahogamientos en diversidad de organismos [5].
El plástico no afecta a la salud, afecta al medioambiente
Actualmente no hay evidencias científicas suficientes para preocuparse por los efectos toxicológicos de estos plásticos, y es por ello por lo que su uso está permitido en cosmética, porque no acarrean ningún riesgo para la salud. El problema no es sanitario, sino de carácter medioambiental.
Esa imagen que guardamos en la memoria de plásticos formando enormes islas compactas y flotantes, aunque sea un mito, ayudó a la concienciación sobre el problema medioambiental. Aunque existen proyectos para ‘limpiar’ el plástico de los océanos, esa tarea se ha convertido en algo inabarcable [6]. Es por ello por lo que se ha puesto el foco en tierra, no en mar: hay que evitar que los microplásticos lleguen al mar.
Aunque sólo el 1,5% del plástico que llega al mar son microplásticos y esto no parece demasiado, la parte que aporta el uso de estos cosméticos puede eliminarse con relativa sencillez.
¿Por qué los exfoliantes llevan microplásticos y no otras sustancias?
Los microplásticos empezaron a emplearse en los productos exfoliantes porque suponían ventajas frente al uso de otras sustancias abrasivas. La principal ventaja estriba en su carácter inerte y su ligereza. A la hora de formular cosméticos, es interesante que estas partículas no afecten a la estabilidad y conservación del producto. Los plásticos que se emplean se mantienen inalterables y resulta sencillo mantenerlos en suspensión. Esto se vuele más complejo si utilizamos partículas biodegradables, ya que son menos estables y pueden reducir la vida útil del producto.
Otra ventaja frente a algunos exfoliantes minerales, como los que contienen piedra pómez o roca volcánica pulverizada, es que los microplásticos son menos agresivos para la piel. Estos exfoliantes minerales no siempre pueden utilizarse sobre el rostro, sobre pieles secas o sensibles, ya que de por sí son sustancias deshidratantes. Los microplásticos se convirtieron en la opción idónea para formular productos cosméticos de alta calidad y específicos para pieles sensibles.
Los laboratorios cosméticos se alían contra los microplásticos
En Estados Unidos el uso de microplásticos en productos cosméticos estará prohibido, por motivos medioambientales, a partir de julio de 2017 [7]. Esta ley afecta también a otras industrias que los emplean, como el sector textil y otros sectores industriales (ingredientes de tintas de impresión, pinturas spray, molduras de inyección y abrasivos).
En cambio, el uso de microplásticos en cosmética sigue estando permitido en la Unión Europea, ya que no suponen ningún riesgo para la salud. Aun así, importantes laboratorios cosméticos han optado por dejar de utilizar microplásticos y emplear otras sustancias en su lugar. La motivación de estos laboratorios radica en su filosofía de marca. Para algunos, la cuestión medioambiental es suficientemente relevante como para modificar sus productos.
Dependiendo de la naturaleza del producto cosmético y sus indicaciones, los microplásticos se han cambiado por sales, semillas, minerales o cáscaras troceadas de diferentes frutas.

Este exfoliante específico para pieles sensibles contenía polietileno. Actualmente contiene mineral perlita.
Este proceso de cambio es más complejo de lo que puede parecer a simple vista: implica investigar nuevas opciones, adaptarlas a la indicación original del producto (no es lo mismo un producto para pieles secas o pieles grasas, por ejemplo), cambiar la formulación de un gran número de productos (no sólo de la sustancia abrasiva, sino del conjunto de componentes), volver a evaluarlos y pasar todos los controles de calidad como si se tratase de un producto nuevo.
Algunos laboratorios han iniciado las modificaciones de sus productos hace años. Algunos emprendieron estos cambios ya en 2013 [8]. Y durante este año, 2017, ya habrán modificado la formulación de todos sus productos para que ninguno contenga microplásticos.
Los laboratorios de mayor impacto en el mercado cosmético y en las tendencias de consumo ya han cambiado sus productos. Será cuestión de tiempo, de poco tiempo, que todos los demás, si quieren sobrevivir, tengan que sumarse a esta iniciativa sin microplásticos.
A veces la responsabilidad medioambiental de las empresas se adelanta a la ley. Que sirva de precedente.
Fuentes:
[1] Exfoliación química. Dermatología estética. Rubin, Mark G. Editorial Elsevier España, 2007.
[2] Océanos de plástico. Reportaje de Silvia Blanco y Elsa Fernández-Santos para El País Semanal, 2016.
[3] Las microesferas cosméticas que contaminan los mares. América Valenzuela. QUO, 2016.
[4] The Arctic Ocean as a dead end for floating plastics in the North Atlantic branch of the Thermohaline Circulation. Andrés Cózar, Elisa Martí, Carlos M. Duarte, Juan García-de-Lomas, Erik van Sebille, Thomas J. Ballatore. Science Advances, 2017.
[5] Use of Micro-Plastic Beads in Cosmetic Products in Europe and Their Estimated Emissions to the North Sea Environment. T. Gouin, J. Avalos, I. Brunning, K. Brzuska, J. de Graaf, J. Kaumanns, T. Koning, M. Meyberg, K. Rettinger, H. Schlatter, J. Thomas, R. van Welie, T. Wolf. SOFW Journal, 2015.
[6] El joven holandés que está obsesionado con sacar el plástico del mar. BBC Mundo, 2015.
[7] H.R. 1321, the “Microbead-Free Waters Act of 2015,” which prohibits the manufacture and introduction into interstate commerce of rinse-off cosmetics containing intentionally-added plastic microbeads. The White House, Office of the Press Secretary. December 28, 2015.
[8] Eliminación gradual de las microesferas de plástico. Nota de prensa de L’Oréal, 2016.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Adiós a las microesferas de plástico en los cosméticos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Estimada OCU: recuerda que NO se pueden utilizar las cremas solares del año pasado
- El mejor lacón con grelos tiene su ciencia
- Corales, ciencia y plástico.
Un nanosubmarino, autoensamblado, autoorientable y autodestruible
La búsqueda autónoma de la diana terapéutica y la liberación de fármacos en su sitio de acción son características deseadas y buscadas en los nuevos sistemas nanomédicos. Un equipo de científicos holandeses ha diseñado un “nanosubmarino” que tiene estas funciones: Un fármaco antitumoral encapsulado en estomatocitos (una especie vesícula que recuerda a glóbulos rojos deformados) autopropulsados y autoensamblados se transporta a través de la membrana celular y se libera dentro de la célula mediante una señal redox química que desmonta la membrana de la vesícula. Suena complicado pero no lo es en absoluto. Vamos a verlo paso a paso, porque es fascinante.
Las nanovesículas automotrices son vehículos de transporte de medicamentos muy interesantes. Si se alimentan de peróxido de hidrógeno como “combustible”, estas vesículas pueden dirigirse como respuesta al gradiente de concentración de éste, como si siguieran un caminito de migas de pan en el que las migas son cada vez más grandes.
Combinando las ideas de nanomotores autopropulsados, de encapsulación de fármacos y de destrucción controlada del nanotransporte, los investigadores han diseñado una vesícula artificial auto-propulsada, sellada por una capa de copolímero en bloque, que se abre para liberar la carga de fármaco si se encuentra mayores concentraciones de glutatión, una molécula antioxidante ubicua en el interior de las células.
El glutatión es una molécula redox. En la célula, este pequeño péptido actúa como un eliminador de especies reactivas del oxígeno; además, sirve como una reserva del aminoácido cisteína. En las células tumorales se encuentran niveles elevados de glutatión, por lo tanto, al encontrar estos niveles anormalmente altos de glutatión de las células tumorales se desencadena el desmontaje de la membrana vesicular, y el contenido de la vesícula, el fármaco, se distribuye en la célula diana.
Veámoslo ahora todo junto.
El material de la membrana vesicular es un copolímero en bloque hecho de poli (etilenglicol) (PEG) y poliestireno. Durante el autoensamblaje, se encapsula un fármaco anticanceroso hidrofílico. Luego, al añadir el motor, que no es otra cosa que nanopartículas de platino, la vesícula artificial se transforma en un estomatocito en forma de cuenco, una vesícula con una abolladura o ranura especial. El platino es un catalizador que degrada el peróxido de hidrógeno producido por las células tumorales, propulsando los estomatocitos a través de la membrana celular, guiados por la cada vez mayor cantidad de peróxido de hidrógeno. Una vez dentro, las altas concentraciones de glutatión abren la cerradura química, rompen la vesícula, liberan el fármaco y detienen el movimiento por el envenenamiento del catalizador.
Esto es, se ha conseguido introducir un fármaco que no puede entrar por sí mismo en las células exactamente en aquellas que queremos eliminar, las tumorales, dejando intactas a las sanas.
Los investigadores comprobaron en células humanas in vitro que el nanosubmarino funciona perfectamente. Una idea muy interesante en la que seguir investigando.
Referencia:
Yingfeng Tu et al (2017) Redox-Sensitive Stomatocyte Nanomotors: Destruction and Drug Release in the Presence of Glutathione Angewandte Chemie International Edition doi: 10.1002/anie.201703276
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Un nanosubmarino, autoensamblado, autoorientable y autodestruible se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Otra pieza en el puzle de la fotosíntesis
- Cómo sintetizar casi cualquier biomaterial usando ADN
- Usando ADN para sintetizar nanoestructuras de oro
Círculos japoneses
El pasado mes de enero de 2017, la revista de cultura, moda y tendencias The Balde, que se publicaba en euskera e inglés, sacó su último número, el 89, tras 15 años en activo. Aunque el trabajo de todos estos años no se ha perdido, puesto que los 89 números de la revista siguen estando accesibles en la red en la siguiente dirección: the Balde .

Portada del número 87 de la revista The Balde, que llevaba por título “Geometría Besatzen / Pitagora’s nightmare”. La imagen es obra de BYG
En la entrada del Cuaderno de Cultura Científica de hoy os traigo precisamente un interesante proyecto artístico que fue publicado en el número 50 de The Balde, en el año 2010.

Círculos japoneses 1 / borobil japoniarrak 1/ japanese circles 1, de txo!?, 2010

Círculos japoneses 2 / borobil japoniarrak 2/ japanese circles 2, de txo!?, 2010
El artista navarro Txo!? hizo uso de círculos y elipses para crear algunos sencillos y hermosos retratos, que constituían un nuevo ejemplo de cómo crear bellas obras de arte mediante la utilización únicamente de elementos geométricos muy sencillos.

En la escultura de bronce “Figura sentada” (1915), que está en el Museo de Bellas Artes de Bilbao, su autor Jacques Lipchtiz utiliza cilindros y paralelepípedos para representar la figura de una persona sentada
En el texto que acompañaba en la revista The Balde a los retratos, el propio artista Txo!? explicaba el origen de su idea.
“Viajé a Japón y me perdí por sus calles. Hasta que no realicé cuatro o cinco retratos rápidos, no me di cuenta de que las caras de las personas de aquel lugar podían ser descritas mediante círculos. Quizás esto tenía algo que ver con el círculo rojo de su bandera local.”

Círculos japoneses 3 / borobil japoniarrak 3/ japanese circles 3, de txo!?, 2010
Nota: Mi más sincero agradecimiento a Txo!? por permitirme traer al Cuaderno de Cultura Científica sus obras publicadas en el número 50 de la revista The Balde.
Bibliografía
1.- Revista The Balde
2.- Página web de BYG
3.- Blog del artista Txo!?
4.- Página web del artista Txo!?
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Círculos japoneses se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La ‘química’ entre círculos (y esferas)
- Artistas que miran a las matemáticas
- El problema de Malfatti
Evolución de los sistemas nerviosos: cnidarios y gusanos no segmentados
Aunque puede que ocurriera en más de una ocasión, lo más probable es que las neuronas surgieran solamente una vez, en los cnidarios. Seguramente lo hicieron a partir de células epiteliales capaces de propagar potenciales de acción. Esas células estarían conectadas eléctricamente con otras de la capa superficial, para posteriormente pasar a establecer comunicación química entre ellas. Poríferos, placozoos y mesozoos carecen de sistemas nerviosos.
Los sistemas nerviosos surgen de la disposición de las neuronas en redes difusas o en cordones nerviosos. Se suele asumir que la presencia de redes difusas de neuronas es un rasgo de primitivismo. Sin embargo, es muy probable que se trate de un carácter ligado al tipo de simetría corporal y a las necesidades que impone el modo de vida de cada grupo o linaje. De hecho, en casi todos los grupos hay redes difusas de neuronas en los sistemas periféricos.
Pueden seguirse diferentes aproximaciones al estudiar el sistema nervioso. Cuando se analiza desde un punto de vista puramente anatómico, suele establecerse una distinción entre sistema central y sistema periférico. Y funcionalmente suelen considerarse el subsistema somático y el autónomo. También la dirección que siguen las señales se utiliza como criterio: Desde ese punto de vista se puede considerar un subsistema aferente, que es el que conduce las señales de los sistemas receptores al centro o centros en que se procesa la información; y también un subsistema eferente, que es el que conduce las señales elaboradas en los centros de procesamiento hasta los sistemas efectores encargados de dar respuestas. Pero en todo caso, no debe perderse de vista que se trata de clasificaciones que hacemos los biólogos para poner orden y facilitar el conocimiento de la materia de estudio, no de categorías que, como tales, hayan sido generadas por la naturaleza.
El sistema nervioso de los cnidarios consta de una o varias redes bidimensionales y difusas de neuronas. Y su comportamiento es, lógicamente, muy simple: comprende sobre todo movimientos de natación, defensa y captura de alimento. Algunas formas de comportamiento son rítmicas (natación en medusas, bombeo peristáltico en hidras, enterramiento en anémonas y ritmos de expansión y contracción en anémonas). Esos movimientos rítmicos son debidos a la acción de potenciales marcapasos por parte de células especializadas.
Como iremos viendo, la condensación de tejido nervioso y la posición del encéfalo o de los ganglios encefálicos son el resultado de presiones selectivas asociadas con la simetría bilateral y con modos de vida en los que los ancestros se desplazaban por encima de un sustrato. La cefalización surge en respuesta a la necesidad de disponer de una elevada concentración de estructuras sensoriales en el extremo anterior del cuerpo y al valor de que el encéfalo se encuentre lo más próximo posible a esas estructuras. De esa forma, las señales con información sensorial llegan en el tiempo mínimo posible al centro de procesamiento para, cuanto antes, elaborar la respuesta adecuada. El cordón nervioso longitudinal surge como el modo más eficaz para transmitir señales motoras a lo largo del cuerpo.
Las presiones selectivas que han actuado sobre los animales con simetría radial son muy diferentes. En estos, las estructuras sensoriales se distribuyen en los 360º y a menudo están asociadas con un sistema nervioso central de estructura anular. Ese sistema, que surge por condensación de redes nerviosas, envía señales a las estructuras efectoras mediante nervios radiales. Sistemas de este tipo se hallan en algunos cnidarios y en equinodermos.
Los platelmintos, los pseudocelomados y los filos menores de celomados representan la transición entre la organización del tipo red nerviosa al sistema nervioso central más desarrollado de los invertebrados superiores y vertebrados. Estos, como ya se ha dicho, presentan un elevado grado de cefalización y concentración de neuronas en un sistema nervioso central.
Los platelmintos o gusanos planos representan un estado intermedio en la transición. Poseen un encéfalo claramente definido y un par de troncos nerviosos que se extienden a lo largo del cuerpo. También poseen una red nerviosa distribuida por la superficie corporal. El encéfalo es el órgano que “toma decisiones” y la red nerviosa ejerce control local, incluyendo arcos reflejos, sobre los músculos. Así, aunque el control de la alimentación corresponde al encéfalo, ésta puede mantenerse, mediante reflejos, en su ausencia.
Por su parte, los nemátodos disponen de una red nerviosa periférica y la concentración de neuronas se produce en un cordón central sin ganglios. Un anillo en el extremo anterior puede ejercer las funciones del encéfalo. Acciones como deposición de huevos y defecación pueden realizarse sin el extremo corporal anterior.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Evolución de los sistemas nerviosos: cnidarios y gusanos no segmentados se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Potencia y eficiencia de una máquina

El motor del Bugatti Chiron proporciona 1.409 CV de potencia y consume más de 25 L de combustible para recorrer 100 km a velocidades legales. Es potente pero, ¿es eficiente? Como comparación un Toyota Prius consume 3,3 L en las mismas condiciones.
Lo útil que puede ser una máquina para una tarea concreta viene dado por el ritmo al que puede proporcionar energía. La velocidad a la que una máquina proporciona energía es a lo que llamamos potencia. Por definición, la potencia (P) es la cantidad de energía (E) proporcionada por unidad de tiempo (t), es decir, P = E/t
Existen varias unidades de potencia con definiciones basadas en la tradición. Entre ellas están los caballos de potencia, como cuando decimos que un coche tiene 300 CV, donde “CV” significa caballo de vapor. Antes de la máquina de vapor la fuente de potencia habitual era el trabajo de los caballos. Watt, con objeto de evaluar sus máquinas en una unidad que la gente de la época pudiese entender, midió la potencia de un caballo. Sus resultados mostraban que un caballo sano y fuerte, trabajando continuamente, podía levantar un objeto de 75 kg de masa, que pesa alrededor de 750 newtons, a una velocidad del orden de 1 m/s (ni que decir tiene que Watt empleó libras y pies y que nosotros usamos sus equivalentes en el Sistema Internacional). Aunque conserva el nombre, la unidad actual “caballo de potencia” tiene un valor dado por definición y no por un experimento.
En el Sistema Internacional la unidad de potencia se llama, como no podía ser de otra manera, watt, españolizada como vatio, de símbolo W. Un vatio se define como un julio de energía por segundo o, en símbolos, 1 W = 1 J/s. Así pues, el caballo de Watt tenía una potencia de 750 W, ya que desarrollaba un trabajo (energía) de 750 N · 1m/s y 1 J = 1 N·m. Según Watt, por tanto, 1 caballo de vapor eran unos 750 W.
Pero la potencia por sí misma no nos dice si el empleo de una máquina en concreto tiene sentido económico. Efectivamente, sabemos que la cantidad de energía mecánica que se corresponde a una unidad de energía térmica es el “equivalente mecánico del calor”. El hallazgo por parte de Joule de un valor para este equivalente mecánico del calor hizo posible definir las máquinas de una forma completamente nueva usando el concepto de eficiencia.
Este concepto de eficiencia puede aplicarse a una máquina o a cualquier dispositivo que transforma energía de una forma a otra como, por ejemplo, de energía térmica en energía mecánica. La eficiencia se define como la razón de la energía útil que proporciona la máquina o dispositivo, a la que llamaremos energía de salida Es, y la energía que hemos “introducido” en la máquina, Ei. Usando símbolos y empleando ef para eficiencia, podemos escribir: ef = Es / Ei. Algunas veces es cómodo expresar la eficiencia en porcentaje, por lo que en esos casos ef (%) = (Es / Ei) ·100.
Como la energía no puede destruirse, la máxima eficiencia de una máquina sería 100 %, lo que significa que toda la energía introducida a parece transformada en energía útil de salida. La eficiencia es tan importante como la potencia en el diseño de máquinas y dispositivos y, algunas veces más. Después de todo la energía que se introduce, ya sea en forma de combustible o de energía eléctrica, es una parte muy importante en el costo de operación, y cuanto más eficiencia más barato es de operar y, todo lo demás igual, menos contamina.

El concepto de eficiencia permite establecer una clasificación de máquinas y dispositivos equivalentes en función del uso que hacen de la energía. Esta clasificación es una guía para el ahorro y la conciencia medioambiental de los usuarios.
La máquina de Watt era más eficiente que la de Newcomen que, a su vez, era más eficiente que la de Savery. Pero, ¿existe algún límite a las mejoras en la eficiencia? El límite superior del 100 % viene impuesto por la ley de la conservación de la energía; es decir, ninguna máquina puede producir más energía mecánica de la que se le introduce en cualquiera de las formas posibles. Con todo, incluso antes de que se formulase expresamente la ley de conservación de la energía, un joven ingeniero francés, Sadi Carnot, estableció que en la práctica el límite superior de eficiencia es mucho menor. Las razones para la existencia de este límite son tan fundamentales como la propia ley de la conservación de la energía.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Potencia y eficiencia de una máquina se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:¿Nacidos para creer?
¿Cuál es el origen de las creencias religiosas? ¿Cuál su razón de ser? ¿El tener creencias religiosas es inherente a nuestro “cableado” cerebral? ¿Las llevamos de serie? ¿Qué función cumplen?
A esas preguntas se les viene dando dos respuestas netamente diferenciadas aunque, a decir de algunos de sus defensores, no necesariamente contrapuestas. Unos sostienen que los seres humanos estamos predispuestos a creer en entes sobrenaturales, en la existencia de un propósito y un diseño para todo lo existente y en una (o varias) divinidad(es). Esta tesis se sustenta en los resultados de distintos estudios y, muy en especial, en los realizados con niños de muy corta edad, niños que muestran, en sus respuestas a determinados estímulos y cuestionarios, que están equipados con una especie de “lote” mental con esos componentes. Parece que la existencia de ese “lote” está muy relacionada con un sentido sobredesarrollado de las relaciones causa-efecto. El que confiesen una u otra religión, o incluso ninguna, sería consecuencia posterior del entorno formativo y religioso en que se educan. Según quienes promueven esta tesis, las creencias religiosas serían un subproducto del modo en que funciona nuestro cerebro. Esto es, sostienen que el fenómeno es similar a lo que ocurre con los sesgos cognitivos que dan lugar a otro tipo de creencias. Así pues, algunas de las capacidades cognitivas que nos han convertido en una especie tan exitosa, actuarían conjuntamente para crear una tendencia al pensamiento sobrenatural.
La otra postura sostiene que las creencias religiosas, las religiones, existen porque han ayudado a las colectividades humanas a perpetuarse en el tiempo. Esto es, existen porque han tenido valor adaptativo. Y eso puede ocurrir, por ejemplo, porque el sistema de valores compartido en que consiste una religión ayuda a que el grupo se encuentre más cohesionado y esto facilita su perdurabilidad y éxito a largo plazo. Algunos defensores de esta segunda idea consideran los sistemas de creencias como elementos culturales que se transmiten horizontal (entre los miembros de una misma generación) como verticalmente (de una generación a la siguiente dentro de una misma sociedad).
Como he apuntado al comienzo, las dos posturas no son necesariamente contrapuestas. Quienes así opinan sostienen que hay que distinguir la causa inmediata, esto es, el hecho de que haya una base neurológica (hard-wired) para las creencias religiosas (aunque sean éstas un subproducto de otros rasgos cognitivos), de la causa última, la relacionada con su valor adaptativo. Dicho de otra forma, las religiones surgirían por una razón, pero tienen éxito, perduran y se extienden por otra. David S. Wilson, Robin Dunbar y Richard Dawkins, por ejemplo, opinan que ambos puntos de vista son perfectamente compatibles.
Y claro está, una cosa es por qué la gente cree o no en un dios, y otra muy distinta es si esa creencia es verdadera o falsa. Son dos asuntos, aunque pueda no parecerlo, independientes.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo ¿Nacidos para creer? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cuando “ver para creer” no es suficiente
- Quiero creer que actúo libremente
- El terrorismo como sacerdocio
Algoritmos de triaje para readmitidos en urgencias

Hospital Clínico José Joaquín Aguirre de la Universidad de Chile, fuente de los datos empleados en la investigación
Los hospitales y demás centros dedicados a la salud almacenan multitud de bases de datos con todos los registros de múltiples variables fisiológicas de los pacientes que atienden. El procesamiento y análisis de estos datos puede permitir al personal sanitario anticiparse y detectar aquellos pacientes que presentan mayor riesgo de tener una evolución desfavorable. Asier Garmendia, investigador del GIC (Grupo de Inteligencia Computacional) de la UPV/EHU ha desarrollado un sistema basado en inteligencia computacional para este fin.
En su estudio, y posterior desarrollo de los algoritmos necesarios para el sistema, utilizó dos bases de datos procedentes un hospital universitario de Santiago de Chile. Una de las bases de datos elegidas para este estudio corresponde a pacientes pediátricos que han sido ingresados alguna vez en las unidades de cuidados intensivos por problemas respiratorios, y la otra a pacientes que habiendo acudido a los servicios de urgencias son dados de alta pero tras varios días han vuelto y entonces han sido ingresados. Estas dos bases de datos coinciden “con dos de los mayores problemas del ámbito de la salud asociados a las grandes ciudades como Santiago de Chile, que son las enfermedades respiratorias originadas por la polución, y la gestión de la atención y cuidado de los pacientes que acuden en busca de atención médica”, comenta Garmendia.
En el primero de los casos, utilizando los registros de las variables que se toman a cada paciente cada cierto tiempo mientras está hospitalizado, el objetivo fue definir el nivel de triaje, que es la variable que clasifica a los pacientes en función de su gravedad, a partir del resto de variables medidas, como temperatura, saturación de oxígeno, frecuencia respiratoria, etc. “Mediante algoritmos de inteligencia computacional, se intenta predecir cuál debería ser el triaje” comenta el investigador”. El último objetivo de este sistema sería “monitorizar de forma automática a los pacientes, y que saltara una alarma cada vez que el triaje empeora”. Este estudio ha desvelado, asimismo, que la variable que mejor predice el nivel de triaje es la frecuencia respiratoria. “Esto resulta curioso, ya que los médicos responden que, en su opinión, la variable que mejor predice dicho triaje es la saturación de oxígeno en sangre”, añade.
En el segundo de los casos, lo que buscaron fue intentar detectar el destino que se les debería dar a los pacientes que acuden al servicio de urgencia, es decir, si darles el alta o ingresarlos. “El problema que existe en este aspecto es que una parte de los pacientes que son dados de alta en la primera consulta vuelven al servicio de urgencias al cabo de una serie de días, y entonces sí, son ingresados. Aproximadamente el 14% de los pacientes pediátricos que vuelven a acudir a la consulta en un intervalo de tiempo entre 3 y 7 días son hospitalizados. En el caso de los pacientes adultos, son 1 de cada 3”, explica Garmendia.
“El contar con un sistema que solucione esta problemática traería consigo una mejor atención a los pacientes, por supuesto, pero además supondría un ahorro económico importante. Por un lado, se gestionaría mejor los recursos de los servicios de salud, y por otro, se evitaría una situación que se da actualmente con los seguros: no se hacen cargo de los gastos derivados de la hospitalización en estos casos, por entender que se trata de una negligencia hospitalaria al haberle dado el alta en la primera consulta”, añade. Los algoritmos desarrollados para este fin dieron como resultado un nivel de precisión del 60 %; es decir, “nuestro sistema fue capaz de detectar la gravedad de seis de cada diez pacientes que en un principio no parecían susceptibles de ser ingresados inmediatamente”.
Los sistemas de predicción desarrollados “pueden ser extensibles y aplicables a cualquier hospital, a cualquier país”, comenta Garmendia. Eso sí, previamente “es necesario seguir trabajando en el diseño del sistema, ampliar el número de datos, y realizar los ajustes necesarios”, concluye.
Referencia:
A. Garmendia, M. Graña, J. M. Lopez-Guede, S. Rios. 2017. Predicting Patient Hospitalization after Emergency Readmission.. Cybernetics and Systems-An International Journal 48, Issue 3: 182-192. DOI: 10.1080/01969722.2016.1276772.
El artículo Algoritmos de triaje para readmitidos en urgencias se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Algoritmos para que los parques eólicos no interfieran con los radares
- Una nueva diana terapéutica para el neuroblastoma
- Una ecuación para determinar la grasa en el hígado a partir de una resonancia
El valor de la curiosidad
Muchos atribuyen a la falta de cultura científica el que haya amplios sectores de la población que no aceptan que el clima esté cambiando y que ese fenómeno tenga su origen en la actividad humana. Creen, en consecuencia, que proporcionando una buena educación científica el cambio climático acabará siendo aceptado como un hecho real. Las cosas, como en tantas ocasiones, no parecen ser tan sencillas.
El psicólogo de la Universidad de Bristol (Reino Unido) Stephan Lewandosky ha observado que la actitud de una persona para con el cambio climático depende más de factores emocionales ligados a la ideología que de elementos racionales. Y Dan Kahan -psicólogo también, pero de la Universidad de Yale (EEUU)- ha comprobado que cuanto mayor es el conocimiento científico de una persona más firme es la postura, sea a favor o sea en contra, que mantiene en esa controversia. De hecho, quienes saben manejar información científica suelen elaborar buenos argumentos a favor de sus ideas, a la vez que ignoran los contrarios. Al parecer, la culpa la tiene el llamado “razonamiento motivado”, fenómeno que está en la base de las paradojas que consisten en ignorar las pruebas que respaldan hechos contrastados, mientras se asumen como tales datos anecdóticos que respaldan la posición que mejor se acomoda a nuestros deseos y visión de la realidad.
El razonamiento motivado surte unos efectos tan poderosos que personas capaces de interpretar correctamente información estadística compleja sobre cuestiones variadas, pierden tal capacidad cuando lo que han de considerar son hechos o datos con implicaciones ideológicas. Si a las consecuencias del razonamiento motivado añadimos la influencia de las redes sociales de internet, por la ausencia de filtros de calidad al flujo de información y por su efecto de caja de resonancia de las ideas con las que más nos identificamos, la receta de la posverdad está servida.
En los ejemplos anteriores me he referido a sesgos característicos de perfiles ideológicos conservadores. Pero quienes se consideran a sí mismos progresistas tampoco están a salvo de los efectos del razonamiento motivado. Muchos lo ponen en práctica, por ejemplo, a la hora de evaluar cuestiones tales como los (supuestos) efectos sobre la salud de las radiaciones electromagnéticas de telefonía móvil o redes wi-fi, o los de las plantas transgénicas y del consumo de alimentos procedentes de esas plantas. Y además de las de carácter político, también hay motivaciones ideológicas con otras bases, por supuesto, como la religiosa.
Es fácil caer en la tentación fatalista y aceptar que es inevitable sufrir las consecuencias del razonamiento motivado y, por lo tanto, que estamos condenados, en un futuro de duración incierta, a convivir con la posverdad. Pero eso sería socialmente suicida, pues solo debates basados en datos contrastados pueden ser verdaderamente democráticos y útiles, condición necesaria para el progreso social. La clave está, quizás, en la formación que se dé a los niños y niñas de hoy y de mañana, una formación que debería servir para hacerlos más conscientes del peligro que entraña una comunicación de masas sin mediaciones, de la influencia de los sesgos, y del efecto de las emociones en nuestra capacidad para aprehender la realidad.
En medio de ese panorama, Dan Kahan también ha observado algo alentador: que las personas con curiosidad científica, sea cual sea su orientación ideológica, tienden a aceptar con facilidad hechos contrastados y, lo que es más importante, están más dispuestas a recurrir a fuentes diversas para informarse. El psicólogo norteamericano cree, por ello, que una clave para superar la posverdad puede radicar, precisamente, en la capacidad para cultivar la curiosidad en las generaciones más jóvenes.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 12 de marzo de 2017.
El artículo El valor de la curiosidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La ciencia: pasión, asombro y curiosidad.
- Dando valor a los residuos marinos para cuadrar la economía circular
- Zombis éticos
Redescubriendo el primer arte vasco: nuevos hallazgos, nuevas investigaciones
La prospección sistemática desarrollada conjuntamente por arqueólogos y espeleólogos durante la última década ha multiplicado la aparición de arte parietal paleolítico en diferentes puntos del País Vasco. Las cuevas de Atxurra (Berriatua) y Armintxe (Lekeitio), guardan en su interior sendos yacimientos que representan dos grandes ‘santuarios’ del arte rupestre. El reciente hallazgo y estudio de estas muestras ha aportado una nueva visión sobre los primeros indicios de arte creado por el ser humano en el territorio del País Vasco.
El técnico arqueólogo del Museo Arqueológico de Bizkaia, Diego Gárate, explicó la relevancia de estos hallazgos en una charla que tuvo lugar el pasado 20 de diciembre en Azkuna Zentroa (Bilbao), en el marco de ciclo de conferencias Zientziateka que organizan todos los meses la Cátedra de Cultura Científica de la UPV/EHU con el objetivo de divulgar acontecimientos científicos de actualidad.
Redescubriendo el primer arte vasco: nuevos hallazgosEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Redescubriendo el primer arte vasco: nuevos hallazgos, nuevas investigaciones se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Conspiraciones y ciencia defectuosa
¿Existen las conspiraciones? ¡Preguntad por Julio César, por las tabaqueras o por los casos aislados de corrupción en política! Desde que Homo sapiens es Homo sapiens grupos de al menos dos personas han estado reuniéndose para planear actos en secreto —los grupos de uno, también llamados «personas solas», no pueden conspirar etimológicamente hablando: solo pueden tramar, urdir o maquinar—. Bromas de diccionario aparte, la clave está en el secreto.
Es posible que los planes deban mantenerse ocultos porque sean ilegales, inmorales, o porque su encubrimiento les confiere ventajas para obtener algún tipo de ganancia, económica o de poder. Así, descubrir el secreto deviene un elemento fundamental a la hora de desenmascarar una conspiración; demuestra la intención de los confabulados y revela ante el mundo su doblez, intensificada por la colaboración necesaria para obtener sus fines.
La experiencia, los libros de historia e incluso las noticias de todos los días demuestran que las conspiraciones existen. ¿A qué llamamos entonces conspiranoia? Podríamos acordar en llamar con ese compuesto de conspiración y paranoia a la creencia individual en conspiraciones realmente grandes: contubernios que, de ser ciertos y revelarse, harían que nuestra forma de vida o nuestro sistema de creencias cambiaran de forma sustancial.
La religión organizada no es un ejemplo de conspiranoia: lo sería, por ejemplo, creer en alguna trama similar al conocido folletín de Dan Brown, «El código Da Vinci». No importa, por ejemplo, si Jesús de Nazaret existió o no, o si de existir fue hijo de quien se afirma. Los creyentes ya lo son, y no se basan para ello en ninguna evidencia documental, sino en la fe —¡mueve montañas, lectores míos! Sin embargo, la presunta existencia de documentos que demostraran, sin género de dudas, que el tal Jesús fue un salteador de caminos en la Galilea del siglo I y que toda la literatura posterior fue urdida por una camarilla de bromistas, siglo y medio después, en la Grecia latinizada sí constituiría un ejemplo perfecto de conspiranoia.
La mismísima navaja de Ockham —hija nada menos que de la escolástica del siglo XIV— o la famosa máxima de Sagan, de la que el astrónomo y divulgador es responsable de la económica fórmula «afirmaciones extraordinarias requieren de evidencia extraordinaria», aunque puedan trazarse pensamientos con análogo sentido al menos hasta las obras del gran filósofo ilustrado David Hume, han servido siempre para descontar las conspiranoias como posibilidad real. Sin embargo ¿no sería bonito disponer de alguna herramienta analítica para descartar, con ayuda de las matemáticas, las hipótesis de gran conspiración?
Eso mismo debió pensar David R. Grimes, un físico post-doc en la Universidad de Oxford. En 2016, en un estudio publicado en la revista PLOS ONE, se lanzó a la tarea de analizar matemáticamente la sostenibilidad de un modelo razonable de conspiración en función de tres variables fundamentales: su duración en el tiempo como secreto no expuesto, el número de personas involucradas y la probabilidad anual de que un participante «cantara» o sufriera una fuga de información involuntaria. No se conformó con establecer el modelo, sino que también realizó una estimación para cuatro casos de conspiranoia ampliamente conocidos:
- «Los alunizajes del Apolo fueron fingidos en un estudio de cine».
- «El cambio climático es mentira».
- «Las vacunas son peligrosas y la industria farmacéutica calla».
- «Existe una cura para el cáncer y la industria farmacéutica la oculta».
Grimes estimó que el programa Apolo empleó a 411000 personas tan solo en la NASA de los años 60; que hay alrededor de 405000 científicos involucrados en estudios sobre el cambio climático (incluyendo, entre otros, a los empleados actuales de la NASA); que 736000 personas —22000 si tan solo teniendo en cuenta empleados del Centre for Disease Control americano y la Organización Mundial de la Salud— controlan la información relacionada con las vacunas; y, por último, que los empleados de las grandes farmacéuticas (Johnson and Johnson, Pfizer, Sanofi, entre otras) suman un total de 714000 posibles soplones (o traspapeladores de información).
Con una probabilidad anualizada de fallo en la custodia del secreto por una persona estimada a partir de conspiraciones reales y descubiertas de 4,09×10⁻⁶ —es decir, cuatro entre un millón cada año, los resultados cantaron por sí solos:
La probabilidad de fallo en la conspiración L supera el 95% tras 3,68 años en el caso de los alunizajes del Apolo, tras 3,7 años para el cambio climático, tras 3,15 años para los posibles daños causados por las vacunas, y tras 3,17 años para la «supresión» de la cura del cáncer. Los plazos, naturalmente, se incrementan si se consideran subconjuntos de personas involucradas (por ejemplo, tan solo los organismos reguladores en las dos últimas conspiranoias). Una espectacular refutación del concepto de la gran conspiración. A menos que haya algo en el estudio que permita ponerlo todo en tela de juicio. ¿Lo hay?
Pues bien: el artículo original es prácticamente un ejemplo de manual de cómo no preparar un paper. Empezando por la probabilidad de fallo en la custodia del secreto por persona y año: ¿cómo se dedujo? Sería de esperar que el autor hubiera realizado un estudio pormenorizado para diferentes conspiraciones descubiertas, que estimara cuántas personas habrían estado involucradas y su tiempo de vida como secretos y a partir de ahí dedujera un valor para este parámetro tan importante. ¿Lo hizo? No. Tomó un atajo y analizó tres conspiraciones:
- El programa PRISM de vigilancia secreta de la Agencia de Seguridad Nacional (NSA) americana, desvelado por Edward Snowden en 2013.
- El experimento Tuskegee llevado a cabo por el Departamento de Salud Pública americano, que analizó la incidencia de la sífilis sobre la población afroamericana del estado de Alabama, y que negó el tratamiento conocido —penicilina— a cientos de personas infectadas desde finales de los años 40 hasta su revelación definitiva en 1972.
- El escándalo que afectó al laboratorio forense del FBI en 1998, en el que se descubrieron fallos graves en los protocolos de análisis que afectaron al resultado de juicios de más de 10000 personas, algunas de las cuales fueron condenadas a muerte con pruebas obtenidas de forma errónea.
No es necesario que nos detengamos demasiado en los riesgos de inferir valores para cualquier parámetro experimental basados en tres medidas, pero en este caso las medidas están, además, mal seleccionadas y tomadas sin cuidado, con incógnitas de gran magnitud que podrían afectar considerablemente al valor de la probabilidad de fallo en el secreto —hacia arriba o hacia abajo. Veamos: ¿cuántas personas estuvieron involucradas en cada caso? Para el caso de la NSA ofrece un número de 30000, lo que implica que la totalidad de los empleados de la agencia estarían potencialmente implicados en ese proyecto concreto. Todos los ejemplos llevan el sello de denominación de origen estadounidense, lo que podría minar la posible validez global de los resultados.
No solo eso; además, dos de ellos implican a agencias de seguridad, donde puede asumirse que el coste personal asociado a una revelación de secretos será particularmente alto. Los tres ejemplos implican a un número potencial de personas muy alto. Y por último: ¿dónde están los ejemplos de conspiraciones pequeñas?
Sin embargo, este fallo grave en la recogida de datos no es el único del artículo. El modelo matemático considera, para conspiraciones de suficiente duración, una tasa de desaparición de los conspiradores —entendamos que por fallecimiento, aunque nadie nos podría echar en cara que inventáramos explicaciones más creativas. Pues bien: echad un vistazo al siguiente gráfico de probabilidad acumulada de fallo en la conspiración (la misma variable L de los gráficos anteriores, solo que estimada para una conspiración sintética cuyas condiciones de contorno no vienen ahora al caso):
Como podéis observar, hay modelos en los que la probabilidad acumulada de fallo en la conspiración disminuye con el tiempo. Pero esto es equivalente a suponer que ¡la conspiración puede volver a ser secreta una vez revelada! La intuición más elemental afirma que a cualquier conspiración que llegue a ser conocida por el público debería aplicársele la máxima expresada al final del primer segmento del episodio 18 de la tercera temporada de Futurama, «Historias de Interés II»:
You watched it, you can’t unwatch it! (¡Lo habéis visto, no podéis des-verlo!)
Se supone que PLOS ONE es una publicación respetable y revisada por pares y no una revista de «estudios culturales posmodernos» como la que se tragó el cebo de Alan Sokal en 1996. Es legítimo preguntarse: ¿quién se durmió aquí al timón? ¿Ocurren casos así con la frecuencia suficiente como para preocuparse por la calidad de lo que llamamos «ciencia»? ¿Forma acaso todo esto parte de una conspiración?
Salvo la última pregunta, que claramente es una broma (sí, en serio), las otras dos son perfectamente pertinentes. La consecuencia es que si uno busca información acerca de la investigación de Grimes no es difícil encontrarse con la aseveración de que está desacreditada (debunked, en inglés). Lo cierto es que, solventados los errores matemáticos de planteamiento del modelo —cosa que hizo el autor en una corrección publicada en PLOS ONE poco después—, las conclusiones finales pueden seguir siendo consideradas válidas. Haría falta un trabajo más exhaustivo en lo referente a la estimación de la probabilidad de revelación de información por persona y año, pero la popularidad del chismorreo entre nuestra especie hace sospechar que quizá valores de una entre un millón sean excesivamente optimistas de cara a planear una conspiración de largo alcance. Porque las conspiraciones existen, las conspiraciones particularmente grandes son también extremadamente inviables, y la ciencia, con todos sus defectos, termina corrigiéndose para ofrecernos una —condicional, mejorable, pero sólida— última palabra.
Este post ha sido realizado por Iván Rivera (@Brucknerite) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU
Bibliografía y más información:
Grimes, D. R. (2016). On the Viability of Conspiratorial Beliefs. PLOS ONE, 11(1). doi:10.1371/journal.pone.0147905
Grimes, D. R. (2016). Correction: On the Viability of Conspiratorial Beliefs. PLOS ONE, 11(3). doi:10.1371/journal.pone.0151003
Robbins, M. (2016). The maths of the paper disproving conspiracy theories don’t add up. Visitado el 22/05/2017 en http://littleatoms.com/david-grimes-conspiracy-theory-maths
Sokal, A. D. (06/1996). A Physicist Experiments With Cultural Studies. Visitado el 22/05/2017 en http://www.physics.nyu.edu/faculty/sokal/lingua_franca_v4/lingua_franca_v4.html
Tuskegee Syphilis Study Legacy Committee. (05/1996). Final Report of the Tuskegee Syphilis Study Legacy Committee. Visitado el 22/05/2017 en http://exhibits.hsl.virginia.edu/badblood/report/
USDOJ/OIG (04/1997). The FBI Laboratory: An Investigation into Laboratory Practices and Alleged Misconduct in Explosives-Related and Other Cases. Visitado el 22/05/2017 en https://oig.justice.gov/special/9704a/
El artículo Conspiraciones y ciencia defectuosa se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Lo que los sabelotodos no saben, o la ilusión de competencia
Kate Fehlhaber

¡Cuidado! Choque frontal en la rural Dakota del Sur en 1932. El 80 por ciento de los conductores se autoevalúan por encima de la media. Foto cortesía de Wikipedia.
Un día, en 1995, un hombre grande y pesado de mediana edad robó dos bancos de Pittsburgh a plena luz del día. No llevaba máscara ni ningún tipo de disfraz. Y sonrió a las cámaras de vigilancia antes de salir de cada banco. Esa misma noche, la policía arrestaba a un sorprendido McArthur Wheeler. Cuando le mostraron las cintas de vigilancia, Wheeler las miró fijamente sin creer lo que veía. “Pero yo llevaba el zumo”. Al parecer, Wheeler había pensado que frotarse la piel con zumo de limón lo haría invisible a las cámaras de vídeo. Después de todo, el zumo de limón se utiliza como tinta invisible, por lo que, siempre y cuando no se acercara a una fuente de calor, debería haber sido completamente invisible.
La policía llegó a la conclusión de que Wheeler no estaba loco ni drogado, simplemente increíblemente equivocado.
La historia llamó la atención del psicólogo David Dunning de la Universidad de Cornell, quien reclutó a su estudiante de posgrado, Justin Kruger, para ver qué estaba pasando. Razonaron que, si bien casi todo el mundo tiene opiniones favorables de sus habilidades en diversos dominios sociales e intelectuales, algunas personas evalúan erróneamente sus habilidades como mucho más altas de lo que realmente son. Esta “ilusión de confianza” se denomina ahora “efecto Dunning-Kruger” y describe el sesgo cognitivo que infla la autoevaluación.
Para investigar este fenómeno en el laboratorio, Dunning y Kruger diseñaron algunos experimentos muy ingeniosos. En un estudio, hicieron una serie de preguntas sobre gramática, lógica y chistes a estudiantes universitarios, y luego pidieron a cada estudiante que estimara su puntuación general, así como su posición relativa con respecto a los otros estudiantes. Curiosamente, los estudiantes que obtuvieron la puntuación más baja en estas tareas cognitivas siempre sobreestimaron lo bien que lo habían hecho – por mucho. ¡Los estudiantes que obtuvieron puntuaciones en el cuartil inferior estimaron que lo habían hecho mejor que dos tercios de los otros estudiantes!
Esta “ilusión de confianza” se extiende más allá del aula y permea la vida cotidiana. En un estudio de seguimiento, Dunning y Kruger salieron del laboratorio y fueron a un campo de tiro, donde interrogaron a los aficionados sobre la seguridad de las armas. Al igual que en sus resultados anteriores, aquellos que respondieron correctamente a la menor cantidad de preguntas sobreestimaron mucho su conocimiento sobre las armas de fuego. Aparte del conocimiento basado en datos objetivos, sin embargo, el efecto Dunning-Kruger también se puede observar en la autoevaluación que hacen las personas de otras muchas habilidades personales. Si sigues algún programa de talentos en televisión, verás la sorpresa en los rostros de los concursantes que no pasan las audiciones y son rechazados por los jueces. Aunque es casi cómico para nosotros, estas personas son realmente inconscientes de cuánto han sido engañados por su ilusión de superioridad.
Sin duda, es típico que la gente sobreestime sus habilidades. Un estudio encontró que el 80 por ciento de los conductores se clasifican como por encima del promedio – una imposibilidad estadística. Y tendencias similares se han encontrado cuando las personas valoran su popularidad relativa y sus habilidades cognitivas. El problema es que cuando las personas son incompetentes, no sólo llegan a conclusiones equivocadas y toman decisiones desafortunadas, sino que también carecen de la capacidad de darse cuenta de sus errores. En un estudio semestral de estudiantes universitarios, los estudiantes buenos podían predecir mejor su desempeño en los exámenes futuros si se les daba retroalimentación sobre sus calificaciones y percentil relativo. Sin embargo, los peores no mostraron ninguna muestra de reconocimiento, a pesar de comentarios claros y repetidos, de que lo estaban haciendo mal. En lugar de estar confundidos, perplejos o reflexivos por sus errores, la gente incompetente insiste en que su forma de hacer las cosas es la correcta. Como Charles Darwin escribió en The Descent of Man (1871): “La ignorancia más frecuentemente genera confianza de lo que lo hace el conocimiento”.
Curiosamente, las personas realmente inteligentes también fallan a la hora de autoevaluar con precisión sus habilidades. Tanto como los peores estudiantes sobreestiman sus habilidades, los mejores subestiman las suyas. En su estudio clásico, Dunning y Kruger encontraron que los estudiantes de alto rendimiento, cuyas puntuaciones cognitivas estaban en el cuartil superior, subestimaron su competencia relativa. Estos estudiantes suponían que si estas tareas cognitivas eran fáciles para ellos, entonces debían ser tan fáciles o incluso más fáciles para todos los demás. Este denominado «síndrome del impostor» puede asimilarse al efecto inverso del efecto Dunning-Kruger, en el que las personas sobresalientes no reconocen sus talentos y piensan que los demás son igualmente competentes. La diferencia es que las personas competentes pueden y ajustan su autoevaluación dada la retroalimentación apropiada, mientras que las personas incompetentes no pueden.
Y ahí está la clave para no terminar como el tonto ladrón de bancos. A veces probamos cosas que conducen a resultados favorables, pero otras veces, como la idea del zumo de limón, nuestros enfoques son imperfectos, irracionales, ineptos o sencillamente estúpidos. El truco es no dejarnos engañar por ilusiones de superioridad y aprender a reevaluar con precisión nuestra competencia. Después de todo, como se supone que decía Confucio, el verdadero conocimiento es conocer el alcance de la propia ignorancia.
Sobre la autora: Kate Fehlhaber es editora jefe de Knowing Neurons y se está doctorando en neurociencia en la Universidad de California, Los Angeles.
Texto traducido y adaptado por César Tomé López a partir del original publicado por Aeon el 17 de mayo de 2017 bajo una licencia Creative Commons (CC BY-ND 4.0)
El artículo Lo que los sabelotodos no saben, o la ilusión de competencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Por qué los colegios no deberían enseñar habilidades de pensamiento crítico generales
- ¿Jugar al ajedrez te hace más inteligente? Un vistazo a las pruebas
- La teoría de la inoculación: usar la desinformación para combatir la desinformación
La ciencia contra lo obvio
Escribir, dice un viejo proverbio literario, es duro porque hay que matar a todas tus amantes. No en el sentido literal, sino en el figurado: la mayor parte de las veces para que la trama fluya o para que el personaje encaje hay que eliminar justo aquellas partes de la escritura de las que uno se había enamorado. Las descripciones románticas y detalladas, los giros de la historia vital apasionantes, las disquisiciones filosóficas: todo eso que al escribir tanto nos gustó es lo que hay que quitar para que la novela tenga sentido, para que el libro funcione. La única forma de escribir algo que merezca la pena es matar a todas tus amantes. Y cuando en ciencia ocurre lo mismo.
No estimamos lo bastante hasta qué punto practicar ciencia consiste en demoler de forma sistemática y deliberada lo que parece obvio o evidente. Porque lejos de la idea ingenua de que la ciencia consiste en observar con nuestros propios ojos y escuchar con nuestros propios oídos para sacar nuestras propias conclusiones la verdad es que buena parte de la ciencia consiste en matar a todas nuestras amantes.
Tenemos que matar las impresiones falsas de nuestros sentidos y nuestro cerebro, que nos dan información parcial, sesgada e insuficiente del mundo real. Si tan sólo confiásemos en lo que vemos, olemos, gustamos y oímos una enorme parte del universo quedaría fuera de nuestro conocimiento para siempre. Por supuesto desconoceríamos todo aquello que no estamos equipados para detectar, pero también extraeríamos muchas conclusiones engañosas a partir de datos insuficientes mal interpretados por nuestro cerebro. Porque casi siempre lo que vemos y percibimos, lo que entendemos e integramos a partir de nuestros sentidos resulta ser insuficiente, cuando no falso. Para avanzar la ciencia tiene que matar lo obvio, lo directo, la realidad tal y como es a nuestros ojos.
Es obvio que la Tierra es plana, cuando miramos al horizonte; es obvio que los objetos más pesados caen más rápido, y que de la carne en descomposición surgen espontáneamente gusanos. Es obvio que las especies han sido siempre como son hoy y que la única forma de explicar el rayo y el trueno es que alguien muy poderoso está muy enfadado por encima de las nubes. Es obvio que las rocas no cambian de lugar y que los continentes están inmóviles, como es obvio que el observador, si es cuidadoso, puede mirar sin interferir con lo observado. Es obvio que el sol gira alrededor de la Tierra, como la Luna, y por tanto que somos el centro del universo.
Y como no nos gusta casi pensar que somos el centro del universo…
En ciencia matar a tus amantes significa saltarte las obviedades y mirar un poco más allá. Más lejos de donde llegan sus sentidos, pero también más lejos de lo que llega tu imaginación. Hay que perseguir lo obvio, poner en duda siempre lo que parece evidente, porque una buena parte del conocimiento del cosmos se esconde detrás de la primera (y obvia) impresión. Y por supuesto siempre hay que luchar por no enamorarse de las propias ideas hasta el punto de considerarlas sagradas, que es el camino hacia la fosilización del intelecto. Por eso de todas las amantes peligrosas nuestras propias teorías son las peores, y las que antes y con más razón merecen la muerte. Obviamente.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo La ciencia contra lo obvio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- En la ciencia todo se desarrolla vigoroso, obvio y estupendo como en un cuento de hadas
- Ciencia aplicada (4): Luchando contra el cáncer con nanotecnología… y camellos
- Ciencia y tecnología
Encontrando exoplanetas tapando las estrellas

El sistema solar de HR 8799. La imagen se obtuvo con observaciones realizadas con un coronógrafo de vórtice a lo largo de 7 años. Este sistema se encuentra a 129 años luz de distancia de la Tierra.
Un exoplaneta o planeta extrasolar es un planeta que está fuera de nuestro sistema solar. La primera detección confirmada de uno data de 1988, pero ha sido en los últimos años cuando el número de hallazgos confirmados se ha disparado. Los últimos datos oficiales (a cierre de abril) indican que se han encontrado 3.608 planetas en 2.702 sistemas planetarios de los que 610 tienen más de un planeta.
Un número que empieza a ser significativo hace que, por pura probabilidad, empiecen a aparecer planetas con características que los hacen potencialmente habitables, lo que ha acaparado portadas en prensa y que los exoplanetas sean conocidos por el público en general.
Con todo detectar exoplanetas no es precisamente fácil. Y ello se debe, fundamentalmente, a la enorme diferencia de luminosidad entre el planeta y la estrella que orbita, por lo que hay que recurrir a métodos indirectos y renunciar, en muchos casos, a disponer de información de sus atmósferas, por ejemplo, ya que no se pueden “ver”. Pero puede que esto cambie.
Artur Aleksanyan encabeza un grupo de astrónomos de la Universidad de Burdeos (Francia) que a propuesto una mejora a una de las técnicas que se emplean en la búsqueda de exoplanetas, en concreto la coronagrafía, que podría permitir ver directamente los exoplanetas en sistemas con dos o más estrellas, los más habituales en el universo hasta donde sabemos.

Imagen obtenida por un coronógrafo de vórtice de tres de los cuatro planetas que orbitan HR 8799 (que se encuentra en la posición X y etiquetada como “Star”). Este tipo de imagen se obtuvo por primera vez en 2008.
Un coronógrafo de vórtice fuerza una trayectoria espiral hacia el exterior a la luz entrante desde una fuente puntual en el espacio, “doblando” la luz a lo largo de una ruta que ya no coincide con la cámara del telescopio. Al hacerlo, bloquea la luz de la fuente, permitiendo que los objetos débiles cercanos a la fuente se vuelvan visibles: los fotones de los objetos pasan a través del dispositivo sin obstáculos. Esos objetos incluyen a los exoplanetas que orbitan a las estrellas. Pero los coronógrafos de vórtice actuales sólo pueden atenuar una fuente a la vez, eso está bien para conseguir imágenes de un planeta que tenga una sola estrella anfitriona, pero no para uno con múltiples estrellas.
El coronógrafo de vórtice propuesto por Aleksanyan y sus colaboradores utiliza defectos reconfigurables en un cristal líquido, que son los que fuerzan las trayectorias en espiral a las fuentes puntuales de luz. Los dispositivos tradicionales usan defectos únicos fijos de varios materiales. Usando rayos láser, se pueden escribir y borrar múltiples defectos del cristal líquido rápidamente y con una precisión extraordinaria. Esto permite que el dispositivo se configure fácilmente para cualquier sistema estelar, independientemente del número de estrellas que incluya.

Imagen del experimento con un sistema triple. Nótese an las imágenes de la derecha cómo mejora el detalle del fondo. Abajo la simulación por ordenador del modelo.
Como demostración del principio de funcionamiento, los investigadores simularon un sistema de triple estrella en el laboratorio usando tres haces de luz, y dirigieron los haces hacia un dispositivo con tres defectos. Encontraron que el dispositivo atenuaba drásticamente la luz que llegaba a una cámara procedente de estas estrellas artificiales. El dispositivo podría incluir cualquier número de defectos, ampliando significativamente las capacidades de los coronógrafos de vórtice actuales, multiplicando así el número de exoplanetas que podrían descubrirse y, sobre todo, aumentando la calidad de la información sobre ellos.
Referencia:
Artur Aleksanyan, Nina Kravets, and Etienne Brasselet (2017) Multiple-Star System Adaptive Vortex Coronagraphy Using a Liquid Crystal Light Valve Physical Review Letters doi: 10.1103/PhysRevLett.118.203902
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Encontrando exoplanetas tapando las estrellas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La estructura en común de estrellas de neutrones y aparcamientos
- #Naukas16 Exoplanetas: mundos de ciencia ficción
- La habitabilidad de las exotierras alrededor de estrellas enanas rojas
El teorema de los cuatro colores (3): Tras más de un siglo de aventura… ¿un ordenador resuelve el problema?
Continuamos con la historia del teorema de los cuatro colores (ver [1] y [2]) cambiando de enfoque: existe una manera dual de abordar este problema, sustituyendo los mapas por grafos. ¿Cómo? Se marca la capital de cada país en el mapa, se unen las capitales de países contiguos y se obtiene el grafo dual del mapa. Colorear el mapa equivale a pintar las capitales (vértices del grafo), asignando distintos tonos a dos capitales unidas por una trayectoria (arista).

Imagen 1: Mapa y el grafo dual coloreados.
Puede demostrarse que los grafos duales de mapas son siempre planares, es decir, se puede dibujar en el plano una representación concreta del grafo, en la cual las aristas no se cortan excepto en un eventual vértice común (imagen 2).

Imagen 2: Un grafo planar y dos representaciones sin cortes entre aristas.
Además, se puede probar que:
-
un mapa es cúbico (ver [1]) si y sólo si su grafo dual es triangular (grafo planar en el que cada cara tiene exactamente tres aristas),
-
el número de regiones colindantes coincide con el grado de cada vértice (número de aristas incidentes), y
-
los grafos duales heredan la fórmula de Euler:
Núm(vértices) – Núm(aristas) + Núm(caras) = 2
Imaginemos por un momento que el teorema fuera falso, es decir, que existen mapas (grafos) que no pueden 4-colorearse. Entre estos mapas (grafos) que necesitan cinco colores o más, debe de haber alguno con el menor número posible de regiones: es un minimal criminal. Así, un minimal criminal no puede 4-colorearse, pero un mapa (grafo) con menos regiones (vértices) sí.
Probar el teorema de los cuatro colores equivale a demostrar que no existen minimales criminales. De hecho, lo que Kempe demostró con su método de cadenas es que un minimal criminal no puede contener digones, triángulos o cuadrados (ver [2], figura 3), y cometió un error al intentar probar que tampoco puede contener pentágonos. Si hubiese conseguido esto último, habría quedado demostrado el teorema.
Los siguientes conceptos sobre grafos son fundamentales en la demostración del teorema:
-
una configuración es un ciclo con vértices internos triangulados;
-
un conjunto inevitable K es una familia finita de configuraciones tal que todo grafo contiene una copia conforme de una de K;
-
k es una configuración reducible, si se puede deducir el coloreado de cualquier grafo que contenga a k, a partir de un grafo menor.
La demostración del teorema de los cuatro colores copia la prueba de Kempe, pero para la inducción, en vez de eliminar un único vértice, se recorta una configuración.
El plan de la prueba consiste en encontrar conjuntos inevitables K; si K estuviese formado sólo por configuraciones reducibles, la demostración del teorema de los cuatro colores estaría terminada, ya que en tal caso no podría existir un minimal criminal.
En 1969, Heinrich Heesch sistematiza la prueba de la reducibilidad, desarrollando un algoritmo que intenta implementar en un ordenador. Realiza diversas pruebas en una máquina CDC1604A y entra en contacto con su alumno Wolfgang Haken (en EE. UU.), comentándole que la demostración necesita estudiar solamente 8.900 configuraciones.
A través de su algoritmo de descarga propone un método de construcción de conjuntos inevitables: Heesch considera el grafo como una red eléctrica; asociando a cada vértice una carga inicial de 6-d(v) (d(v) es el grado del vértice v).Usando la fórmula de Euler, demuestra que la suma de las cargas en un grafo triangulado es 12.

Imagen 3.
Desplazando las cargas eléctricas sobre la red (con su algoritmo de descarga), la suma total no varía: los vértices cargados positivamente pueden ceder cargas, los cargados negativamente pueden recibir y los de carga nula no intercambian. Con este sistema, su objetivo es eliminar de esta red eléctrica los vértices de carga negativa, obteniendo un conjunto de configuraciones con vértices de cargas positivas o nulas. Y como todo grafo triangulado es de carga total 12, debe contener al menos una de las configuraciones (cuya geometría dependerá del proceso de descarga elegido) del anterior conjunto, que forma entonces un conjunto inevitable.
Una vez obtenida la extensa lista de configuraciones inevitables, probando su reducibilidad, se tendría una prueba inductiva del teorema.

Imagen 4: Una lista de configuraciones inevitables.
En 1976, Ken Appel y Wolfgang Haken dan una prueba cuyos principales ingredientes son precisamente los conceptos de reducibilidad y descarga.
La primera prueba de Appel, Haken y John A. Koch usa un algoritmo de descarga muy sofisticado, que produce una lista de 1.936 configuraciones inevitables, cada una de las cuales se demuestra reducible con la ayuda de un ordenador. Modificando consecutivamente el algoritmo de descarga, encuentran otro (con 300 reglas de descarga) produciendo 1.482 configuraciones inevitables, comprobando su reducibilidad mediante un ordenador programado por Koch: necesita 1.200 horas de cálculo en unIBM 360. Appel y Haken completan la demostración en 1976, tras seis años de duro trabajo: más de 100 páginas impresas, 400 microfilms con dibujos y la verificación de varios miles de casos particulares.
Todo este trabajo precisaba (en 1976) más de cincuenta días de trabajo en los tres ordenadores de la Universidad de Illinois, con un programa de varios miles de líneas… es decir, nadie podía comprobar la veracidad o falsedad del teorema a mano.
La hazaña de estos investigadores mereció un triunfal matasellos en 1977:

Imagen 5.
Appel y Haken reconocieron el papel fundamental de Kempe: Kempe’s argument was extremely clever, and although his “proof” turned out not to be complete, it contained most of the basic ideas that eventually led to the correct proof one century later.
Muchos matemáticos aceptan esta prueba como irrefutable, pero muchos otros argumentan que no se trata de una demostración matemática: la máquina había verificado que una enorme cantidad de mapas podían colorearse usando como mucho cuatro colores, pero, ¿y si existía un mapa que el ordenador no hubiese contemplado?
En 1996, un grupo de investigadores del Instituto de Tecnología de Georgia publicael artículo [6] en el que:
-
reducen las complicaciones, probando que la inevitabilidad de un conjunto reducible puede demostrarse con menos ejemplos que en la prueba de Appel y Haken;
-
su conjunto inevitable es solo de tamaño 633;
-
usan únicamente32 reglas de descarga;
-
la comprobación a mano de la inevitabilidad se reemplaza por una prueba formal verificable con un ordenador;
-
la verificación necesita únicamente tres horas en cualquier ordenador doméstico.
Posteriores investigaciones han ido confirmando cada una de las etapas de esta última prueba utilizando diferentes programas y métodos. Pero…El teorema de los cuatro colores (y 4): ¿Podemos creer la prueba de la conjetura?
Referencias
[1] Marta Macho Stadler, El teorema de los cuatro colores (1): una historia que comienza en 1852, Cuaderno de Cultura Científica, 26 abril 2017
[1] Marta Macho Stadler, El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba, Cuaderno de Cultura Científica, 10 mayo 2017
[3] Marta Macho Stadler, Mapas, colores y números, Descubrir las matemáticas hoy: Sociedad, Ciencia, Tecnología y Matemáticas 2006 (2008) 41-68
[4]K. Appel, W. Haken, Every planar map is four colourable, Part I: discharging, Illinois Journal of Mathematics 21, 429-490, 1977.
[5]K. Appel, W. Haken, J. Koch, Every planar map is four colourable, Part II: reducibility, Illinois Journal of Mathematics 21, 491-567, 1977.
[6]N. Robertson, D.P. Sanders, P. Seymour, R. Thomas, A new proof of the four-colour theorem, Electronic Announcements of the AMS 2, 17-25, 1996.
[7]R.J. Wilson, Four colors suffice: how the map problem was solved, Princeton University Press, 2002.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
Esta entrada participa en la Edición 8.4 “Matemáticas de todos y para todos” del Carnaval de Matemáticas cuyo anfitrión es, en esta ocasión, matematicascercanas.
El artículo El teorema de los cuatro colores (3): Tras más de un siglo de aventura… ¿un ordenador resuelve el problema? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El teorema de los cuatro colores (1): una historia que comienza en 1852
- El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba
- El problema de Malfatti
El valor de la curiosidad
Muchos atribuyen a la falta de cultura científica el que haya amplios sectores de la población que no aceptan que el clima esté cambiando y que ese fenómeno tenga su origen en la actividad humana. Creen, en consecuencia, que proporcionando una buena educación científica el cambio climático acabará siendo aceptado como un hecho real. Las cosas, como en tantas ocasiones, no parecen ser tan sencillas.
El psicólogo de la Universidad de Bristol (Reino Unido) Stephan Lewandosky ha observado que la actitud de una persona para con el cambio climático depende más de factores emocionales ligados a la ideología que de elementos racionales. Y Dan Kahan -psicólogo también, pero de la Universidad de Yale (EEUU)- ha comprobado que cuanto mayor es el conocimiento científico de una persona más firme es la postura, sea a favor o sea en contra, que mantiene en esa controversia. De hecho, quienes saben manejar información científica suelen elaborar buenos argumentos a favor de sus ideas, a la vez que ignoran los contrarios. Al parecer, la culpa la tiene el llamado “razonamiento motivado”, fenómeno que está en la base de las paradojas que consisten en ignorar las pruebas que respaldan hechos contrastados, mientras se asumen como tales datos anecdóticos que respaldan la posición que mejor se acomoda a nuestros deseos y visión de la realidad.
El razonamiento motivado surte unos efectos tan poderosos que personas capaces de interpretar correctamente información estadística compleja sobre cuestiones variadas, pierden tal capacidad cuando lo que han de considerar son hechos o datos con implicaciones ideológicas. Si a las consecuencias del razonamiento motivado añadimos la influencia de las redes sociales de internet, por la ausencia de filtros de calidad al flujo de información y por su efecto de caja de resonancia de las ideas con las que más nos identificamos, la receta de la posverdad está servida.
En los ejemplos anteriores me he referido a sesgos característicos de perfiles ideológicos conservadores. Pero quienes se consideran a sí mismos progresistas tampoco están a salvo de los efectos del razonamiento motivado. Muchos lo ponen en práctica, por ejemplo, a la hora de evaluar cuestiones tales como los (supuestos) efectos sobre la salud de las radiaciones electromagnéticas de telefonía móvil o redes wi-fi, o los de las plantas transgénicas y del consumo de alimentos procedentes de esas plantas. Y además de las de carácter político, también hay motivaciones ideológicas con otras bases, por supuesto, como la religiosa.
Es fácil caer en la tentación fatalista y aceptar que es inevitable sufrir las consecuencias del razonamiento motivado y, por lo tanto, que estamos condenados, en un futuro de duración incierta, a convivir con la posverdad. Pero eso sería socialmente suicida, pues solo debates basados en datos contrastados pueden ser verdaderamente democráticos y útiles, condición necesaria para el progreso social. La clave está, quizás, en la formación que se dé a los niños y niñas de hoy y de mañana, una formación que debería servir para hacerlos más conscientes del peligro que entraña una comunicación de masas sin mediaciones, de la influencia de los sesgos, y del efecto de las emociones en nuestra capacidad para aprehender la realidad.
En medio de ese panorama, Dan Kahan también ha observado algo alentador: que las personas con curiosidad científica, sea cual sea su orientación ideológica, tienden a aceptar con facilidad hechos contrastados y, lo que es más importante, están más dispuestas a recurrir a fuentes diversas para informarse. El psicólogo norteamericano cree, por ello, que una clave para superar la posverdad puede radicar, precisamente, en la capacidad para cultivar la curiosidad en las generaciones más jóvenes.
El artículo El valor de la curiosidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La ciencia: pasión, asombro y curiosidad.
- Dando valor a los residuos marinos para cuadrar la economía circular
- Zombis éticos
El balance energético
La aptitud de biológica de un animal depende, en última instancia, de su capacidad para dejar tras de sí nuevos individuos cuyo genoma sea, en parte, copia del propio. Esa capacidad depende, en una primera aproximación, de la cantidad de recursos que es capaz de adquirir y destinar a la línea germinal, pues esa es la línea que da lugar a la gestación de nuevos individuos.
La forma más sencilla de abordar esta cuestión de forma analítica es recurrir al balance energético que resulta de la ingestión del alimento, su posterior aprovechamiento y la utilización de la fracción que ha podido aprovecharse para proveer la energía que necesitan las actividades que cada animal ha de desarrollar. No quiere decirse que la energía sea el único término a tener en cuenta si se quiere valorar con rigor el uso de los recursos que requiere y ha de conseguir un animal. Casi todos los elementos que necesita están sometidos a procesos de adquisición y de pérdida, como el nitrógeno, por ejemplo, o los nutrientes minerales, vitaminas, y demás; y con cada uno de ellos podría elaborarse un balance. Es más, un animal puede tener excedentes de carbono o de energía, pero ser deficitario en nitrógeno, o en calcio, por ejemplo. Sin embargo, la energía constituye el limitante principal de la mayoría de animales para generar nueva biomasa. Y esa es la razón por la que aquí recurrimos a ese término, sin olvidar que otros pueden acabar resultando tan o más limitantes que aquella.
Todos los animales han de alimentarse para conseguir los recursos que necesitan. Se incluyen en ese capítulo energía y componentes estructurales. Se alimentan consumiendo alimento. La ingestión o consumo (C) es el término que representa esa función. El alimento ha de ser digerido (fragmentación mecánica y química mediante el concurso de enzimas específicos) para que sus componentes básicos se puedan absorber. Como consecuencia de esos procesos, una parte de lo ingerido (C) es absorbido; a esta parte la denominamos absorción (A). Y otra parte no es absorbida y se elimina en forma de heces. A esta la denominamos egestión (F). Así pues, con los elementos considerados ya disponemos de un primer balance, el que nos da la energía absorbida (A), como A = C – F.
La mayor parte del alimento absorbido es asimilado. La asimilación (A) consiste en su incorporación al conjunto de procesos celulares que pueden incluir su degradación para obtener energía metabólica en forma, principalmente, de ATP, o su participación en vías de síntesis de otras sustancias. En términos de balance energético se suele diferenciar entre los términos “absorción” (tal y como se ha presentado en el párrafo anterior) y “asimilación”. La distinción se basa en la existencia de procesos de desaminación de moléculas que dan lugar a la aparición de restos nitrogenados (NH4+ en primera instancia) que, debido a su toxicidad, han de ser eliminados directamente o tras su conversión en otras sustancias (urea y ácido úrico, principalmente); la energía contenida en esas sustancias se expresa como U. A efectos de balance energético no se establece distinción entre los restos nitrogenados que resultan de la desaminación de sustancias recién absorbidas y los que proceden del permanente recambio (procesos de síntesis y degradación) de macromoléculas nitrogenadas. Así pues, tendríamos aquí un segundo balance: A´= C – F – U.
La energía asimilada tiene, por último, dos posibles destinos. Una parte se disipa en forma de calor; a esa la denominamos Gasto metabólico o, de forma más simple, Metabolismo (H). Y la otra parte es la que se deposita en forma de biomasa propia; a esta última la denominamos Producción (P). Más adelante nos referiremos a los tres usos posibles de la energía producida.
Conviene reparar en el hecho de que el término R tiene una doble cara. Da cuenta, por un lado, de la energía que se pierde por el simple hecho de que en todos los procesos que ocurren en las células animales una parte de la energía química se transforma en calor y se pierde de esa forma. Y por el otro lado, al ser esa disipación de calor consecuencia de las actividades biológicas, constituye un indicador del nivel de actividad del organismo.
Así pues, la energía asimilada puede entrar en las vías catabólicas que conducen a la producción de ATP o, alternativamente, dirigirse a (1) la síntesis de nuevas estructuras (somáticas y reproductivas), (2) la reparación y renovación de las ya existentes; y (3) el almacenamiento de sustancias de reserva.
Por su parte, el ATP producido en las vías metabólicas correspondientes es utilizado para proporcionar la energía que necesitan las actividades biológicas, como son (1) los procesos de biosíntesis para la producción de nuevas estructuras (nuevos tejidos somáticos y gametos) y la reparación o renovación de las existentes (enzimas, estructuras, neurotransmisores, hormonas, etc.); (2) las actividades de regulación (transporte de iones, secreción activa…); (3) otras actividades internas, como contracciones musculares, movimientos ciliares, etc.; y (4) las actividades hacia el exterior (contracciones musculares, movimientos ciliares, etc.
Todas las actividades anteriores conllevan un cierto gasto metabólico pues, como se ha visto, es a su desarrollo a lo que se destina el ATP que se obtiene de las vías catabólicas. Por ello, también podemos categorizar el gasto metabólico de la forma siguiente: (1) costes de mantenimiento del organismo, que son los derivados de las actividades de renovación y reparación de estructuras, las de regulación, y los movimientos internos; (2) costes del crecimiento y la reproducción, que son los asociados a los procesos biosintéticos de producción de biomasa; y (3) costes de la actividad, que son los ligados al desarrollo de actividades hacia el exterior.
La expresión definitiva del balance energético sería, por lo tanto, la siguiente:
P = C – F – U – R.
En teoría, y suponiendo que la energía es la unidad relevante a efectos de producción animal, mediante la determinación experimental de los términos contenidos en esa expresión se puede calcular la producción de un individuo bajo las condiciones experimentales establecidas. También permite analizar la forma en que diferentes factores ambientales (cantidad de alimento disponible, temperatura, etc.) afectan al balance y, por lo tanto, a la aptitud biológica del individuo.
Conviene precisar, para terminar, que la ecuación del balance energético refleja, por su naturaleza, el margen existente para la producción; de hecho, en inglés se denomina scope for growth al valor que resulta de la determinación experimental de sus componentes. Pero la medida de la producción real en condiciones naturales, y la proporción que cada individuo o grupo de individuos destina al crecimiento somático o a la reproducción, están también sometidas a control fisiológico (endocrino). Además, esas magnitudes son, en parte, el resultado de la historia evolutiva de cada linaje, pues son variables características del ciclo de vida, y en su definición intervienen elementos ambientales y demográficos. Pero de estos asuntos ya nos ocuparemos en otra ocasión.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El balance energético se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Las actividades animales
- Cuando el ahorro energético salta por la ventana
- El flujo sanguíneo se reorganiza en respuesta a las necesidades
La máquina de vapor (2)
La máquina Newcomen fue ampliamente utilizada en Gran Bretaña y otros países durante el siglo XVIII. Según los estándares modernos, no era una máquina muy buena. Quemaba una gran cantidad de carbón, pero realizaba solo una pequeña cantidad de trabajo a una velocidad lenta y espasmódica. Pero la gran demanda de máquinas para sacar agua de las minas era un buen mercado, incluso para una máquina ineficiente.

James Watt en un retrato de Carl Frederik von Breda, 1792
El trabajo de un escocés, James Watt, condujo a una máquina de vapor muy mejorada y que tendría importantes consecuencias económicas. El padre de Watt era un carpintero con un negocio de éxito dedicado a vender equipamiento a los armadores de buques. Sería en el taller del ático de su padre donde James Watt desarrollaría una considerable habilidad en el uso de herramientas. Quería convertirse en un fabricante de instrumentos y fue a Londres para aprender el oficio. A su regreso a Escocia en 1757, obtuvo un puesto como fabricante de instrumentos en la Universidad de Glasgow.
En el invierno de 1763-1764, Watt fue requerido para reparar un modelo del motor de Newcomen que era utilizado en las clases prácticas de la universidad. Al familiarizarse con el modelo, Watt quedó impresionado por la cantidad de vapor que se requería para hacer funcionar la máquina. Realizó una serie de experimentos sobre el comportamiento del vapor y encontró que un problema importante era la temperatura de las paredes del cilindro. La máquina de Newcomen desperdiciaba la mayor parte de su calor calentando las paredes del cilindro, ya que las paredes se enfriaban en cada ciclo al inyectar agua fría para condensar el vapor y forzar el retorno del pistón con aire a presión.

Máquina de Watt en un gráfico de 1797
A principios de 1765 Watt remedió esta ineficiencia ideando un tipo modificado de máquina de vapor. En retrospectiva, parece una idea tonta de lo simple que es, pero en su momento fue verdaderamente revolucionaria. Después de empujar el pistón hacia arriba, el vapor se hacía pasar a un recipiente separado, llamado condensador, donde el vapor se condensaba a una temperatura baja. Con este sistema, el cilindro que contiene el pistón podía mantenerse caliente permanentemente, y el condensador podía mantenerse frío todo el tiempo.

Regulador centrífugo de Watt
El uso de un condensador separado permitía grandes ahorros de combustible. La máquina de Watt podía hacer el doble de trabajo que el de Newcomen con la misma cantidad de combustible. Watt también agregó muchos otros refinamientos, tales como válvulas de control automático que se abrían y cerraban mediante la acción alternativa del propio pistón, así como un regulador centrífugo que controlaba la cantidad de vapor que llegaba a la máquina, lo que permitía mantener una velocidad constante. Esta idea de usar parte de la salida del proceso para regular el proceso en sí, se llama retroalimentación. Es una parte esencial del diseño de muchos sistemas mecánicos y electrónicos modernos.
Al igual que Thomas Edison más tarde, o los emprendedores tecnológicos de éxito en nuestros días, Watt y sus asociados aunaban ser buenos hombres de negocios y excelentes ingenieros. Hicieron una fortuna fabricando y vendiendo las máquinas de vapor mejoradas. Las invenciones de Watt estimularon el desarrollo de máquinas que podían hacer muchos otros trabajos. El vapor movía las máquinas en las fábricas, las locomotoras de ferrocarril, los barcos de vapor, e incluso los primeros coches de vapor, incluyendo maquinaria pesada semoviente. La máquina de Watt dio un estímulo enorme al crecimiento de la industria en Europa y América. Ayudó así a transformar la estructura económica y social de la civilización industrial. El desarrollo generalizado de motores y máquinas revolucionó la producción en masa de bienes de consumo, construcción y transporte.

Máquina agrícola a vapor francesa de mediados del XIX
El nivel de vida medio en Europa Occidental y los Estados Unidos aumentó considerablemente. Es difícil para la mayor parte de nosotros en los países industrializados “desarrollados” imaginar cómo era la vida antes de esta “Revolución Industrial”.
Pero no todos los efectos de la industrialización fueron beneficiosos. De hecho la palabra “medio” del párrafo anterior encubre una enorme desigualdad. El sistema manufacturero del siglo XIX proporcionaba a algunos empleadores codiciosos y crueles la oportunidad de tratar a los trabajadores casi como esclavos. Sin leyes laborales o de protección infantil, esos empleadores obtenían fortunas mientras mantenían a los empleados ya sus familias al borde de la inanición.
Según avanzaba el siglo XIX cada vez más personas abandonan las granjas, voluntariamente o forzadas por la pobreza y las nuevas leyes de propiedad, para trabajar en las fábricas. El conflicto se intensificó entre otra novedad, la clase obrera, formada por empleados, y la clase media, formada por empleadores y profesionales.
Al mismo tiempo, algunos artistas e intelectuales, muchos del movimiento romántico, comenzaron a atacar las nuevas tendencias de esta sociedad. Vieron esta sociedad cada vez más dominada por el comercio, la maquinaria y el énfasis en los bienes materiales. En algunos casos, confundieron la ciencia como tal, con sus aplicaciones técnicas y éstas con el uso comercial de las mismas por parte de empresarios sin escrúpulos. La reacción llevaba a estos intelectuales a echar en cara a los científicos el explicar todos los maravillosos misterios de la naturaleza. Estos artistas denunciaron tanto a la ciencia como a la tecnología, aunque en la mayor parte de los casos se negaban a aprender algo sobre ellas.
Estas actitudes siguen estando a la orden del día y son parte de una vieja tradición, que se remonta a ls antiguos opositores griegos al atomismo de Demócrito. Muchos escritores y artistas románticos atacaron la física galileana y newtoniana por supuestamente distorsionar los valores morales. El mismo tipo de acusación que se escucha hoy por parte de la anticiencia y que es un continuo desde la máquina de vapor.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La máquina de vapor (2) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ingredientes para la receta: El conejo
“casi ningún otro animal es más difícil de amansar que el gazapo de un conejo de monte, y apenas hay animal más manso que el gazapo del conejo amansado; pero difícilmente puedo suponer que los conejos domésticos hayan sido seleccionados frecuentemente, sólo por mansos, de modo que tenemos que atribuir a la costumbre y al prolongado encierro la mayor parte, por lo menos, del cambio hereditario, desde el extremo salvajismo a la extrema mansedumbre.”
Charles Darwin. El origen de las especies. 1859.
Hablemos del conejo común, también conocido como conejo europeo, y de nombre científico Oryctolagus cuniculus. Lo descubrieron por vez primera y según los textos escritos, primero, los fenicios y, después, los romanos al llegar a la Península Ibérica. Y, por cierto, Iberia deriva del nombre del conejo para los habitantes prerromanos de la Península. Su distribución después de las glaciaciones era relativamente pequeña y restringida al sudoeste de Europa, a la Península Ibérica y el sudeste de Francia. Es posible que llegara también al norte de África entre Marruecos y Túnez.
Son animales sociales que viven en grupos de tamaño medio en madrigueras excavadas en el suelo llamadas conejeras. Son activos, sobre todo, al atardecer y en el crepúsculo aunque no es raro verles de día en zonas con arbustos que les sirven de escondite en caso de peligro. Al anochecer salen a terreno abierto a buscar alimento.
No hace mucho que domesticamos al conejo. Es una especie de lo último que ha llegado a nuestro corral como animal domesticado, aunque durante miles de años, ya lo veremos, lo hemos consumido como caza abundante y fácil de obtener. En el esquema que Don y Patricia Brothwell publicaron con los periodos de domesticación de nuestro ganado, el conejo es el más reciente, como mucho de hace unos 2000 años. Ahora existen más de 100 variedades seleccionadas por el peso, el tamaño o el color del pelaje. Y son alimento, mascota, animal de exposición, con una piel apreciada para el vestido y la moda o, incluso, un estimado animal de laboratorio.
Hay dos subespecies del conejo, la cuniculus cuniculus y la cuniculus algirus. Su distribución en la Península es curiosa pues, si trazamos una diagonal desde Galicia a Murcia, al norte está el cuniculus cuniculus y al sur y en el norte de África el cuniculus algirus. Parece claro que el conejo doméstico viene de la subespecie cuniculus cuniculus.
Son Eudald Carbonell y Cinta Bellmunt, de las universidades Rovira i Virgili y Politécnica de Catalunya, los que cuentan que hay evidencias del consumo de conejo por nuestra especie desde hace más de 300000 años. En el nivel TD10-I de la Gran Dolina de Atapuerca, se alimentaban, entre otras presas, de conejos. Eran los neandertales e, incluso, quizá antecesores de los neandertales.
Los Homo se alimentan de lo que encuentran, animal o vegetal, grande o pequeño, fresco o desechos. Cuando caza en grupo prefiere animales grandes pues alimentan a más individuos, durante más tiempo y proporcionan más energía en forma de grasas. Si fueran conejos, se necesitarían, más o menos, un ejemplar al día por persona. Por todo ello, cuando aparecen restos en yacimientos de más de 50000 años, suelen ser escasos y mezclados con los huesos de animales de mayor tamaño. Todas las especies de homínidos muestran dietas con gran diversidad de alimentos y, aunque haya más restos de una o de pocas presas, habitualmente de gran tamaño y más numerosas, siempre hay otros animales y, entre ellos, está el conejo.
En concreto y en un tiempo más cercano, en el yacimiento de Molí de Salt, Tarragona, era el animal más consumido en la dieta de hace unos 13000 años. Manuel Vaquero y su grupo, de la Universitat Rovira i Virgili, encuentran que hasta el 91% de los restos encontrados en este yacimiento son huesos de conejo.
Como explican John Fa y sus colegas, del Grupo Durrell de Conservación de la Naturaleza de Trinity, en la isla de Jersey, el conejo fue, para los depredadores y para las especies de Homo, neandertales y sapiens, un recurso alimenticio importante. Como antes he mencionado, era una especie abundante y fácil de cazar.
En los yacimientos, los restos de conejo son escasos hasta que las poblaciones de presas de mayor tamaño comienzan a escasear. El consumo de carne de conejo aumenta con el tiempo y se convierte en parte esencial de la dieta de nuestra especie. Los neandertales lo capturaban en menor cantidad y su dieta se centraba en animales de mayor tamaño. Los autores concluyen, después de analizar los restos de 104 excavaciones en 30 yacimientos de la Península y del sur de Francia, que el cambio de dieta hacia el conejo y otras presas pequeñas se produjo hace más de 35000 años, lo que ya había ocurrido en el yacimiento de Molí de Salt.
Y en el interesante libro de Carbonell y Bellmunt, titulado “Recetas Paleo”, nos presentan un conejo a las hierbas al estilo de nuestros ancestros. Dice así, tal cual y sin ayudas entre paréntesis:
“Caza un conejo en el bosque, despelléjalo, lávalo con agua y pártelo en dos. Haz diez partes de una de las mitades.
Excava un agujero en el suelo, de unos dos palmos de ancho y algo más de profundidad. Que tenga sedimentos blandos en el fondo. Echa leña al agujero y quémala; si es posible que sea de olivo, encina o roble.
Para cocinar en conejo ponlo en una piedra cóncava, con ramas de romero y empapado en agua. Tápalo con otra piedra más plana.
Cuando la leña sea brasa y ceniza caliente, mete el recipiente con el conejo y tápalo todo con un recorte cuadrado de césped. Tiene que estar unas tres horas como poco pero, de vez en cuando, destápalo para ver cómo va. Con cuidado, pues la piedra quema, saca el recipiente del agujero y come el conejo con las manos.”
Citado por los fenicios en la Península, los romanos llevaron el conejo primero a su capital, a Roma, y, después, a su imperio. Como ejemplo nos sirve Gran Bretaña adonde lo llevaron los romanos en su conquista del año 43 y, ahora, son unos 40 millones. Y, añado, si le interesa conocer cómo viven los conejos en las Islas Británicas lea “La colina de Watership”, de Richard Adam, merece la pena.
En Roma y en su imperio se adaptaron a vivir en amplios recintos cerrados con paredes de piedra, llamados leporaria, pero no estaban domesticados tal como ahora entendemos el término. Recintos como estos se han encontrado, por ejemplo, en Bretaña y en otros yacimientos romanos de Europa occidental.
Era el siglo I, en la época imperial de Roma, y Marco Gavio Apicio, apreciado gastrónomo, escribió el libro de cocina De Re Coquinaria, que resume la sabiduría culinaria de aquellos años. Y solo nombra el conejo una vez y, además, para hacer albóndigas. Para Apicio, la carne de conejo estaba en tercer lugar como preferencia para las albóndigas, después del pavo real y del faisán, pero, avisa, siempre que se frían de manera que queden tiernos. Sin embargo, de aquella época también son algunos conocidos mosaicos que muestran apetecibles conejos.
Se cree que la domesticación comenzó en los monasterios de la Península Ibérica y, sobre todo, del sur de Francia y se incentivó por la Iglesia desde que, en el siglo VII, el Papa San Gregorio Magno había establecido que el gazapo, la cría del conejo, no era carne y, por tanto, se podía consumir en Cuaresma. Entre los siglos VI y X comenzó la domesticación en los monasterios franceses. En el siglo XVII ya existían varias razas seleccionadas por el color del pelaje.
Una de las diferencias más evidente entre el conejo silvestre y el domesticado es la conducta. El silvestre es un peligroso luchador en defensa de sí mismo y de su grupo. Golpea con las patas traseras y muerde con sus grandes y potentes incisivos. Las luchas de los machos por el control del grupo pueden llegar a las heridas graves y a la muerte del contrincante.
Por el contrario, el conejo doméstico no pelea, es tranquilo y, en general, se deja manipular. Se ha propuesto la hipótesis de que, en el proceso de la domesticación, parte de la información genética perdida o silenciada es la que provoca estos cambios en la conducta agresiva. De ahí la cita de Darwin, en El origen de las especies, que aparece al comienzo de este texto.
Su centro Vavilov, es decir, el área geográfica con mayor variabilidad genética y, por tanto, el origen de la especie domesticada, es la Península Ibérica. Para confirmarlo, Joel Alves y su grupo, de la Universidad de Oporto, han hecho el análisis genético de 471 individuos de 16 razas de conejos y de 13 localidades con conejos silvestres de Francis y del nordeste de España.
Los resultados demuestran que la población original del conejo domesticado, con la mayor diversidad genética, está en la Península. La colonización del sudeste francés, que los autores fechan hace 18000 años, supuso la pérdida del 12% de la variabilidad. La domesticación, mucho más reciente y en periodo histórico, fue hace 1500 años y se origina de los conejos silvestres de Francia. Provocó la pérdida de otro 21% de diversidad genética.
Un estudio similar de Miguel Carneiro y su grupo, del Campus Agrario de Varao, en Portugal, llega a conclusiones parecidas después de analizar 150 ejemplares de las razas más comunes de conejos domesticados. La relación de pérdida de diversidad genética es del 40% con los conejos silvestres de Francia.
Por tanto, el centro Vavilov de la domesticación del conejo está en el nordeste de España y el sudeste de Francia.
Durante muchos años, los conejos se criaron en las casas y cabañas de los campesinos solo para consumo propio. Los alimentaban con hierbas, semillas y restos no utilizables de sus cosechas. Pero en la economía rural más reciente e intensiva, los conejos pasaron a la producción industrial con el objetivo comercial de su venta y consumo para grandes poblaciones, todo ello solo en los países con tradición de consumir este tipo de carne.
El conejo supone carne barata y accesible en épocas de crisis. Así ocurrió en Europa y Estados Unidos en la Gran Depresión y en la Segunda Guerra Mundial. Los conejos se criaban fácilmente en casa, alimentados con restos de plantas y se reproducían rápido y, además, no ocupaban mucho espacio. Sin embargo, cuando pasan las crisis no tardan a recuperar su estatus de “comida para pobres”. Por si fueran pocas las ventajas, su escasez en grasas y colesterol los convierten en un alimento saludable. Los conejos europeos, con su adaptabilidad y enorme capacidad reproductora que llega a las once puestas al año y los gazapos en 8-10 semanas alcanzan la madurez, se han extendido por todos los continentes excepto la Antártida. Los llevaban los marinos y los dejaban en islas y lugares conocidos para, en otros viajes, disponer de carne fresca. En la actualidad se han detectado en más de 800 islas de todos los mares. Así llegaron, como ejemplo muy conocido, a Australia donde, a partir de dos docenas que llegaron en 1859, a los 30 años eran 20 millones y, un siglo después, eran 600 millones. Los australianos importaron el virus de la mixomatosis para controlar la población de conejos y provocaron el desastre contrario, con matanzas enormes. Cuando el virus regresó a Europa, de donde había sido importado, causó la casi extinción del conejo salvaje con la eliminación de entre el 90% y el 99% de los ejemplares. Además, el aspecto sanguinolento y llagado de los conejos enfermos provocaba asco y rechazo y, por ello, el consumo de carne de conejo disminuyó. A pesar de los intentos de reintroducir el conejo salvaje en muchos países de Europa, nunca se han conseguido recuperar las poblaciones anteriores a la mixomatosis.
En un entorno favorable, con mucho alimento y sin depredadores, el éxito del invasor es inevitable. Además, tienen un especial sistema de digestión que les permite aprovechar la celulosa de las plantas aunque no sean rumiantes. Las ingieren y pasan por su digestivo en el que viven bacterias simbiontes del género Anaerobacter. Estas bacterias digieren la celulosa y la convierten en ácidos grasos que el conejo expulsa en las heces que, a su vez, vuelven a ser ingeridas para poder absorber esos ácidos grasos.
Ahora, los mayores criadores de conejos son Francia, Italia, Malta y España. En 2015 la producción global fue de 1680 miles de toneladas. En España se consumieron 62.700 toneladas y a cada habitante le correspondieron 1.3 kilogramos de carne de conejo.
En el interesante libro “Cocina para pobres” del Dr. Alfredo Juderías, hay varias recetas de conejo tomadas directamente de fondas y casas de comida y de cocineros de su casa. Allí aparece este “Conejo adobado”, plato que no es fácil de hallar y probar y que, para terminar con un buen sabor de boca, creo que es apropiado:
“Se avía, se parte en trozos y se pone en una cazuela para que tome, durante un par de horas, más o menos, un adobillo a base de un cuartillo de vino blanco, laurel, ajo, pimienta, tomillo, orégano, sal, etc.
Después de escurridos, se embozan en harina y se echan a un sartén, a la lumbre, con aceite bien caliente.”
Sencillo, rápido y sabroso. Pruébenlo, se lo recomiendo.
Referencias:
Alda, F. & I. Doadrio. 2014. Spatial genetic structure across a hybrid zone between European rabbit subspecies. PeerJ DOI: 10.7717/peerj.582
Alves, J.M. et al. 2015. Levels and patterns of genetic diversity and population structure in domestic rabbits. PLOS ONE 10: e0144687
Apicio, Marco Gavio. 2007. El arte de la cocina. De Re Coquinaria. Comunicación y Publicaciones SA. Barcelona. 119 pp.
Blasco López, R. 2011. La amplitud de la dieta cárnica en el Pleistoceno medio peninsular: una aproximación a partir de la Cova del BOLOMOR (Tavernes de Valldigna, Valencia) y del subnivel TD10-I de Gran Dolina (Sierra de Atapuerca, Burgos). Tesis doctoral. Universitat Rovira i Virgili. Tarragona. 724 pp.
Brothwell, D. & P. Brothwell. 1969. Food in Antiquity. A survey of the diet of early peoples. Johns Hopkins University Press. Baltimore and London. 283 pp.
Callou, C. 1995. Modifications de l’aire de répartition du lapin (Oryctolagus cuniculus) en France et en Espagne, du Pléistocène à l’époque actuelle. État de la question. Anthropozoologica 21: 95-114.
Carbonell, E. & C.S. Bellmunt. 2016. Recetas Paleo. La dieta de nuestros orígenes para una vida saludable. Ed. Planeta. Barcelona. 143 pp.
Carneiro, M. et al. 2011. The genetic structure of domestic rabbits. Molecular Biology and Evolution 28: 1801-1816.
Cheeke, P.R. 2000. Rabbits. En “The Cambridge world history of food, Vol. I”, p. 565-567. Ed. por K.F. Kiple & K.C. Ornelas. Cambridge University Press. Cambridge.
Fa, J.E. et al. 2013. Rabbits and hominin survival in Iberia. Journal of Human Evolution doi: 10.1016/j.jhevol.2013.01.002
Juderías, A. 1980. Cocina para pobres. Ed. SETECO. Madrid. 325 pp.
Martínez Polanco, M.F. et al. 2016. Rabbits as food at the end of the Upper Palaeolithic at Molí del Salt (Catalonia, Spain). International Journal of Osteoarchaeology DOI: 10.1002/oa.2541
Wikipedia. 2017. Oryctolagus cuniculus. 5 abril.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Ingredientes para la receta: El conejo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Ingredientes para la receta: el ajo
- Ingredientes para la receta: El arroz
- Preparados para matar: algunas ideas para el debate
Una nueva diana terapéutica para el neuroblastoma
Los cánceres infantiles del sistema nervioso simpático, o neuroblastomas, tienen una tasa anual de mortalidad de 10 por millón, en edades comprendidas entre 0 y 4 años. El trabajo de investigación en el que han participado Investigadores de la UPV/EHU y el centro Achucarro ha servido para identificar algunas mutaciones genéticas que ayudarán a mejorar el tratamiento de esta enfermedad.

Diagrama Circos que muestra la relación entre genes mutados y/o la amplificación de MYCN.
Investigadores del Instituto de Investigación Sanitaria La Fe de Valencia dirigidos por Jaime Font de Mora, en colaboración con José Luis Zugaza, investigador Ikerbasque en la UPV/EHU y en el centro “Achucarro Basque Center for Neuroscience”, han identificado mediante NGS (Next Generation Sequencing) mutaciones en el gen Tiam1 que predicen un mejor pronóstico a pacientes con neuroblastoma.
El neuroblastoma es el tumor extracraneal sólido más frecuente en la infancia. Representa el 7% de todos los cánceres pediátricos y es la causa del 15% del total de defunciones por procesos oncológicos en la infancia. Su incidencia oscila entre 8 y 10 casos por millón de niños y año. Se han descrito casos familiares de neuroblastoma, pero son muy poco frecuentes. A día de hoy, se desconoce cómo se origina este tipo de cáncer raro.
El estudio revela que estas mutaciones que previenen la progresión de esta enfermedad están localizadas en diferentes dominios de Tiam1 relacionados con las GTPasas Ras y Rac así como con Myc, todas estas proteínas están implicadas en la etiología y progresión de este tipo cáncer.
Los resultados sugieren que el señalosoma controlado por Tiam1 puede ser esencial para el desarrollo del neuroblasoma y, por tanto, Tiam1 se posiciona como una diana que ayude a mejorar la eficacia de la terapia en neuroblastoma.
El siguiente paso es incorporar estos estudios a la práctica clínica para mejorar las herramientas y procedimientos de diagnóstico, en aras a implementar tratamientos más tempranos para los pequeños afectados.
Referencia:
Sanmartín E et al.. (2017) TIAM1 variants improve clinical outcome in neuroblastoma. Oncotarget DOI: 10.18632/oncotarget.16787.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Una nueva diana terapéutica para el neuroblastoma se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ADN para la nueva generación de baterías
- Una nueva vía para la lucha contra la resistencia a los antibióticos
- Biomarcadores para la detección precoz del melanoma