A favor de la evaluación escolar objetiva
¿Son eficaces los programas y sistemas educativos actuales? Durante los últimos años, es cada vez mayor el debate generado en torno a este tema. Muchos expertos argumentan que las teorías y prácticas educativas implementadas en los centros carecen de evidencia científica. El esfuerzo y los medios empleados en estas prácticas de dudosa utilidad obligan, además, a dejar de lado aquellas otras teorías cuya eficacia está probada.
Con el objetivo de abordar esta situación, el Bizkaia Aretoa de Bilbao acogió el pasado 17 de marzo la jornada titulada “Las pruebas de la educación”, donde varios expertos abordaron cuestiones relacionadas con la educación desde un punto de vista científico.
“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde una perspectiva científica. La dirección del seminario corrió a cargo de la doctora en psicología Marta Ferrero.
La jornada concluyó con una charla del maestro, pedagogo y doctor en Filosofía Gregorio Luri en defensa de la evaluación escolar interna y externa, que según él es necesaria para recabar datos sobre los errores cometidos y los avances reales logrados, y extraer conclusiones que permitan mejorar el sistema educativo.
A favor de la evaluación escolar objetivaEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo A favor de la evaluación escolar objetiva se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las cartas de Darwin: La vida a bordo de un balandro ataúd
Una de las principales preocupaciones del padre de Darwin, tal y como observamos en la detallada lista del artículo anterior de esta serie, era la seguridad (e incluso la comodidad) de la vida en un barco. El buen doctor argumentaba que si el pasaje en el Beagle había sido rechazado por tantos naturalistas es que “debe haber objeciones serias respecto del barco o de la expedición”.
No era una crítica baladí puesto que en aquella época muchas embarcaciones, sobre todo si se adentraban en territorios desconocidos como el Ártico, terminaban frecuentemente en el fondo del mar. Los barcos no otorgaban mucha confianza, y menos aún si sabemos que a ese tipo de embarcaciones ligeras y ágiles como el Beagle, los marinos experimentados las conocían como “balandros ataúd”.
Por aquel entonces era célebre un aforismo de Samuel Johnson que decía: “Un barco es peor que la cárcel. En una cárcel hay un aire más sano, una mejor compañía, todo es más conveniente y un barco tiene la desventaja adicional del peligro latente”. Su propia hermana Susan aludió a esta frase de Johnson en una carta a Darwin al saber de sus primeros mareos en alta mar.
Carta de Charles Darwin a su hermana Susan Darwin [14 de septiembre de 1831]
“El barco es realmente pequeño, con tres mástiles y diez cañones, pero todos dicen que es lo mejor para nuestro trabajo y dentro de su clase es un excelente navío: nuevo, aunque ya ha sido probado y con más de la mitad de la resistencia usual”
A ojos del joven Darwin y antes de zarpar, el HMS Beagle se veía imponente durante los preparativos para el viaje:
Carta de Charles Darwin a John Stevens Henslow [15 de noviembre de 1831]
“Se ve como un bello barco e incluso un hombre de tierra como yo puede admirarlo. Todos pensamos que es el navío más perfecto que jamás habrá salido del astillero. Una cosa es cierta, ningún barco ha sido equipado con tal gasto y con tanto cuidado. Todo lo que debía hacerse se hizo de caoba y nada puede exceder a la pulcritud y belleza de los alojamientos”.
Gran parte de estos arreglos y numerosas mejoras en la embarcación salieron del bolsillo del propio Fitzroy que se tomó muy a pecho su primera misión como capitán. Además, y ya en Sudamérica, el capitán compró (nuevamente con su dinero) una goleta de apoyo para labores cartográficas que el Almirantazgo se negó a financiar, algo que le enfadó pero que no le impidió comprar otra unos meses después.
Su atención al detalle fue más allá del barco y Fitzroy volvió a desembolsar una buena suma contratando por su cuenta varios marineros, dibujantes y hasta un especialista en cronómetros (George James Stebbing) para cuidar del instrumental técnico (que en gran parte también pagó).
“Ningún navío ha dejado Inglaterra con tal cantidad de cronómetros, los 24 de excelente calidad”.
En este punto las cartas de Darwin no eran del todo exactas ya que el Beagle contaba solo con 22 cronómetros (a los que, por cierto, wikipedia dedica un artículo más detallado)
“En resumen, todo va bien y ahora solo me queda rogar por que la náusea modere su fiereza. […] La necesidad absoluta de espacio dentro del barco es tan endemoniada que nada lo puede superar. […] Mi ocupación principal es ir a bordo del Beagle y tratar de parecerme a un marino tanto como pueda”
Esta falta de espacio en el Beagle es fácilmente imaginable si observamos la réplica a tamaño real que se encuentra en el Museo Nao Victoria de Punta Arenas, Chile y sabemos que en ese barco se alojaron 74 ocupantes durante el viaje.
Carta de Charles Darwin a su hermana Catherine Darwin [06 junio de 1832]
“[El Beagle] navega con perfecto orden, aumenta nuestro cumplimiento y tiene una nueva pieza de artillería, se colocaron nuevas redes de abordaje y renovamos los aparejos, y ahora no hay ni un pirata a la vista del que debamos preocuparnos y un millar de salvajes juntos no podrían hacernos daño. […] Convivir con el capitán tiene una gran ventaja, la de estar yo al mando en cosas de sociedad que se presenten. Soy el único de a bordo al que regularmente se le pide tratar a los almirantes, los encargados de negocios y otros grandes hombres”.
De este breve extracto, escrito desde Brasil, podemos sacar jugosas conclusiones, que además podemos extender a todo el viaje:
- El Beagle se comportó de manera fiable y segura durante toda la travesía. Fitzroy jamás lo descuidó y realizó numerosas tareas de reparación y mejora durante sus largas paradas en tierra.
- Compartir camarote con el capitán tenía sus ventajas (y sus inconvenientes, como ya veremos más adelante). “El viejo filósofo” (ese fue el apodo que Fitzroy dio a Darwin) se encargaría de las tareas sociales que se presentasen puesto que el capitán siempre estuvo muy centrado en la misión principal de la expedición: reconocimiento de costas y cartografía.
- Cuando el Beagle estaba anclado, Darwin se alojó frecuentemente en casa de alguno de estos hombres de negocios o nobles ingleses, lo cual le permitía alejarse del barco durante semanas y centrarse en sus observaciones en tierra firme y en sus cuantiosos apuntes tanto geológicos como biológicos.
Conforme iban pasando los años, las notas y muestras que Darwin fue recogiendo en sus excursiones se fueron acumulando en las ya de por sí apretadas bodegas del Beagle, y aunque el joven pudo enviar varias cajas a Inglaterra mediante barcos que regresaban, la falta de espacio siempre le resultó muy molesta.
Carta de Charles Darwin a John Stevens Henslow [24 de julio de 1834]
“Mis notas van haciéndose voluminosas: Tengo alrededor de 600 pequeñas páginas en quarto llenas, la mitad son de geología y la otra de descripciones imperfectas de animales. Me impuse la norma de describir sólo aquellas partes o hechos que no pueden verse en los especímenes guardados en alcohol. Mantengo además mi diario privado que es diferente de los anteriores”.
Un ejemplo de estas estrecheces es el curioso modo de escribir cartas que Darwin de vez en cuando utilizaba para ahorrar papel, como en esta carta a su hermana Caroline desde Valparaíso, aprovechando las hojas horizontal y verticalmente.
En esta misma carta el joven se queja de la pérdida de la goleta Adventure que compró Fitzroy ya que ese barco “extra” le permitía aumentar el espacio para sus colecciones. El Adventure fue vendido por lo que Darwin y otros oficiales tuvieron que volver a acomodar todas sus pertenencias en el estrecho Beagle. Incluso algunos de ellos, como uno de los pintores de la expedición, no pudieron continuar el viaje.
Carta de Charles Darwin a su hermana Caroline Darwin [13 de octubre de 1834]
“Lamentarás saber que la goleta Adventure fue vendida, pues el capitán no obtuvo ningún apoyo del Almirantazgo y vio que el gasto de un bote tan grande eran tan inmenso que determinó de pronto deshacerse de él. Ahora estamos tal y como salimos de Inglaterra, con Wickham como primer teniente, lo que de todos modos es una buena cosa, aunque acomodarnos en tan poco espacio no es fácil y tengo bastantes molestias para almacenar mis colecciones. Se trata desde todo punto de vista de un asunto grave en nuestro pequeño mundo; un triste contratiempo para algunos de los oficiales, desde el primer teniente de la goleta hasta la camada de los pobres guardiamarinas, y muchas degradaciones semejantes. Fue necesario también dejar que nuestro pequeño pintor, Martens, saliera a vagar por el mundo… […] El señor Martens, el artista, ha sido obligado por falta de espacio a dejar el Beagle.”
Darwin, quejica como lo fue durante toda su vida, no paró de marearse durante los casi cinco años de viaje que duró la expedición. El Beagle partió a finales de 1831 y Darwin pensó que poco a poco se iría acostumbrando… estaba equivocado, ni siquiera el paso del tiempo hizo que el joven se aclimatara a los vaivenes del barco y el temido “mal de mar” lo acosó sin darle tregua.
Carta de Charles Darwin a su hermana Catherine Darwin [03 de junio de 1834]
“Es una suerte para mí que el viaje esté llegando a su fin, ya que positivamente sufro más por los mareos que tres años atrás”.
Carta de Charles Darwin a su hermana Caroline Darwin [13 de marzo de 1835]
“Anhelo tanto verlos de nuevo. El viaje ha sido demasiado largo y penoso y apenas sé si nos conoceremos; independientemente de estas consecuencias, sigo sufriendo tanto del mal de mar que nada, ni siquiera la geología, puede compensar el sufrimiento y el enfado de espíritu. Pero ahora que sé que los veré de nuevo, no me importa ya nada; los meros pensamientos de ese placer harán que el mal de mar y los demonios del mar azul desaparezcan”
Incluso en los últimos días de navegación, cuando el Beagle ya estaba de regreso a Inglaterra, el joven naturalista siguió con sus mareos y náuseas. A pesar de considerar aquellos años como los más grandes de su vida, Darwin nunca se acostumbró a la vida en alta mar.
Carta de Charles Darwin a Robert FitzRoy [06 de octubre de 1836]
“Mi querido FitzRoy: Llegué ayer por la mañana, a la hora del desayuno, y gracias a Dios, encontré a mis queridas hermanas y a mi padre con buena salud. […] Te aseguro que soy un gran hombre en casa: los cinco años de viaje me han engrandecido en un cien por cien y me temo que tanta grandeza habrá de experimentar una caída.
Estoy del todo avergonzado de mí mismo por el estado de mala muerte en que consumí los últimos días a bordo; mi única excusa es que ciertamente me sentía mal […].
Espero que seas tan feliz, pero mucho más juicioso que tu sincero pero indigno filósofo.
Charles Darwin”.
Carta de Caroline Darwin a su prima Elizabeth Wedgwood [05 de octubre de 1836]
“Charles ha llegado a casa, tan poco alterado en sus facciones respecto de hace cinco años como en su persona. Desembarcó en Falmouth el domingo por la tarde y viajó noche y día hasta que llegó a Shrewsbury. […] Su odio del mar es tan intenso como podríamos desearlo nosotros y llegó a su clímax con una tormenta en la Bahía de Vizcaya. Se le ve muy delgado, pero está bien. […] Ahora que realmente lo tenemos de nuevo en casa, empiezo a intentar llenarme de alegría por su viaje en esta expedición pues ahora puedo darme cuenta de que ha logrado felicidad e interés para el resto de su vida”.
Su hermana no se equivocaba… Darwin jamás volvió a embarcarse en barco pero aquellos cinco años de mareos y estrecheces en el Beagle llenaron de interés y trabajo el resto de sus días.
Este post ha sido realizado por Javier Peláez (@irreductible) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Las cartas de Darwin: La vida a bordo de un balandro ataúd se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Es hora de prepararse para el Maquinoceno
Huw Price
La inteligencia de nivel humano es algo familiar en la maquinaria biológica; estás usando una ahora. La ciencia y la tecnología parecen estar convergiendo, desde varias direcciones, en la posibilidad de una inteligencia similar en sistemas no biológicos. Es difícil predecir cuando podría ocurrir esto, pero la mayoría de los especialistas en inteligencia artificial (AI) estiman que es más probable que sea en este siglo que no.
Liberados de las limitaciones biológicas, como un encéfalo que necesita ajustarse para pasar por un canal del parto (y que funciona con la energía que consume un simple bombilla de 20 W), las máquinas no biológicas podrían ser mucho más inteligentes de lo que somos nosotros. ¿Que significaría esto para nosotros? El destacado investigador en AI Stuart Russell sugiere que, para lo bueno y para lo malo, sería “el mayor acontecimiento en la historia de la humanidad”. Efectivamente, nuestras elecciones en este siglo podrían tener consecuencias a largo plazo no solo para nuestro planeta, sino para la galaxia en su conjunto, tal y como ha apuntado el Astrónomo Real Martin Rees. El futuro de la inteligencia en el cosmos podría depender de lo que hacemos ahora mismo, aquí en la Tierra.
¿Deberíamos preocuparnos? La gente viene especulando con la inteligencia de las máquinas desde hace generaciones, entonces ¿cuál es la novedad?
Bien, dos grandes cosas han cambiado en las últimas décadas. Primero, ha habido un montón de progreso real, teórico, práctico y tecnológico, a la hora de comprender los mecanismos de la inteligencia, tanto biológica como no biológica. Segundo, la AI ha alcanzado ahora un punto en el que es tremendamente útil para muchas tareas. Por tanto tiene un enorme valor comercial, lo que está incentivando inversiones gigantescas; un proceso que parece destinado a continuar y que, probablemente, se acelere.
De una forma u otra, entonces, vamos a compartir el planeta con un montón de inteligencia no biológica. Sea lo que sea lo que conlleve, los humanos afrontamos este futuro juntos. Tenemos un obvio interés común en hacerlo bien. Y necesitamos hacerlo perfectamente a la primera. Descartando una catástrofe que termine con nuestra civilización tecnológica que no acabe con nosotros por completo, no vamos a estar en esta situación de nuevo.
Ha habido signos alentadores de una creciente consciencia de estas cuestiones. Muchos miles de investigadores en AI y otras personas han firmado una carta abierta pidiendo que la investigación se asegure de que la AI es segura y beneficiosa. Más recientemente, hay una bienvenida Asociación de AI para beneficiar a la gente y la sociedad por parte de Google, Amazon, Facebook, IBM y Microsoft.
Por el momento buena parte de la atención se centra en la seguridad y en los beneficios e impactos (en los empleos, por ejemplo) a relativamente corto plazo. Pero, siendo estas cuestiones importantes, no son las únicas cosas en las que deberíamos estar pensando. Tomo un ejemplo de Jaan Tallinn, uno de los ingenieros fundadores de Skype. Imagina que estuviésemos llevando a la humanidad al espacio en una flota de naves gigantes. Necesitaríamos estar seguros de que estas naves fuesen seguras y controlables, y de que todo el mundo estuviese alojado y alimentado adecuadamente. Estas cosas serían cruciales, pero no serían suficientes por sí mismas. También haríamos lo más que pudiésemos para averiguar a dónde debería llevarnos esta flota y qué podríamos hacer para dirigirnos a las mejores opciones. Podrían existir mundos paradisíacos por ahí, pero hay un montón de espacio frío y oscuro entremedias. Necesitaríamos saber a dónde vamos.
En el caso del futuro a largo plazo de la AI hay razones para ser optimistas. Podría ayudarnos a resolver algunos de los problemas prácticos que derrotan a nuestros propios limitados cerebros. Pero en lo que toca al aspecto de la cartografía de futuros posibles, qué partes de él son mejores o peores, y cómo nos dirigimos a los mejores resultados, en esas cuestiones, aún somos mayormente ignorantes. Tenemos alguna idea de qué regiones evitar, pero buena parte del mapa sigue siendo terra incognita. Solo un optimista despreocupado pensaría que deberíamos esperar a ver.
Uno de los escritores clarividentes que vio esto venir fue el gran Alan Turing. “Parece probable que una vez que el método de pensamiento de la máquina haya arrancado, no debería llevarle mucho sobrepasar nuestras pobres capacidades”, escribió a la conclusión de una conferencia en 1951. En su artículo de 1950 sobre la llamada máquina de Turing, diseñada para evaluar nuestra disposición a atribuir inteligencia parecida a la humana a una máquina, Turing termina con estas palabras: “solo podemos ver una corta distancia hacia adelante, pero podemos ver mucho ahí que necesita hacerse”. Estamos bastante más allá del horizonte de Turing, pero este progreso no hace nada para aliviar la sensación de que hay todavía cuestiones urgentes que debemos intentar responder. Por el contrario, vivimos entre presiones que pronto nos llevarán más allá de nuestro horizonte actual, y tenemos aún más razones que Turing para pensar que lo que tenemos por delante podría ser realmente grande.
Si vamos a desarrollar máquinas que piensen, asegurarnos de que son seguras y beneficiosas es uno de los grandes retos intelectuales y prácticos de este siglo. Y debemos afrontarlo juntos, la cuestión es demasiado grande y crucial como para que la afronte una sola institución, empresa o nación. Nuestros nietos, o sus nietos, vivirán probablemente en una era diferente, probablemente más Maquinoceno que Antropoceno. Nuestra tarea es conseguir lo mejor de esta época de transición, para ellos y para las generaciones que seguirán. Necesitamos lo mejor de la inteligencia humana para conseguir lo mejor de la inteligencia artificial.
Sobre el autor: Huw Price ocupa la cátedra “Bertrand Russell” de filosofía de la Universidad de Cambridge y es “fellow” del Trinity College.
Texto traducido y adaptado por César Tomé López a partir del original publicado por Aeon el 17 de octubre de 2016 bajo una licencia Creative Commons (CC BY-ND 4.0)
El artículo Es hora de prepararse para el Maquinoceno se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Lo dicen en la tele: un alimento natural no lleva aditivos
Esta semana, viendo la televisión, me topé con este anuncio de una conocida empresa española de productos lácteos. El anuncio empieza diciendo «La encontrarás escrita por todas partes (…). Nos dimos cuenta de que la palabra ‘natural’ estaba perdiendo su significado. Era el momento de consultar a los miembros (…) de la real Real Academia de la Lengua». Nótese la intención de la redundancia «real-Real Academia de la Lengua». Efectivamente se refieren al lenguaje coloquial, a qué nos referimos generalmente cuando decimos que algo es ‘natural’.
En el anuncio aparecen una serie de escenas cotidianas. Una mujer, sosteniendo un bote de vidrio, dice «Si caduca en veinte años ¿es natural?». Un adolescente, tomándose un lácteo con chocolate y observando la etiqueta del producto, dice sonriente «¡Anda! No tiene ningún E».
Se sobreentiende que, si algo es natural, es mejor. Entendiendo ‘mejor’ como sano, saludable, seguro. Así que, cuantos menos E figuren en la etiqueta de un producto, mejor.
En la imagen superior figura la lista de ingredientes de un alimento. Las listas de ingredientes, así como la información nutricional, está presente en la etiqueta de los alimentos. Todos los alimentos han de etiquetarse de acuerdo a una normativa. Salvo excepciones -que no voy a detallar y que se pueden consultar en el reglamento-, la normativa sobre etiquetado nos dice:
–Información nutricional:
Los elementos a declarar de forma obligatoria son: el valor energético, las grasas, las grasas saturadas, los hidratos de carbono, los azúcares, las proteínas y la sal. La declaración habrá de realizarse obligatoriamente «por 100 g o por 100 ml» lo que permite la comparación entre productos, permitiendo además la decoración «por porción» de forma adicional y con carácter voluntario.
La información nutricional obligatoria se puede complementar voluntariamente con los valores de otros nutrientes como: ácidos grasos monoinsaturados y poliinsaturados, polialcoholes, almidón, fibra alimentaria, vitaminas o minerales.
–Ingredientes:
En los productos manufacturados, formados a partir de la mezcla y transformación de materias primas, como embutidos, derivados lácteos, galletas, etc. han de figurar todos los ingredientes. El orden en el que aparecen los ingredientes en la lista responde a su abundancia en el producto, de mayor a menor cantidad.
Aparecen en negrita los ingredientes que son alérgenos potenciales, como bien pueden ser frutos secos, mariscos, mostaza, soja, etc.
Están exentos de etiquetado con información nutricional e ingredientes: las bebidas alcohólicas, los productos frescos y productos a granel, como frutas, verduras, carnes y pescados frescos, y los productos de reducido tamaño, como los sobres individuales de salsas, galletas, etc. que se emplean en hostelería, a excepción de los alérgenos, que sí figuran en negrita como únicos ingredientes a declarar.
Entre los ingredientes que han de figurar en la lista de ingredientes nos encontramos con los E. Los E a los que se refiere el adolescente del anuncio son los denominados aditivos alimentarios.
Los aditivos alimentarios son sustancias que se añaden a los alimentos con diferentes funciones. Estas funciones cumplen esencialmente tres objetivos:
-
Mejorar características organolépticas del alimento, como son el sabor, el color, el aroma o la textura. Entre ellos encontramos los espesantes, colorantes, aromatizantes, edulcorantes, saborizantes, etc.
-
Mejorar aspectos tecnológicos del alimento y optimizar su elaboración. Entre ellos encontramos emulsionantes, espesantes, gelificantes, antiaglutinantes, etc.
-
Garantizar la seguridad y conservación del alimento. Entre ellos encontramos los antioxidantes, acidulantes, conservantes, etc.
El uso de conservantes ha supuesto uno de los mayores avances en seguridad alimentaria. Por poner un ejemplo: en los productos en conserva vegetales, es relativamente sencilla la proliferación de las bacterias responsables del botulismo, una intoxicación alimentaria mortal. La adición de sustancias antioxidantes a estas conservas dificulta el desarrollo de esta bacteria garantizando la seguridad de su consumo.
Otro ejemplo de las ventajas que han supuesto los conservantes lo encontramos en otra de sus funciones. Además de evitar indeseables proliferaciones bacterianas, también evitan la degradación nutricional, ayudan a que el producto mantenga durante más tiempo la calidad y la cantidad de nutrientes originales.
Cada aditivo se denomina, por normativa, con su correspondiente E seguida de tres o cuatro cifras alfanuméricas. La primera cifra indica la función de ese aditivo, y las siguientes cifras indican de qué sustancia en concreto se trata.
Que una sustancia se denomine aditivo alimentario y tenga su propio número E implica que la Autoridad Europea de Seguridad Alimentaria ha evaluado si esa sustancia es segura para la salud. El sistema de números E se utiliza además como una manera práctica de etiquetar de forma estándar los aditivos permitidos en todos los idiomas de la Unión Europea.
Existe una lista de aditivos alimentarios permitidos, así como las dosis a emplear de las que se ha evaluado que no suponen ningún riesgo para la salud, ni a corto ni a largo plazo. De hecho, las dosis se miden en función de las cantidades que podríamos consumir diariamente a lo largo de toda nuestra vida sin que ello supusiese un peligro. Esta lista, además, se revisa periódicamente, con lo que, si se encontrase algún indicio de peligrosidad en alguna sustancia o en las cantidades a emplear, se corregiría inmediatamente, con la consecuente retirada del mercado de los productos que la contuviesen.
No se puede comercializar ningún alimento que contenga un aditivo que no esté en la lista de permitidos. Gozamos de un sistema que vela por nuestra salud alimentaria, por lo que tenemos la seguridad de que cualquier alimento que consumamos, lleve o no lleve aditivos, va a ser seguro. Gracias a todos los controles sanitarios por los que pasan los alimentos antes de llegar al mercado, podemos afirmar con rotundidad que los alimentos actuales son más seguros que nunca.
Cuando conocemos cómo funcionan y cómo se evalúan los aditivos alimentarios, sabemos que su presencia en los alimentos no es indicativa ni de menor calidad, ni de menor seguridad, tal y como insinúa el anuncio de televisión de la industria láctea.
Cuando mantengo conversaciones sobre la seguridad de los aditivos alimentarios suelo recurrir al mismo ejemplo, por clarificador:
«Si en la lista de ingredientes de un producto encontramos E-300, si no conocemos toda esta información sobre aditivos, es habitual e incluso comprensible dudar de su seguridad. Cuando desconocemos algo, lo natural es que seamos precavidos.
El E-300 es la nomenclatura que designa al ácido ascórbico. Podemos quedarnos igual que estábamos, o peor, ya que una sustancia ácida da cierto respeto.
El E-300, además de llamarse ácido ascórbico, tiene otro nombre, un nombre que nos resulta mucho más familiar: vitamina C. La vitamina C no nos da ningún miedo, todo lo contrario.
El E-300, la vitamina C, se utiliza habitualmente como antioxidante en los productos manufacturados. Cuando hace esa función como aditivo alimentario hay que denominarlo E-300 o ácido ascórbico, porque así lo determina la normativa del etiquetado».
La lista de ingredientes que figura en la imagen del principio de este artículo, con una gran cantidad de números E, pertenece a un alimento que ni siquiera requiere de etiquetado, ya que es un producto fresco. Si sospechásemos de su seguridad y salubridad, por la enorme cantidad de sustancias catalogadas como aditivos alimentarios, estaríamos cometiendo un error. Ese alimento es una manzana, una manzana normal y corriente. Este mismo ejemplo podríamos seguirlo con muchos otros alimentos ‘naturales’, así que la cantidad de números E no indica que un alimento sea mejor o peor, ‘natural’ o no natural.
Los productos lácteos que aparecen en el anuncio de televisión «no tienen ningún E» y por eso la gente, nosotros, los que hablamos la real-real lengua, entendemos que así son los productos ‘naturales’. Algunos de nosotros, los que quizá hablamos otra real-real lengua, la real lengua, a secas, somos más conscientes de que efectivamente, tal y como dice el anuncio, «la palabra ‘natural’ está perdiendo su significado».
Los responsables de ese mal uso de la palabra ‘natural’ somos todos, vendedores y consumidores. Los vendedores son responsables por aprovecharse y promover el desconocimiento sobre aditivos alimentarios, llevando a cabo una estrategia de márquetin populista y que fomenta la errónea y alarmista idea de que hay ciertos ingredientes inseguros en nuestros alimentos. Y los consumidores somos responsables por demandar y promover productos basados en ese desconocimiento.
Si vamos a comprar un alimento, nos fijamos en la lista de ingredientes y descartamos la compra porque éste contiene E, estamos marcando una tendencia de consumo, estamos demandando productos que cumplan esa exigencia. Lo estamos demandando por desconocimiento y promoviendo una actitud en el mercado que nos satisfaga, por muy ilógica que sea. Cuando un número importante de consumidores demandamos productos sin E, los productos sin E se fabrican y llegan al mercado. Los consumidores también somos responsables.
No echemos balones fuera: conocer o desconocer es opcional. Cuantas más cosas conocemos, mejores decisiones tomamos.
Fuentes:
Seguridad alimentaria. Web de la Agencia Española de Consumo, Seguridad Alimentaria y Nutrición, AECOSAN.
Reglamento (UE) nº 1169/2011 del Parlamento Europeo y del Consejo de 25 de octubre de 2011 sobre la información alimentaria facilitada al consumidor.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Lo dicen en la tele: un alimento natural no lleva aditivos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Usando ADN para sintetizar nanoestructuras de oro
Imagina una pajarería en la que venden pequeños pájaros cantores. Cubriendo completamente una pared hay una estantería formada por pequeñas jaulas en las que, en cada una, hay un pajarito. Bien, llamemos a este tipo de estantería de jaulas clatrato.
En realidad un clatrato es una mezcla sólida en la que las sustancias no se mezclan de cualquier manera, sino que una de ellas forma una estructura tridimensional con huecos (poros) y el otro compuesto químico se queda “encerrado” en esos huecos.
Un grupo de investigadores encabezado por Haixin Lin (Northwestern University) y Sangmin Lee (University of Michigan) ha construido una familia de clatratos increíble y con unas posibilidades asombrosas. Lo primero porque no se trata de sólidos, sino de coloides (como la gelatina). Han empleado nanopartículas bipiramidales de oro y ADN, sí ADN, esa molécula que contiene nuestra información genética, para crear centenares de análogos a clatratos poliédricos de poros abiertos de una complejidad estructural extraordinaria.
El ADN es conocido como el depositario de la información genética, el registro donde está escrito cómo construir un ser vivo completo. Esta información está codificada como pares de cuatro tipos diferentes de compuestos químicos (bases) y permite la síntesis de proteínas y, partir de éstas, todo lo demás. Desde hace algunos años se viene empleando esta idea y el propio ADN en aspectos tan alejados aparentemente de la biología como la computación y la síntesis de nanomateriales. Estos “cristales de catrato coloidades” (por llamarlos de alguna forma) multiplican las posibilidades de las metodologías que usan el ADN para la síntesis programada de materiales.
En el proceso de síntesis se parte de cristales de oro de 250 nanómetros que se mantienen en una suspensión coloidal a la que se añade ADN artificial. Las hebras de ADN se adhieren a las partículas de oro y las colocan en una determinada posición durante el proceso de autoensamblado. Dependiendo de la longitud de las secuencias de ADN y las disposición de los pares de bases, se forman de esta manera distintas estructuras tridimensionales. Dicho de otra manera, programando la secuencia de ADN se puede determinar la estructura cristalina de una manera muy precisa.
Si bien en estas primeras pruebas las estructuras no son mayores que unas pocas celdillas unidad, las aplicaciones previsibles son de una gran importancia. Desde sensores para determinadas proteínas o virus, hasta la síntesis de materiales de unas propiedades tales que no se pueden conseguir de otra manera.
Referencia:
Haixin Lin,Sangmin Lee et al (2017) Clathrate colloidal crystals Science doi: 10.1126/science.aal3919
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Usando ADN para sintetizar nanoestructuras de oro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El problema de Malfatti
Leyendo estos días sobre uno de los matemáticos más prolíficos de todos los tiempos, justo por detrás de Leonhard Euler (1707-1783) y Augustin Louis Cauchy (1789-1857), y el matemático puro por excelencia en la Gran Bretaña del siglo XIX, Arthur Cayley (1821-1895), he descubierto que trabajó en un curioso, y popular, problema de geometría euclídea conocido como el problema de Malfatti.
Gian Francesco Malfatti (1731-1807) fue un matemático italiano que trabajó en diferentes áreas de las matemáticas, álgebra, análisis, mecánica, geometría y teoría de la probabilidad. Fue catedrático de Matemáticas e Hidrostática de la Universidad de Ferrara, uno de los fundadores de la Società Italiana delle Scienze (1782), así como uno de los participantes más activos del proyecto de la Nuova Enciclopedia Italiana (1779), que surgió siguiendo el mismo espíritu de la Encyclopèdie francesa, editada por Diderot y D’Alambert.
Es conocido principalmente por el problema que lleva su nombre, el problema de Malfatti, que planteó y solucionó en su artículo Memoria sopra un problema stereotomico (es decir, Memoria sobre un problema estereotómico), publicado en 1803 en la Memoria di Matematica e Fisica della Società Italiana delle Scienze.
Según el diccionario de la lengua española de la RAE, la estereotomía es “el arte de cortar piedras y otros materiales para utilizarlos en la construcción”. Así en las primeras líneas del artículo Gian Francesco se plantea el siguiente problema:
Dado un prisma triangular recto de cualquier material, por ejemplo, el mármol, cortar del mismo tres cilindros [circulares] con la misma altura que el prisma, pero con el máximo volumen total, es decir, con el mínimo desecho de material del volumen del prisma.
El problema de los tres cilindros dentro del prisma triángular con el mayor volumen posible se puede reducir, como ya observó el matemático italiano en su Memoria sopra un problema stereotomico, a un problema de la geometría plana. En concreto, la cuestión es equivalente al siguiente problema del plano (al que podemos denominar problema original de Malfatti):
Dado un triángulo, encontrar tres círculos, que no se superpongan, dentro del triángulo y que tengan, entre los tres, una superficie máxima.
Además, Malfatti afirma en su trabajo, sin aportar ninguna explicación, que el anterior problema de geometría plana, y por lo tanto su problema sobre el corte de cilindros en el prisma triangular recto, se reduce al siguiente, que es el que se conoce como “problema de Malfatti”:
Problema de Malfatti: Dado un triángulo, construir tres círculos dentro del mismo tal que cada uno de los círculos sea tangente (es decir, se toquen en un punto) a los otros dos y a dos lados del triángulo (a estos se les llama círculos de Malfatti).
El propio Malfatti resolvió el problema utilizando métodos de geometría analítica. En concreto, el catedrático de la universidad de Ferrara calculó las coordenadas de los centros de los círculos fruto de su construcción. Además, demostró que el problema se puede resolver con regla y compás (la condición de resolver un problema, o construir un objeto geométrico, con la regla y el compás como únicas herramientas viene de la matemática griega antigua, y en ese tiempo se impuso como condición ideal para resolver algunos problemas de la geometría del plano).
A continuación, se muestra el esquema de la demostración del problema de Malfatti que realizó el matemático alemán Karl Schellbach (1804-1892), y cuyos detalles pueden leerse tanto en el libro Geometric Constructions de George E. Martin (al que pertenece la imagen), como en el libro 100 Great Problems of Elementary Mathematics: Their History and Solutions, de H. Dorrie.
La construcción empieza calculando las bisectrices de los ángulos del triángulo, en las cuales estarán los centros de los tres círculos de Malfatti, y el punto en el que se intersecan las bisectrices, el incentro. Después se trazan las alturas desde el incentro a los lados del triángulo, y cada uno de los tres círculos está inscrito en uno de los cuadriláteros que surgen.
Así mismo, se pueden obtener fórmulas para los radios de los tres círculos, que son tangentes a los otros dos y a dos lados del triángulo. Según Mirolad Stepanovic, en su artículo Triangle centers associated with the Malfatti circles (2003), Malfatto calculó dichas fórmulas, que fueron publicadas, póstumamente, en 1811.
Las fórmulas para los radios están dadas en función de las longitudes de los lados del triángulo a, b, c, la distancia r del incentro a los lados del triángulo (que es la circunferencia de centro el incentro e inscrita en el triángulo), la mitad del perímetro s = (a + b + c) / 2, y las distancias d, e, f del incentro del triángulo a los vértices opuestos a los lados a, b, c:
En 1826 el matemático alemán Jakob Steiner (1796-1863) publicó una hermosa solución haciendo uso de la geometría sintética.
A continuación, mostramos un esquema de dicha construcción (las imágenes han sido realizadas con Geogebra en la página www.geogebra.org):
Dado un triángulo ABC, se trazan las bisectrices de los tres ángulos del triángulo (los centros de los círculos de Malfatti están en las bisectrices de los ángulos), que se cortan en el incentro I.
A continuación, se trazan (con trazo discontinuo) los tres círculos inscritos en los triángulos pequeños marcados por las bisectrices, IAB, IBC y ICA. Cada bisectriz es tangente a dos de los círculos trazados (los cuales no se tocan entre sí), pero existe otra recta que también es tangente a cada par de círculos, que se dibuja de color rojo y con trazo discontinuo.
Finalmente, se trazan los tres círculos que están inscritos en cada uno de los cuadriláteros formados por dos de los lados del triángulo y dos de esas rectas que son tangentes a dos de los círculos (y que hemos pintado de rojo y con trazo discontinuo).
Esos tres círculos son círculos de Malfatti.
Muchos matemáticos del siglo XIX se interesaron por el problema de Malfatti y trabajaron en generalizaciones del mismo, entre ellos, el inglés Arthur Cayley, los alemanes Karl Schellbach y Alfred Clebsch (1833-1872), o el francés Joseph Diaz Gergonne (1771-1859), por citar algunos.
Al parecer, el problema de Malfatti de construir tres círculos dentro de un triángulo de forma que cada círculo sea tangente a los otros dos círculos y a dos de los lados del triángulo, ya fue propuesto por el matemático japonés Ajima Naonobu (1732-1798) como un sangaku o problema de geometría de los templos japoneses (véase la entrada Sangakus, pasión por los desafíos matemáticos), treinta años antes de que lo hiciera Malfatti.
Volviendo al problema original de Malfatti, es decir, el problema del prisma triangular y los tres cilindros interiores con el mayor volumen posible, y su versión de geometría plana, resulta que contrariamente a lo que afirmaba Malfatti, no es cierto que los círculos que llevan su nombre resuelvan ese problema, es decir, pueden existir tres círculos dentro del triángulo, que no sean de Malfatti y que, sin embargo, cubran una superficie mayor que los de Malfatti.
En concreto, en 1930 los matemáticos H. Lob y H. W. Richmond, en un artículo en el que analizaban las diferentes soluciones existentes al problema de Malfatti, que son 32 soluciones distintas (si se considera el caso general en el que los círculos pueden ser externos y tangentes al triángulo, derivado de la solución algebraica del problema), titulado The soluctions to Malfatti’s problem for a triangle (Proc. London Math. Soc. 2, 30 (1930), 287-304), escribían:
La afirmación de Malfatti sobre cortar cilindros de un bloque de mármol dejando sin utilizar la mínima cantidad de material no está probada. […] En un triángulo equilátero la afirmación no es cierta, para el círculo inscrito en el triángulo, con dos pequeños círculos apretados contra dos ángulos, estos contienen una superficie mayor que los círculos de Malfatti.
De hecho, puede demostrarse (véase por ejemplo el artículo de Michael Goldberg, On the original Malfatti Problem) que si se toma un triángulo equilátero de lado 2 cm (cuyo área sabemos que es √3, aproximadamente 1,7321 cm2), los círculos de Malfatti ocupan un área de aproximadamente 1,2629 cm2, mientras que los círculos de la distribución de Lob y Richmond tienen un área de aproximadamente 1,28 cm².
La situación es más evidente aún para un triángulo isósceles muy alto, es decir, con los lados iguales mucho mayores que el desigual. Una disposición de los círculos como aparecen en la segunda imagen, es decir, los tres seguidos y tangentes a los dos lados iguales del triángulo isósceles, tiene una superficie mucho mayor que la correspondiente a tres círculos de Malfatti.
Michael Goldberg, en su artículo de 1967, demostró que una construcción del tipo de Lob-Richmond realizada para cualquier tipo de triángulo, siempre es de mayor área que la de los círculos de Malfatti, en consecuencia, estos nunca son una solución óptima al problema original de Gian Francesco Malfatti.
El problema original de Malfatti quedó completamente resuelto en 1994, cuando V. A. Zalgaller y G. A. Los, en su artículo The solution of Malfatti’s problem, clasificaron todas las formas de obtener tres círculos de máxima superficie dentro de un triángulo.
En concreto, Zalgaller y Los demuestran que existen 14 formas disposiciones rígidas de tres círculos (las disposiciones rígidas son aquellas que dejando fijos dos de los círculos, el tercero no se puede desplazar incrementando su radio), que no se superponen, sobre un triángulo. Las que aparecen en la siguiente imagen.
Además, en el artículo The solution of Malfatti’s problem se analiza, disposición a disposición, la posibilidad de ser maximal respecto al área, es decir, sean una solución al problema original de Mafatti, y se demuestra que las disposiciones 3-14 nunca pueden ser maximales, e incluso se obtienen condiciones para saber cuando son maximales las disposición 1 o la disposición 2.
Bibliografía
1.- George E. Martin, Geometric constructions, Springer-Verlag, 1998.
2.- Marco Andreatta, András Bezdek, Jan Boronski, The problem of Malfatti: Two centuries of debate, Mathematical Intelligencer 33, n. 1 (2010), 72–76.
3.- Gian Francesco Malfatti, Memoria sopra un problema stereotomico, Memoria di Matematica e Fisica della Società Italiana delle Scienze, X (1803), 235-244.
4.- Mirolad Stepanovic Triangle centers associated with the Malfatti circles, Forum Geometricorum 3 (2003), 83-93.
5.- Wikipedia: Malfatti circles [https://en.wikipedia.org/wiki/Malfatti_circles]
6.- J. Steiner, Gesammelte Werke, 2 volumes, edited by K. Weierstrass, 1881.
7.- Heinrich Dorrie, 100 Great Problems of Elementary Mathematics: Their History and Solutions, Dover, 1965.
8.- Geogebra: Malfatti’s problem- Steiner solution [https://www.geogebra.org/m/GDOLfx5y]
9.- H. Lob, H. W. Richmond, The solution of Malfatti’s problem for a triangle, Proc. London Math. Soc. 30 (1930), 287-304.
10.- Michael Goldberg, On the original Malfatti problem, Mathematics Magazine 40 (1967), 241-247.
11.- 8.- Geogebra: Malfatti’s packing problem [https://www.geogebra.org/m/bXjAVqhf]
12.- V. A. Zalgaller, G. A. Los, The solution of Malfatti’s problem, Journal of Mathematical Sciences, vol. 72, n. 4 (1994), 3163-3177.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El problema de Malfatti se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La distribución del agua animal y el curioso caso del potasio
Aunque hay algunas formas de vida animal en las que el agua puede representar menos de un 10% de la masa corporal, lo normal es que ese porcentaje sea muy superior, pudiendo llegar hasta el 90% en algunos organismos. El porcentaje global de los mamíferos es de alrededor de un 60%. Por otro lado, el contenido hídrico varía notablemente también entre diferentes partes del cuerpo. Los porcentajes más altos corresponden a la sangre o equivalentes, con valores superiores al 90%. Y los tejidos blandos, como piel, músculos y órganos internos, rondan el 70%-80%. Las estructuras óseas, conchas y otros caparazones presentan niveles de hidratación de un 20%, y el tejido graso y estructuras como el pelaje, el 10%.
Un cuerpo humano de 70 kg de masa tiene, aproximadamente, 42 l de agua. De ese volumen, 14 l se encuentran fuera de las células, o sea, en los espacios intercelulares (11,2 l) y en la sangre (2,8 l). La mayor parte, por lo tanto, es agua celular (28 l). En lo sustancial las cosas son parecidas en otros animales aunque las proporciones puedan variar. Tomadas en su totalidad, en general hay más agua en el interior de las células que fuera de ellas. En muchos animales, por otro lado, no hay forma de diferenciar el plasma del líquido intersticial, ya que tienen sistemas circulatorios abiertos. Y los hay con compartimentos líquidos adicionales, como celomas o pseudocelomas. Por eso, desde el punto de vista funcional, la distinción fundamental en lo relativo a los compartimentos animales que albergan agua es la que diferencia el líquido intracelular del extracelular, sin que importe demasiado si este último se encuentra en el celoma, en un vaso sanguíneo o entre las células. Al líquido extracelular es al que, aunque pueda inducir a engaño, llamamos medio interno.
A efectos funcionales, el líquido extracelular baña las células y, además, se encuentra en contacto con el exterior. Como ya hemos visto, salvo en unos pocos animales, ese líquido ejerce de intermediario entre las células y el entorno del organismo: transporta los gases respiratorios y nutrientes y sustancias de deshecho; además, pone en contacto unas zonas con otras a efectos, por ejemplo, de coordinación hormonal. Los medios intracelular y extracelular (medio interno) se hallan separados por la membrana celular. Esta membrana es semipermeable, o sea, deja pasar libremente agua pero no permite el paso de las sustancias disueltas en ella, o no la mayoría de esas sustancias, al menos.
El hecho de ser semipermeables obliga a que el líquido que hay dentro de las células tenga la misma concentración osmótica que el medio interno. Solo así no se produce flujo neto de agua en ninguna dirección. Si el líquido extracelular fuese de mayor concentración osmótica que el intracelular, el agua saldría de las células hasta que estas alcanzasen la misma concentración que el medio interno, por lo que se deshidratarían y deformarían con riesgo de alteración funcional severa, tanto del citosol como de la membrana. Lo contrario ocurriría si es el medio interno el que se mantiene a menos concentración osmótica que el intracelular, solo que en ese caso, el riesgo sería el de que las células se hinchasen tanto que llegasen a fragmentarse.
Así pues, ambos medios, intracelular y extracelular, han de mantenerse a la misma concentración osmótica, aunque eso no quiere decir que deban tener la misma composición de solutos. De hecho, hay grandes diferencias entre la composición de uno y otro. Por regla general, el catión principal en el interior de las células es el K+, mientras que en el medio interno es el Na+. Y el Cl– es el anión mayoritario del líquido extracelular, mientras que dentro de las células los principales aniones son iones fosfato y sustancias orgánicas – proteínas y aminoácidos, principalmente- cuya carga neta es negativa.
Si nos fijamos en la composición de los dos compartimentos considerados –interno e intracelular-, la fauna del planeta se puede clasificar en tres grandes grupos. En el primero tenemos a la gran mayoría de animales marinos: todos los invertebrados y los mixinos; en el segundo están los condrictios (o peces cartilaginosos) y latimerios (cuyos únicos representantes actuales son dos especies de celacantos); y en el tercero están todos los invertebrados de agua dulce y casi todos los vertebrados (todos con excepción, precisamente, de mixinos, condrictios y latimerios).
Casi todos los representantes de los dos primeros grupos son especies marinas y se caracterizan por tener la misma concentración osmótica que el medio externo, unos 1000 miliosmolar (1000 mOsml-1) en casi todos los casos. Las excepciones son las especies estuarinas de invertebrados y los condrictios de agua dulce. En ambos grupos sustancias inorgánicas (K+ y PO4-3, principalmente) y orgánicas (aminoácidos, principalmente) contribuyen a la concentración osmótica intracelular, aunque casi dos tercios del efecto osmótico se debe a la fracción orgánica. El medio interno, sin embargo, no presenta una composición similar en los dos grupos. En el primero (el de los invertebrados), casi todos los solutos son inorgánicos (Cl– y Na+, principalmente), mientras en el segundo, alrededor de un 40% de las sustancias disueltas son de naturaleza orgánica, urea en su mayor parte. Como se puede ver, las composiciones intracelular y extracelular son claramente diferentes, pero sus concentraciones son iguales.
El tercer grupo se caracteriza por tener sus compartimentos líquidos una concentración osmótica que representa, aproximadamente, una tercera parte de la de los dos grupos anteriores (alrededor de 330 mOsml-1, aunque con valores algo diferentes según los grupos y circunstancias ambientales). Lo más reseñable es que en estos, los solutos inorgánicos son muy mayoritarios, tanto en el medio interno como en el intracelular. Y la diferencia entre ambos medios es que en el medio interno los solutos mayoritarios son Cl– y Na+, y en el intracelular, K+ y PO4-3.
Mencionaré, para terminar, un hecho remarcable: todos o casi todos los animales mantienen concentraciones relativamente altas y similares (aunque no idénticas) de K+ dentro de sus células. En el resto de aspectos se diferencian unos de otros claramente, pero el potasio intracelular parece una cuasi-constante química de los seres vivos. Da la impresión de que es crucial que esa concentración no se aparte de forma significativa de un cierto valor. Al parecer, la concentración de K+ es un rasgo crítico para la integridad funcional de las proteínas celulares y eso explica que la tolerancia para con sus variaciones a corto plazo en las células sea mínima. Y quizás también explique por qué es un rasgo tan conservado entre grupos faunísticos. Hay autores que sostienen que la elevada concentración intracelular de K+ y PO4-3 procede, incluso de las primeras células, que no se habrían formado en el mar, sino en entornos de fumarolas terrestres en los que esos iones abundaban. La colonización de los mares habría ocurrido más tarde, y de la adaptación posterior al agua de mar habría quedado la composición inorgánica de los medios internos (extracelulares), basada, principalmente, en Na+ y Cl-. Son especulaciones basadas en datos, especulaciones, al fin y al cabo, pero muy sugerentes.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La distribución del agua animal y el curioso caso del potasio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El siglo de la esquizofrenia química
La leyes de Newton, publicadas en 1687, representan la culminación de la Revolución Científica del siglo XVII. Sin embargo, estas leyes del movimiento solo aplican a objetos macroscópicos: balas de cañón, bolas de billar y lunas. Para los químicos no eran de utilidad alguna par describir lo que ocurría en sus crisoles u hornos. La Revolución Científica solo sirvió para dar ánimos a los protoquímicos. Y es que, para la ciencia central, el siglo XVII fue el año de la esquizofrenia.
Efectivamente, el siglo XVII fue el siglo en el que convivieron la sociedad rosacruciana de alquimistas místicos con los protoquímicos que presentarían sus trabajos en la Académie des sciences francesa o en la Royal Society británica.
La palabra “química” se hace común a muy principios de siglo pero no debe ser entendida como lo hacemos hoy. Es un término mucho más vago y ambiguo que engloba a cualquier actividad que tenga que ver con la alquimia, la iatroquímica y la metalurgia; solo mucho más tarde adquirirá el sentido de campo de estudio científico.
Si la química en el XVII se practicaba más para fabricar medicamentos (iatroquímica) que oro era solo por una razón económica. El oro y la plata provenientes de América habían hecho disminuir el valor de estos metales y ya no merecía tanto la pena. Sin embargo, no faltaron quienes lo intentaron y sufrieron sus consecuencias. Así en 1603 el alquimista escocés Alexander Seton fue hecho prisionaro y torturado para arrancarle el secreto de sus muy publicitadas transmutaciones; a mediados de siglo, en 1667, el filósofo Spinoza se ve envuelto en la investigación de la veracidad de la transmutación presuntamente conseguida por Helvetius; y, finalmente, hay quien afirma que en la muerte de Carlos II de Inglaterra habría influido no poco la cantidad de humos inhalados mientras intentaba convertir el mercurio en oro. Incluso Newton, cuya idea de la gravedad era un triunfo para la concepción mecánica del universo, empleó no poco tiempo intentando descifrar todo tipo de libros alquímicos.
Pero el XVII también vio el descubrimiento del fósforo por Hennig Brand; a Johann Glauber fabricar productos iatroquímicos a escala industrial; y a Nicholas Lemery poder vivir de los réditos de su Course de chimie, un libro de texto de química, conciso y claro, y de impartir conferencias sobre química.
Pero si alguien encarna como nadie la esquizofrenia del XVII en la química, ese es Johannes van Helmont. Increíblemente avanzado para su época en algunas cosas, será deprimentemente arcaico en otras. En cualquier caso, merece capítulo aparte.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El siglo de la esquizofrenia química se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El descubrmiento del wolframio (¿o es tungsteno?)
Actualmente se conocen más de un centenar de elementos químicos que componen la materia del universo. El descubrimiento de los mismos ha sido una tarea ardua, que ha ocupado a los estudiosos de la materia desde la antigüedad hasta el pasado siglo XX. Uno de ellos, el wolframio, se descubrió en 1783 en una localidad vasca, Bergara. Los descubridores fueron los hermanos Fausto y Juan José Elhuyar. Aunque podemos pensar que este hecho es suficientemente conocido, lo cierto es que en ocasiones se hace referencia al mismo como un acontecimiento puntual y aislado, casi como una casualidad. Pero un logro de este nivel fue mas bien producto, como tantos otros, de la combinación de buenas instalaciones, un ambiente intelectual favorable, investigadores bien formados y contactos internacionales. Recordemos brevemente algunos hechos relacionados con todo ello.
A finales del siglo XVIII se produjo en toda Europa un enorme interés por el estudio de las ciencias puras y sus aplicaciones. En ese contexto surge la química moderna, ciencia que estudia los elementos que componen la materia, sus propiedades y sus interacciones. Gracias a Lavoisier y otros científicos, el estudio de la materia se dota de precisión y método científico y comienzan a quedar atrás, definitivamente, teorías como la del flogisto, basada en las ideas de la alquimia y en la creencia de que la materia se compone de cuatro elementos básicos –fuego, tierra, agua y aire– y de las diferentes mezclas de éstos.
Entre los pioneros de la química moderna destacan algunos personajes suecos, como Carl Wilhelm Scheele y Torbern Oloff Bergman. El primero fue uno de los mejores químicos del siglo XVIII, contribuyendo significativamente a poner a Suecia a la vanguardia de la ciencia química y, principalmente, de la mineralógica de la época. Bergmann destacó en mineralogía química y debe calificársele como pionero en la clasificación de los minerales según la composición química de éstos. Estos químicos suecos trabajaban hacia 1780 con un mineral, “tungsten” (conocido hoy como Scheelita, CaWO4) del que esperaban aislar un nuevo elemento químico. Y uno de nuestros protagonistas, Juan José Elhuyar tuvo conocimiento de ello, durante su estancia de varios meses en Upsala, donde asistió al curso de “alta química” que proporcionaba Bergmann .
En esa misma época, en Bergara, la Real Sociedad Bascongada de Amigos del país había puesto en marcha ya el laboratorio de química, imprescindible para las cátedras de “Química y Metalurgia” y “Mineralogía y Ciencias Subterráneas” que constituían la base de su innovador proyecto. Otro de los pioneros de la química, el francés Louis Joseph Proust, fue el encargado de preparar ese “perfecto laboratorio”, excelentemente equipado con instrumental puntero y con hornos capaces de alcanzar muy altas temperaturas. Así lo reconoció años más tarde el químico sueco Nicolas Thumborg (1747-1795) quién llegó a Bergara en 1788: “Laboratorium Chemicum… es un edificio aparte muy grande y bastante bien instalado. Instrumentos y material precioso no faltan. Cuando me hicieron el inventario me quedé grandemente sorprendido, pues no habiendo visto más que los laboratorios de Upsala y Estocolmo, me atrevo a decir que aquellos no son más que una cuarta parte en comparación con este.”
Volviendo al momento del descubrimiento, una vez reunidos en Bergara los hermanos Elhuyar en mayo de 1783, se pusieron a trabajar en el método para aislar el posible nuevo elemento que también perseguían los suecos. En su caso, el punto de partida fue otro mineral, la Wolframita, (Fe,Mn)WO4), procedente de las minas de estaño ubicadas en Zinnualde, en la frontera de Sajonia y Bohemia. Finalmente, el 28 de septiembre de 1783 consiguieron aislar el nuevo elemento, al que llamaron “Volfram”: “Lo llamaremos volfram, tomando el nombre del material del que ha sido extraído.”
El proceso químico general seguido por los hermanos Elhuyar para el aislamiento del wolframio fue el siguiente:
Moler la wolframita
(Fe, Mn) WO4 + 2HCl → H2WO4 + (Fe, Mn) WO4
H2WO4 + Calor → WO3 + H2O
WO3 + 3C → W + 3CO
El Wolframio se descubre cuando aún sólo eran conocidos 24 elementos químicos y ese hecho tuvo, lógicamente, repercusión en los ámbitos científicos de la época. La primera comunicación escrita se hizo en la publicación periódica de la Bascongada, los “Extractos de las Juntas Generales…”, con el título siguiente: Análisis químico del volfram y examen de un nuevo metal que entra en su composición”,. Más tarde se publicó en Francia, “Mémoire presenté à l’Académie Royale des Sciences, Inscriptions et Belles Lettres de Toulouse, en 1784, Sur la nature du Volfram, et celle d’un nouveau métal qui entre dans sa composition”. Y en 1785 en Londres, “A Chemical Analysis of Wolfram and examination of a new metal which enters into its composition by Don Joseph and Fausto de Luyart”.
La palabra Wolfram procede delalemán wolfram o wolfarth, baba o espuma de lobo. Los descubridores dejaron claro el nombre que debía darse al nuevo elemento, aunque hoy en día parece olvidarse aquello, imponiéndose muchas veces el nombre de tungsteno o “piedra pesada”.
En la exposición permanente del museo Laboratorium puedes observar tanto wolframio en polvo como muestras de Wolframita, mineral procedente de las minas de de Zinnualde similar al que utilizarían los hermanos Elhuyar. En el museo puedes también repetir el proceso que realizaron los Elhuyar para aislar el wolframio, mediante un interactivo instalado en la exposición permanente. Fausto Elhuyar te espera allí, para guiarte en tu descubrimiento.
Autor: Equipo técnico del museo Laboratorium
Museo Laboratorium. Palacio Errekalde, Juan Irazabal s/n, 20570 Bergara
Contacto: 943 769 003; laboratorium@bergara.eus.
El artículo El descubrmiento del wolframio (¿o es tungsteno?) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Fotovoltaicos siempre a máxima potencia
El Grupo de Control Avanzado del Departamento de Ingeniería de Sistemas y Automática de la UPV/EHU desarrolla un sistema de control que permite que los generadores fotovoltaicos trabajen siempre en su punto de máxima potencia, adaptándolo en función del nivel de radiación solar recibida así como de la carga conectada al sistema. Esto supone una mejora en la eficiencia de los generadores fotovoltaicos con respecto a los sistemas de control actuales, aunque también requiere la utilización de procesadores y elementos más potentes y, por tanto, más costosos.
Tras haber desarrollado diferentes algoritmos y sistemas de control y haberlos aplicado en campos tan diversos como la robótica, control de motores en máquinas eléctricas y en generadores eólicos, el Grupo de Control Avanzado de la UPV/EHU ha probado que uno de los métodos, un esquema de control deslizante, ofrece buenos resultados también para el control de generadores fotovoltaicos. “Se trata de un tipo de control innovador e inteligente, y robusto ante a las diferentes condiciones del entorno. Las pruebas, además, las hemos llevado a cabo con paneles fotovoltaicos comerciales, por lo que se podría aplicar directamente en el sector”, explica Oscar Barambones, responsable de esta área de investigación dentro del grupo.
La principal ventaja que presenta el nuevo sistema de control frente a los sistemas de control que llevan instalados los generadores actuales es que “permite trabajar a los generadores en su punto de máxima potencia continuamente, en su punto de trabajo óptimo, y así aumenta su eficiencia. Los sistemas de control actuales suelen emplear algoritmos del tipo perturbación/observación, los cuales hacen que el punto de trabajo del generador fotovoltaico esté oscilando continuamente, por lo que no trabaja exactamente en el punto de trabajo óptimo sino que está oscilando en torno a este punto, lo cual hace disminuir su eficiencia”, comenta Barambones.
El control deslizante es “apropiado”, según Barambones, para sistemas que tienen incertidumbres, como los generadores fotovoltaicos: “no siempre hay la misma radiación, pueden pasar nubes, etc., o la carga que se conecta al generador también cambia. Este tipo de control, por sus características, es capaz de sobreponerse a esas incertidumbres, y adaptar el punto de trabajo del generador a las condiciones de cada momento, para que trabaje siempre en su punto óptimo”.
La paradoja de las renovables
A pesar de que las pruebas las han llevado a cabo en paneles fotovoltaicos comerciales, y podría ser implementado y utilizado industrialmente sin ningún problema, Barambones reconoce que el sistema tiene ciertas características que “pueden frenar su transferencia al mercado”. Entre otras, está el mayor coste que los controles actuales, dado que tienen “mayor coste computacional, es decir, no se pueden implementar en los procesadores de bajo coste, y por ello hace falta procesadores con mayor capacidad de cálculo. Por lo que en muchos casos exigiría cambiar incluso el procesador. Faltaría realizar el cálculo de la diferencia de coste que exigiría y el porcentaje de eficiencia que se incrementaría al implementar estos nuevos esquemas de control”.
Barambones desvela la paradoja que se da con las energías renovables en este sentido: “Puede suceder que no interese tener un generador fotovoltaico más eficiente, si, por ejemplo, el coste de cambiar el esquema de control de un sistema de generación fotovoltaico va a ser mayor que añadir paneles adicionales, ya que la energía solar está ahí, es gratuita. No es lo mismo aumentar la eficiencia en un generador diesel, por ejemplo, que te permite gastar menos combustible para generar la misma cantidad de electricidad, que aumentar la eficiencia de un generador fotovoltaico que lo que utiliza es radiación solar. Utilizas menos radiación solar, sí, pero eso no es un punto tan importante como en el caso de los combustibles fósiles”.
Referencia:
M. Farhat, O. Barambones, L. Sbita.. A New Maximum Power Point Method Based on a Sliding Mode Approach for Solar Energy Harvesting. Applied Energy, 185: 1185-1198 (2017). DOI: /10.1016/j.apenergy.2016.03.055.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Fotovoltaicos siempre a máxima potencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Sexo robótico
El doctor Sergi Santos, radicado en el Reino Unido, ha anunciado la creación de una empresa para comercializar una muñeca del tamaño y apariencia de una mujer. Afirma, además, que la ha dotado de inteligencia. De inteligencia artificial, se entiende. La muñeca, en realidad, sería un modelo que se fabrica en China, a base de elastómero termoplástico, para uso sexual. Un elastómero termoplástico es un material polimérico con dos características interesantes: es elástico y es moldeable por efecto térmico. Según su creador la muñeca tiene tres modos de funcionamiento: familiar, romántico y sexual, y al parecer, gracias al módulo de inteligencia, responde de forma diferente dependiendo del trato que se le dispense.
Una empresa de California, Abyss Creations, ha anunciado que a finales de 2017 pondrá en el mercado un muñeco robótico sexual basado en un modelo que ya comercializa: su love doll de silicona, denominado RealDoll. La mayoría de los muñecos están caracterizados como mujeres y su aspecto puede adaptarse a la demanda del consumidor al precio de 7000 $.
La novedad que quiere incorporar Abyss Creations a los muñecos consiste, también, en dotarlos de inteligencia artificial para que puedan interactuar con el propietario. De hecho, el primer paso en su desarrollo será el lanzamiento este mismo mes de abril de una aplicación para dispositivos móviles que permitirá a sus usuarios crear un personaje de “mujer digital”. A tal efecto, deberán asignar a un conjunto de rasgos de personalidad los valores numéricos que consideren adecuados dentro de una escala predeterminada. La empresa se propone implantar la personalidad así creada en una cabeza robótica. La cabeza habría de ser capaz de elaborar expresiones faciales que reflejen sus rasgos de personalidad y comunicarse con su dueño mediante una interface de voz. Para ello dispondrá de software de aprendizaje automático, de reconocimiento de voz y de conversión de texto a voz. A largo plazo pretende fabricar robots con plenas capacidades motrices pero dado que, por el momento, eso no es posible, prefiere concentrarse en simular una interacción entre seres humanos. Por esa razón se han centrado en la cabeza y sus funciones.
Este proyecto ha provocado objeciones. Están, por un lado, las de orden ético. Kathleen Richardson, fundadora de Campaign Against Sex Robots, sostiene que el uso de muñecos refleja actitudes misóginas que convierten a las mujeres en objetos, y refuerza la idea de que la función principal de las mujeres es la de proporcionar placer a los hombres.
Por otro lado, hay quienes opinan que dado que no se dispone de la tecnología necesaria para construir verdaderos robots humanoides, el dispendio que supondría adquirir uno de los remedos que se pretenden fabricar carece de sentido. De hecho, el dispositivo de silicona no habría de ser considerado en rigor un robot, ya que carecerá, por el momento, de “agencia”, esto es, de capacidad para actuar de manera autónoma en función del contexto. Se trataría de un mero juguete sexual, dado que está pensado para ser utilizado. Entienden, por ello, que sería más lógico tratar de desarrollar nuevos juguetes sexuales, capaces de ofrecer experiencias eróticas diferentes a las conocidas haciendo uso de las posibilidades que brinda la tecnología actual.
Es difícil aventurar qué nos deparará el futuro, pero si estamos dando por hecho que la robótica alcanzará a prácticamente todas las esferas de nuestras vidas –incluidas, por ejemplo, la de la atención a personas dependientes y enfermas- no hay ninguna razón para pensar que el sexo quedará al margen de esta tendencia. Sospecho que, como en tantas otras vertientes de la vida, será el mercado el que tenga la última palabra.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sexo robótico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las ideas erróneas sobre educación entre el profesorado: prevalencia, causas y soluciones
¿Son eficaces los programas y sistemas educativos actuales? Durante los últimos años, es cada vez mayor el debate generado en torno a este tema. Muchos expertos argumentan que las teorías y prácticas educativas implementadas en los centros carecen de evidencia científica. El esfuerzo y los medios empleados en estas prácticas de dudosa utilidad obligan, además, a dejar de lado aquellas otras teorías cuya eficacia está probada.
Con el objetivo de abordar esta situación, el Bizkaia Aretoa de Bilbao acogió el pasado 17 de marzo la jornada titulada “Las pruebas de la educación”, donde varios expertos abordaron cuestiones relacionadas con la educación desde un punto de vista científico.
“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde una perspectiva científica. La dirección del seminario corrió a cargo de la doctora en psicología Marta Ferrero.
La propia Marta Ferrero trató en la cuarta ponencia sobre las ideas erróneas sobre educación más extendidas entre el profesorado. En ella identificó los factores que facilitan o provocan la creciente aparición de ideas pseudocientíficas en el ámbito escolar y propuso algunas soluciones a diferentes niveles.
Las ideas erróneas sobre educación entre el profesoradoEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Las ideas erróneas sobre educación entre el profesorado: prevalencia, causas y soluciones se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Del mito al hecho: hemisferios, gimnasia cerebral y estilos de aprendizaje
¿Son eficaces los programas y sistemas educativos actuales? Durante los últimos años, es cada vez mayor el debate generado en torno a este tema. Muchos expertos argumentan que las teorías y prácticas educativas implementadas en los centros carecen de evidencia científica. El esfuerzo y los medios empleados en estas prácticas de dudosa utilidad obligan, además, a dejar de lado aquellas otras teorías cuya eficacia está probada.
Con el objetivo de abordar esta situación, el Bizkaia Aretoa de Bilbao acogió el pasado 17 de marzo la jornada titulada “Las pruebas de la educación”, donde varios expertos abordaron cuestiones relacionadas con la educación desde un punto de vista científico.
“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde una perspectiva científica. La dirección del seminario corrió a cargo de la doctora en psicología Marta Ferrero.
En esta tercera conferencia el El maestro y divulgador Albert Reverter abordó diversas cuestiones pseudocientíficas en materia educativa como la teoría según la cual las personas aprendemos mejor si se nos enseña en nuestro estilo de aprendizaje preferido. También se ocupó de la llamada “gimnasia cerebral” que consiste en una serie de ejercicios dirigidos a activar el cerebro, promover la reestructuración neurológica y facilitar la capacidad de aprender. A pesar de su gran popularidad, no hay estudios científicos que avalen su eficacia.
Del mito al hechoEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Del mito al hecho: hemisferios, gimnasia cerebral y estilos de aprendizaje se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Prosopagnosia, la incapacidad de reconocer los rostros
Diariamente, por norma general, nos cruzamos y tenemos trato con un gran número de personas. Algunos son individuos a los que tan solo hemos visto en una ocasión pero que reconocemos gracias a que nuestro cerebro almacenó información sobre ellos (normalmente reteniendo alguna peculiaridad o un rasgo físico característico).
El área específica del reconocimiento facial en nuestro cerebro se encuentra en el giro fusiforme desde donde se empieza a procesar toda la información que entra por nuestros ojos, por lo que cualquier persona (que no padezca de un trastorno visual, evidentemente) cuando se cruza con otro individuo es capaz de reconocerlo si ya lo había visto con anterioridad e incluso, si es la primera vez, retiene información sobre los rasgos del mismo que en un futuro servirá para recordar de quién se trata (nuestra memoria es capaz de identificarlo en aproximadamente cien milisegundos).
Pero al igual que la inmensa mayoría de nosotros logra reconocer a alguien (obviamente, algunas veces con ciertas dificultades para terminar de ubicar y recordar su nombre, de qué o dónde lo conocimos) en el planeta se estima que hay un dos por ciento de la población que padece un curioso trastorno de agnosia visual llamado ‘Prosopagnosia’ y por el cual es incapaz de reconocer cualquier rostro.
La prosopagnosia o ceguera al rostro consiste en ver a alguien y no saber quién es, a pesar de que ese ‘alguien’ se trate de un familiar muy allegado y que convive con quien padece este curioso trastorno.
Existen diversos grados dentro de esta patología y, dependiendo del nivel de afectación del mismo, el prosopagnósico puede incluso llegar a no reconocerse a si mismo cuando se ve en una fotografía en la que aparece e incluso, en casos extremos, cuando pasa frente a un espejo.
La mayoría de ellos pueden distinguir los ojos, nariz o boca dentro de una cara, son capaces de señalar a qué parte del rostro corresponden y ubicarlo en él, pero les es imposible que su cerebro los ordene visualmente para reconocerlos en su conjunto dentro del rostro de alguien.
También son capaces de distinguir entre los rostros de varias personas diferentes, saber que cada una de ellas no son el mismo individuo, pero se sienten totalmente incapaces de averiguar quién es quién e identificarlas.
Una simple sonrisa, la forma de guiñar un ojo o de ladear la cabeza puede ser clave para que el prosopagnósico pueda tener una referencia clara sobre a quién pertenece y poder así reconocer fácilmente cuando se encuentran de nuevo.
El retener y memorizar esos rasgos y peculiaridades faciales, como tics, una cicatriz, si lleva bigote, forma de la nariz e incluso el modo de reír, caminar, si lleva gafas o tiene el pelo ondulado o recogido con una coleta, se convierte en algo fundamental para las personas que padecen la ceguera al rostro, por lo que cualquier cambio físico, por sutil que este sea (afeitarse, teñirse el pelo, cambiar de montura de gafas o de peinado…), puede provocar que el prosopagnósico no reconozca a quien tiene frente a él.
Actualmente no existe tratamiento farmacológico para curar esta patología, por lo que los enfermos que sufren esta agnosia visual se apoyan en terapias en las que les enseñan a memorizar el mayor número de datos sobre los rasgos faciales de las personas que les rodean, lo cual les ayuda a salir airosos para reconocer a determinadas personas y así evitar cualquier situación social embarazosa.
Entre las pruebas y terapias a las que son sometidos se encuentran algunas pruebas basadas en el famoso ‘test de Reconocimiento Facial de Benton’ (creado en 1946 por el profesor en neuropsicología, de la Universidad de Iowa, Arthur Lester Benton) diseñado para evaluar la percepción y memoria visual y en el que en lugar de presentar una serie de figuras o dibujos abstractos (que posteriormente el paciente debe reproducir) se realiza con imágenes de personas en las que debe señalarse las características de la cara de estas y emparejar las fotografías con la que corresponde (rostros de frente, perfil, iluminados y vistos desde diferentes ángulos, que hacen que el cambio de perspectiva pueda hacer que varíen sustancialmente los rasgos).
Aunque en un principio se asoció esta patología únicamente a una lesión en el hemisferio derecho del cerebro, posteriormente se estableció que era necesaria una lesión bilateral y simétrica en ambos hemisferios para padecer tal desorden. Durante largo tiempo se tuvo el convencimiento que la prosopagnosia era una de las consecuencias tras haber sufrido algún accidente cerebrovascular, tumor cerebral e incluso, aunque con menor frecuencia, un traumatismo craneoencefálico o infecciones del Sistema Nervioso Central, siendo denominada ‘prosopagnosia adquirida’, pero, gracias a los avances e investigaciones que se han desarrollando en el campo de la neurología, se ha logrado identificar que también existe un vínculo genético y que esta agnosia puede tener un origen congénito (‘prosopagnosia evolutivas o de desarrollo’) desarrollándose desde la infancia sin que tenga asociada una lesión específica.
Varios son los grados de incidencia de la ceguera al rostro y cada individuo puede padecerla en mayor o menor medida pero si tuviéramos que diferenciarla en dos bloques estos serían la ‘prosopagnosia asociativa’, en la que el paciente puede llegar a reconocer algún rostro gracias a aquellos rasgos faciales que ha memorizado y la ‘prosopagnosia aperceptiva’, por la cual se es incapaz de analizar la estructura facial, distinguir y memorizar las peculiaridades de cualquier individuo e incluso no tener la capacidad de percibir la sensación de familiaridad que se tiene al reconocer un rostro.
Para encontrar la etimología del término debemos buscar en la composición de los vocablos griegos prosopon (cara) y agnosia (ausencia de conocimiento). Fue el neurólogo alemán Joachim Bodamer quien, en 1947, acuñó dicho término el cual incluyó en un ensayo que escribió sobre la prosopagnosia, diferenciándola de la agnosia general y de la alexia y describiéndola como […]la interrupción selectiva de la percepción de rostros, tanto del propio como del de los demás, los que pueden ser vistos pero no reconocidos como los que son propios de determinada persona[…].
A pesar de ser una patología englobada dentro de las catalogadas como ‘enfermedades raras’ y que afecta a una de cada cincuenta personas, varios son los personajes populares a los que se les ha diagnosticado, entre ellos el famoso neurólogo Oliver Sacks, quien escribió sobre la prosopagnosia en 1985, en el libro ‘El hombre que confundió a su mujer con un sombrero’, incluso antes de saber que la padecía; la primatóloga Jane Goodall; la princesa Victoria de Suecia; la periodista de The Times Mary Ann Sieghart (su hija Evie también la padece) o el conocidísimo actor hollywoodiense Brad Pitt (según declaró en una entrevista realizada en 2013, aunque reconoció no estar diagnosticado por un especialista).
Este post ha sido realizado por Alfred López (@Yelqtls) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
Fuentes de consulta y más info:
http://www.jpsychores.com/article/S0022-3999(08)00157-8/abstract
http://www.visionlab.harvard.edu/Members/Ken/Papers/130NeurologyDuchaine04.pdf
https://pdfs.semanticscholar.org/3c99/7a718e53a5d5363b631a7d9116498fcd3069.pdf
http://www.tandfonline.com/doi/abs/10.1080/17470218.2016.1173076
http://dx.doi.org/10.1080/02643299008253437
http://www.sciencedirect.com/science/article/pii/0022510X72900044
http://biorxiv.org/content/early/2017/01/15/100479
http://dx.doi.org/10.1016/j.tics.2005.02.011
http://www.uninet.edu/neurocon/congreso-1/conferencias/neuropsicologia-2-2.html
https://www.wired.com/2006/11/blind/
Fuentes de las imágenes:
https://www.pexels.com/photo/apples-blurryface-dress-moonlight-80864/
https://www.flickr.com/photos/hfiguiere/10199319943
El artículo Prosopagnosia, la incapacidad de reconocer los rostros se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Por qué los colegios no deberían enseñar habilidades de pensamiento crítico generales
Carl Hendrick
Ser controlador de tráfico aéreo no es fácil. Parte fundamental del trabajo es una capacidad cognitiva llamada “conciencia situacional” que implica “la extracción continua de información ambiental [y la] integración de esta información con conocimiento previo para formar una imagen mental coherente”. Grandes cantidades de información fluida deben mantenerse en la mente y, bajo extrema presión, se toman decisiones de vida o muerte a lo largo de turnos rotatorios de 24 horas. El trabajo es tan estresante y exigente mentalmente que, en la mayoría de los países, los controladores de tráfico aéreo cumplen los requisitos para una jubilación anticipada. En los Estados Unidos, deben retirarse a los 56 sin excepciones.
En los años sesenta se realizaron una interesante serie de experimentos sobre las capacidades mentales de los controladores de tráfico aéreo. Los investigadores querían explorar si poseían una capacidad aumentada general para “seguir varias cosas a la vez” y si esa habilidad podía aplicarse a otras situaciones. Tras observarlos en su trabajo, los investigadores asignaron a los controladores de tráfico aéreo un conjunto de tareas genéricas con formas y colores basadas en la memoria. Lo extraordinario fue que, cuando se les evaluaba en estas tareas alejadas de su área de conocimiento, los controladores de tráfico aéreo no eran mejores que cualquier otro. Sus extraordinariamente sofisticadas capacidades cognitivas no se aplican fuera de su ámbito profesional.
Desde comienzos de los años ochenta, sin embargo, los colegios se han visto cada vez más cautivados por la idea de que los estudiantes deben aprender un conjunto de destrezas de razonamiento generalizadas para prosperar en el mundo contemporáneo; y especialmente en el mercado de trabajo contemporáneo. Llámense “habilidades de aprendizaje del siglo XXI” o “pensamiento crítico”, el objetivo es equipar a los estudiantes con un conjunto de métodos generales de resolución de problemas que pueden aplicarse a cualquier campo; los líderes empresariales los aplauden como parte esencial de la preparación para el siglo XXI. Naturalmente, queremos que niños y graduados tengan un conjunto de herramientas cognitivas multipropósito que les permitan manejarse en el mundo. Es una vergüenza, entonces, que hayamos fallado a la hora de aplicar un mínimo de pensamiento crítico a la cuestión de si una cosa así se puede enseñar.
Tal y como sugerían los estudios de los años sesenta sobre los controladores aéreos, para ser bueno en un campo concreto tienes que saber un montón de él: no es fácil trasladar esas habilidades a otros ámbitos. Esto es aún más cierto con el tipo de conocimiento complejo y especializado que conlleva la pericia profesional: estudios posteriores encontraron que cuanto más complejo es el campo, más importante es el conocimiento específico de ese campo. Esta no traslabilidad de la habilidad cognitiva está bien establecida en la investigación psicológica y ha sido replicada muchas veces. Otros estudios, por ejemplo, han demostrado que la capacidad de recordar largas series de dígitos no se transfiere a la capacidad de recordar largas series de letras. Sin duda esto no es sorprendente, ya que todos conocemos personas que son muy “inteligentes” en sus vidas profesionales y que, sin embargo, parece que toman decisiones estúpidas en sus vidas personales.
En casi cualquier campo, cuanto mayor es el nivel de habilidad, más probable es que la pericia se haga más concreta. En un equipo de fútbol, por ejemplo, ha diferentes “campos” o posiciones: portero, defensa, delantero. Dentro de éstas, hay todavía más categorías: defensa central, lateral, mediocentro atacante, mediocentro defensivo, delantero centro. Bueno, podría estar bien para un grupo de aficionados, jugando un partido amistoso, cambiar de posiciones. Pero, a nivel profesional, si pones un lateral izquierdo en la posición del delantero centro o a un centrocampista en la de portero, los jugadores estarían perdidos. Para que puedan tomar decisiones excelentes en fracciones de segundo y ejecutar estrategias robustas y eficaces necesitan miles de modelos mentales concretos, y miles de horas de práctica para crear esos modelos, todos los cuales son concretos y exclusivos de una posición.
Por supuesto, el pensamiento crítico es una parte esencial del equipamiento mental de un estudiante. Sin embargo, no puede separarse del contexto. Enseñar a los estudiantes “destrezas de razonamiento” separadas del resto de su currículo no tiene sentido y es ineficaz. Como dice el pedagogo estadounidense Daniel Willingham:
Si recuerdas a un estudiante suficientemente a menudo que “mire un problema desde múltiples perspectivas”, aprenderá que debe hacer eso, pero si no sabe mucho de un problema, no puede pensar sobre él desde múltiples perspectivas…el pensamiento crítico (así como el pensamiento científico y cualquier otro pensamiento basado en un campo) no es una habilidad. No hay un conjunto de destrezas de pensamiento críticas que pueden adquirirse y usarse sin tener en cuenta el contexto.
Esta separación de los ideales cognitivos del conocimiento contextual no se circunscribe al aprendizaje del pensamiento crítico. Algunos colegios se precian de colocar las “destrezas de aprendizaje para el siglo XXI” como parte fundamental de su misión. Se ha llegado incluso a sugerir que algunas de estas nebulosas habilidades son ahora tan importantes como la alfabetización y que debería otorgárseles el mismo estatus. Un ejemplo de esto son los juegos de entrenamiento mental que afirman que ayudan a los niños a ser más inteligentes, estar más alerta y ser capaces de aprender más rápido. Sin embargo, investigaciones recientes ha demostrado que los juegos de entrenamiento mental son solo buenos para una cosa: ser bueno en los juegos de entrenamiento mental. La afirmación de que ofrecen a los estudiantes un conjunto general de habilidades de resolución de problemas fue recientemente rebatida por un estudio que revisó más de 130 artículos de investigación, que concluía:
No conocemos prueba alguna de mejora general en cognición, rendimiento académico, desempeño profesional, y/o competencias sociales que se derive de una práctica descontextualizada de habilidades cognitivas carentes de contenido de un campo concreto.
Lo mismo aplica para la enseñanza de “predisposiciones” como la “mentalidad de crecimiento” (centrada en la voluntad y el esfuerzo en oposición al talento innato) o la “firmeza” (la determinación para superar obstáculos). No está claro que estas disposiciones se puedan enseñar, y no hay pruebas de que enseñarlas aparte de un tema concreto tenga efecto alguno.
En vez de enseñar habilidades de pensamiento crítico genéricas, deberíamos centrarnos en habilidades de pensamiento crítico concretas para un tema que busquen ampliar el conocimiento individual del estudiante del tema y desentrañar los complicados misterios propios de cada tema. Por ejemplo, si un estudiante de literatura sabe que la madre de Mary Shelley murió poco después del nacimiento de Mary y que la misma Shelley perdió varios hijos al poco de nacer, la comprensión del estudiante de la obsesión de Victor Frankenstein con crear vida a partir de la muerte, y del lenguaje empleado para describirla, será mejor que si se aproxima al texto sin este conocimiento. Un estudiante de física que investiga por qué dos aviones se comportan de forma diferente durante el vuelo puede saber cómo “pensar críticamente” gracias al método científico pero, sin un sólido conocimiento de factores contingentes como la temperatura del aire exterior y un repertorio de casos de estudio previos en los que fijarse, el estudiante tendrá dificultades para saber en qué hipótesis centrarse y qué variables descartar.
Como escribe Willingham: “Los procesos del pensamiento están entrelazados con aquello en lo que se piensa”. Los estudiantes necesitan que se les den cosas reales y significativas del mundo con las que y sobre las que pensar, si los profesores quieren influir en cómo hacen ese pensar.
Sobre el autor: Carl Hendrick es responsable de aprendizaje e investigación en el Wellington College (Berkshire, Reino Unido) y está terminando su doctorado en educación en el King’s College de Londres.
Texto traducido y adaptado por César Tomé López a partir del original publicado por Aeon el 5 de diciembre de 2016 bajo una licencia Creative Commons (CC BY-ND 4.0)
El artículo Por qué los colegios no deberían enseñar habilidades de pensamiento crítico generales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La ciencia y la duda
Lo más complicado y duro de practicar ciencia es mantener la permanente capacidad de hacerse preguntas: sobrevivir mentalmente en un entorno de duda continua. Porque la esencia del conocimiento científico es su volubilidad: cualquier teoría, hipótesis o hecho puede ser descartado debido a un nuevo avance, a un nuevo descubrimiento. Todo el andamiaje de lo que creemos saber es volátil; nada es permanente ni debe ser considerado fijo e inmutable. La obligación de cualquier científico es poner constantemente en duda todo lo que cree que sabe.
Y sí; es cierto que a veces y por razones diversas se cuelan en el corpus del conocimiento científico cosas que no son ciertas. La tradición, los intereses comerciales, los errores y la simple mala praxis contribuyen a engrosar el listado de errores de la ciencia. Hay múltiples razones por las que hechos, datos o interpretaciones falsas se pueden perpetuar, muchas de ellas derivadas de los intereses personales de alguien. Y no hablamos sólo de intereses económicos: en la ciencia a menudo el dinero no es la divisa más importante superada con mucho por el prestigio y la reputación. La resistencia a admitir errores o malas interpretaciones que puedan dañar el estátus de un científico o de una escuela o instituto puede ser un importante obstáculo para aceptar correcciones.
También es verdad que la desconfianza radical es poco práctica, y que nunca se replican los experimentos ajenos con ánimo de comprobar sus resultados. Si cada científico tuviese que demostrar todos los presupuestos de su disciplina desde cero para poder avanzar un paso más no sólo se repetiría sin necesidad una enorme cantidad de trabajo, sino que los avances serían muy lentos. De hecho el uso del trabajo anterior como peldaño para avanzar sirve en la práctica como sistema de comprobación: un resultado falso dura poco no porque nadie se dedique a comprobarlo, sino porque otros lo usarán como etapa intermedia en sus propios experimentos. Si no funciona, se sabrá: este no es el principal problema.
Para algunas personas, sin embargo, esta característica inestabilidad de la ciencia es inaceptable. Hay quien necesita sentir que conoce cuáles son los hechos básicos y permanentes sobre el cosmos y se siente inseguro cuando las respuestas a las preguntas cambian. Algunas personas sienten una especie de inestabilidad filosófica cuando las explicaciones sobre el mundo real varían, como si el universo mismo fuese tan poco inamovible como las teorías con las que lo explicamos. En el fondo todos nos sentimos más cómodos con las historias que conocemos y con las teorías con las que nos criamos y educamos; todo cambio de paradigma científico conlleva una cierta incomodidad, un esfuerzo mental de readaptación contra el que la inercia de nuestra mente se rebela.
Pero esta es la esencia del conocimiento científico: su capacidad de avanzar, de sobrepasar las teorías precedentes, de buscar nuevas y mejores explicaciones. Un científico debe estar dispuesto a aceptar que las ideas y teorías que aprendió en la carrera serán superadas por nuevos descubrimientos y nuevas hipótesis, incluso algunas suyas si tiene suerte. Aceptar que lo que antaño sabías ya no sirve no es fácil, pero si se quiere hacer ciencia es necesario. No es este un campo en el que se vayan a sentir cómodos quienes necesitan un cimiento firme e inamovible en el que asentar su concepción del universo. Porque a diferencia de otros sistemas de conocimiento que aspiran a ser equiparables la ciencia, cuando se equivoca, cambia de teoría. Y aunque para sus practicantes no sea fácil la duda constante como método de conocimiento es, sin duda, mucho más potente.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo La ciencia y la duda se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los castillos de arena en Titán no necesitan agua
Los vientos predominantes en Titán, la luna de Saturno, van de Este a Oeste sobre la superficie del satélite, pero las dunas de algo que podemos llamar arena (aunque no lo sea) de casi 100 m de alto se forman en la dirección contraria. Varias teorías se han propuesto para explicar este fenómeno, pero ninguna es completamente satisfactoria.
Ahora un grupo de investigadores encabezado por Joshua Méndez Harper, del Georgia Institute of Technology (EE.UU.), ha realizado una serie de experimentos que sugieren que las partículas que cubren la superficie de Titán están cargadas eléctricamente.
Cuando el viento sopla con velocidad suficiente (unos 25 km/h; lo que representa la fuerza de un viento de unos 100 km/h en la Tierra, ya que la atmósfera de Titán tiene 4 veces la densidad de la de nuestro planeta) los gránulos “salen volando” y rebotando en un movimiento que los geólogos llaman saltación. Estos gránulos no son silicatos (como la arena de la Tierra) sino probablemente algún tipo de hidrocarburo oscuro (como si fuese hollín); recordemos que en Titán hay lagos y mares de metano y etano líquidos.
Durante la saltación los choques de los gránulos entre sí y con los componentes de la atmósfera rica en nitrógeno provocan que adquieran carga eléctrica por fricción, y terminan formando agrupaciones unidas electrostáticamente que adquieren tamaño suficiente como para que sean difíciles de mover. Mantendrían la carga durante días, si no meses, uniéndose a otras sustancias hidrocarbonadas presentes en el medio. Como resultado, los vientos predominantes, muy suaves, serían incapaces de mover las dunas.
El experimento se llevó a cabo en unas condiciones como las de Titán en un recipiente cilíndrico a presión. Se introdujeron granos de naftaleno y bifenilo, dos compuestos que se cree que existen en la superficie de Titán, en una atmósfera de nitrógeno puro. Tras 20 minutos de hacer girar el cilindro los investigadores midieron las características eléctricas de cada grano conforme salía del tubo.
Todas las partículas estaban cargadas y aproximadamente el 5 % no salía del tubo. Los experimentos se repitieron con arena y con ceniza volcánica; en estos casos todo el contenido salía del tubo. Ello se debe a que los silicatos de arena y cenizas adquieren carga, pero es pequeña y se disipa pronto. Por eso hace falta agua para construir castillos de arena en la playa. En Titán, simplemente, no hace falta.
Referencia:
J.S. Méndez Harper et al (2017) Electrification of sand on Titan and its influence on sediment transport Nature Geoscience doi: 10.1038/ngeo2921
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Los castillos de arena en Titán no necesitan agua se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Un convite matemático ‘de altura’
Hace casi cuatro años, en la entrada Guateque en el Aftermath del blog de la Facultad de Ciencia y Tecnología de la UPV/EHU, adaptaba una propuesta vista en el libro [1].
En esa anotación, y en una supuesta fiesta que iba a tener lugar en el Aftermath –el universo en el que viven los matemáticos ‘inmortales’ tras su fallecimiento (ver [2])–, los invitados reaccionaban tras recibir la invitación al convite. En tono de humor, las respuestas de cada científico se relacionaban de alguna manera con las aportaciones matemáticas que habían realizado.
Entre los veintiún científicos que aparecían no había ninguna mujer… Hoy realizo en esta entrada el mismo ejercicio, pero eligiendo a cinco de los veintiún ‘ilustres’ matemáticos de Guateque en el Aftermath, introduciendo las respuestas de otras cinco no menos ilustres científicas, y proponiendo, para finalizar, un juego.
Empecemos con el listado de las reacciones ante esta invitación de estas diez insignes personalidades de la ciencia. Cada concepto matemático aparece en negrita y se explica en una nota final.
Las reacciones ante la invitación
-
David Hilbert cerrará su hotel (ver [3]) por esta noche, y espera que nadie se aproxime demasiado a su espacio vital durante la fiesta.
-
Emmy Noether dice que solo asistirá si August Möbius lleva unos anillos de chocolate que él mismo prepara –él los llama ‘cintas’– que le han dicho que le salen ‘ideales’ (ver [4]).
-
Paul Erdös ha invitado a sus amigos, a los amigos de sus amigos, a los amigos de los amigos de sus amigos… (ver [5]).
-
Émilie du Châtelet espera encontrar a Isaac Newton desde el principio… tiene mucho que discutir con él sobre su forma de redactar (ver [6]).
-
Georg Cantor no es capaz de contar todas las invitaciones que ha recibido (ver [7]).
-
Ada Lovelace tiene muy bien programada su agenda, y acudirá sin dudarlo (ver [8]).
-
Felix Klein dice que él se ocupará de las botellas (ver [9]).
-
Sophie Germain sólo irá a la fiesta si le garantizan que el número de asistentes es primo, y además un primo de su familia… (ver [10]).
-
.Kurt Gödelinsiste en que la invitación no es completa y no lo será nunca. Pero él estará allí aunque nunca podrá probarlo (ver [11]).
-
Sofia Kovalevskaya llevará unas peonzas para jugar: en la última fiesta, los rompecabezas que llevó Martin Gardner no le gustaron nada… (ver [12]).
El juego final
El juego final consiste en proponer otras posibles respuestas a esta supuesta invitación a esta selecta fiesta… esas frases deben proceder de mujeres matemáticas (ya fallecidas, y se puede elegir a las cinco anteriores también), y en ellas debe de estar incluida, de alguna manera, una alusión a sus aportaciones matemáticas (explicándolas).
Podéis enviar las propuestas a esta dirección de correo electrónico. Si hay suficientes, haremos una entrada (citando a sus autoras o autores) en el blog Mujeres con ciencia de la Cátedra de Cultura Científica de la UPV/EHU. ¡Animaos!
Notas
[1] Bruno Winckler, Recueil de blagues mathématiques et autres curiosités, Ellipses, 2011.
[2] En inglés aftermath significa secuela. Aquí se trata de un juego de palabras ‘After math’, es decir, ‘después de las matemáticas’. Se usa en este sentido, por ejemplo, en el musical Fermat’s last tango de Joshua Rosenblum y Joanne Sydney Lessner.
[3] El ejemplo del hotel infinito es una construcción abstracta debida a David Hilbert para explicar alguna de las ‘paradojas’ que envuelve el concepto de infinito. La introdujo durante la conferencia Über das Unendliche impartida en 1924. Raúl Ibáñez lo explicaba en Una de mates: El hotel infinito.
[4] Emmy Noether, la madre del álgebra abstracta, trabajo en teoría de anillos y de ideales. La cinta se refiere, por supuesto, a la cinta de Möbius.
[5] Se está hablando del número de Erdös, al que también nos referimos en la entrada El número de Erdős-Bacon-Sabbath.
[6] Émilie du Châtelet tradujo los Principia de Newton al francés.
[7] Georg Cantor formalizó el concepto de infinito a través de los llamados números transfinitos.
[8] Ada Lovelace pasa por ser la primera persona programadora de la historia.
[9] La botella de Klein es una superficie, de la que hemos hablado en las entradas La botella de Klein: geometría ‘palindrómica’ y Una visión topológica de la Odisea.
[10] Se está hablando de los números primos de Germain.
[11] Se refiere a los teoremas de incompletitud de Gödel y a la indecibilidad, ambos enmarcados en la teoría de lógica matemática.
[12] Sofía Kovalevskaya recibió en 1888 el Premio Bordin de la Academia de Ciencias de París por su trabajo Sobre la rotación de un cuerpo sólido alrededor de un punto fijo, es decir, un trabajo sobre el movimiento de una peonza.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Un convite matemático ‘de altura’ se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:A mayor tamaño, mayor complejidad
A partir del modelo animal básico consistente en una estructura procedente de tres capas embrionarias (ectodermo, mesodermo y endodermo), una simetría bilateral y la aparición de una cavidad interna, la división del trabajo biológico se acentúa considerablemente, con lo que la complejidad aumenta cada vez más.
Recordemos ahora que en el curso de la evolución de los animales se ha producido un aumento global del tamaño corporal. Pues bien, ese aumento del tamaño no habría sido posible sin el proceso paralelo del aumento de la complejidad organizativa y funcional. Por expresarlo de forma muy simple: no sería posible que un animal del tamaño y forma de un tortuga estuviese constituido por un bloque de células ameboides todas iguales.
Podemos considerar que el número de tipos celulares distintos que hay en un organismo constituye un indicador de su complejidad. Al fin y al cabo, cada uno de los tipos celulares realiza alguna tarea diferenciada del resto y es habitual que forme parte de algún tejido u órgano en concreto. Y cuantos más tejidos diferentes y órganos tiene un animal, más compleja es su organización y funcionamiento1.
Los representantes de los grupos más antiguos que aún perviven (Porifera) tienen alrededor de diez tipos celulares y algunos de esos tipos ni siquiera se organizan en tejidos, menos aún en órganos. Los animales con simetría bilateral más antiguos dotados de celoma tienen treinta tipos celulares. Los artrópodos tienen alrededor de cincuenta y los cefalópodos del orden de setenta y cinco. Los anfibios tienen cerca de ciento cincuenta. Las aves alrededor de ciento ochenta. Y los homínidos doscientos diez. Si el filo Porifera surgió hace aproximadamente unos quinientos ochenta millones de años y los primeros animales de simetría bilateral –con un número estimado de treinta tipos celulares distintos- aparecieron hace unos quinientos setenta millones de años, el ritmo de aparición de nuevos tipos celulares ha sido, aproximadamente, de uno cada tres millones de años. En resumen, conforme han ido apareciendo nuevos grupos animales, el número de funciones diferentes que es desempeñado por tipos celulares distintos no ha dejado de aumentar. De acuerdo con ese criterio, la complejidad organizativa y funcional ha sido cada vez mayor.
La especialización celular, como se ha dicho, refleja en gran medida un funcionamiento basado en órganos y sistemas y es la consecuencia, y a la vez reflejo, de una forma de división del trabajo de la que muy probablemente se deriva una mayor eficacia biológica. Así pues, en el curso de la evolución de los animales la división del trabajo no ha dejado de acentuarse. Creemos, además, que ese proceso es el que ha permitido el aumento del tamaño de los linajes de metazoos, aunque no lo ha hecho obligatorio. Por esa razón la mayor parte de los animales están organizados como un conjunto de sistemas que funcionan de forma armónica.
Para ilustrar los principios a los que me he referido en el párrafo anterior, fijémonos en la respiración. En los animales que carecen de sistema circulatorio (poríferos, cnidarios, gusanos planos, por ejemplo) el oxígeno no puede penetrar más de 1 mm desde el exterior del organismo, por lo que las mitocondrias más alejadas de la superficie corporal no pueden estar más alejadas del medio respiratorio que esa distancia. Eso, obviamente, limita mucho el tamaño total que puede alcanzarse. Sin embargo, una vez los animales cuentan con un medio líquido que circula por el interior del organismo y que pone en contacto unos sistemas con otros y el conjunto de ellos con el exterior, las limitaciones al tamaño motivadas por la difusión de los gases respiratorios se relajan considerablemente. Por otra parte, si, por las razones que fuese, los animales necesitan que la mayor parte de su superficie corporal sea impermeable al paso de diferentes sustancias, se requiere de un enclave especial en el que realizar el intercambio de gases: el sistema respiratorio. Éste, a su vez, si está asociado al sistema vascular, ya se encuentra en disposición de captar el oxígeno necesario, y transferirlo al plasma o sangre y, a través de ella, enviarlo a todos los tejidos. Hay una notabilísima excepción a ese esquema que es la de los insectos, que respiran a través de un sistema traqueal, pero precisamente por eso, el tamaño máximo que puede alcanzar un insecto está muy limitado. Una mosca no podría alcanzar el tamaño de un cerdo, por ejemplo, porque su sistema traqueal no se lo permitiría.
El ejemplo que he utilizado (sistema circulatorio y sistema respiratorio) ilustra bien a las claras la forma en que la especialización basada en tipos celulares distintos organizados en órganos y sistemas conlleva una mayor eficacia en el desempeño de una función y cómo esa mayor eficacia permite -en este caso de forma palmaria, no tanto en otros- mayores tamaños corporales.
Todas estas cosas pueden parecer obvias. Pero no lo son.
Referencias:
John Tyler Bonner (2006): Why Size Matters. Princeton University Press, Princeton.
James W Valentine, Allen G. Colins & C. Porter Meyer (1994): Morphological Complexity Increase in Metazoans. Palebiology 20 (2): 131-142
Nota:
1 Esto es, obviamente, muy discutible, pues depende de cómo definamos la complejidad. A los efectos que aquí interesan, sin embargo, me parece que el número de tipos celulares diferentes es un buen indicador. La idea la he tomado de Valentine et al (1994).
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo A mayor tamaño, mayor complejidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:De la reforma a la revolución
En los siglos XIV y XV las artes químicas, como tales, avanzaron poco, salvo en lo que se refiere a los trucos del alquimista estafador. Las avances técnicos del siglo XVI tampoco fueron espectaculares. De hecho, este periodo no fue otra cosa que una pausa en la investigación que se empleó en la reforma de la propia consideración de la química.
El objetivo de la química fue redefinido y reajustado. La minería, la medicina y la parte noble de la alquimia pasaron a estar interrelacionadas. Se pusieron en su sitio a las autoridades del pasado y surgieron nuevas basadas en nuevos libros cuyas afirmaciones podían comprobase en la práctica por mineros, metalúrgicos, farmacéuticos y médicos. Se puso un énfasis especial en los preparados químicos de uso en medicina y en la forma de prepararlos por parte de los farmacéuticos, que ahora debían ser también alquimistas, lo que tuvo un efecto muy estimulante en las investigaciones de los siglos posteriores.
Si bien no se avanzó mucho teóricamente, sí se pusieron las bases durante la Reforma para lo que después se llamaría la Revolución Química. Pero con la reforma también llegó la reacción, y en el siglo XVII habría casi tantos pasos para atrás como pasos hacia adelante.
La Europa del siglo XVII estaba en una etapa de grandes cambios, de ambigüedades y al frente del inicio de la globalización. Un ejemplo en lo político es Inglaterra donde, en la primera mitad de siglo, el rey Carlos I era descabezado (literalmente) durante la Guerra Civil Inglesa, para, en la segunda mitad, sustituir al católico Jacobo II por su protestante hija María II, tras una votación en el Parlamento que incluyó la Declaración de Derechos (1689), limitando los poderes del monarca.
Mientras, la Guerra de los Treinta Años (1618-1648) es la última gran guerra de religión pero la primera gran lucha nacionalista por la hegemonía continental, barriendo prácticamente las últimas trazas de feudalismo.
La exploración y colonización del mundo (África, Asia, América, Australia) supuso la aparición de un flujo continuo de nuevos productos (azúcar, café, tabaco, tomates, patatas, maíz, por nombrar algunos), que cambiaron muchos usos y costumbres. También un torrente de nueva información que forzaron a muchos a cambiar su cosmovisión. La creencia en la superioridad europea también llevó al restablecimiento de una práctica perdida con el Imperio Romano, la esclavitud.
La higiene brillaba por su ausencia y las grandes ciudades de Europa eran básicamente un pestilente foco de basuras y enfermedades. Los ricos comienzan con la costumbre de huir de ellas en verano, hacia mansiones que construyen en el campo.
El siglo XVII será el de la Revolución Científica pero, y esto se subraya poco, para las ciencias macroscópicas, física y astronomía, no así para la química.
Efectivamente, cuando a Richard Feynman le pidieron que resumiera en una frase el conocimiento científico más importante que tenemos, tras reflexionar un momento, dijo: “Todo está hecho de átomos”. Esto, que hoy damos por sentado y como algo poco menos que evidente, fue una suposición que ganó peso en el siglo XIX y que sólo se pudo confirmar más allá de toda duda razonable cuando Jean Perrin demostró en 1908 que la teoría del movimiento browniano formulada por Albert Einstein en 1905 era correcta.
En el siglo XVII, por tanto, para los químicos los principios fundamentales de su arte les eran desconocidos. Se intuía que la materia estaba compuesta por algún número indeterminado de los llamados “elementos” (que no hay que confundir con los actuales) y que éstos estaban presentes en todas las clases de materia. Esta hipótesis, muy vaga, era de poca utilidad práctica. Sin embargo, a finales de siglo se producirán aproximaciones a una definición alternativa.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo De la reforma a la revolución se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: