La función del asa de Henle en el riñón de mamíferos
Si se compara con la de anfibios, reptiles (no aviares) o peces de agua dulce, la nefrona de mamíferos tiene un elemento del que carecen las anteriores. Ese elemento es un segmento que se encuentra entre el túbulo proximal y el túbulo distal y que tiene la forma de una horquilla para el pelo. Se llama “asa de Henle”. Otra diferencia es que las asas de Henle y los ductos colectores se disponen en batería, lo que confiere a los riñones de mamíferos una macroestructura bien definida de la que carecen los riñones del resto de los grupos, salvo los de las aves. Y son precisamente estas dos características distintivas las que permiten al riñón de mamíferos producir una orina de mayor concentración osmótica que la de la sangre. Para hacernos una idea de la importancia de este rasgo, conviene recordar que peces, anfibios, lagartos, serpientes, cocodrilos y tortugas carecen de esa facultad, y que en el dominio animal tan solo insectos, aves y mamíferos han desarrollado la capacidad de producir orina hiperosmótica con relación a la sangre. Gracias a ella estos grupos han gozado de grandes posibilidades para colonizar una gran variedad de medios, incluyendo algunos tan exigentes como los desiertos más secos del planeta.
La cápsula de Bowman y su glomérulo se disponen en la zona exterior (corteza) del riñón, así como el túbulo proximal que emerge de la cápsula de Bowman. El asa de Henle tiene una rama descendente, que se dirige a la médula renal, y una ascendente, que vuelve hacia la corteza. Las nefronas de estos riñones pueden tener asas de Henle de diferentes dimensiones. En las que tienen el asa de Henle más larga la primera parte de su rama descendente es un segmento relativamente grueso, que da paso enseguida a otro más fino. También en la rama ascendente se diferencian un segmento fino, que es continuación del de la rama descendente, y uno grueso (ambos segmentos de similares dimensiones) hasta que llega al túbulo distal, que se dispone junto a la cápsula de Bowman en la corteza. En las nefronas de asa más corta esta penetra muy poco en la médula renal y el segmento fino es de longitud muy reducida. Por lo tanto, túbulos contorneados proximal y distal y cápsula de Bowman se encuentran en la corteza renal, mientras que el asa de Henle y los ductos colectores, que discurren paralelos unos a otros, se proyectan hacia el interior, en la médula renal. Las nefronas de asa larga tienen la cápsula de Bowman en una posición más próxima a la médula renal, aunque siempre en la corteza, mientras que las de asa más corta tienden a estar más alejadas de la médula y próximas a la superficie renal.
El segmento ascendente grueso de cada nefrona, al convertirse en túbulo distal, pasa junto a la cápsula de Bowman de su misma nefrona. Y en ese punto, en la pared del segmento aparecen un conjunto de células especializadas denominado mácula densa. En posición adyacente, pero en el endotelio de la arteriola aferente se encuentra otro conjunto de células especializadas, denominadas células yuxtaglomerulares o granulares. El conjunto conforma una estructura que se denomina aparato yuxtaglomerular. Las células yuxtaglomerulares secretan renina, una sustancia que, a su vez, controla la secreción de otra hormona, la aldosterona, que promueve la reabsorción renal de sodio.
A medidados del siglo XX los estudios de anatomía comparada mostraron que los riñones con una médula más gruesa eran capaces, por regla general, de producir una orina más concentrada osmóticamente, y solían pertenecer a animales propios de medios secos. A partir de esos elementos, se empezó a desentrañar el funcionamiento del riñón de mamíferos y el papel que en ese funcionamiento jugaba el asa de Henle.
La orina que llega al ducto colector desde la nefrona tiene una concentración de solutos inorgánicos (Na+, Cl–, K+ y SO42-, principalmente) inferior a la de la sangre. Sin embargo, dependiendo de las necesidades fisiológicas del organismo y, más concretamente, de si se encuentra en una situación de antidiuresis, conforme la orina discurre a lo largo del ducto colector, la concentración de los solutos inorgánicos se eleva hasta alcanzar valores muy superiores a los de la sangre. Eso ocurre porque el agua sale del ducto colector a favor de gradiente osmótico, gradiente que es debido a la alta concentración de NaCl en el fluido intersticial de la médula; además, esa concentración es mayor cuanto más penetra el tubo colector en la médula renal. Para que el gradiente osmótico dé lugar a la reabsorción de agua, es preciso que el epitelio del ducto colector sea permeable al agua, que es lo que ocurre cuando se dan condiciones fisiológicas de antidiuresis. Los solutos inorgánicos de la orina antes citados, por otra parte, no pueden atravesar el epitelio del ducto colector, de lo contrario el gradiente osmótico se atenuaría y el agua no saldría.
El gradiente de concentración de NaCl es debido a los procesos que ocurren en el asa de Henle. El epitelio de su rama ascendente transporta activamente NaCl desde la luz del túbulo hasta el fluido intersticial de la médula. Y además es un epitelio impermeable al agua. De esa forma, disminuye la concentración de la sal en la orina conforme esta transita por la rama ascendente del asa de Henle; y a la vez, la concentración de la sal es alta en el fluido intersticial. Por otra parte, aunque las características de la rama descendente difieren de unas especies a otras, lo normal es que de una forma o de otra, la concentración osmótica de la orina que se desplaza por su interior se equilibre con la del fluido intersticial.
Ese mecanismo genera una diferencia de concentración osmótica entre las dos ramas del asa de Henle que puede llegar a ser de 200 mOsm en su parte superior, cerca de la corteza. Sin embargo, el trasiego de NaCl que se produce a lo largo de toda la rama ascendente da lugar a que la concentración osmótica sea muy alta (alrededor, por ejemplo, de 700 mOsm o más) en la zona del codo, mientras que en la zona de la corteza llega a ser muy baja, (alrededor de 200 mOsm o menos), de manera que la diferencia entre las dos zonas, la médula interior y la corteza, llega a ser de 500 o 600 mOsm, bastante mayor que la que hay entre las dos ramas. A ese mecanismo se le denomina multiplicador contracorriente, porque multiplica el gradiente osmótico valiéndose de dos conductos por los que circula un fluido en sentidos opuestos y en íntima proximidad. En este esquema es muy importante el hecho de que todas las nefronas se encuentren dispuestas en batería, porque es la actividad conjunta de todas ellas la que da lugar a que el fluido intersticial de la médula interior tenga una alta concentración osmótica, mientras que en la corteza sea mucho más baja. Ha de tenerse en cuenta que son miles las nefronas que forman un riñón de mamífero: los de las ratas tienen alrededor de 30.000 cada uno, los de los perros tienen alrededor de 400.000, y los de los seres humanos entre 400.000 y 1.200.000.
Me he referido antes al grosor de la médula renal, señalando que las especies de mamíferos con una médula más gruesa producen una orina más concentrada y habitan entornos más secos. La razón de esa correlación es que médulas de mayor grosor relativo (con respecto al grosor renal total o al tamaño del animal) pertenecen a riñones en los que hay una mayor proporción de nefronas de asas de Henle largas. Los roedores que habitan zonas séricas tienen riñones de un gran grosor medular y todas sus nefronas son de asa larga. En el otro extremo están los castores, por ejemplo, que viven rodeados de agua; sus riñones no tienen nefronas de asa larga, todas son de asa corta.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La función del asa de Henle en el riñón de mamíferos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Así se distribuye la biomasa de la Tierra
Se estima que la biomasa del planeta asciende a unas 550 Gt (550.000 millones de toneladas) de carbono (C). El 80% (450 Gt) está en las plantas, entre las que las embriofitas son mayoritarias. Las bacterias contribuyen con 70 Gt, lo que representa el 15% del total. El resto, menos del 10%, corresponde a hongos (12 Gt), arqueas (7 Gt), protistas (4 Gt), animales (2 Gt) y virus (0,2 Gt). No obstante, algunas de estas estimaciones tienen una gran incertidumbre, por la dificultad de acceder a ciertos entornos en los que bacterias y virus, por ejemplo, podrían ser muy abundantes.
El 60% de la biomasa (320 Gt) está sobre la superficie, ya sea del fondo marino o de tierra firme. El resto se encuentra por debajo; 130 Gt están en las raíces de las plantas y 100 Gt en las bacterias que habitan dentro del suelo o bajo la superficie del fondo oceánico. Un 70% de la biomasa vegetal es de carácter leñoso, por lo que su actividad biológica es mínima, y las bacterias que viven en el interior de acuíferos y debajo del suelo marino también tiene un metabolismo muy reducido. Eso implica que sus tiempos de renovación o recambio son muy largos: de algunos meses a miles de años. Si se prescinde de esas formas de vida “lentas” la biomasa de plantas y bacterias sigue siendo importante: 150 Gt corresponden a raíces y hojas de plantas, y 9 Gt a bacterias marinas y terrestres, cifra solo ligeramente inferior a la de los hongos (12 Gt).
Aunque los insectos (clase del filo Arthropoda) son el grupo animal con mayor número de especies (alrededor de un millón), su contribución a la biomasa animal del planeta es minúscula. Son los artrópodos marinos los que, con 1 Gt de C, contribuyen en mayor medida. Dentro de estos solo una especie, el crustáceo Euphasia superba (el krill del que se alimentan las ballenas azules), tiene una biomasa de 0.05 Gt, similar a la de la especie humana (0,06 Gt), el ganado vacuno y las termitas, y muy superior a la de mamíferos (0,007 Gt) y aves (0,002 Gt) salvajes. Tras los artrópodos marinos, el grupo animal con más biomasa es el de los peces (0,7 Gt), a los que siguen artrópodos terrestres, anélidos (gusanos segmentados) y moluscos, con 0,2 Gt cada uno. Los animales de granja o pastoreo contribuyen con 0,1 Gt, una cantidad similar a la de los cnidarios (medusas, anémonas y similares).
Las cifras anteriores son, en gran medida, consecuencia de la acción humana. Se estima que la biomasa actual de mamíferos terrestres es siete veces menor que la de antes de la extinción del Cuaternario, y la caza de ballenas y otros mamíferos marinos ha reducido su stock a una quinta parte del que era antes del comienzo de esas actividades. En conjunto, la biomasa de mamíferos salvajes se ha reducido a la sexta parte de la anterior a la expansión humana por el planeta, aunque la de los mamíferos en conjunto se ha multiplicado por cuatro (de 0,04 a 0,17 Gt) debido a la explosión de nuestra población y nuestros animales. Por último, se ha estimado que la biomasa vegetal se ha reducido a la mitad durante los últimos diez mil años, lo que significa que la biomasa total se ha reducido en una proporción similar.
Nuestra especie no es la más numerosa, tampoco la que contribuye en mayor medida a la biomasa terrestre pero es, sin duda, la que ha causado un mayor impacto en los ecosistemas de nuestro planeta.
—————————————————————–
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia
El artículo Así se distribuye la biomasa de la Tierra se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El efecto Talbot: tejiendo alfombras con luz
El efecto Talbot es parte de los descubrimientos en óptica que realizó el polímata Henry Fox Talbot, quien ingresó en la Royal Society por sus méritos matemáticos pero que es recordado como pionero de la fotografía. Nos lo explica Daniel Eceizabarrena (BCAM).
Daniel Eceizabarrena: ''El efecto de Talbot: tejiendo alfombras con luz''El número π es una de las constantes matemáticas más importantes que existen. π es un número fascinante que goza de una gran popularidad e, incluso, de un día propio. Desde el año 1988, cada 14 de marzo se celebra el Día de Pi. Este evento fue idea del físico Larry Shaw, quien lanzó la propuesta añadiendo a su favor que la celebración coincidía con la fecha del nacimiento de Albert Einstein. Además, la forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos del número. (3-14 martxoaren 14 en euskara / 3-14 march, 14th en inglés)
En los últimos años la conmemoración del Día de Pi se ha ido extendiendo hasta convertirse hoy en día en una celebración que sobrepasa el ámbito de las matemáticas. π está presente en física, en el principio de incertidumbre de Heisenberg, la teoría de la relatividad o la ley de Coulomb. En geología hace su aparición a la hora de estimar la longitud de los ríos; en bioquímica, en el estudio de la estructura de una molécula de ADN; en astronomía, en el estudio de la forma del universo y en otras muchísimas aplicaciones de nuestro día a día.
Este 2018 nos unimos de manera especial a la celebración del Día de Pi con el evento BCAM-NAUKAS, que se desarrolló el miércoles 14 de marzo en el Bizkaia Aretoa de UPV/EHU. Este evento fue una iniciativa del Basque Center for applied Mathematics (BCAM) y la Cátedra de Cultura Científica de la Universidad el País Vasco.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo El efecto Talbot: tejiendo alfombras con luz se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los umbrales ecológicos en la bioacumulación de metales
Una investigación llevada a cabo por el grupo de Ecotoxicidad Animal y Biodiversidad de la UPV/EHU, en colaboración con la Universidad de Vigo, ha dado el primer paso para incorporar en los planes hidrológicos los criterios de calidad relativos a la bioacumulación de sustancias peligrosas requeridos por la UE.
La Unión Europea ha establecido de plazo hasta el año 2021 para el desarrollo de Normas de Calidad Ambiental, y en particular para la determinación de la concentración umbral en tejido de sustancias químicas peligrosas que pueden tolerar los organismos acuáticos con un bajo riesgo para la conservación de sus poblaciones.
Una investigación llevada a cabo en cuencas mineras de Asturias por el grupo de Ecotoxicidad Animal y Biodiversidad, dirigido por la Dra. Pilar Rodriguez, mediante la colaboración entre el Departamento de Zoología y Biología Celular Animal y el de Genética, Antropología Física y Fisiología Animal de la Facultad de Ciencia y Tecnología de la UPV/EHU, y el laboratorio de Limnología de la Universidad de Vigo ha permitido avanzar en esa labor, y ha propuesto la concentración umbral ecológica para 7 metales (cadmio, cromo, cobre, mercurio, níquel, plomo y cinc) y dos metaloides (arsénico y selenio).
El estudio incluyó un número de localidades no contaminadas, pertenecientes a la red de referencia de la cuenca del río Nalón, así como otras altamente contaminadas. Esta es una cuenca con una larga historia de explotaciones mineras debido a los altos niveles de metales que presentan sus rocas de forma natural. “Seleccionamos esta zona por ser una de las áreas de la región cantábrica donde las comunidades acuáticas tienen mayor problema de exposición a metales”, explica la Dra. Pilar Rodríguez, miembro del Departamento de Zoología y Biología Celular Animal de la UPV/EHU.
Concretamente, el estudio propone la concentración umbral ecológica para los 9 elementos químicos, a partir de las medidas en los tejidos de 10 taxones de invertebrados presentes en puntos de referencia, es decir, en lugares con un impacto mínimo o nulo de contaminantes, y cuyo estado ecológico fue evaluado como bueno o muy bueno. Se trata, tal como comenta la Dra. Rodríguez, de “una forma novedosa de afrontar el problema de las Normas de Calidad Ambiental; primero, hemos seleccionado los puntos de referencia, y los 10 taxones biomonitores utilizados para determinar las bioacumulación de metales son aquellos que se encuentran en general tanto en las zonas limpias como en los puntos contaminados”.
El estudio de un abanico tan amplio de grupos animales también es algo destacable de esta investigación. “Con este trabajo hemos evaluado la bioacumulación de metales en taxones de invertebrados representativos de distintos hábitos alimentarios (depredadores, fitófagos, sedimentívoros, filtradores y generalistas), y también con distinto comportamiento. Este factor determina también el grado de exposición a los tóxicos que tiene cada organismo: por ejemplo, los oligoquetos acuáticos, que viven en galerías dentro del sedimento, tienen una exposición máxima a los contaminantes asociados al mismo, mientras que la mayoría de las larvas de insectos son epibentónicas, es decir, viven sobre la superficie de las piedras y pueden estar expuestas a los contaminantes presentes en las algas, si se alimentan de ellas, o en las partículas presentes en el agua, si son filtradoras”, detalla la investigadora.
Mediante el análisis de los niveles de metales que presentaba cada uno de los taxones biomonitores en las localidades de referencia, “se estableció la concentración umbral ecológica para cada taxón y cada metal, es decir la concentración máxima que permite el mantenimiento del estado de conservación de las comunidades de macroinvertebrados a niveles óptimos”, continúa. La concentración umbral ecológica la establecieron mediante el percentil 90 del rango de los datos recopilados para cada metal en cada uno de los taxones. Por tanto, de todos los organismos donde tomaron medidas, solamente el 10 % se encontraría por encima de ese umbral establecido. “Nuestra propuesta es que a partir de ese nivel de concentración de metales se active un primer nivel de alarma, ya que existiría una probabilidad de riesgo para los invertebrados fluviales”, comenta.
“Ahora, en nuestra investigación actual estamos contrastando los valores de concentración umbral ecológica con los niveles bioacumulados por los mismos taxones de invertebrados en las localidades de la cuenca del Nalón, sujetas a distintos niveles de contaminación —cita la Dra. Rodríguez—. Es de esperar que exista un intervalo entre la concentración umbral ecológica y la concentración mínima asociada a efectos medidos en las comunidades acuáticas (disminución de la riqueza específica, o de la abundancia de taxones sensibles, etc.), que nos proporcione un nuevo límite en la concentración de tejido relacionada con la existencia de un alto riesgo ambiental para la conservación de la comunidad de macroinvertebrados acuáticos”.
Los datos e información obtenidos de momento son directamente aplicables a la gestión de la cuenca estudiada, la del río Nalón. “Su aplicación en otras cuencas del Cantábrico, incluidas las del País Vasco, es el siguiente paso y requerirá de un proceso de validación con nuevos datos de bioacumulación de metales en invertebrados de localidades de referencia y contaminadas procedentes de otras cuencas, pero necesitamos financiación para poder realizar los muestreos y análisis necesarios”, insta.
Referencia:
Pilar Rodriguez, Leire Méndez-Fernández, Isabel Pardo, Noemi Costas, Maite Martinez-Madrid (2018) Baseline tissue levels of trace metals and metalloids to approach ecological threshold concentrations in aquatic macroinvertebrates Ecological Indicators doi: 10.1016/j.ecolind.2018.04.004
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Los umbrales ecológicos en la bioacumulación de metales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Sal de la piscina si te pican los ojos y no mezcles lejía con amoniaco
Alguna vez te habrán picado los ojos y la piel tras bañarte en la piscina, y es posible que precisamente ese día oliese mucho a cloro. Pues el culpable más probable tanto de lo uno como de lo otro casi con total seguridad no ha sido el cloro. La razón por a que el agua de piscina puede picar y oler de esa forma tan característica tiene que ver con la química, obviamente, con cómo se mantiene limpia la piscina y con cómo interactúa el sudor y la orina con los productos higienizadores. Esta historia además nos sirve para explicar un triste suceso acontecido recientemente, el fallecimiento de una mujer mientras limpiaba con amoniaco.
Las piscinas no se cloran con cloro
Las piscinas no se cloran con cloro, al menos no con lo que los químicos llamamos cloro. El cloro (Cl2) en un gas, por lo que sería difícilmente manejable para el mantenimiento de una piscina. Además es un gas altamente tóxico, irritante y corrosivo, por lo que su manipulación es muy peligrosa. Lo que llamamos cloro de piscina, y que frecuentemente se comercializa en pastillas o en disolución, es una sal denominada hipoclorito sódico (NaClO). Esta sal es oxidante y bactericida, por eso la utilizamos para higienizar.
El hipoclorito sódico lo encontramos en varios productos de limpieza, por ejemplo, la lejía es una disolución al 2 – 2,5% de hipoclorito sódico en agua.
Cuando el hipoclorito sódico se disuelve en agua ocurre una reacción química denominada hidrólisis. Es decir, estrictamente la sal no se disuelve en agua, sino que reacciona con ella. En esa reacción se produce ácido hipocloroso (HClO) e iones OH–. Estos iones OH– son los responsables de la variación de acidez que experimenta el agua. Cuantos más OH–, menos acidez o, lo que es lo mismo, mayor pH.
Además de la medida del pH, existe otra que se utiliza normalmente para controlar el buen estado de las piscinas. Es el llamado cloro libre. El cloro libre se define como la suma de las concentraciones de ácido hipocloroso y de hipoclorito sódico, es decir, de las sustancias añadidas y formadas en el agua que contienen átomos de cloro en su composición.
Cómo se mantiene el pH de las piscinas
El pH de una piscina debe mantenerse entre 7,2 y 7,8. Por debajo de este pH el agua es suficientemente ácida como para resultar corrosiva para los equipos de mantenimiento, puede decapar el yeso y atacar a los metales. Un pH de partida ácido dificulta la efectividad de los tratamientos por cloración.
Por encima de este pH el agua adquiere tendencia formadora de sarro. Es frecuente en zonas donde el agua es dura, donde hay alta concentración de sales de calcio. Para evitar esto existen sustancias denominadas secuestrantes capaces de mantener disuelto el calcio y que el agua no se enturbie. Si dejamos al calcio campar a sus anchas se pueden producir depósitos que obstruyan los equipos, y si dejamos el pH alto será un fastidio para los nadadores. Si la piscina tiene un pH superior al de la saliva, esto provoca que las proteínas salivales se descompongan con rapidez y se depositen en los dientes. Esta es la razón por la que los nadadores profesionales a menudo padecen el denominado «sarro de nadador».
De forma natural el agua de una piscina se va acidificando, va bajando su pH. Esto ocurre fundamentalmente por dos motivos. El primero es que el CO2 del ambiente se va disolviendo en el agua y la acidifica. Esto pasa sobre todo en ambientes cerrados. La radiación ultravioleta también destruye el ácido hipocloroso, lo que se denomina fotolisis, lo que contribuye a una mayor acidez. Esta bajada inevitable de pH la podemos controlar ajustando la cantidad de hipoclorito sódico que añadimos o ajustando la periodicidad del tratamiento.
Para hacer un ajuste más preciso del pH a menudo se utilizan otra serie de sustancias que amortiguan esas variaciones, por eso se denominan amortiguadores. Es habitual emplear carbonato de sodio, ácido muriático o bisulfito de sodio para tal fin.
Otros tratamientos de piscina
Con el hipoclorito sódico podemos sanear una piscina, pero además de este tratamiento existen otros que resultan útiles para tratar otros problemas de higiene típicos de piscina. Por ejemplo, es frecuente utilizar alguicidas. Los alguicidas pueden ser surfactantes, es decir, sustancias que favorecen la penetración del agua y el hipoclorito en el alga y que aceleran su destrucción. También se emplean sales de plata como alguicidas. Su actividad es antibacteriana. Las sales de plata funcionan inhibiendo la respiración celular y llevando el metabolismo al colapso.
Los floculantes son sustancias como las acrilamidas, el sulfato de aluminio o el hidroxicloruro de aluminio. Funcionan haciendo que las finas partículas que escapan de los filtros se agreguen entre sí. Se formarán o bien flóculos que se depositan en el fondo y son fáciles de limpiar, o bien agregados suficientemente grandes como para quedarse retenidos en los filtros y así clarificar el agua.
Para deshacernos de las grasas y aceites que acaban en la piscina, tanto por la sudoración como por los productos cosméticos, existen enzimas que aceleran su descomposición. Para ello se emplean catalizadores biológicos.
Los ojos rojos de piscina no los causa el cloro libre, sino las cloraminas
Cuando salimos de la piscina con los ojos rojos solemos pensar que la razón es que se ha clorado en exceso o recientemente. No es así. La causa de los ojos rojos, el picor de piel y el clásico «olor a piscina» es de las cloraminas.
Las cloraminas se producen por reacción del ácido hipocloroso con compuestos nitrogenados. El origen de estos compuestos nitrogenados está en los usuarios de la piscina. Tanto el sudor como la orina contienen esta clase de sustancias. Ya sabemos que por higiene y por civismo hay que pegarse una ducha antes de entrar en la piscina para no contaminarla con sudor. Ahora sabemos que duchándonos antes de meternos en el agua, también evitamos la formación de cloraminas. Y obviamente no hay que orinar en la piscina. Sin embargo, la gente es mucho más guarra de lo que uno se espera: de media, en una piscina de dimensiones olímpicas encontramos hasta 225 litros de orina.
Las cloraminas se producen por reacción entre compuestos nitrogenados (con grupos amino) y el ácido hipocloroso. Estas sustancias son altamente tóxicas e irritantes, de ahí que desencadenen picores y malestar. Por ese motivo, si nos pican los ojos o la piscina huele mucho a piscina, eso es indicativo de que hay presencia de cloraminas. Esto implica todo lo contrario a lo que nos decía la intuición: no se ha producido un exceso de cloración, sino todo lo contrario, lo que realmente hace falta en esa piscina es clorarla con urgencia.
Jamás mezcles lejía con amoniaco, puede ser mortal
Jamás mezcles lejía con amoniaco, por la misma razón que los compuestos nitrogenados del sudor y la orina forman cloraminas tóxicas en las piscinas al reaccionar con el ácido hipocloroso.
La lejía es una disolución de hipoclorito sódico, y el amoniaco es un compuesto nitrogenado (NH3) que reacciona con la lejía con facilidad. Esta reacción produce las dichosas cloraminas. Mezclar amoniaco con lejía, dos productos de limpieza que comúnmente tenemos en nuestras casas, puede tener consecuencias catastróficas. Las cloraminas que se desprenden generan sensación de asfixia, podrán intoxicarte, quemarte las vías respiratorias, las mucosas, los ojos y, desgraciadamente pueden acabar con tu vida. Esta es la hipótesis que se maneja sobre la desgraciada muerte de una mujer acontecida mientras limpiaba la cocina de su casa en Madrid.
Alternativas a la cloración que no producen cloraminas
Una alternativa que se usa en lugar de la cloración es la bromación. En lugar de hipoclorito se utiliza una sal de hipobromito que en el agua se hidroliza para dar lugar al ácido hipobromoso. Aunque la bromación no es ni tan eficaz ni tan económica para higienizar el agua como la cloración. Ambas son sustancias químicamente similares porque tanto el cloro como el bromo son elementos halógenos. En cambio, el ácido hipobromoso en presencia de compuestos nitrogenados genera bromoaminas y las bromoaminas no son tóxicas ni irritantes. Estos tratamientos por bromación suelen apoyarse con otros oxidantes.
Conclusión
No mezcles lejía con amoniaco. Estas dos sustancias reaccionan formando cloraminas, una clase de compuestos altamente tóxicos que pueden acabar con tu vida en un santiamén. Por esa misma razón, cuando se te pongan rojos los ojos en la piscina, te pique la piel, o huela mucho a piscina, pasa del baño hasta que vuelvan a clorar. Todas esas cosas indican que el hipoclorito con el que se sanea la piscina ha reaccionado con los compuestos nitrogenados del sudor y la orina. Es hora de limpiar la piscina y volver a clorarla. Deja el baño para otro día, porque los bañistas que han surcado esas aguas han dejado mucha porquería a su paso.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Sal de la piscina si te pican los ojos y no mezcles lejía con amoniaco se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:‘Imago mundi’, 7 retratos del mundo
Hemos incluido en el título de esta entrada del Cuaderno de Cultura Científica de la UPV/EHU la expresión latina “Imago mundi”, que podríamos traducir como “imagen o representación del mundo”, porque precisamente queremos mostrar diferentes imágenes o representaciones planas del mundo en el que habitamos, el planeta Tierra.
Cuando observamos un mapamundi, un mapa del planeta, nos encontramos ante un retrato de la Tierra, sin embargo, se produce la paradoja de que no existe ninguna forma “correcta” de representar la superficie terrestre. En el año 1778, el matemático suizo Leonhard Euler (1707-1783) demostró (véase la entrada El mapa Dymaxion) que no es posible realizar mapas “correctos”, esto es, representaciones planas de la superficie terrestre dejen invariante su geometría, es decir, que preserven, salvo la escala, las propiedades métricas básicas, como las distancias entre puntos, las longitudes de curvas, los caminos más cortos (geodésicas), las áreas, los ángulos o las formas.
Como consecuencia de lo anterior, cualquier mapamundi que tomemos nos va a transmitir una imagen falsa de la superficie terrestre. Todos los mapas, sin excepción, producen distorsiones geométricas. Un estudio detallado de esta cuestión se puede consultar en cualquiera de los libros El sueño del mapa perfecto (RBA, 2010) o Portraits of the Earth (AMS, 2002).
A lo largo de la historia de la humanidad se han producido cientos de mapamundis muy interesantes, y artísticos, como puede verse en publicaciones como Mapas antiguos del mundo (EDIMAT, 1998), Joyas de la cartografía (Parragon books, 2006) o El gran libro de los mapas (Paidós, 2006). Sin embargo, el objetivo de esta entrada es mostrar una serie de diferentes retratos de la superficie terrestre, y la imagen que de ella nos transmiten, a través de diferentes representaciones (proyecciones cartográficas), relativamente modernas, de la misma.
Retrato 1: la proyección de Mercator
La proyección de Mercator es una proyección cilíndrica (una proyección basada en proyectar, mediante un proceso geométrico, la esfera terreste “básica” –con esto queremos decir que antes se reduce la esfera terrestre a escala humana- sobre una superficie cilíndrica y después desplegar esta sobre el plano), luego el mapamundi diseñado a partir de ella será rectangular; cuyos meridianos y paralelos forman una red de rectas que se cortan perpendicularmente; una proyección conforme, es decir, que preserva los ángulos, pero no las distancias, las áreas, las geodésicas (los caminos más cortos entre dos puntos) o las formas de amplios territorios; que transforma las loxodrómicas –líneas de rumbo constante- en rectas y que produce poca distorsión cerca del ecuador (que es la circunferencia de tangencia entre la esfera básica y el cilindro). Fue diseñada por el científico y cartógrafo flamenco Gerardus Mercator (1512-1594), en 1569, con el objetivo de que fuera útil para la navegación.
Como es bien conocido, la distorsión es menor cerca del ecuador y cada vez mayor según nos vamos acercando a las zonas que están más cerca de los polos. Por ejemplo, hay una distorisión muy fuerte en Groenlandia, Canada, Alaska o Rusia, que aparecen mucho más grandes de lo que realmente son. En los mapamundis con la proyección de Mercator en los que aparece Groenlandia, ésta parece de un tamaño similar a África, sin embargo, es 13 veces menor.
Aunque en Europa estamos acostumbrados a versiones en las que el meridiano de Greenwich está en el centro, existen muchas versiones centradas en otros meridianos, como la siguiente centrada en América.
O esta centrada en el océano Pacífico.
La proyección de Mercator dio lugar al diseño de mapas muy buenos para la navegación marítima y aérea, sin embargo, producía distorisiones muy fuertes en áreas y formas al alejarse del ecuador, lo que la hacía poco recomendable el uso del mapamundi generado a partir de ella. Durante mucho tiempo se sobreutilizó este mapa, pero poco a poco desde la cartografía y la geografía se empezó a demardar el uso de otro tipo de proyecciones.
Sin embargo, la proyección de Mercator ha seguido siendo muy útil en la cartografía. Por ejemplo, es la base de la proyección UTM, proyección de Mercator Transversa Universal, que se utiliza para todos los mapas de escalas menores o iguales a 1:500.000, ya que además de ser conforme, no se produce mucha distorión métrica a esa escala. Por ejemplo, el Mapa Topográfico Nacional de España, del Instituto Geográfico Nacional, que es la base de todos los mapas de España, utiliza el sistema de proyecciones UTM en sus series de mapas de escalas 1:200.000, 1:50.000 o 1:25.000 y menores, así como otras agencias similares del mundo, como la US Geological Survey, USGS.
Pero uno de los usos más frecuentes hoy en día ha sido, y es, en mapas como Google Maps (donde se ha utilizado hasta este mismo año, 2018), OpenStreetMap o MapBox, entre otros, ya que es la proyección de Mercator la que está por debajo de este mapa que utilizamos practicamente todos los días en nuestra vida cotidiana. El motivo es que aunque la proyección de Mercator distorsiona mucho las formas para grandes territorios, para todo el planeta, sin embargo, el hecho de ser una proyección conforme, que preserva los ángulos, hace que distorsione muy poco las formas, localmente, para regiones pequeñas, lo cual la hace muy conveniente para un mapa dinámico sobre el que hacemos zoom a zonas pequeñas.
Retrato 2: La proyección de Mollweide
La proyección de Mollweide, también conocida con los nombres de proyección homolográfica o elíptica, fue creada por el matemático y astrónomo alemán Karl Brandan Mollweide (1774-1825) en 1805. Esta es una proyección pseudo-cilíndrica (las proyecciones cilíndricas son rectangulares y producen fuertes distorsiones en las formas, y frecuentemente en las áreas, en las zonas cercanas a los polos, por este motivo se comprimen, matemáticamente, los paralelos según se van acercando a los polos y se obtienen las proyecciones pseudocilíndricas), cuya forma es la de una elipse de proporción 2:1, es decir, el eje horizontal es el doble que el vertical; los paralelos son líneas rectas y los meridianos son semielipses, salvo el central que es una línea recta; es una proyección isoareal, esto es, que preserva el área, salvo el factor de escala, de forma que si dos regiones de la tierra tienen la misma superficie, también la tendrán en el mapa, contrariamente a lo que ocurría con la proyección de Mercator.
Si en una proyección cilíndrica se toma un meridiano como círcunferencia de tangencia, en lugar del ecuador, se tiene una versión llamada transversa de la proyección, en la cual es el meridiano el que se encuentra en la posición que antes tenía el ecuador. Si la circunferencia de tangencia es un círculo máximo (que son las geodésicas de la esfera, los caminos más cortos, y que se obtienen como intersección de la esfera con los planos que pasan por el centro de la misma), que no es ni el ecuador, ni un meridiano, se obtiene la versión oblicua de la proyección. De forma similar, se extiende la definición a las proyecciones pseudo-cilíndricas.
A continuación, mostramos un mapa realizado con la versión transversa de la proyección de Mollweide, con meridiano de tangencia, el meridiano de Greenwich.
Retrato 3: La proyección de Eckert IV
En 1906 el geógrafo y cartógrafo alemán Max Eckert (1868-1938) inventó una serie de seis proyecciones pseudocilíndricas, entre ellas, la proyección Eckert IV que también es isoareal (como todas las pares de esta serie), sus paralelos son rectas y sus meridianos arcos de elipse.
Puede utilizarse, centrada en el océano Pacífico, para mostrar información sobre los océanos.
Retrato 4: La proyección de homolosena de Goode
El cartógrafo y geógrafo estadounidense Jan Paul Goode (1862-1932) estaba buscando una alternativa a la proyección de Mercator para diseñar mapas temáticos del mundo, ya que el mapa de Mercator estaba siendo sobreutilizado. En 1923 diseñó la proyección homolosena. Esta es una proyección pseudocilíndrica, como las proyecciones de Mollweide y sinusoidal en las que se basa, isoareal y su mapa está interrumpido (cortado) a lo largo de algunos meridianos.
Este mapa se hizo bastante popular y fue ampliamente utilizado en Atlas, en publicaciones científicas y divulgativas, y en medios de comunicación. En ocasiones también se la ha llamado la “proyección piel de naranja”, porque supuestamente recuerda a una naranja pelada.
También se suele mostrar este mapa interrumpido por las zonas de tierra con el objetivo de que sean precisamente las zonas oceánicas las que permanezcan despejadas.
Retrato 5: La proyección de Van der Gritten
La proyección de Van der Gritten es la que se conoce como una “proyección de compromiso o convencional”, es decir, una proyección cartográfica que no preserva ninguna de las propiedades métricas, como áreas, ángulos o geodésicas, pero intenta compensar la distorsión de todas las propiedades métricas para que ésta no sea muy grande o también para que ofrezca una imagen de la Tierra bastante creible, es decir, que mantenga bastante bien las formas globales. Por lo tanto, la proyección de Van der Gritten no preserva ni las áreas, ni los ángulos, ni las geodésicas, y por supuesto, ni las distancias, ni longitudes de las curvas. Esta proyección proyecta toda la superficie terrestre sobre un círculo, creando una fuerte distorsión en los polos, al igual que ocurría ya con la proyección de Mercator (en ocaciones se presenta recortada por los extremos).
El cartógrafo germano-americano Alphons J. van der Grinten (1852-1921) inventó esta proyección en 1898. La National Geographic Society la adoptó para el diseño de sus mapamundis en 1922, y la estuvo utilizando hasta 1988, que fue sustituida por la proyección de Robinson.
Retrato 6: La proyección central o gnomónica
La proyección central o gnomónica, considerada la proyección más antigua ya que se atribuye a Tales de Mileto (aprox. 624-547 a.n.e.), es una proyección geométrica que proyecta la esfera terrestre básica, con “rayos” que salen desde el centro de la misma, sobre un plano tangente a la esfera (por lo tanto, pertenece a la familia de proyecciones acimutales, se proyecta directamente sobre un plano, en contraposición con las cilíndricas y las cónicas).
Las propiedades del mapa diseñado a partir de esta proyección son: i) su imagen es habitualmente circular y solamente cubre parte de uno de los hemisferios; ii) los círculos máximos que pasan por el punto de tangencia se transforman en rectas radiales igualmente espaciadas, mientras que los puntos que están a la misma distancia del punto de tangencia se transforman en circunferencias centradas en el punto de tangencia; iii) esta proyección preserva las geodésicas, pero no distancias, ángulos o áreas; iv) la distorsión de áreas, formas y ángulos, aunque menor cerca del centro, el punto de tangencia, es muy pronunciada según nos alejamos de dicho punto.
Por lo que acabamos de comentar, que la proyección central distorsiona mucho la imagen lejos del punto de tangencia, no es una buena proyección para diseñar directamente un mapamundi. A pesar de ello, si se ha utilizado para representar todo la superficie terrestre, a través de seis mapas conjuntos, en algunos Atlas, como en el publicado en 1844 por la Sociedad para la Difusión del Conocimiento Útil, SDUK, de Gran Bretaña.
En cualquier caso, la propiedad más importante de la proyección central es que preserva las geodésicas, es decir, los caminos más cortos, luego las rectas del plano representan los caminos más cortos de la esfera terrestre, lo cual la hace muy útil para la navegación marítima o aérea, y suele utilizarse en combinación con el mapa de Mercator, donde las rectas son las curvas de rumbo constante. Un ejemplo histótico de esta combinación es el mapa del viaje de Charles Lindberg (1902-1974), que fue el primer piloto en cruzar el oceano Atlántico solo y sin escalas, de Nueva York a París (véase el libro El sueño del mapa perfecto).
Por otra parte, además de ser utilizada para mapas celestes, la proyección gnomónica se ha utilizado para diseñar mapas poliédricos o variaciones de estos. La idea es sencilla, se circunscribe la esfera terrestre básica en un poliedro, por ejemplo, alguno de los solidos plátónicos (tetraedro, cubo, octaedro, dodecadero o icosaedro), se proyecta sobre las caras planas del mismo, y luego se despliega el poliedro en el plano.
De hecho, la anterior imagen del Atlas de SDUK es un mapa cúbico, con las seis caras del cubo. Otros ejemplos son el mapa de mariposa de Cahill (1909), derivado del mapa octaédrico, o el mapa Dymaxion del diseñador y arquitecto americano Buckminster Fuller (1895-1983), que es una variación del mapa icosaédrico, del que ya hablamos en la entrada El mapa Dymaxion.
La idea de Bucky Fuller fue diseñar un mapa que no tuviera una orientación preestablecida, el eje norte-sur en la vertical y con el norte arriba, y que pudiera observarse o colocarse en cualquier dirección, cuyo centro -en la versión más habitual- estuviese en el polo norte, aunque se podían ofrecer otras visiones del mismo, que no separara o cortara los continentes, y que los mostrara juntos, formando una especie de isla rodeada por los océanos, que rompiese esa imagen (horizontal y lineal) de los mapas rectangulares, que se había ido estableciendo en las mentes de las personas llegando a distorsionar la imagen que tenían del mundo, y que además intentara crear la menor distorsión métrica posible.
Retrato 7: La proyección estereográfica
Esta proyección geométrica es también muy antigua y se suele atribuir a Hiparco de Nicea (aprox. 190-120 a.n.e.). Al igual que la proyección central, la proyección estereográfica es una proyección geométrica acimutal, pero ahora se proyecta desde un punto de la superifice terrestre básica, por ejemplo, el norte, sobre un plano tangente en el punto diametralmente opuesto, luego sería el sur (que será el centro del mapa).
Algunas de las propiedades del mapa diseñado utilizando la proyección estereográfica son: i) su imagen se suele tomar circular, debido a que es acimutal, y cubriendo solamente uno de los hemisferios. Aunque se podría cubrir una extensión aún mayor no es recomendable por el aumento en la distorsión; ii) la proyección es conforme, es decir, preserva los ángulos, aunque no preserva ni las geodésicas, ni el área, y por supuesto tampoco las distancias; iii) al ser una proyección azimutal sí preserva las geodésicas que pasan por el punto de tangencia, es decir, para el caso en el que uno de los polos sea el foco de proyección, los meridianos se representan como rectas que pasan por el centro del mapa; iv) todos los meridianos y los paralelos, aunque más generalmente todas las circunferencias de la esfera, máximas y también normales, se proyectan en circunferencias sobre el plano, con excepción de las que pasan por el punto de tangencia, que se transforman en rectas (esta es una propiedad particular de las aplicaciones matemáticas denominadas inversiones, y la proyección estereográfica es una inversión); v) las loxodrómicas o líneas de rumbo fijo (i.e. las curvas sobre la esfera que forman un ángulo constante con los meridianos) se transforman en espirales logarítmicas.
Además de para realizar mapas celestes, la proyección estereográfica fue utilizada (con el centro en algún punto del ecuador) en los siglos XVII y XVIII para diseñar mapas de dos hemisferios. Posteriormente, fueron utilizadas otras proyecciones, por ejemplo, las globulares, para los mapas en dos hemisferios.
En la actualidad es muy utilizado para el diseño de los mapas polares.
Las proyecciones cartográficas también pueden utilizarse para realizar mapas de la luna u otros planetas.
En mi siguiente entrada seguiremos con algunos retratos más, realizados con proyecciones como la de Gall-Peters, Robinson, Winkel-Tripel o la acimutal equidistante, entre otras
Y más arte con mapas en la entrada Arte cartográfico. Arte con mapas
Bibliografía
1.- Raúl Ibáñez, El sueño del mapa perfecto; cartografía y matemáticas, RBA, 2010.
2.- Raúl Ibáñez, Muerte de un cartógrafo, Un paseo por la Geometría, UPV/EHU, 2002. Versión online en la sección textos-on-line de divulgamat [www.divulgamat.net
3.- Timothy G. Feeman, Portraits of the Earth; A Mathematician looks at Maps, AMS, 2002.
4.- Federico Romero, Rosa Benavides, Mapas antiguos del mundo, EDIMAT, 1998.
5.- John O. E. Clark (editor), Joyas de la cartografía, 100 ejemplos de cómo la cartografía definió, modificó y aprehendió el mundo, Parragon books, 2006.
6.- Peter Barber (compilador), El gran libro de los mapas, Paidós, 2006.
7.- David Rumsey Map Collection
8.- Centro de Mapas y Educación Norman B. Leventhal, en la Biblioteca Pública de Boston
9.- Buckminster Fuller Institute
10.- Digital Museum of Planetary Mapping
11.- Carlos Furuti, Map projections
12.- Página web del artista Juan Sukilbide
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo ‘Imago mundi’, 7 retratos del mundo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Cristalografía (9): Isomería y compuestos orgánicos
En 1823, Leopold Gmelin, profesor en la Universidad de Heidelberg, movió sus contactos para que un sobresaliente alumno suyo, recién licenciado en medicina, fuese admitido como estudiante en el laboratorio de Estocolmo del químico vivo más importante de la época, Jöns Jakob Berzelius. Allí, Friedrich Wöhler, que así se llamaba el joven médico, se encontró, para su sorpresa, con que Berzelius no era partidario de las instrucciones sistemáticas, sino que prefería orientar a sus estudiantes en la investigación de los temas que éstos libremente habían escogido.
Wöhler decidió investigar un tema al que ya había dedicado un tiempo al inicio de sus estudios de medicina en Marburgo: compuestos del ácido ciánico [HOCN] y el cianógeno [(CN)2]. Como parte de sus experimentos Wöhler intentaba sintetizar varios cianatos, entre ellos el de amonio. Intentó conseguir éste [NH4(OCN)] tratando cianato de plomo [Pb(OCN)2] con amoniaco [NH3] en medio acuoso. Tras calentar la disolución para prepararla para la cristalización se dio cuenta de que al enfriar aparecían unos cristales incoloros, que no pudo identificar en ese momento.
Más o menos al mismo tiempo, en 1824, un jovencísimo Justus von Liebig, comenzaba a crear en la Universidad de Giessen, puesto que había obtenido por recomendación de Alexander von Humboldt con 21 años, la que sería primera gran escuela química del mundo. Con todo Liebig seguía fascinado con su pasión de niño, los explosivos. Así, preparó y analizó el fulminato de plata [AgONC]. Aquí el inteligente lector se habrá dado cuenta de que aunque usamos los mismos elementos, C, N, O, que cuando hablábamos del cianato hace un momento lo llamamos ahora de forma diferente, fulminato, y los ordenamos también de distinta manera. Esto es llamativo ahora, y lo fue en su momento para Liebig y Wöhler, que había preparado el cianato de plata [AgOCN] como parte de sus investigaciones.
Wöhler y Liebig tuvieron una discusión monumental, muy correcta, pero monumental. Pero los dos eran muy inteligentes a la par que excelentes químicos, por lo que pronto llegaron a la conclusión de que, a pesar de las apariencias, fulminato [ONC–] y cianato [OCN–] de plata tienen la misma composición elemental. Aquella discusión fue el inicio de una larga colaboración y amistad. Tanto es así que, andando el tiempo, Liebig y Wöhler encontrarían juntos el isocianato [NCO–].
Liebig había estudiado en París con Joseph-Louis Gay-Lussac y mantenía a su maestro al corriente de sus hallazgos. Gay-Lussac meditó sobre el asunto y llegó a la única conclusión posible que dejó por escrito en un editorial de Annales de chimie et de physique. Si tanto el análisis de Wöhler como el de Liebig eran correctos entonces:
[…]sería necesario, con objeto de explicar sus diferencias [en propiedades], admitir una forma diferente de combinación entre sus elementos.
Hoy día podemos escribir fórmulas semidesarrolladas para entender a qué se refería Gay-Lussac. El cianato tiene una estructura de enlaces [-O-C≡N], mientras que el fulminato es [-C=N-O·] y el isocianato [-N=C=O]
Esta es la primera descripción de la isomería, un nombre creado años después por Berzelius para los compuestos con la misma composición química pero diferentes propiedades físicas. Para 1830 se habían descrito ya varios casos de isomería, incluido el de los ácidos racémico y tartárico, que tanta importancia tendrían poco después en el descubrimiento de la estereoquímica.
Wöhler, mientras tanto, seguía dándole vueltas a qué podrían ser esos cristales incoloros de su preparación de cianato de amonio. El concepto de isomería vino en su ayuda: el cianato [NH4(OCN)] reordenado no era otra cosa que urea [(NH2)2CO], que aparecía por isomerización. Como la química analítica instrumental simplemente no existía aún, las sustancias nuevas se caracterizaban por sus propiedades físicas y químicas; entre las propiedades físicas estaba la descripción del hábito cristalino.
Los cristales problemáticos los describió Wöhler como “prismas de cuatro lados en ángulo recto, bellamente cristalinos”. Un cristalógrafo reconoce rápidamente un intento de descripción de un cristal del sistema tetragonal. La urea cristaliza en el sistema tetragonal. Era 1828 y éste descubrimiento viene en los libros como el inicio de la química orgánica, puesto que, según dicen, era la primera vez que un compuesto orgánico (la urea está presente en la orina, entre otros lugares) era sintetizado en un laboratorio. Como Wöhler muy gráficamente le comunicaba a Berzelius:
[…]debo decirle que puedo fabricar urea sin necesitar tener riñones, o en cualquier caso, un animal, sea éste humano o perro
Sin embargo, la química orgánica tiene el mismo padre, Wöhler, pero una fecha de nacimiento y un hijo diferentes: Wöhler ya había obtenido en 1824 ácido oxálico durante sus experimentos con el cianógeno.
El polimorfismo de los cristales moleculares también fue documentado por primera vez por Wöhler y Liebig en 1832, en este caso en la benzamida. Cuando la disolución se dejaba enfriar, la benzamida cristaliza inicialmente en forma de agujas plateadas; tras un lapso de tiempo las agujas desaparecen para dar lugar a cristales ortorrómbicos. En los siguientes años aparecieron muchos más ejemplos y para 1897 Wilhelm Friedrich Ostwald ya podía dar reglas generales, entre ellas que, en general, no es la forma más estable sino el polimorfo menos estable el que cristaliza primero, esto es, la velocidad de cristalización viene determinada por la energía de activación y no por la energía reticular (la estabilidad).
Quizás convenga recordar que el polimorfismo de las sustancias orgánicas no es un asunto que esté resuelto en absoluto, de hecho es un tema de investigación candente. Los mecanismos no están bien explicados, en términos generales, satisfactoriamente. Sin ir más lejos la cristalización de la benzamida, descrita por Wöhler y Liebig, no obtuvo una descripción robusta de su mecanismo hasta 2007, 175 años después.
No nos podemos sustraer a la tentación de mencionar finalmente a uno de los más grandes genios científicos que han existido y uno de los más desconocidos fuera de su Rusia natal, Mijaíl Vasilíevich Lomonósov. Y es que Lomonósov predijo la isomería un siglo antes que Wöhler y Liebig hiciesen su descubrimiento. Efectivamente, en sus Elementos de química matemática (1741)escribía:
[…]diferentes moléculas deben resultar del mismo número de los mismos átomos, si éstos se combinasen de forma diferente; deberían formarse cuerpos que poseerían distintas propiedades aunque tuviesen la misma composición.
Esta afirmación se enmarca en la visión de la materia que Lomonósov había plenamente desarrollado para mediados del siglo XVIII, a saber, que la materia está formada por átomos, que se combinan para formar moléculas. ¡Lomonósov usa “átomo” y “molécula” en los sentidos actuales de los términos! Por otra parte la materia se conserva (enunció este principio medio siglo antes que Lavoisier) y el calor no es otra cosa que movimiento atómico. Lomonósov hizo otros muchos descubrimientos, pero sus ideas iban más de un siglo por delante de su tiempo y solía escribir en ruso, por lo que su trabajo pasó desapercibido y fue rápidamente olvidado, sólo para ser redescubierto a principios del siglo XX.
Referencias generales sobre historia de la cristalografía:
[1] Wikipedia (enlazada en el texto)
[3] Molčanov K. & Stilinović V. (2013). Chemical Crystallography before X-ray Diffraction., Angewandte Chemie (International ed. in English), PMID: 24065378
[4] Lalena J.N. (2006). From quartz to quasicrystals: probing nature’s geometric patterns in crystalline substances, Crystallography Reviews, 12 (2) 125-180. DOI:10.1080/08893110600838528
[5] Kubbinga H. (2012). Crystallography from Haüy to Laue: controversies on the molecular and atomistic nature of solids, Zeitschrift für Kristallographie, 227 (1) 1-26. DOI: 10.1524/zkri.2012.1459
[6] Schwarzenbach D. (2012). The success story of crystallography, Zeitschrift für Kristallographie, 227 (1) 52-62. DOI: 10.1524/zkri.2012.1453
Este texto es una revisión del publicado en Experientia docet el 26 de diciembre de 2013
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Cristalografía (9): Isomería y compuestos orgánicos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Si no puedes con tu enemigo, modíficalo para que te ayude en la lucha contra enfermedades infecciosas
Los mosquitos son el invitado estrella del verano que nadie quiere tener en su mesa, o en su casa. Levantarse con picotazos por todo el cuerpo tras una noche con las ventanas abiertas, especialmente cuando a tus compañeros de habitación les han mostrado más misericordia, da mucha rabia y asegura una jornada de rascadas aquí y allá para sobrellevar los picores (spoiler: es mejor aguantar y no rascarse).
En algunos sitios, los mosquitos suponen un problema más grave que los picores. Sus picaduras son uno de los principales factores de transmisión de algunas enfermedades infecciosas como la malaria, el dengue o el zika. Pero un experimento reciente ha dado la vuelta a la situación y ha demostrado que también pueden convertirse en nuestros aliados para frenar y detener la expansión de estas enfermedades.
Ha sido en en Townsville, Australia, donde hace 28 meses, en agosto de 2014, comenzó un experimento en el que se liberaron unos 4 millones de mosquitos sobre unos 66 kilómetros cuadrados de la ciudad. No eran mosquitos cualquiera. Estos ejemplares de Aedes aegypti estaban infectados con una bacteria llamada Wolbachia, capaz de evitar que los insectos transmitiesen enfermedades víricas como el dengue o el zika.
Ha sido la primera vez que se ha puesto en marcha una estrategia de este tipo sobre una ciudad entera, y los resultados son prometedores. La Wolbachia se fue propagando rápidamente a los mosquitos de la ciudad. En algunos barrios, en un solo año el 100% de los mosquitos ya portaban esta bacteria.
Esto se hizo notar en la salud de sus ciudadanos. Townsville ha vivido brotes de dengue periódicamente desde 2011, pero en los 44 meses siguientes a la liberación de estos mosquitos infectados solo se han registrado 4 casos de dengue por infección local, en comparación con los 54 casos registrados en los meses anteriores. En esos 44 meses tras la suelta se han registrado un total de 51 casos importados de dengue. Los resultados se han publicado en la revista abierta Gates Open Research y están a la espera de pasar la revisión por pares.
Para afianzar los resultados se están llevando a cabo investigaciones parecidas en Yogyakarta, en Indonesia, una ciudad donde hay una incidencia de dengue mucho mayor. Allí se están manteniendo algunas zonas sin mosquitos infectados para que sirvan de grupos de control y descartar así que la reducción de casos se deba a otros motivos. Otros experimentos similares den Medellín, Colombia y en Río de Janeiro, en Brasil, servirán para evaluar si esta técnica puede ser eficaz en ciudades con una gran densidad de población.
En otros esfuerzos encaminados también a la erradicación de enfermedades infecciosas transmitidas por mosquitos, el enfoque está siendo más radical: un experimento publicado en 2015 trató de observar si era posible modificar genéticamente a los mosquitos responsables de esas transmisiones, en este caso Anopheles gambiae, para que transmitiesen a su descendencia una modificación genética capaz de provocar la infertilidad de los mosquitos hembra.
No era una tarea sencilla. Para ser estériles, las hembras debían heredar dos copias modificadas de un gen relacionado con la fertilidad, uno por cada cromosoma (en los machos, heredar esos mismos genes no parecía tener ningún efecto en la fertilidad). Normalmente la selección natural encontraría la forma de arrinconar y eliminar ese rasgo tan dañino para la especie: las hembras con dos copias modificadas no se reproducirían, mientras que las hembras fértiles sí que lo harían, transmitiendo a su descendencia las versiones sanas de esos genes.
En este caso, los investigadores buscaban asegurarse el cromosoma que la descendencia que heredase un gen modificado se alterase automáticamente para que el resultado final fuesen dos mutaciones, y así la infertilidad pudiese expandirse rápidamente entre la población de mosquitos.
Aunque este enfoque parecía más radical y aunque complejo, más eficaz en el caso de conseguirse, hay otro factor a tener en cuenta: los efectos colaterales en un ecosistema de la desaparición de una especie, que pueden repercutir en las demás especies con las que conviven y terminar trastocando el equilibrio ecológico de igual manera que lo hace la introducción de una especie invasora.
Referencias:
A CRISPR-Cas9 gene drive system targeting female reproduction in the malaria mosquito vector Anopheles gambiae – Nature Biotechnology
Scaled deployment of Wolbachia to protect the community from Aedes transmitted arboviruses – Gates Open Research
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo Si no puedes con tu enemigo, modíficalo para que te ayude en la lucha contra enfermedades infecciosas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Violencia de género
“Aquí no ha pasado nada. Una mujer ha sido asesinada.”
En “Relatos trágicos de Alicante”, de Tirso Marín, en 1955, ante la aglomeración de curiosos, un policía de uniforme gris los dispersa y se justifica con lo dicho.
“La violencia es, en la mayoría de los casos, un mecanismo de respuesta ante un conflicto determinado. Y para el patriarcado no hay conflicto mayor que la pretensión de autonomía de las mujeres.”
Nuria Varela, en “Cansadas”, 2017.
Sobre la violencia de género, de sexo o doméstica, quedan muchas incógnitas por responder. Desde un enfoque social, es un asunto de justicia pero, también, de salud pública, con importantes influencias de y desde la estructura de la sociedad y de la cultura. La Organización Mundial de la Salud define la violencia de género como
“todo comportamiento dentro de una relación íntima que causa un perjuicio o sufrimientos físicos, psicológicos o sexuales a personas que son parte de esa relación, en incluye actos de agresión física, coacción sexual, violencia psicológica y conductas autoritarias o tiránicas.”
La primera incógnita es que, aunque sabemos que los asesinatos por violencia de género cambian en la historia, en las culturas y en los pueblos, en nuestro entorno más cercano, en nuestro país, a pesar de los esfuerzos de muchas personas y de la adecuación de las leyes, el número de muertas se mantiene entre 50 y 75 por año desde más hace más de tres décadas. O, también, otra incógnita es por qué son los hombres los que atacan a su pareja y rara vez lo hacen las mujeres. En 2015, el 94.4% de las muertes por violencia de género fueron cometidas por hombres. En una revisión publicada en 2013 y para 66 países, la tasa de asesinatos de mujeres en la pareja fue seis veces mayor que la de los hombres, con el 38% para las mujeres y el 6% para los hombres.
En Estados Unidos, 20 personas por minuto sufren una agresión violenta de su pareja. El 27% de las mujeres, una de cada cuatro, y el 12% de los hombres, uno de cada diez, han sufrido violencia física o sexual por sus parejas por lo menos una vez en la vida.
Herbert Bennett y el Dr. Crippen: El olvidado y el famoso
Hacia el 1900 dos asuntos criminales llegaron a los tribunales de Londres, tal como nos cuenta René Reouven en su Diccionario de los asesinos. En 1901, fue Herbert Bennett, que había estrangulado a su mujer con un cordón de zapato en la playa de Yarmouth, para quedar libre para su amante. Y en 1910 llegó a los tribunales el Doctor Hawley Crippen, que mató a su mujer, la despedazó y la enterró en el sótano. Dos asuntos parecidos y, como sabemos, demasiado habituales en la violencia de hombres contra mujeres. Sin embargo, hemos olvidado a Bennett y, en cambio, Crippen sigue en los recuerdos y leyendas populares, incluso con libros, películas y documentales en televisión.
El famoso, Hawley Harvey Crippen, era un médico estadounidense que vivía en Londres desde 1900 y se dedicaba a la homeopatía. Se casó con la hermosa Cora Turner, antigua y famosa actriz y cantante de music-hall. Pero tenía una amante, Ethel Le Neve, con la que planeó rehacer su vida en Estados Unidos. Así que mató a Cora y, como decía, la despedazó y enterró en el sótano. Y se embarcó con Ethel hacia Norteamérica. Por cierto, Ethel, para despistar al personal, se disfrazó de grumete.
Pero, cuando estaban ya en alta mar, se encontró el cadáver de Cora y la policía avisó al capitán del barco con telegramas de manera que alertó a las autoridades de Canadá, entonces una colonia del Imperio inglés. Detuvieron a los culpables, los devolvieron a Inglaterra, fueron a juicio y Crippen fue condenado y colgado en noviembre de 1910.
Crippen había nacido en Coldwater, Michigan, en 1862 y se graduó en Medicina Homeopática en Cleveland en 1884. Su primera mujer, Charlotte, murió de un derrame cerebral en 1892. Crippen se trasladó a California con su hijo, después a Nueva York donde se casó con su segunda mujer, Corrine “Cora” Turner, conocida como “Belle Elmore”, aunque nacida como Kunigunde Mackamotski. Marcharon a Inglaterra en 1897.
Era amante de Ethel La Neve desde 1908. Cora desapareció en 1910 y, rápidamente, Ethel se traslado a casa de Crippen y comenzó a utilizar la ropa y las joyas de Cora. Crippen aseguró que Cora había vuelto a Estados Unidos, había muerto y la habían incinerado en California. Fue interrogado por la policía y le creyeron, pero se asustó y se embarcó en el SS Montrose hacia Canadá.
La policía sospechó y volvió a registrar su casa y encontraron un cadáver enterrado en el sótano. Como ya conté, fueron detenidos en Canadá y devueltos a Inglaterra. Fueron juzgados por separado en octubre de 1910, y Crippen condenado a muerte y su amante como cómplice. La Neve marchó a Estados Unidos la misma mañana de la ejecución de Crippen. Siempre proclamó su inocencia.
Un siglo después, en 2011, el equipo forense de David Foran, de la Universidad de Michigan, localizó en los archivos del Real Hospital de Londres, un portaobjetos con un corte de piel que, en el juicio, se dijo que era del cadáver del sótano y, por tanto, de Cora Crippen. Los forenses aislaron el fragmento de tejido y obtuvieron una lectura del ADN mitocondrial Sus conclusiones son sorprendentes: el tejido y, por tanto, el cadáver del sótano, no solo no es de Cora Crippen sino que pertenece a un hombre. Ejecutado, famoso y controvertido hasta después de su muerte.
Herbert John Bennett, en cambio, tuvo el mismo destino pero ninguna fama, como tantos otros. Había nacido en 1880 y fue colgado el 21 de marzo de 1901, como ven con 21 años. Una vida rápida y corta. No era médico sino, más bien, un ladronzuelo de pocos vuelos, que se había casado con Mary Jane en 1897. Pero en 1900 se enamoró de una camarera llamada Alice Meadows. Bennett había dejado a su mujer y su hijo y propuso matrimonio a Alice.
El 14 de septiembre invitó a su mujer, Mary Jane, y a su hijo pasar el día en la playa de Yarmouth como oferta de paz para sus problemas matrimoniales. A la mañana siguiente se encontró su cadáver, estrangulada, en la playa.
Bennett había vuelto a Londres pero, cuando la policía identificó el cadáver, le buscó para interrogarle y encontró en su poder una cadena de oro de su mujer que, además, llevaba aquel día cuando fue a la playa.
Como contaba antes, fue juzgado en febrero de 1901 y colgado al mes siguiente. Ejecutado y olvidado.
El riesgo para las mujeres baja con la edad creciente y aumenta con la diferencia de años entre hombre y mujer en la pareja. Y es mayor para las mujeres en parejas no establecidas respecto a las mujeres casadas. También aumenta el riesgo con la separación, sobre todo en los primeros tres meses, o en los intentos de recuperar la pareja, con la infidelidad, sea cierta o figurada, y, en general, con cualquier conflicto de la pareja.
Además influyen factores individuales y sociales como, por ejemplo, el historial de violencia del agresor o su nivel extremo de control y posesión de la pareja. O, también, el desempleo, la pobreza o el abuso de alcohol y drogas. Incluso hay casos documentados en que la pareja, hombre y mujer, acepta la violencia como una conducta habitual y, por tanto, aceptable.
Marquesa de Brinvilliers: Una asesina bien preparada
En el siglo XVII y en Francia, en el siglo de Luis XIV, Marie Madeleine d’Aubrey, después Marquesa de Brinvilliers-La-Motte, causó sensación por su vida y por su muerte. Nació el 22 de julio de 1630 y era la mayor de cinco hermanos. Su padre, Antoine Dreux d’Aubrey, era Señor de Offémont y de Vilhers, Consejero de Estado, Preboste y Vizconde de París, Teniente Civil de París y personaje importante en la corte del Rey Sol.
La niña era delicada, no muy alta, ojos azules, cabello castaño, piel blanca y fina, facciones agradables y tremendos ataques de ira que la convertían en una fiera rencorosa. Desde niña, a pesar de su estricta educación, dice la leyenda que se entregó a una vida disoluta. Se cuenta que a los siete años perdió la virginidad con alguno de sus hermanos, aunque otros afirman que la violó un criado de la casa.
Casó en 1651 con Antoine Gobelin, marqués de Brinvilliers, Maestre de Campo del Rey y ludópata empedernido, uniendo entre ambos una gran fortuna. En esa época, nuestra protagonista era una hermosa joven con aspecto inocente y cautivador. Tuvo siete hijos, aunque parece ser que su marido no era el padre de cuatro de ellos. Pronto fue la amante de Pierre Louis Reich de Pennantier, Tesorero de Languedoc y hombre de negocios que llegaría a ser Recaudador General del Clero.
Pero fue su propio marido quien le presentó al capitán de caballería y aficionado a la alquimia Godin de Sainte-Croix, hijo bastardo de una buena familia de Gascuña. Se llamaba Jean-Baptiste Godin y le apodaban Sainte-Croix. Con Godin, la vida de la joven marquesa cambia por completo. Gasta dinero sin tenerlo para satisfacer sus caros caprichos y los de su amante y vive continuamente al borde de la ruina. Tanto es así que Godin de Sainte-Croix acaba por huir de Francia perseguido por sus acreedores.
Es el padre, Dreux d’Aubrey, quien, ya que el marido consiente, intenta controlar a su hija y consigue, en 1663, encarcelar en La Bastilla al amante Godin de Sainte-Croix. Fue un error y una casualidad, pues su compañero de celda era un italiano, de nombre Exili o Ejili, experto en venenos y antiguo consejero (¿en venenos?) de la Reina Cristina de Suecia.
Al salir de La Bastilla, Godin se reencuentra con su amante y le enseña lo que ha aprendido sobre venenos y ella hace sus prácticas con enfermos que visita, se supone que por caridad, en los hospitales o con los pobres que van a su casa a pedir algo de comer. Ya ven, todo por caridad. Además, comenzaron a frecuentar a Christophe Glaser, en el Jardín Real de Plantas, farmacéutico suizo y proveedor del Rey, y, también conocido experto en venenos.
En poco tiempo se convierte en una experta y asesina a su padre en 1666 y a sus hermanos en 1670 con un intervalo entre de ellos de seis meses. Nada debe oponerse a recibir su herencia; necesita dinero para la vida de lujo y excesos que lleva con su amante Godin.
La marquesa envenenó a su padre, poco a poco, durante ocho meses, para que no se notara y pareciera una enfermedad. Para el mes de junio de 1666, su padre ya sufría males extraños y llamó a su hija al castillo de Offémont para que le cuidara. Pero aquello no tenía remedio y cuando la marquesa llegó, su padre empeoró. Con fuertes vómitos murió en septiembre en París, a donde había sido trasladado, atendido por los mejores médicos. Antes de su ejecución, la asesina confesará que le había envenenado entre 20 y 30 veces, ella misma o el criado de Sainte-Croix al que la marquesa había metido a servir en casa de su padre. Por cierto, mientras envenenaba a su marido, la marquesa se lió con el preceptor de sus hijos, llamado Briancourt, pues moría de celos porque Sainte-Croix andaba con otras mujeres y su marido tenía como amante a la joven señorita Dufay.
En 1670, también murieron sus dos hermanos, el primero en junio y el segundo en septiembre. En la autopsia no se encontraron pruebas de envenenamiento, pero la sospecha quedó y tuvo su influencia en futuros acontecimientos. La hermana que quedaba, prudentemente, decidió no volver a ver en su vida a su hermana y seguro que esa decisión le salvó la vida.
También intentó envenenar a su esposo pero el amante Sainte-Croix, viéndose en peligro, administró el antídoto al marqués. Por lo visto, el amante le tenía más miedo a la marquesa como viuda, sobre todo, porque quizá quisiera volver a casarse y, precisamente, con él. Hasta ahora solo suponía, diversión, dinero y poco compromiso, pero quién sabe lo que podría pasar en caso de boda. Así, la mujer envenenaba al marido y el amante lo salvaba de una muerte cruel. Además, fue un juego que duró años, con el marido siempre doliente y nunca muerto y el amante dándole el antídoto.
Sainte-Croix se asusta de la locura de su compañera y reúne pruebas, sobre todo cartas, de lo que está haciendo y las guarda en un cofre con instrucciones de que sea abierto en caso de muerte. Y, desgraciadamente para la marquesa, su amante muere por accidente en 1672, en una explosión en su laboratorio. El cofre se abre y la Brinvilliers huye a Londres, después a los Países Bajos y, finalmente, se establece en Lieja.
Mientras tanto, el criado de Sainte-Croix, que había sido cómplice de la marquesa en el envenenamiento de su padre, es detenido y confiesa. Más pruebas contra la asesina. Por fin, es detenida en Bélgica, engañada por el capitán Degrez, de la policía francesa, que se hace pasar por abad, y trasladada a Francia. El policía declaró que la había encontrado mendigando en un parque.
Intenta suicidarse y fracasa. Después de un largo juicio, entre el 29 de abril y el 16 de julio de 1676, es condenada, torturada y decapitada el 17 de julio. Su cuerpo fue quemado y las cenizas dispersadas por el viento.
En el contexto evolutivo se afirma que los homicidios de la violencia de género vienen de mecanismos específicamente diseñados por la selección natural para provocar la muerte de la pareja en determinadas circunstancias. Los beneficios de matar a la pareja pueden ser superiores a los costos de perderla y, en su caso, tener que buscar otra de igual calidad. Por ello, la selección natural premiará esta conducta con una mayor eficacia en la reproducción. Se da en contextos de infidelidad o abandono, sobre todo cuando la mujer es deseada como reproductivamente valiosa, no hay hijos en la pareja y no hay cerca parientes próximos de la mujer que la puedan ayudar.
Las ventajas evolutivas del asesinato de la pareja son, en primer lugar, que se priva a los rivales de un recurso valioso para la reproducción, que se destierra del entorno a las mujeres con más de una pareja, y que se consigue, con la violencia, una reputación que amedrenta a los rivales.
Es la evolución de la psicología del macho la que dirige la violencia de género. Es un proyecto diseñado y seleccionado por la evolución para que, en nuestra especie, el macho tenga éxito en la supervivencia y, sobre todo, en la reproducción. Es la base de nuestra cultura y, en último término, del patriarcado o, dicho de otra manera, del modelo de amor romántico que prevalece en las relaciones sociales, con sus componentes de control y posesión de un sexo sobre otro.
Uno de los productos seleccionados por la evolución es el sentido de la propiedad sobre la mujer. Actúa, según la situación, para evitar el abandono y la infidelidad, con conductas de control que incluyen el riesgo de violencia y el asesinato.
Los humanos son de las pocas especies animales cuyos machos deben hacer una fuerte inversión de recursos en sus crías. Nacen pequeñas e indefensas, en realidad prematuras, porque después crece tanto el cráneo para contener al cerebro que sería imposible el parto por el tamaño de la pelvis de la mujer. Sin embargo, los machos no saben con certeza que las crías que cuidan son suyas. Por ello, la posibilidad de invertir recursos en las crías de otros machos, en definitiva en los genes de otros, es un problema adaptativo muy serio en nuestra especie, y todo gen que provoque conductas que eviten invertir en los genes de otros, conseguirá llegar a las siguientes generaciones y será seleccionado en la población.
Para prevenir esta inversión equivocada de recursos, la evolución ha seleccionado el mecanismo adecuado en los hombres para detectar la infidelidad en la pareja. Es más, los falsos positivos, es decir, detectar infidelidad cuando no existe, mecanismo típico de los celos, tienen un menor coste evolutivo que detectar falsos negativos y no descubrir la infidelidad cuando es real. Para el hombre, la evolución ha seleccionado mecanismos que sobreestiman la posible infidelidad de la pareja. Es la violencia, incluso herir y matar por si acaso.
Como es habitual en nuestra especie, una de las soluciones es la violencia. Así, los celos, o esa sobre percepción de la infidelidad, a menudo llevan a la violencia. Es obvio que la violencia inhibe la infidelidad de la pareja. Si la infidelidad ha sido cercana en el tiempo puede llevar a la agresión sexual que, está demostrado, aumenta cuando hay celos fuertes.
Son conductas que, ahora, calificamos de horribles y aberrantes pero en absoluto arbitrarias ni únicamente una manifestación del deseo del hombre por la dominación y control de la pareja sino, en último término, el resultado de una presión selectiva sobre nuestra especie para minimizar el riesgo de invertir recursos en en los genes de otros.
Henriette Caillaux: La asesina machista
Quizá fue idea de ella, seguro que lo fue de su abogado defensor pero, es innegable, su defensa ante el asesinato cometido y confeso fue extraordinaria para las reglas de conducta de nuestro tiempo. Y funcionó. Vean ustedes y aprendan de aquella época en que el machismo era algo serio, aceptado y de gran importancia social. Esta es la historia de Henriette Caillaux, la asesina machista, en la Francia de hace un siglo, justo antes de la Primera Guerra Mundial.
Nació el 6 de diciembre de 1874 en Rueil-Malmaison, en París, y murió el 29 de enero de 1943 en Mamers. A los 17 años conoció al político Joseph Caillaux, entonces con 31 años y casado, e iniciaron una relación íntima. Diez años después, en 1902, Caillaux se divorció y se casaron.
Caillaux llegó a ser Ministro de Finanzas y en 1913, en plena campaña electoral, el periodista Gaston Calmette, director de Le Figaro, le acusó de ayudar a un estafador ante los jueces, de recibir dinero para financiar sus campañas electorales y de conspirar en el Parlamento contra un proyecto sobre el impuesto sobre la renta que en público apoyaba. Además, Calmette sobornó a una criada de los Caillaux y obtuvo alguna de las cartas que Henriette había escrito a Joseph cuando aún estaba casado con su primera mujer, y las publicó en Le Figaro.
Ante los ataques a su marido, y además basados en cartas que había escrito ella, Henriette fue a la sede central de Le Figaro el 16 de marzo de 1914, pidió hablar con Gaston Calmette, entró su despacho, le reprochó a gritos su campaña contra Caillaux, disparó los seis tiros de su Browning y alcanzó al periodista con dos, en el pecho y en el hombro. Henriette huyó y Calmette murió unas horas más tarde.
Poco después, Henriette fue arrestada y llevada a juicio con la acusación de asesinato, con pena de muerte, y su propia confesión y muchos testigos como prueba del crimen. Defensa difícil, pero su abogado, Fernand Labori, desarrolló una estrategia hábil y, quizá, inesperada para muchos. Alegó que la acusada había cometido un crimen pasional empujada por un “impulso femenino irracional” y descontrolado. Incluso los hechos demostraban que no había sido capaz de planificarlo eficazmente para librarse del castigo y, además, que no era consciente de la gravedad de sus actos.
Labori aseguró ante el tribunal que una mujer es, siempre, “emocionalmente más débil que un hombre” y está “más inclinada a realizar actos irracionales”. En fin, que debía ser absuelta porque para una mujer “sus emociones no podían ser controladas por su débil razón”. Presentó declaración como testigo la primera mujer de Joseph, Berthe, y sus ataques a la pareja contribuyeron a convertir el juicio en un circo de gritos e insultos e, indirectamente, en dar la razón a Labori sobre la mentalidad de las mujeres.
El tribunal aceptó “la debilidad racional de la mujer” y absolvió a Henriette Caillaux el 28 de julio de 1914. Hay quien asegura que detrás de este veredicto hay también una conspiración política de jueces complacientes y jurados afines, pero, aún siendo así, los estereotipos de género de la época ayudaron a justificar la absolución por un asesinato. Un mes después estalló la Primera Guerra Mundial.
Décadas después, Henriette alcanzó la fama como historiadora del arte. A principios de los treinta se graduó en el Louvre y presentó una tesis sobre el escultor Jules Dalou que se publicó y se convirtió en obra de referencia. Murió en Mamers, en casa de su esposo, el 29 de enero de 1943. Al año siguiente, en 1944, murió su marido Joseph. Su militancia contra la guerra entre 1914 y 1918 le llevó a un juicio por alta traición y a una condena de tres años. Rehabilitado en los años veinte, volvió a la política y formó parte de varios gobiernos.
Sin embargo, como decía al comienzo, quedan muchas incógnitas por resolver. No sabemos por qué la violencia de género es, relativamente, frecuente mientras que el asesinato de la pareja es raro. Más del 12% de las mujeres en España han sido objeto de violencia de género sexual o física en 2015. Son casi tres millones de mujeres. Y las mujeres asesinadas fueron 57 ese mismo año 2015. Entre 2005 y 2012 se tramitaron casi un millón de denuncias por violencia de género, o sea, una de cada 25 mujeres sufrió violencia. Nos preguntamos por qué tanta violencia.
O, visto lo comentado más arriba, por qué las situaciones de conflicto, separación o abandono en la pareja no acaban más a menudo en asesinato. Fueron algo más de 100000 los divorcios en España en 2014.
Además, según un estudio publicado en 2017, entre los jóvenes de 16 a 24 años, el sexismo y la violencia de género están muy presentes. El 38% de las mujeres de esa edad, residentes en España y que tienen o han tenido pareja, han sufrido violencia psicológica. Incluso en las jóvenes de 16 y 17 años el porcentaje llega al 42.6%. Parece que estos jóvenes rechazan mayoritariamente la violencia física pero aceptan, incluso normalizan y no dan importancia a conductas menos extremas.
Mucho nos falta por aprender sobre cómo integrar en la violencia de género el contexto social y cultural, así como la personalidad fisiológica y psicológica de hombres y mujeres en la pareja actual, quizá muy diferente todo ello de la pareja de nuestros antecesores, aquellos que evolucionaron durante miles de años para llegar a lo que ahora somos y que, me temo, no es de mucha utilidad. Por ejemplo, está muy difundido el tópico de que quien mata a su pareja está loco o borracho. Pero, de los condenados en esta país por violencia doméstica entre 2001 y 2005, solo el 5.4% tuvo como atenuante alguna alteración psíquica, y un 3.4% el alcohol o las drogas.
Como resume Russil Durrant, de la Universidad Victoria de Wellington, en Nueva Zelanda, partimos de lo que la evolución seleccionó y le sumamos factores de riesgo como conflictos en la pareja o posibilidad de separación o infidelidad. Se unen la edad de la mujer y del hombre, la diferencia de edades y el historial del hombre, así como su sentimiento de posesión y control. Todo ello afecta a los mecanismos psicológicos de decisión y lleva a la violencia. Pero, no hay que olvidarlo, a pesar de todos estos condicionantes, la conducta final puede ser otra y se puede elegir entre violencia, violencia no letal y no violencia. Y la no violencia es la que se elige casi siempre y, repito, debemos conocer por qué, a veces, se elige la violencia más brutal. Así encontraremos respuestas para terminar con la violencia de género.
También hay casos de violencia a las mujeres que se salen del contexto que hemos tratado hasta ahora. Es cuando el asesino no conoce a la víctima. Es una desconocida o un contacto casual del asesino. No es violencia de pareja, es, estrictamente, violencia de género. Es un asesinato intencional de una mujer con la que hay o no contacto sexual. Puede ser un asesinato organizado y premeditado o impulsivo y desorganizado. El contacto sexual con la víctima puede ocurrir antes, durante o después del crimen, y en algunos casos no hay un solo asesino sino que son varios actuando en grupo. En general, este tipo de asesinatos no llega al 1% del total en un determinado país o región.
Juan Díaz de Garayo Ruiz de Argandoña, El Sacamantecas: Un asesino en serie del terruño
Nació el 16 de octubre de 1821 en Eguilaz, pedanía del municipio de San Millán, en el nordeste de la provincia de Álava, y murió por garrote vil en Vitoria el 11 de mayo de 1881. Entre 1870 y 1879, mató y violó, que sepamos, a seis mujeres, cuatro de ellas prostitutas, con edades que iban de 11 a 55 años. A varias de las víctimas les infringió crueles mutilaciones, al estilo de Jack El Destripador, y de ello viene el apodo de El Sacamantecas, con el que ha pasado a las leyendas y cuentos populares que se utilizan, sobre todo, para asustar a los niños.
Casado cuatro veces, enviudó tres veces, aunque parece que no intervino en la muerte de sus mujeres.
Detenido en 1880 y condenado a muerte, fue ejecutado con garrote vil en 1881 en la prisión del Polvorín Viejo de Vitoria. El verdugo, Gregorio Mayoral, de Burgos, era famoso en aquellos tiempos.
Fue en la Llanada alavesa, en unos campos que conocía bien, donde el 2 de abril de 1870 asesina a la primera mujer, una prostituta conocida como La Valdegoviesa; murió junto al arroyo conocido como Errekatxiki. Había trabajado como criado para tareas agrícolas en muchos pueblos de la zona y los había recorrido a menudo. Un año después mata a su segunda víctima, de nuevo una prostituta y, en agosto de 1872, los asesinatos tercero y cuarto se suceden con rapidez. La tercera víctima es una adolescente y la cuarta otra prostituta. En 1873 y 1874 ataca a una prostituta y a una vieja mendiga que logran escapar con vida. Pasan cuatro años hasta la siguiente víctima y es en 1878 y 1879 cuando se reinician los asesinatos, primero con dos ataques sin muerte, y en septiembre con la muerte de una joven campesina, a la que destripa para alimentar la leyenda de El Sacamantecas. Solo dos días después, llega la sexta víctima, estrangulada, violada y mutilada con crueldad.
Parece que sus bodas, tener una mujer a su disposición, le calmaba; quedaba tranquilo y saciado su excitable temperamento que, de no ser así, le arrastraba a las prostitutas y, con los años, al crimen. Quizá el periodo más feliz y sosegado de su vida fueron los 13 años que estuvo casado con su primera mujer, una viuda rica y de más edad, a la que llamaban la Zurrumbona por haber estado casada con El Zurrumbón, apodo que heredó Garayo al casar con la viuda. Cuando ella murió, comenzó la carrera criminal de Garayo.
Estamos en la época de Cesare Lombroso y sus libros El Hombre Delincuente o El delito, sus causas y remedios. Escribe que al criminal se le detecta con rapidez y facilidad por su aspecto físico: frente breve y huidiza, cerebro pequeño, ojos juntos, nuca plana, todo ello prueba irrefutable de su degeneración. Además, al criminal todo esto le viene de familia y, por ello, hay que estudiar los antecedentes de los criminales para encontrar signos que delaten sus tendencias criminales. Y todo ello empeora por la vida disoluta y el abuso del alcohol.
Para demostrar o refutar esta teoría, nada menos que diez médicos militares, otros seis alienistas, algún farmacéutico y una docena de periodistas asistirán a la autopsia de El Sacamantecas, recién ejecutado y con el cadáver aún caliente. Y dirigiendo la reunión, el Dr. José María Esquerdo y Zaragoza, ilustre y conocido frenópata de aquellos tiempos, famoso defensor de las teorías de Lombroso. Al buen doctor sólo le interesaba el cráneo de Garayo; allí esperaba encontrar las pruebas de su locura. El cerebelo pequeño y aplastado; el cuerpo romboidal disminuido y con mal color; los corpúsculos de Pacchioni demasiado grandes y la cresta occipital externa también algo exagerada; todos son datos que apoyan las ideas del Dr. Esquerdo.
Además, la familia es un desastre: el padre, borracho, cruel y poco de fiar; la madre, una histérica; los cinco hermanos, todos raros, aunque destaca Florentina, repulsiva, violenta, cruel, vengativa, enjuta de carnes, impúdica, de ojos negros, pequeños, vivos y penetrantes, y con nueve hijos, de ellos, ocho ya han muerto. Incluso, un periodista de La Vanguardia ha conseguido añadir a este catálogo de monstruosidades de la pobre Florentina una más que ni sé lo que significa: tiene “subritérico color”. Por cierto, color que no he encontrado ni el Diccionario de la Lengua.
Hasta el propio Sacamantecas llamaba la atención por su aspecto repulsivo. Se cuenta, aunque no es cierto, que fue detenido porque una niña que se cruzó con él y que no le conocía de nada, gritó asustada “¡Madre! ¡Madre! ¡El Sacamantecas!”. En realidad fue detenido por un perspicaz alguacil de Vitoria, llamado Pío Fernández de Pinedo, que le reconoció, cuando se cruzó con él por la calle, por la descripción que habían hecho las víctimas que habían sobrevivido a su ataque. La descripción de las crónicas periodísticas dicen que era sanguíneo, atlético, de frente estrecha y occipucio plano, con la base del cráneo ancha, color animado, pómulos salientes, facciones fruncidas, ojos pequeños, hundidos, desviados y uno de ellos torcido con siniestra mirada.. Además, nos cuentan que era imbécil, egoísta, glotón e indiferente; taciturno y frío, y nunca tuvo más amigo o amo que el vino. En fin, que con su aspecto, su cráneo, su familia y su azarosa vida, cumplía a la perfección todas las condiciones que pedía el Dr. Esquerdo para declararlo el perfecto delincuente. Era un loco sin remedio. Todo ello aunque, en la vista oral, los médicos forenses declararon a Garayo plenamente consciente de sus actos. El Dr. Esquerdo no estaba en absoluto de acuerdo.
Para terminar, y como propone Enrique Burunat, de la Universidad de La Laguna, ha llegado el momento de estudiar los mecanismos neurobiológicos que están detrás de la violencia, sobre todo la de los hombres contra sus parejas. Visto que el enfoque único legal y policial ayuda pero no termina con esta violencia, Burunat propone la prevención y los tratamientos farmacológicos y terapéuticos desde el sistema público de salud. La violencia de género es un problema de salud pública.
Referencias:
Balada, M. & M. Ramoneda. 2009. Los alienistas y el Sacamantecas. 22 octubre. Hemeroteca de La Vanguardia.
Buss, D.M. 2012. The evolutionary psychology of crime. Journal of Theoretical and Philosophical Criminology Special Edition January: 90-98.
Dumas, A. 1858. Crímenes célebres. Librería Española. Madrid.1116 pp.
Duntley, J.D. & D.M. Buss. 2004. The plausability of adaptations for homicide. En “The structure of the innate mind”. Ed. por P. Carruthers, S. Laurence & S. Stich. Oxford University Press. New York.
Duntley, J.D. & D.M. Buss. 2011. Homicide adaptations. Aggression and Violent Behavior 16: 399-410.
Foran, D.R. et al. 2011. The conviction of Dr. Crippen: New forensic findings in a century-old murder. Journal of Forensic Sciences 56: 233-240.
García, J.E. 2015. El comportamiento criminal desde un punto evolucionista. Persona 18: 27-46.
Geifes, S. 1994. Edward Berenson: The trial of Madame Caillaux. Genèses 17: 168.
González, J.L. et al. 2018. Revisión pormenorizada de homicidios de mujeres en las relaciones de pareja en España. Anuario de Psicología Jurídica 28: 28-38.
Hernández Oliver, B. & I. Doménech del Río. 2017. Violencia de género y jóvenes: incomprensible pero real. Metamorfosis junio: 48-61.
Hodgson, M. 2007. 100 years on DNA casts doubt on Crippen case. The Guardian 17 October.
Marín, T. 1995. Relatos trágicos de Alicante. Producciones Santa Faz. Alicante. 93 pp.
Meloy, J.R. 2000. The nature and dynamics of sexual homicide: an integrative review. Aggression and Violent Behavior 5: 1-22.
Olmos, M. 2010. El destripador de Vitoria. El Correo 6 diciembre.
Reouven, R. 1976. Diccionario de los asesinos. DOPESA. Barcelona. 386 pp.
Reverte Coma, J.M. 2010. Marie Madeleine de Brinvilliers, famosa envenenadora francesa del s. XVII.
Scarduzio, J.A. et al. 2016. “Maybe she was provoked”: Exploring gender stereotypes about male and female perpetrators of intimate partner violence. Violence Against Women DOI: 10.1177/1077801216636240
Stöckl, H. et al. 2013. The global prevalence of intimate partner homicide: A systematic review. Lancet 382: 859-865.
Stokes, H. 1912. Madame de Brinvilliers and her times 1630-1676. Jhon Lane The Bodley Head. London. 391 pp.
Varela, F. 2006. Orígenes ancestrales de la agresividad humana. Revista Central de Sociología 1: 127-150.
Varela, N. 2017. Cansadas. Una reacción feminista frente a la nueva misoginia. Ed. B. Barcelona. 224 pp.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Violencia de género se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La ciencia quizás tenga valores… pero no sabemos cuáles son
A lo largo de las anotaciones anteriores hemos visto como, desde una tradición anterior al siglo XX en la que no cabían cuestiones de orden axiológico, durante el primer tercio de ese siglo se pasó, no sin resistencia, a incorporar la noción de los valores al acervo de los estudios de sociología y filosofía de la ciencia. Ello tuvo mucho que ver con las cada vez mayores implicaciones sociales, económicas e ideológicas de la ciencia y sus productos. Fueron sobre todo consideraciones relativas a los efectos de la tecnología que se derivaba del desarrollo de la ciencia y a la contraposición de determinados valores muy extendidos socialmente con valores y principios propios de la empresa científica lo que llevó a Merton (1942) a enunciar el conocido como ethos de la ciencia, ethos al que iban asociados una serie de valores.
Como vimos en la anotación anterior, no obstante, este asunto sigue siendo controvertido en el marco de la filosofía de la ciencia. Por esa razón, y al objeto de disponer de una perspectiva más amplia, y dado que el tema tratado ha concitado el interés no sólo de sociólogos y filósofos de la ciencia, sino también de científicos y divulgadores, he considerado de interés incluir de forma sumaria, lo que algunos de esos científicos y divulgadores han afirmado en relación con el tema. No pretendo que este repaso mínimo sirva para elaborar una reflexión meditada sobre la noción de los valores de la ciencia y sus implicaciones. Mi intención se limita a ilustrar la gran diversidad de rasgos, cualidades, actitudes y virtudes que son consideradas al tratarlo.
Santiago Ramón y Cajal (1898), en su “Reglas y consejos sobre investigación científica. Los tónicos de la voluntad”, incluye un capítulo, el tercero, titulado “Cualidades de orden moral que debe poseer el investigador”. Si bien es cierto que, en sentido estricto, quizás estas cualidades no sean del todo asimilables a la noción de valores utilizada por Merton (1942), no lo es menos que pueden considerarse perfectamente homologables a muchas otras cualidades que han venido siendo consideradas como valores. Por esa razón se han incluido aquí, y porque al fin y al cabo, no deja de ser una de las primeras referencias a estos temas escritas por un científico español. Para Ramón y Cajal, el científico ha de tener independencia de juicio, perseverancia, pasión por la gloria, patriotismo y gusto por la originalidad.
En un libro muy conocido del físico y divulgador científico norteamericano Carl Sagan (1995), “El mundo y sus demonios”, en el capítulo II, “Ciencia y esperanza”, hace una reflexión acerca de la ciencia, de su relación con la sociedad y de lo que cree que significa para la humanidad. En ese contexto, va desgranando una serie de ideas y atribuyendo a la ciencia una serie de cualidades. He recopilado la siguiente lista: cautela (escepticismo), racionalidad, autocrítica, apertura, independencia de juicio, humildad, imaginación, disciplina, coherencia, espíritu crítico, honestidad, y libre intercambio de ideas.
He incluido en esta breve relación a Ramón Núñez (2010), creador de los museos científicos coruñeses y a quien se considera padre de la museología científica española. Núñez, en una intervención en el Senado, enunció lo que su autor denomina “valores culturales de la ciencia”. Son los siguientes: curiosidad, escepticismo, racionalidad, universalidad, provisionalidad, relatividad, autocrítica, iniciativa, apertura y creatividad.
Por último, me ha parecido de interés incluir aquí los resultados de una encuesta en la que unas pocas personas, dedicadas a la investigación, a la docencia de materias de ciencia y a la divulgación científica respondían a la pregunta de cuáles son a su juicio los tres principales valores de la ciencia. No pretendo que los resultados de esta encuesta sean extrapolables, por supuesto. He reformulado algunas respuestas para agrupar las que tenían contenidos muy similares, y he puesto entre paréntesis el número de veces en que se daba la respuesta en cuestión. Comprobé que las respuestas dadas eran clasificables en dos grandes categorías: funciones que cumple la ciencia, una, y sus cualidades (o virtudes), la otra. Y cada una de esas dos categorías podía subdividirse, a su vez, en otras dos, atendiendo a si eran rasgos de carácter general o de carácter epistémico. Así pues, relaciono a continuación las respuestas dadas, agrupadas en las cuatro subcategorías indicadas.
Funciones
Proporciona progreso y bienestar (8); es fuente de criterio (5); promueve la educación y la cultura (1); proporciona placer y asombro (1).
Funciones epistémicas
Proporciona conocimiento objetivo (4); hace uso de y promueve el pensamiento crítico (4); busca respuestas (2); ofrece certezas (2); proporciona experiencia vital (2); atrae la inteligencia (1); desmitifica (1); permite comparar (1); facilita el intercambio de ideas (1).
Cualidades
Humildad (5); cooperatividad (3); honradez (2); belleza (1); generosidad (1); transparencia (1); valentía (1); resiliencia frente a sus demonios (1).
Cualidades epistémicas
Universalidad (7); curiosidad (7); objetividad (3); revisable/provisional (3); creatividad (3); escepticismo (2); racionalidad (2); realismo (1); rigor (1).
Conclusión
Si nos fijamos hoy en lo que diferentes filósofos, científicos y divulgadores de la ciencia han escrito al respecto (la relación contenida en este texto no es, ni de lejos, exhaustiva), vemos fácilmente que las dificultades a las que se refería Menéndez Viso (2005) son reales. Los resultados de la encuesta, aunque carentes de rigor estadístico, dan cuenta de una gran diversidad de visiones que no hace sino confirmar esas dificultades. En definitiva, no puedo sino concluir que la noción “valores de la ciencia” se encuentra sumida en una gran confusión.
Y sin embargo, si pretendemos que esa noción resulte de alguna utilidad, más allá de formular un desiderátum acerca de cómo nos gustaría a cada uno que fuese la ciencia o qué requisitos éticos deberían cumplir la práctica científica, y sus bienes y productos, debería clarificarse esta noción, precisar su significado. Menéndez Viso (2005) propone recuperar la noción aristotélica de la prudencia. Es una idea sugerente, pero creo que es una noción útil sobre todo en relación con la aplicación práctica de los resultados de la ciencia. Dudo que lo sea si de lo que se trata es de caracterizar a la empresa científica en sí.
Me parece una tarea necesaria. La ciencia se sigue encontrando en el punto de mira de ideologías que le son adversas. Me refiero a las ideologías políticas totalitarias y a las corrientes de pensamiento que niegan a la ciencia su valor epistémico atribuyéndole la condición de mera construcción social. Por esa razón, y dado que la ciencia, como cualquier otra empresa humana, requiere de un grado suficiente de legitimación y apoyo social, es necesario clarificar el dominio de los valores de la ciencia de manera que sirvan para proporcionárselos. Para ello, es importante determinar con precisión a qué nos referimos cuando hablamos de valores de la ciencia, si a principios, cualidades, virtudes, actitudes, normas o bienes, por citar algunas de las nociones potencialmente válidas. Sin esa clarificación, la de los valores de la ciencia será una noción inútil, por confusa. Y es que también en este dominio vale el aserto baconiano: “se aprende más del error que de la confusión”.
FuentesMenéndez Viso, Armando (2005): Las ciencias y el origen de los valores Siglo XXI, Madrid
Merton, Robert K (1942): “Science and Technology in a Democratic Order” Journal of Legal and Political Sociology 1: 115-126. [Traducción al español como “La estructura normativa de la ciencia” en el volumen II de “La Sociología de la Ciencia” Alianza Editorial 1977, traducción de The Sociology of Science – Theoretical and Empirical Investigations, 1973]
Núñez Centella, Ramón (2010): “La cultura científica” (Intervención en la Reunión de Presidentes de Comisiones de Ciencia e Innovación de los Parlamentos Nacionales de los Estados miembros de la Unión Europea y del Parlamento Europeo; 25 de marzo de 2010).
Ramón y Cajal, Santiago (1898): Reglas y consejos sobre investigación científica. Los tónicos de la voluntad. Espasa Calpe, Madrid, 1941.
Sagan, Carl (1995): The Demon haunted World, Random House, New York [Traducción al español: El Mundo y sus demonios, Planeta, Barcelona (2006)]
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La ciencia quizás tenga valores… pero no sabemos cuáles son se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Algunas visiones en filosofía de la ciencia sobre sus valores
Una vez que Merton (1942) abrió la puerta a los valores como un elemento fundamental para caracterizar la empresa científica y para sustentar la legitimación social de la misma, otros autores han aportado su propia visión. Paso a continuación a hacer un breve repaso, recurriendo, para ello, a referencias recogidas por Javier Echeverría en sendos trabajos de 1995 y de 2002.
De acuerdo con la teoría de los objetivos de la ciencia de Karl Popper: “la ciencia busca la verdad y la resolución de problemas de explicación, es decir, que busca teorías de mayor capacidad explicativa, mayor contenido y mayor contrastabilidad.” Según Popper, la objetividad científica exige que las conjeturas sean sometidas a prueba; por eso, la falsación y la crítica no son sólo preceptos metodológicos, son también reglas propias del ethos de la ciencia. Por otra parte, la comunicabilidad del conocimiento científico (y en concreto la escritura) son condiciones sine qua non para que esa objetividad sea factible. Popper formuló una nueva característica universal para todo tipo de ciencias (formales, naturales, sociales), a saber, su carácter público. “[..] decimos que una experiencia es pública, cuando todo aquel que quiera tomarse el trabajo de hacerlo puede repetirla,” para remachar a continuación: “Esto es lo que constituye la objetividad científica. Todo aquel que haya aprendido el procedimiento para comprender y verificar las teorías científicas puede repetir el experimento y juzgar por sí mismo.” Y por lo mismo, la universalidad de la ciencia es otro valor continuamente subrayado por él. La investigación científica se lleva a cabo en un marco social, cultural, institucional e histórico determinado. Sin embargo, ello no implica que no podamos sobrepasar dicho marco, conduciendo nuestra indagación hacia una mayor universalidad.
“En último término, el progreso depende en gran medida de factores políticos, de instituciones políticas que salvaguarden la libertad de pensamiento: de la democracia.” […] La axiología subyacente a la teoría popperiana del objetivo de la ciencia nos muestra nuevos valores, que él considera fundamentales para el desarrollo de la actividad científica: por ejemplo la libertad de pensamiento y la libertad de crítica.
Mario Bunge negó la dicotomía entre hechos y valores en la ciencia y mantuvo al respecto una postura matizada: “el contenido del conocimiento científico es axiológica y éticamente neutral”, pero “algunos de los criterios que se emplean en ciencia son claramente normativos”. Para Bunge, “los valores son propiedades relacionales que adjudicamos en ciertas ocasiones a cosas, actos o ideas, en relación con ciertos desiderata“. Hay valores que la ciencia moderna ha promovido siempre, como la verdad, la novedad, el progreso, la libertad y la utilidad. Bunge afirmó incluso que “la actividad científica es una escuela de moral” y que “la ciencia es una fuerza moral a la vez que una fuerza productiva”, para terminar diciendo que “en conclusión, la ciencia, en su conjunto, no es éticamente neutral”.
En una conferencia dictada en 1973, Thomas Kuhn planteó una nueva pregunta en filosofía de la ciencia: ¿cuándo una teoría científica es buena (o mala)? En lugar de preguntar sobre la verdad, falsedad, verosimilitud, falsabilidad, contrastabilidad, etc., de las teorías científicas, como era habitual entre los filósofos de la ciencia, Kuhn suscitó una cuestión que es previa a la de la verdad, falsedad o verosimilitud de las teorías. Según Kuhn, los científicos criban previamente las propuestas y para ello recurren a una serie de requisitos y valores a los que hay que prestar gran atención.
Respondiendo a su propia pregunta, Kuhn indicó al menos cinco características para admitir que una teoría científica es buena: precisión, coherencia, amplitud, simplicidad y fecundidad. Posteriormente sugirió un sexto valor, la utilidad, de índole mayormente técnica, por lo que Kuhn no lo incluyó en su lista inicial de “valores de la ciencia”. También subrayó que ninguno de esos criterios basta por sí mismo para dilucidar si una teoría es buena o no y, por supuesto, tampoco para decidir si es verdadera o falsa. Sin embargo, los cinco son requisitos axiológicos exigibles a toda teoría científica, es decir, condiciones necesarias, pero no suficientes.
Según Kuhn, “[,,,] una teoría debe ser precisa: esto es, dentro de su dominio, las consecuencias deducibles de ella deben estar en acuerdo demostrado con los resultados de los experimentos y las observaciones existentes. En segundo lugar, una teoría debe ser coherente, no sólo de manera interna o consigo misma, sino también con otras teorías aceptadas y aplicables a aspectos relacionables de la naturaleza. Tercero, debe ser amplia: en particular las consecuencias de una teoría deben extenderse más allá de las observaciones, leyes o subteorías particulares para las que se destinó en un principio. Cuarto, e íntimamente relacionado con lo anterior, debe ser simple, ordenar fenómenos que, sin ella, y tomados uno por uno, estarían aislados y, en conjunto, serían confusos. Quinto -aspecto algo menos frecuente, pero de importancia especial para las decisiones científicas reales-, una teoría debe ser fecunda, esto es, debe dar lugar a nuevos resultados de investigación: debe revelar fenómenos nuevos o relaciones no observadas antes entre las cosas que ya se saben.” […] “toda elección individual entre teorías rivales depende de una mezcla de factores objetivos y subjetivos, o de criterios compartidos y criterios individuales. Como esos últimos no han figurado en la filosofía de la ciencia, mi insistencia en ellos ha hecho que mis críticos no vean mi creencia en los factores objetivos.”
En su libro Reason, Truth and History (1981), Hilary Putnam no sólo negó la dicotomía positivista entre hechos y valores, sino que afirmó tajantemente que no hay hechos científicos ni mundo sin valores. Según Putnam, “sin los valores cognitivos de coherencia, simplicidad y eficacia instrumental no tenemos ni mundo ni hechos”
En 1984 Larry Laudan publicó un libro con el sugestivo título Science andValues, pero desde las primeras páginas anunciaba que no iba a ocuparse de las relaciones entre la ciencia y la ética, sino que se centraría exclusivamente en los valores epistémicos:
“No tengo nada que decir sobre los valores éticos como tales, puesto que manifiestamente no son los valores predominantes en la empresa científica. Ello no equivale a decir que la ética juegue papel alguno en la ciencia; por el contrario, los valores éticos siempre están presentes en las decisiones de los científicos y, de manera muy ocasional, su influencia es de gran importancia. Pero dicha importancia se convierte en insignificancia cuando se compara con el papel omnipresente (ubiquitous)de los valores cognitivos. Una de las funciones de este libro consiste en corregir el desequilibrio que ha llevado a tantos escritores recientes sobre la ciencia a estar preocupados por la moralidad científica más que por la racionalidad científica, que será mi tema central.”
En relación a los criterios axiológicos que se utilizan para evaluar las teorías y los problemas, Laudan sólo se ocupa de los valores epistémicos (verdad, coherencia, simplicidad y fecundidad predictiva) o, como también dice, de la «evaluación cognoscitivamente racional». Puede haber problemas muy importantes desde un punto de vista político o económico, pero éstos pertenecen a «las dimensiones no racionales de la evaluación de problemas».
FuentesEcheverría, Javier (1995): El pluralismo axiológico de la ciencia. Isegoria 12: 44-79
Echeverría, Javier (2002): Ciencia y Valores; Barcelona, Ediciones Destino.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Algunas visiones en filosofía de la ciencia sobre sus valores se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El ethos de la ciencia y las normas de Merton
Como hemos visto en la anotación anterior (Merton, 1938), la ciencia dejó de ser inmune al ataque, las restricciones y la represión. Antaño la fe de la cultura occidental en la ciencia había sido ilimitada, indiscutida y sin rival. Hace 350 años, cuando la institución de la ciencia poseía escasos títulos propios para reclamar apoyo social, también los filósofos de la naturaleza tuvieron que justificar la ciencia como un medio para lograr los fines culturalmente convalidados de la utilidad económica y la glorificación de Dios. La actividad científica, pues, no era un valor evidente por sí mismo. Pero con la interminable serie de éxitos, lo instrumental se transformó en lo final, el medio en el objetivo. Así fortalecido, el científico llegó a considerarse independiente de la sociedad, y a la ciencia como una empresa que se validaba a sí misma, que estaba en la sociedad pero que no le pertenecía. La revuelta contra la ciencia, sin embargo, obligó a que científicos y legos, por igual, le prestasen su atención.
Los ataques incipientes y manifiestos contra la integridad de la ciencia condujeron a los científicos a reconocer su dependencia de tipos particulares de estructura social. Las asociaciones de científicos han venido dedicado manifiestos y declaraciones a las relaciones entre la ciencia y la sociedad. La crisis invitó a una autoevaluación. Al tener que enfrentarse a los desafíos a su modo de vida, los científicos se vieron obligados a tomar conciencia de sí mismos, como elementos que forman parte de la sociedad y que tienen obligaciones e intereses. Los científicos se vieron obligados a justificar ante la sociedad los modos de obrar de la ciencia.
Así pues, tras indagar acerca de los motivos por los que la empresa científica empezó a ser cuestionada, Merton (1942) pasó a analizar la estructura normativa de la ciencia. Intentó, de esta forma, identificar los valores y las normas que guían la acción de los científicos, porque entendía que debían reexaminarse sus fundamentos, reformular sus objetivos y buscar una nueva justificación. La legitimación que alcanzó en el siglo XVII y que mantuvo durante los dos siglos siguientes, ya no era suficiente para garantizar la continuidad de la empresa científica.
La palabra “ciencia”, según Merton (1942) se refiere a una variedad de cosas distintas, aunque relacionadas entre sí. Normalmente se utiliza para denotar: (1) un conjunto de métodos característicos mediante los cuales se certifica eI conocimiento; (2) un acervo de conocimiento acumulado que surge de la aplicación de estos métodos; (3) un conjunto de valores y normas culturales que gobiernan las actividades científicas; (4) cualquier combinación de los elementos anteriores. Aquí nos ocuparemos, de manera preliminar, de la estructura cultural de la ciencia, esto es, de un aspecto limitado de la ciencia como institución.
Es a esas normas a las que se referirá Merton (1942) a continuación, normas que dejará formuladas y que desde entonces se han considerado una referencia fundamental en todos los estudios que han abordado el asunto de los valores de la ciencia. Se las denomina, de hecho, “normas mertonianas”.
En expresión de quien acuñó la fórmula, “el ethos de la ciencia es ese complejo, con resonancias afectivas, de valores y normas que se consideran obligatorios para el hombre de ciencia. Las normas se expresan en forma de prescripciones, proscripciones, preferencias y permisos. Se las legitima en base a valores institucionales. Estos imperativos, trasmitidos por el precepto y el ejemplo, y reforzados por sanciones, son internalizados en grados diversos por el científico, moldeando su conciencia científica. Aunque el ethos de la ciencia no ha sido codificado, se lo puede inferir del consenso moral de los científicos tal como se expresa en el uso y la costumbre, en innumerables escritos sobre el espíritu científico y en la indignación moral dirigida contra las violaciones del ethos”.
Para Merton (1942), el fin institucional de la ciencia es el crecimiento del conocimiento certificado. Y los métodos empleados para alcanzar ese fin proporcionan la definición de conocimiento apropiada: enunciados de regularidades empíricamente confirmados y lógicamente coherentes (que son, en efecto, predicciones). Los imperativos institucionales (normas) derivan del objetivo y los métodos. Toda la estructura de normas técnicas y morales conducen al objetivo final. La norma técnica de la prueba empírica adecuada y confiable es un requisito para la constante predicción verdadera; la norma técnica de la coherencia lógica es un requisito para la predicción sistemática y válida. Las normas de la ciencia poseen una justificación metodológica, pero son obligatorias, no sólo porque constituyen un procedimiento eficiente, sino también porque se las cree correctas y buenas. Son prescripciones morales tanto como técnicas.
Si la comunidad científica comparte un proyecto común –la construcción de un cuerpo de conocimiento certificado o fiable acerca del mundo y de cómo funciona-, las normas que Merton (1942) identificó son algo parecido a los valores compartidos por esa comunidad, valores que son considerados esenciales. Una interpretación actualizada de las normas mertonianas, es la que propone el físico John Ziman (2000), y que se presenta a continuación.
- Universalismo.Lo importante en la ciencia no es quién la practica, sino su contenido, los conocimientos que adquirimos acerca del mundo y de los fenómenos que ocurren en él.Todos pueden contribuir a la ciencia con independencia de su raza, nacionalidad, cultura o género. Y por lo tanto, todos han de ser tratados como potenciales contribuyentes a la ciencia.
- Comunismo. No se trata del comunismo al que se refiere la ideología marxista-leninista, sino de un punto de vista según el cuál, el conocimiento científico debería ser compartido por el conjunto de la comunidad científica, con independencia de qué parte de los descubrimientos han sido hechos por unos u otros científicos. Así pues, todos los científicos deberían tener el mismo acceso a los bienes científicos y debería haber un sentido de propiedad común al objeto de promover la colaboración. El secretismo es lo opuesto a esta norma, puesto que el conocimiento que se oculta, que no se hace público no es de ninguna ayuda en el cumplimiento del objetivo de la comunidad, que el conocimiento certificado crezca.
- Desinterés.Se supone que los científicos actúan en beneficio de una empresa científica común, más que por ganancia personal. No obstante, no debe confundirse este “desinterés” con altruismo. De lo que se trata es de que los beneficios que puedan proporcionar los descubrimientos científicos, sin dejar de favorecer a quien los realice, no deben entorpecer o dificultar la consecución del objetivo institucional de la ciencia: la extensión del conocimiento cretificado.
- Escepticismo organizado. El escepticismo quiere decir que las declaraciones o pretensiones científicas deben ser expuestas al escrutinio crítico antes de ser aceptadas. Este es el valor que compensa el universalismo. Todos los miembros de la comunidad científica pueden formular hipótesis o teorías científicas, pero cada una de ellas debe ser evaluada, sometida al filtro de la prueba o la refutación para comprobar si se sostiene. Las propuestas que superan esa prueba con éxito pasan a formar parte del bagaje universal de conocimiento científico. El escepticismo es el valor que permite que funciones el del desinterés, porque sin escepticismo es más fácil caer en la tentación de anteponer el interés personal al del conjunto de la comunidad científica.
Las normas mertonianas son las que los científicos creen que deberían seguir, lo que creen que les es permitido hacer, y lo que sería bueno para ellos que hicieran. En otras palabras, por normas no se identifica lo que los científicos hacen normalmente, no necesariamente al menos; a veces lo que hacen no satisface lo que piensan que deberían hacer. Pero eso no quiere decir que a los científicos se les dé un manual que incluye las normas de Merton. Ellos las adquieren prestando atención a lo que hacen otros científicos en su comunidad, qué comportamientos castigan y cuáles premian.
FuentesMerton, Robert K (1938): “Science and the Social Order” Philosophy of Science 5 (3): 321-337. [Traducción al español como “La ciencia y el orden social” en el volumen II de “La Sociología de la Ciencia” Alianza Editorial 1977, traducción de The Sociology of Science – Theoretical and Empirical Investigations, 1973]
Merton, Robert K (1942): “Science and Technology in a Democratic Order” Journal of Legal and Political Sociology 1: 115-126. [Traducción al español como “La estructura normativa de la ciencia” en el volumen II de “La Sociología de la Ciencia” Alianza Editorial 1977, traducción de The Sociology of Science – Theoretical and Empirical Investigations, 1973]
Ziman, John (2000). Real Science: What It Is and What It Means. Cambridge University Press.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El ethos de la ciencia y las normas de Merton se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La hostilidad a la ciencia
En el mismo año que se había publicado el ensayo relativo a la relación entre la ciencia moderna y el protestantismo glosado en la anotación previa, Merton (1938) publicó una conferencia que había pronunciado en diciembre del año anterior ante la American Sociological Society. En dicha conferencia se refirió a los ataques que había venido recibiendo la ciencia en los años anteriores y expuso una serie de ideas acerca de los motivos por los que, a su entender, se estaban produciendo esos ataques. Sintetizo a continuación los puntos más significativos de su trabajo.
Parte de la base de que hace falta que haya personas interesadas en dedicarse a la investigación científica para que haya ciencia. Pero como eso es algo que requiere una serie de condiciones culturales, es importante conocer qué es lo que motiva que se inicie una carrera científica y cuáles son los factores que la pueden obstaculizar o impedir.
Por otro lado, cree que la hostilidad hacia la ciencia tiene un origen doble. El primero sería que los resultados o métodos de la ciencia sean contrarios a determinados valores sociales. O sea, si hay ciertos valores que son mayoritariamente compartidos en la sociedad y la ciencia se percibe como contraria a esos valores, ello sería una fuente de hostilidad. Y el segundo descansa en la sensación de incompatibilidad entre los sentimientos que encarna el ethos científico y los que se encuentran en otras instituciones. De la misma forma, también puede ocurrir lo contrario; por esa razón, la posición de la ciencia puede ser analizada como la resultante de dos conjuntos de factores en conflicto, que apoyan o son contrarias a la ciencia como actividad social a gran escala.
Merton (1938) pone como ejemplo la situación que se produjo en la Alemania nazi a partir de 1933, donde las trabas a la ciencia fueron un subproducto de la ideología nacionalsocialista1. Además, en las instituciones –universidades incluidas- de la Alemania del III Reich había un tono general antiintelectual, por su desprecio del teórico y su glorificación del hombre de acción. Y ese tono, no exclusivo de Alemania además, podía tener consecuencias de largo alcance.
Por otra parte, en los estados totalitarios se exige máxima lealtad al propio Estado, lo que implica, en el caso de los científicos, tener que renunciar a las normas institucionales que entran en conflicto con las de aquél. Las normas del ethos científico deben ser sacrificadas, en tanto exigen repudiar los criterios de validez científica o mérito científico impuestos políticamente. En un orden liberal, sin embargo, la limitación de la ciencia no se produce de esa forma, ya que las instituciones que no son políticas gozan de una considerable autonomía.
Pero la situación que se produjo en Alemania no es la única que pudo dar lugar a actitudes de hostilidad hacia la ciencia. Merton (1938) señala que a menudo los científicos defienden el carácter “puro” de la ciencia, y lo hacen al objeto de preservar su autonomía de elementos extraños como las doctrinas religiosas, la utilidad económica, o la conveniencia política. Por lo tanto, se defiende la pureza de la ciencia para evitar que se limiten las direcciones de su potencial avance y amenacen la estabilidad y continuidad de la investigación científica valorada socialmente. El criterio tecnológico del logro científico también tiene una función social para la ciencia, pues los bienes y productos que ofrece la tecnología -y, en última instancia, también la ciencia- promueven el apoyo social a la misma. La razón es clara: el público difícilmente está en condiciones de comprender el trabajo científico y sus resultados, por lo que la gente no puede evaluarlos directamente; lo que sí puede hacer, sin embargo, es valorar los productos que genera. Esa es, en definitiva, una forma de hacer intelectualmente comprensible una práctica que, de otra forma, sería inaccesible.
Pero ocurre que el énfasis en la pureza de la ciencia ha tenido también efectos negativos para ella. Como consecuencia de esa actitud los científicos, al no poder controlar su posterior desarrollo, se desentienden y no se hacen responsables de los usos posteriores que pueda hacerse de sus descubrimientos. Y si esos usos tecnológicos generan rechazo en la población, el rechazo alcanzará finalmente también a la ciencia. Los motivos pueden ser muy variados, desde la oposición a los usos bélicos hasta el efecto de la tecnología sobre el medio ambiente o el mercado de trabajo. Pero el caso es que sean cuales sean esos motivos o lo justificados que estén, la oposición a la ciencia es su consecuencia. Así pues, la preocupación por el objetivo primario –la promoción del conocimiento por su valor intrínseco, preservando la pureza de la ciencia- está asociada a una desatención hacia las consecuencias que están al margen del interés inmediato, pero los resultados sociales reaccionan de tal modo que obstaculizan las metas originales. Ese comportamiento anula valores que no son fundamentales para la ciencia, pero son parte integrante de la escala social de valores. Por lo tanto, los efectos de la investigación científica, dado que no se realiza en un vacío social, se ramifican en otras esferas de valores e intereses. En expresión de Merton “el principio de la ciencia pura y desinteresada ha contribuido a elaborar su propio epitafio”.
Otro mecanismo potencialmente generador de hostilidad hacia la ciencia, según Merton (1938), es la enorme distancia que hay entre los científicos y los legos en cuanto al grado de comprensión de los asuntos de naturaleza científica. Hay toda una panoplia de conceptos –los que son propios de la Teoría de la Relatividad o de la Mecánica Cuántica, por ejemplo- que resultan completamente ajenos a la experiencia cotidiana de la gente. Es cierto que en la medida en que esos conceptos científicos estén vinculados a la consecución de determinados logros tecnológicos, el público está dispuesto a darlos por buenos. Pero esa distancia implica que para la mayor parte de la gente la ciencia está unida a una terminología esotérica. Y una vez que se dan por buenos conceptos expresados mediante esa terminología, otras ideas que carecen realmente de sentido o de fundamentación científica pueden encontrar una cierta aceptación si se expresan mediante una terminología más sencilla o de similar nivel esotérico, sobre todo si están más cerca de la experiencia cotidiana o de los prejuicios culturales. Por esa razón, el avance científico facilita que la población se adhiera a un nuevo misticismo si va envuelto en una jerga aparentemente científica. De ese modo, la autoridad que la ciencia otorga a sus logros puede acabar al servicio de la doctrinas no científicas si son capaces de apropiarse de su prestigio.
Y por último, un tercer mecanismo susceptible de alimentar actitudes anticientíficas tiene su origen en otro rasgo de la ciencia, el ser un sistema de escepticismo organizado que, en muchas ocasiones, se convierte en iconoclastia. El escepticismo organizado cuestiona de manera latente ciertas bases de la rutina establecida, la autoridad, los procedimientos establecidos y lo sagrado en general. Aunque indagar acerca de la génesis de creencias y valores no significa que se niegue su validez, lo cierto es que es así como se interpreta en muchas ocasiones. De esa forma, la ciencia entra en conflicto psicológico –no necesariamente lógico- con otras actitudes y formas de aprehender la realidad. Ese fenómeno explicaría la oposición a lo que se interpreta como intrusión de la ciencia en otras esferas, ya sean de orden político, económico, religioso o de cualquier otra naturaleza. En otras palabras, el escepticismo es considerado como una amenaza al status quo y frente a esa amenaza se produce una reacción de hostilidad.
Note el lector que prácticamente todos los aspectos de esta cuestión que trató Merton hace ochenta años, están plenamente vigentes en la actualidad, aunque la hostilidad a la ciencia proceda hoy de entornos (quizás) diferentes.
FuenteMerton, Robert K (1938): “Science and the Social Order” Philosophy of Science 5 (3): 321-337. [Traducción al español como “La ciencia y el orden social” en el volumen II de “La Sociología de la Ciencia” Alianza Editorial 1977, traducción de The Sociology of Science – Theoretical and Empirical Investigations, 1973]
Nota:
1Por ejemplo, todas las personas que no cumplían los criterios raciales de ascendencia aria fueron expulsadas de universidades e institutos; fueron muchos los científicos que no los cumplían.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La hostilidad a la ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El nacimiento de la ciencia moderna y la ética protestante
Como señalé en la anotación anterior, fue R K Merton quien introdujo de forma explícita la noción de los valores en la esfera de la ciencia. Antes de formular la teoría de que existe un ethos de la ciencia, que es en relación con la cuál se hace referencia a expresa a un conjunto de valores, Merton (1938) desarrolló una tesis que tuvo en su día una gran influencia en relación con el contexto social, político y, sobre todo, religioso en que se produce la aparición de la ciencia moderna, en Inglaterra durante el siglo XVII. Como se verá, un elemento importante de esa teoría se refiere a la legitimación social que alcanzó la ciencia entonces y que después mantuvo hasta las primeras décadas del siglo XX. Y esa es la razón por la que me parece pertinente hacer aquí una breve incursión en ese terreno. Presento a continuación una síntesis de las ideas desarrolladas por el sociólogo norteamericano.
Durante el siglo XVII la religión era la fuente principal del sistema de valores dominantes. Por ello, se vieron favorecidas aquellas actividades que, por las razones que fuesen, se caracterizaban por unos valores que también eran los de la religión. Ese fue el caso, según Merton (1938), de la ciencia, por lo que las convicciones religiosas de la época contribuyeron a su emergencia o, al menos, constituyeron una suerte de estímulo para ella; dicho de otra forma, fueron las implicaciones psicológicas del sistema puritano de valores las que habrían promovido la adhesión social a la ciencia en la Inglaterra del siglo XVII.
Los sentimientos y creencias puritanas que promovían un trabajo infatigable y una aproximación racional a los problemas fueron factores de éxito económico. Y esa misma relación puede aplicarse a la relación entre el puritanismo y la ciencia, puesto que esos mismos factores son determinantes del éxito de la empresa científica. Probablemente debido a ello también, los protestantes experimentaron un profundo y consistente interés en el progreso de la ciencia.
Por otro lado, el puritanismo había atribuido una utilidad triple a la ciencia. Servía, en primer lugar, para disponer de pruebas prácticas del estado de gracia del científico1. En segundo lugar, la ciencia permitía ampliar el control humano sobre la naturaleza. Y por último, la ciencia se veía como un medio adecuado para glorificar a Dios.
La exaltación de la facultad de la razón en el ethos puritano –por considerar que la racionalidad atenúa las pasiones- condujo inevitablemente a una actitud de simpatía hacia aquellas actividades que demandan la aplicación constante del razonamiento riguroso. Por otra parte, la insistencia puritana en el empirismo, basado en la aproximación experimental, tenía mucho que ver con el rechazo de la contemplación, ya que se identificaba ésta con la ociosidad. Y por lo mismo, también tenía que ver con la relación estrecha que se establecía entre el gasto de energía física y el manejo de objetos materiales, por un lado, y el trabajo por el otro.
Además de lo anterior, hay otro factor que explicaría la relación entre el puritanismo y la ciencia, quizás de la misma importancia que el anterior, aunque más sutil y más difícil de apreciar. En cada época hay un sistema de ciencia que descansa sobre un conjunto de supuestos, normalmente implícitos y muy raramente cuestionados por la mayor parte de los científicos de ese tiempo. El supuesto básico en la ciencia moderna es una convicción muy extendida en la existencia de un Orden de las Cosas y, en particular, un Orden en la Naturaleza, aunque esa creencia, en realidad, es eso, una fe, y en tanto que tal, del todo inmune a la demanda de examen racional.
Paradójicamente, esa fe en la capacidad de la ciencia, muy anterior al desarrollo de la ciencia moderna, es una derivada inconsciente de la teología medieval. Esa condición era un prerrequisito para que surgiera la ciencia moderna, pues sin la creencia en ese Orden de la Naturaleza y lo que es lo mismo, en la existencia de Leyes de la Naturaleza, no hubiera habido un estímulo intelectual suficiente para que los filósofos naturales emprendiesen la tarea científica. Pero siendo necesario el prerrequisito, no era suficiente para provocar su desarrollo. Se necesitaba, además, un interés constante en buscar ese orden de la naturaleza de una forma empírica y racional, esto es, un interés activo en este mundo y sus fenómenos además de una aproximación específicamente empírica al mismo. Con el protestantismo la religión proporcionó ese interés; impuso obligaciones de concentración intensa en la actividad secular con un énfasis en la experiencia y la razón como bases para la acción y la creencia.
FuenteMerton, Robert K (1938): “Motive Forces of the New Science” in Science, Technology and Society in Seventeenth-Century England, pp.: 80-102, 104-110. [Traducción al español: “El estímulo puritano a la ciencia” en el volumen II de “La Sociología de la Ciencia”, Alianza Editorial 1977, traducción de The Sociology of Science – Theoretical and Empirical Investigations, 1973]
Nota:
1Se ve aquí la conexión con el papel que juega la ética del trabajo en el protestantismo, ya que la dedicación al trabajo y el esfuerzo son considerados en el credo de Lutero como manifestaciones del estado de gracia.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El nacimiento de la ciencia moderna y la ética protestante se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La ciencia no tiene valores… ¿o sí los tiene?
A finales de siglo XIX y comienzos del siglo XX los valores no desempeñaban ningún papel en el desarrollo de la ciencia. La noción de ciencia neutra, carente de valores se remonta al siglo XVII, a la creación de la Royal Society londinense. Según el Royalist Compromise, el acuerdo con la corona británica, recogió el compromiso de ésta de permitir a los miembros de la Sociedad investigar en libertad siempre que no se involucrasen en asuntos religiosos, políticos y morales.
Hume, el más importante filósofo empirista, diferenciaba tres tipos de filosofía, Filosofía natural (Ciencia), Filosofía práctica (Ética) y Semiótica (o Lógica), y sostuvo que son completamente diferentes unas de las otras. Para las posiciones empiristas la falacia naturalista sigue siendo un criterio de evaluación filosófica: a partir de aserciones factuales no se pueden implicar aserciones morales. Los científicos pueden conjugar el verbo ser, pero no deben usar la expresión deber ser.
Ya en el siglo XIX, en su Catecismo positivista, Auguste Comte afirmó que la ciencia tiene que ver con los hechos, no con los valores. Max Weber trasladó ese postulado a las ciencias sociales. Según él, también los economistas y los sociólogos deben adoptar una postura neutral cuando investigan. La ciencia ha de buscar la objetividad y por eso ha de describir, comprender y explicar los hechos, pero sin emitir juicios de valor. En la tradición empirista y positivista, esos juicios son subjetivos, por eso caen fuera del discurso científico. En su Tractatus logico-philosophicus (1921), Wittgenstein mantuvo tesis más radicales: «En el mundo todo es como es y sucede como sucede, en él no hay ningún valor, y aunque lo hubiese no tendría ningún valor». Los valores no existen en el mundo objetivo, los aportan los sujetos, sean individuales o colectivos. En su libro Religión y Ciencia, Russell afirmó tajantemente que “cuestiones como los “valores” se encuentran fuera del dominio de la ciencia”, e incluso que “están enteramente fuera del dominio del conocimiento; es decir, cuando afirmamos que esto o aquello tiene “valor”, estamos dando expresión a nuestras propias emociones, no a un hecho que seguiría siendo cierto aunque nuestros sentimientos personales fueran diferentes”. Concluyó que “si es cierto que la ciencia no decide cuestiones de valor, es porque escapan en absoluto a la decisión intelectual y se encuentran fuera del reino de la verdad y la falsedad. Todo conocimiento accesible debe ser alcanzado por métodos científicos, y lo que la ciencia no alcanza a descubrir, la humanidad no logra conocerlo”. Científicos tan prestigiosos como Poincaré, Einstein y otros muchos sostuvieron tesis similares, al igual que los filósofos de la ciencia de la corriente positivista. Y todavía en 1974, Quine recordaba que “la teoría científica se mantiene orgullosa y manifiestamente alejada de juicios de valor”.
Pero tal y como mostró Hilary Putnam (2002), esa dicotomía entre hechos y valores se derrumbó a lo largo del siglo XX. Hay dos causas principales de este giro. Por un lado, la noción de valor ha ampliado su significado. Por otro, la propia ciencia se ha transformado radicalmente, sobre todo a partir de la II Guerra Mundial. La primera gran grieta en el muro conceptual que habían levantado los filósofos empiristas y los propios científicos la abrió Robert K. Merton, a quien se atribuye la condición de fundador de la sociología de la ciencia. Merton, a partir de un análisis histórico del contexto social, político y religioso en que se produjo la llamada “revolución científica”, llegó a la conclusión de que la actividad científica y, más concretamente, su legitimación social, tenía mucho que ver con un conjunto de normas y valores que guían la labor de los científicos y al que denominó “ethos de la ciencia”. Volveremos más adelante sobre este asunto.
Llegados a este punto conviene hacer una petición de principio. Porque en este texto se ha manejado la noción de valores cuando en ningún momento se ha ofrecido una definición de la misma. En efecto, antes de seguir adelante es importante tratar de aclarar la cuestión de qué se entiende por valores y, como veremos, no va a ser tarea fácil. Nos enfrentamos a un término ciertamente elusivo. Es, de hecho, difícil definir qué es un valor, puesto que al respecto hay definiciones muy heterogéneas; y también es difícil clasificar los valores.
Según Echeverría (2002), los valores de la ciencia son considerados como funciones que guían y orientan las acciones científicas. Los valores son utilizados como ideal regulativo de las acciones, incluso como fundamento de la ética; parece que los valores son el motor, y no sólo la guardia o la inspiración, de cualquier empresa (Menéndez Viso, 2002). Pero el mismo Menéndez Viso (2005) señala que no es posible contar con una definición precisa del término, y añade que si los valores han de servir como principio explicativo, han de estar bien definidos, no pueden ser ellos mismos términos confusos. Pero lo son. No está claro si son principios, entidades, cualidades, funciones, o bienes, por ejemplo. En realidad, con un pequeño esfuerzo, el análisis de la literatura permite identificar los siguientes sinónimos de valores: virtudes, bienes, normas, fines, derechos, o dogmas.
Según ese mismo autor (Menéndez Viso, 2005), el término valores se utiliza porque hay ciertas nociones, como la virtud, la verdad, el bien o la belleza, que no resulta cómodo enunciar: hacerlo produce una cierta vergüenza. Y sin embargo, como las nociones en cuestión son básicas y todos nos referimos a ellas en infinidad de contextos, se recurre a un eufemismo que es el de los valores. La proliferación del uso de la noción de los valores se da gracias a un curioso giro semántico del término que, además de a su número, afecta al verbo que lo acompaña. Hasta finales del s. XIX las cosas tenían valor; a partir de entonces, y cada vez más, las cosas son valores.
Comparto la perplejidad que manifiesta Menéndez Viso en relación con este asunto y, como se verá en anotaciones posteriores, no creo que se trate de una perplejidad injustificada. No obstante, y puesto que, con propiedad o sin ella, la noción de los valores tiene amplísimo uso, seguiremos adelante, si bien es importante no perder de vista estas observaciones.
FuentesEcheverría, Javier (1995): El pluralismo axiológico de la ciencia. Isegoria 12: 44-79
Echeverría, Javier (2002): Ciencia y Valores; Barcelona, Ediciones Destino.
Echeverría, Javier (2014): Los valores de las ciencias: Del ideal de neutralidad del siglo XIX a la supremacía actual de la innovación. Investigación y Ciencia nº 452, mayo, pp.: 2-3
Menéndez Viso, Armando (2002): Valores ¿ser o tener? Argumentos de Razón Técnica nº 5: 223-238
Menéndez Viso, Armando (2005): Las ciencias y el origen de los valores Siglo XXI, Madrid
Putnam, Hilary (2002): The Collapse of the Fact/Value Dichotomy and Other Essays. Harvard University Press, Cambridge, Mass. [Traducción al español: El desplome de la dicotomía hecho/ valor y otros ensayos, Paidós Ibérica, Barcelona (2004)]
El artículo La ciencia no tiene valores… ¿o sí los tiene? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Una población mejor formada es una población más sana
La esperanza de vida tiende a ser mayor en los países más ricos -o sea, en los que la gente tiene mayores ingresos- que en los más pobres. Esa correspondencia suele atribuirse a una relación que parece obvia: a más ingresos, mejor alimentación, mejor vivienda, mejor ropa, etc. y, por todo ello, mejor estado de salud.
Sin embargo, hace ya más de cuatro décadas, Samuel Preston se percató de que la relación entre esas variables no era tan sencilla como se pensaba. Aparte de constatar que había bastantes países para los que la esperanza de vida de sus habitantes no se correspondía con el esquema anterior, comprobó que a lo largo del siglo XX la longevidad se había elevado más de lo que cabía esperar del efecto del aumento de la riqueza. Y pensó que no todo dependía del nivel de ingresos. Propuso que habían sido las mejoras en las condiciones sanitarias y los avances médicos no dependientes estrictamente de factores económicos los responsables principales de las mayores esperanzas de vida. Una década después, James Caldwell observó que en regiones pobres (Kerala en la India, Sri Lanka y Costa Rica) la esperanza de vida mejoraba sensiblemente allí donde, además de una mejora en los servicios de salud, las mujeres accedían a la educación.
Teniendo en cuenta esas observaciones y las conclusiones obtenidas en otros estudios, Wolfgang Lutz y Endale Kebede han tratado de identificar el condicionante principal de la salud y la esperanza de vida utilizando para ello datos correspondientes a 174 países de niveles muy dispares de riqueza a lo largo del periodo 1970-2010 en intervalos de cinco años. En su estudio han considerado el efecto que ejercen sobre la esperanza de vida al nacer y la mortalidad infantil dos posibles factores causales: el nivel medio de riqueza de los países (producto interior bruto por persona), y el nivel educativo de la población (años de escolarización de las personas mayores de 15 años de edad, en uno de los análisis, y años de escolarización en las mujeres de edades comprendidas entre 20 y 39 años, en el otro).
La conclusión del análisis estadístico de los datos fue que el nivel educativo explica mucho mejor que el nivel de ingresos el estado de salud de la población. Otra forma de expresar esa conclusión es que el nivel educativo de la gente es un condicionante más importante de la mortalidad infantil y de la esperanza de vida que el nivel de riqueza del país. Los investigadores proponen que el nivel educativo proporciona a las personas mejor criterio a la hora de tomar decisiones que tienen consecuencias en materia de salud, ya sea en relación con la alimentación o con hábitos de vida en general. El efecto del nivel de riqueza no sería real, sino que se trataría, en palabras de los autores, de una relación espuria: la relación observada entre el nivel de ingresos y el estado de salud obedecería a que en los países más ricos la gente suele estar mejor formada.
El estudio no considera la incidencia en la esperanza de vida del esfuerzo que se dedica al sistema de salud. Pero, como ya se ha señalado, cuanto mayor es el nivel de formación de la población mayor es la riqueza del país y, por ello, mayor es también el esfuerzo que se dedica a sanidad. Se constata, una vez más, lo rentable que es el esfuerzo que se dedica a la formación. No solo mejora la vida de las personas bien formadas, también la del conjunto de la población.
—————————————————————–
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 20 de mayo de 2018.
El artículo Una población mejor formada es una población más sana se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Matemáticas a pesar de todo
La profesión matemática, en contra del estreotipo popular, es la profesión más deseada según estudios recientes y, además de los muchos campos en los que puede ejercerse, dedicarse a una de sus facetas, la investigación, pude llegar a ser una pasión que dé sentido a una vida. Ágata Timón (ICMAT) nos presenta dos casos en los que esta pasión supuso poner en riesgo la propia integridad física.
Ágata Timón: ''Matemáticas a pesar de todo''El número π es una de las constantes matemáticas más importantes que existen. π es un número fascinante que goza de una gran popularidad e, incluso, de un día propio. Desde el año 1988, cada 14 de marzo se celebra el Día de Pi. Este evento fue idea del físico Larry Shaw, quien lanzó la propuesta añadiendo a su favor que la celebración coincidía con la fecha del nacimiento de Albert Einstein. Además, la forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos del número. (3-14 martxoaren 14 en euskara / 3-14 march, 14th en inglés)
En los últimos años la conmemoración del Día de Pi se ha ido extendiendo hasta convertirse hoy en día en una celebración que sobrepasa el ámbito de las matemáticas. π está presente en física, en el principio de incertidumbre de Heisenberg, la teoría de la relatividad o la ley de Coulomb. En geología hace su aparición a la hora de estimar la longitud de los ríos; en bioquímica, en el estudio de la estructura de una molécula de ADN; en astronomía, en el estudio de la forma del universo y en otras muchísimas aplicaciones de nuestro día a día.
Este 2018 nos unimos de manera especial a la celebración del Día de Pi con el evento BCAM-NAUKAS, que se desarrolló el miércoles 14 de marzo en el Bizkaia Aretoa de UPV/EHU. Este evento fue una iniciativa del Basque Center for applied Mathematics (BCAM) y la Cátedra de Cultura Científica de la Universidad el País Vasco.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Matemáticas a pesar de todo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El aprendizaje continuo mejora la interacción de robots con humanos en lenguaje natural
Los sistemas de diálogo son esenciales para que los robots interactúen con las personas en lenguaje natural. Para mejorar estas interacciones con el paso del tiempo, el sistema debe de ser capaz de aprender de sus experiencias, de sus errores y del feedback con la persona usuaria. Este proceso de aprendizaje continuo es la base del proyecto europeo LIHLITH, que lideran los grupos de investigación IXA y RSAIT de la UPV/EHU y financia el programa europeo CHIST-ERA.
La inteligencia artificial es un campo que progresa rápidamente en múltiples áreas, incluyendo los diálogos con máquinas y robots. Ejemplo de ello es que en la actualidad es posible hablar a un dispositivo para solicitarle tareas tan simples como apagar la radio o preguntarle por el tiempo; pero también se ha conseguido que hagan tareas más complejas, como que la máquina llame a un restaurante para hacer una reserva o que un robot atienda a los clientes de una tienda.
El proyecto europeo LIHLITH (Learning to Interact with Humans by Lifelong Interaction with Humans) “es un proyecto orientado a avanzar en los diálogos entre personas y máquinas, cuyo objetivo es mejorar las capacidades de autoaprendizaje de la inteligencia artificial”, explica Eneko Agirre, investigador de la UPV/EHU. Concretamente, en el proyecto LIHLITH se van a tratar sistemas de diálogo que aprenden y mejoran en función de sus interacciones con los humanos. Se trata de un proyecto europeo de tres años, que fue puesto en marcha en enero del 2018, financiado por el programa europeo CHIST-ERA y dirigido por los grupos de investigación IXA y RSAIT de la Facultad de Informática de la UPV/EHU. El proyecto cuenta con la participación de la UPV/EHU, del Laboratorio de Informática para la Mecánica y la Ingeniería (LIMSI, Francia), de la UNED, de la Universidad de Ciencias Aplicadas de Zurich (ZHAW) y de Synapse Développement (Francia).
Los chatbots o los bots conversacionales son programas informáticos que siguen una conversación utilizando métodos textuales o auditivos. Los chatbots industriales actuales se basan en reglas que deben elaborarse de forma manual y minuciosa para cada dominio de aplicación. Por otra parte, los sistemas basados en el aprendizaje automático utilizan datos del dominio anotados manualmente, que permiten entrenar el sistema de diálogo. Tanto para elaborar las reglas como para los datos de entrenamiento de cada dominio de diálogo se necesita mucho tiempo, por lo que limitan la calidad y la difusión de los chatbots. Además, las empresas necesitan monitorizar el rendimiento del sistema de diálogo antes de implementarlo, así como rediseñarlo para que responda a las necesidades de la persona usuaria. “En el proyecto LIHLITH se va a explorar el paradigma del aprendizaje continuo en sistemas de diálogo entre personas y máquinas, con el objetivo de mejorar su calidad, de reducir los costes de mantenimiento y de disminuir los esfuerzos para utilizarlos en nuevos dominios”, añade Agirre, principal investigador del proyecto.
Los sistemas de dialogo estándar utilizan la comprensión de lenguaje natural para procesar la entrada del usuario, la gestión del diálogo para acceder al conocimiento del dominio y decidir qué respuesta va a dar, y la generación del lenguaje natural para emitir la respuesta del sistema. El principal objetivo de los sistemas de aprendizaje continuo es que sigan aprendiendo incluso después de ser implementados. En el caso de LIHLITH, “el sistema de diálogo se desarrollará como de costumbre, pero se incluirá un mecanismo que le permitirá continuar mejorando sus capacidades en función de su interacción con las personas usuarias —apunta Agirre—. La clave es que los diálogos estarán diseñados para recibir el feedback de las personas usuarias, y el sistema aprenderá de este feedback continuo. Esto permitirá al sistema mejorar continuamente a lo largo de su vida, adaptándose rápidamente a los cambios de dominio que ocurren después de ser implementado”.
LIHLITH estará orientado a “diálogos de preguntas y respuestas enfocados a lograr un objetivo, en los que la persona usuaria necesita una información y el sistema intentará satisfacer dicha necesidad mientras conversa con ella”, añade. Para ello, el proyecto trabajará en tres áreas de investigación: el aprendizaje continuo para el diálogo; el aprendizaje continuo para la inducción del conocimiento y la respuesta a preguntas; y la evaluación de la mejora del diálogo. “Todos los módulos serán diseñados para aprender del feedback disponible mediante técnicas de aprendizaje profundo. La clave innovadora del proyecto LIHLITH está en el módulo de aprendizaje continuo, que mejorará todos los módulos a medida que el sistema interactúa con las personas, actualizando el conocimiento del dominio”, comenta. El proyecto explorará la reconfiguración autónoma de estrategias de diálogo y las capacidades proactivas para solicitar a la persona usuaria nuevos conocimientos.
Para llevar a cabo esta investigación, LIHLITH combina el aprendizaje automático, la representación del conocimiento y la experiencia lingüística. El proyecto contará con avances obtenidos recientemente en numerosas disciplinas, incluyendo el procesamiento del lenguaje natural, el aprendizaje profundo, la inducción de conocimiento, el aprendizaje reforzado y la evaluación de diálogo, con los que se explorará su aplicabilidad en el aprendizaje permanente.
Referencia:
Eneko Agirre, Sarah Marchand, Sophie Rosset, Anselmo Peñas, Mark Cieliebak (2018) LIHLITH: Improving Communication Skills of Robots through Lifelong Learning. ERCIM News No. 114, Special theme: Human-Robot Interaction.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El aprendizaje continuo mejora la interacción de robots con humanos en lenguaje natural se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La ciencia que deberías saber antes de comprar tu protector solar (y 4)
Este artículo será, por el momento, el último de la serie. Hemos reunido toda la evidencia científica existente y actual sobre protección solar para que puedas tomar decisiones con criterio. La concienciación con respecto a la protección solar no ha dejado de aumentar. Es el momento de hacerlo bien, además de con conciencia.
A continuación os dejo con las últimas preguntas recibidas que más se han repetido sobre ciencia y protección solar: si la ropa nos protege del sol, si puedo utilizar la crema solar del año pasado o cuál es el orden correcto para utilizar protección solar además de otros cosméticos.
12. ¿Puedo protegerme del sol usando ropa adecuada, gorra, sombrilla, etc?
No todos los tejidos ofrecen la misma protección frente al sol. La radiación ultravioleta puede atravesar el tejido si éste tiene un entramado muy abierto, es fino o esta desgastado. Para medir la capacidad de un tejido para obstaculizar el paso de la radiación ultravioleta usamos el UPF (Ultraviolet Protection Factor). Así, el tejido de un pantalón vaquero oscuro clásico, ofrece el mayor UPF posible, mientras que unas medias de verano, con un denier 15 o menor, serían el tejido que menos protege del sol.
Para certificar cuánto nos protege un tejido del sol, se hacen medidas de absorción de la radiación ultravioleta para cuantificar el UPF. Un tejido con UPF 50+ equivale a una protección del 95% de la radiación UVA y un 98% de la UVB. Es lo más parecido a utilizar un cosmético con protección SPF 50+. A partir de un UPF de 40, la protección que nos ofrece un tejido es muy aceptable.
Esto se consigue gracias al tipo de tejido, cuanto más tupido, mayor UPF. Algunos fabricantes incorporan materiales cerámicos entretejidos que aumentan el UPF, similares a los filtros físicos que se utilizan en cosmética. Los tintes también influyen; para un mismo tejido, presenta mayor UPF un color oscuro que uno claro. Los tejidos de poliéster, como los que se utilizan en las prendas deportivas técnicas, pueden llegar hasta UPF de 30. Mientras que los tejidos más calados, como el algodón o el lino, presentan un UPF de 12 o menor. Así que cuidado con usar ropa para protegernos, si no está debidamente certificada, casi ninguna prenda de ropa ofrece tanta seguridad frente al sol como un cosmético.
Una camiseta clásica de algodón tiene un UPF bajo, de 12. Si además está mojada, el UPF baja a 8, comparativamente sería como llevar puesta una crema solar de tan solo SPF 15. Esto es así porque el agua que entra a formar parte del entramado del tejido puede reducir el efecto de dispersión y aumentar la permeabilidad de la radiación. Además, los lavados, el uso y el sudor las desgastan, dañando su capacidad fotoprotectora, por lo que se recomienda renovar la prenda cada año.
Como todo suma, lo mejor que podemos hacer es combinar: además de fotoevitación, usar fotoprotección. Si no podemos evitar estar expuestos al sol, lo ideal es que además de cosméticos con protección solar usemos ropa adecuada, gorras, sombreros y gafas de sol con la certificación de protección frente a la radiación ultravioleta. La American Academy of Ophthalmology (AAO) recomienda aquellas que bloqueen el 99% de la radiación UVA y B. La protección se relaciona con el color o la oscuridad de las lentes.
Otro método de fotoevitación es el uso de sombrillas o iglús. La mayoría se fabrican con poliéster tupido que ofrece un UPF de 30 o superior. No obstante, hay que tener en cuenta que la radiación ultravioleta se refleja: el césped refleja el 5% de la radiación, el agua un 10%, la arena, un 25% y la nieve un 80%.
La principal ventaja del uso de ropa para protegernos del sol es que la protección no se gasta. Los filtros de las cremas se agotan, y el producto se pierde por sudoración, roce y el baño. Esto no ocurre con la ropa. A excepción de la ropa mojada, ya que el UPF baja considerablemente.
Hay que tener en cuenta que la regulación del UPF varía de un país a otro y no en todas partes se mide de acuerdo con un mismo protocolo. Así como en cosmética el método empleado más extendido para verificar el SPF es el COLIPA, en el caso del UPF se utiliza Test Method 183 tanto en Australia como en EEUU. Por este motivo es muy importante adquirir prendas con UPF certificado de marcas y tiendas de confianza.
13. ¿Puedo usar el protector solar del año pasado?
No, no podemos usar el protector solar del año pasado. Todos los productos cosméticos cuentan o bien con una fecha de caducidad o bien con un PAO. La fecha de caducidad funciona de forma similar a los alimentos. Una vez pasada la fecha de caducidad no podemos garantizar que el producto sea seguro ni efectivo.
EL PAO es el periodo tras la apertura. Lo vemos en el envase con un pictograma que es como un bote abierto en el que dentro hay inscrito un número seguido de la letra M. Normalmente las cremas solares son 12M. Las brumas suelen tener fecha de caducidad, pero no PAO, ya que no hay mucha variación entre el producto usado y sin usar, porque no entra en contacto con el aire ni el consumidor lo puede contaminar por el uso.
El PAO se mide, es decir, no es un valor arbitrario que los laboratorios fijan para que cada año o cada seis meses renueves tu crema. Para medir el PAO se evalúa la evolución del producto, cómo le afecta el uso, el contacto con el consumidor, cómo se degradan los filtros con el tiempo, con variaciones de temperatura, etc. Y se hace una medida conservadora del tiempo máximo que pueden garantizar que el producto mantiene las propiedades originales. Hay que tener en cuenta que estos productos son muy ricos en agua y nutrientes, un caldo de cultivo ideal para que proliferen todo tipo de microorganismos. Además, los filtros químicos tienen un tiempo de vida estimado. No se mantienen intactos. Por otro lado, muchos de estos productos son emulsiones, y con el paso del tiempo y las variaciones de temperatura terminan por separarse en fases, perdiendo completamente su efectividad y convirtiéndolos en productos insalubres.
Con un tema tan sensible como la protección solar, no seas cutre y recicla tus productos al menos cada año.
14. ¿En qué orden aplico la crema hidratante, la protección solar, el maquillaje, etc?
Hay cremas de uso diario como hidratantes o productos con tratamiento para el acné, la rosácea, antiedad, etc., que cuentan con factor de protección solar. Para los días normales puede ser más que suficiente, y además están formulados para que ningún ingrediente anule a ningún principio activo. Sin embargo, en situaciones de alta exposición solar, como estar en la playa, la piscina o haciendo deporte bajo el sol, estos productos pueden resultar insuficientes. Por eso es importante utilizar protección solar con un SPF adecuado.
La protección solar no tiene por qué impedirnos utilizar otros productos conjuntamente que también son necesarios para la salud de nuestra piel. En el caso de tener que usar varios productos a la vez, el orden adecuado sería el siguiente:
– El primer producto será el que cumpla la función que más nos interese: específico para el acné, las manchas, la rosácea, las arrugas, etc. Si tiene versión sérum, mejor. Los cosméticos tipo sérum son lo que se aplicarán en primer lugar porque presentan mayor concentración de principios activos de interés y mayor capacidad de absorción.
-A continuación se aplican los productos que cumplan una función que para nosotros sea menos relevante. Por ejemplo, si tienes un problema de acné, primero utilizarás el producto para el acné, y encima la hidratante o la antiedad de día. Si tu preocupación son las manchas, primero aplicarás el despigmentante o inhibidor de melanina, y encima el resto de los productos. El contorno de ojos también se pone en este punto.
-Tras aplicar los productos de rutina, encima es donde aplicamos la protección solar.
-Si usamos maquillaje, éste se aplicará encima de la protección solar.
Si queremos reaplicar protección solar por encima del maquillaje a lo largo del día, y no podemos repetir todo el proceso, optaremos por productos tipo bruma. Como tienen formato aerosol, se rocían sobre la piel, sin necesidad de extenderlos con la mano. Matifican la piel y no arruinan el maquillaje, incluso si llevamos sombras de ojos, delineador, colorete o máscara de pestañas.
A modo de cierre
Éste ha sido el último artículo de la serie sobre protección solar. Posiblemente ha sido la serie más extensa publicada sobre toda la evidencia científica que conocemos hasta la fecha sobre protección solar. Si todavía ha quedado alguna duda por resolver, échale un ojo a los otros artículos por si ya se ha resuelto con anterioridad. Si la duda persiste, puedes hacérnosla llegar a través de los comentarios o usando la etiqueta #cienciaprotectorsolar en las redes sociales y te contestaremos. Si alguna duda de envergadura se pudiese haber quedado en el tintero, no descartamos seguir aumentando la serie en el futuro con nuevos contenidos y nuevas evidencias.
Según Academia Española de Dermatología y Venereología (AEDV), cada año se diagnostican en España 4.000 casos más de melanoma, el más grave y letal de todos los tipos de cáncer de piel. En el último año se produjeron 600 muertes asociadas a un cáncer cutáneo. No hagas el tonto y protégete. Protégete bien.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo La ciencia que deberías saber antes de comprar tu protector solar (y 4) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Los números poéticos (y 3)
Cuando esta mañana me he decidido a escribir una tercera entrega de esta serie de entradas del Cuaderno de Cultura Científica, Los números poéticos, sobre poemas con contenido o referencias matemáticas, tenía dos ideas en la cabeza. La primera era empezar esta entrada con la poeta estadounidense Emily Dickinson (1830-1886), de la que confieso que no había leído nada hasta hace poco tiempo, pero que es uno de los nombres claves de la historia de la poesía y de la literatura universal. La segunda era terminar con uno de los grandes poetas vascos, Gabriel Celaya (1911-1991), del cual sí había leído bastantes poemas, algunos de ellos relacionados con las matemáticas.
Si buscamos en cualquiera de las biografías publicadas sobre la escritora estadounidense Emily Dickinson, que son muchas, alguna relación de ella con las matemáticas, lo primero que llama la atención es que estudió durante 7 años, entre 1840 y 1847, en la Academia Amherst, de Massachusetts. La amplia educación que recibió en dicha institución incluía, en particular, una buena formación en matemáticas. Entre los textos que se utilizaban en las clases se mencionan la edición de John Playfair (1748-1819) de Los Elementos de Euclides, La introducción al álgebra de Jeremiah Day y “la Aritmética de Adam”, pero también textos de astronomía y lógica.
Por otra parte, su cuñada fue la escritora y poeta Susan H. Gilbert Dickinson (1830-1913), buena amiga desde la adolescencia y con quien mantuvo una importante relación epistolar. Susan Gilbert fue “matemática y profesora de matemáticas en Baltimore en 1851-52”. Y se encuentran referencias a las matemáticas en algunas de sus cartas, como en una de Emily a Susan de 1851 que dice “Te imagino muchas veces bajando al aula con un rollizo Teorema Binomial luchando en tus manos”.
Quizás las matemáticas no fueran la materia que más interesaba a la escritora, o incluso no se le dieran muy bien, pero lo cierto es que sí parece que a lo largo de su vida las matemáticas sí provocaron cierto interés y fascinación en ella, que motivaron la utilización de algunos términos e ideas matemáticas en sus poemas.
Empecemos con una sencilla aritmética de la mano de Dickinson, la negación de la más simple evidencia matemática, que uno más uno es dos. El poema clasificado con el número 769 según la clasificación de Thomas H. Johnson, en su obra The Complete Poems of Emily Dickinson (1960), y que aparece, por ejemplo, publicado en castellano en el libro Emily Dickinson. Poemas a la muerte (Selección, traducción y prólogo de Rubén Martín. Bartleby, Madrid, 2010), dice así:
Uno más Uno — es Uno —
El Dos — es una fórmula gastada —
Buena para enseñarla en las Escuelas —
pero Inferior como Elección —
La propia – Vida — o la Muerte —
o más aún la Eternidad —
serían — demasiado vastas
para que las comprenda nuestro Espíritu —
Otro de los conceptos matemáticos que utiliza en su poesía es el álgebra. Por ejemplo, en el poema 600 (de 1862), que podemos leer en el libro Emily Dickinson. Poemas (Selección y traducción de Silvina Ocampo y prólogo de J.L. Borges. Tusquets editores, Barcelona, 1985), y que dice así…
Antes me perturbaba —
pues yo fui una vez una niña —
conjeturar cómo un átomo — caía —
y sin embargo los cielos — no —
los cielos pesaban mucho más —
azules — y sólidos — permanecían —
sin un perno — que yo pudiera comprobar —
¿podrían los gigantes — comprender?
La vida presentó más grandes — problemas —
algunos guardaré — para resolver
hasta que el álgebra sea más fácil —
o más simplemente probado — arriba —
y luego también — ser comprendida —
qué dolor — me confundía —
por qué el cielo no se rompía —
y caía — azul — sobre mí —
El término “álgebra” también aparece en el poema 269 (que se recoge también en el libro Emily Dickinson. Poemas), escrito en 1861, y que incluye los versos “Tantas — gotas — de vital escarlata — / lidian con el alma/ lo mismo con el álgebra!”. Otro término matemático que aparece en algunos poemas es “logaritmo”, como en el poema 433 (también en el poemario anterior), que dice así “aunque yo fui a la escuela/ no me volví muy sabia/ nada me enseñó el globo/ tampoco el logaritmo”. O en el poema 728 que podría traducirse como algo así “Saciando mi hambre/ con mi diccionario/ el logaritmo –lo tenía yo- para la sed/ como un vino muy seco”.
En tres poemas menciona a las matemáticas. En el poema 1668, que podemos encontrar traducido en el libro Emily Dickinson. Poemas (Edición bilingüe de Margarita Ardanaz, Cátedra, 1987), se incluyen los versos “sé que es un signo/ de que el nuevo dilema esté/ más alejado de las matemáticas/ que de la eternidad”. En otro poema, el 88, se habla de “matemáticas quebradas”. En opinión de Thomas Johnson la poeta puede referirse a las matemáticas como “un sistema ‘quebrado’ en su incapacidad para demostrar sus [de Emily Dickinson] especulaciones”. La profesora de literatura de la Universidad de Harvard, Seo-Young Chu, en su artículo Dickinson and Mathematics, relaciona la expresión “matemáticas quebradas” con las fracciones.
Otros términos matemáticos aparecen en los poemas de Dickinson, “infinito”, “cifra”, “decimales”, … o “geometría”, como en el poema 359, que está recogido en el libro Emily Dickinson. Crónica de Plata (Selección y traducción de Manuel Villar Raso, Hiperión, 2001), que dice así…
La mejor brujería es Geometría
Para la muerte del mago —
Sus actos corrientes son proezas
Para el pensar humano.
Pero el concepto matemático que más menciona Emily Dickinson en su poesía es la “circunferencia”. En una carta al escritor y pastor de la Iglesia Unitaria Thomas Wentworth Higginson (1823-1911) le llega a escribir que “mi asunto [business] es la circunferencia”. Finalicemos con uno de esos “poemas de circunferencias”, el poema 802, que aparece en la selección de Margarita Ardanaz para Cátedra.
Da sensación de ser vasto el Tiempo, que si no fuera
Por una eternidad —
Temo que esta Circunferencia
Mi Finitud absorba —
De Su exclusión, quien se prepare
Por los Procesos del Tamaño
Para la Gran Visión
De Sus Diámetros —
En este poema, Emily Dickinson establece un cierto paralelismo entre la relación que existe entre la temporalidad “finitud” y la eternidad, y la relación de la circunferencia con “sus diámetros”. Esta relación, el cociente entre la circunferencia y el diámetro de la misma, es el importante número π, independientemente del tamaño de la circunferencia, “por los Procesos del Tamaño”.
Estos poemas relacionados con la circunferencia me han recordado dos poemas de la poeta extremeña Ada Salas (Cáceres, 1965), relacionados con el círculo y la esfera. El primero de ellos pertenece a su libro Lugar de la derrota (Hiperión, 2003), y describe la perfección del círculo, de su simétrica construcción.
Exactitud del círculo.
Perfecta equidistancia
en torno a un centro.
Aguja del compás que se desliza
y traza
la forma inexorable de la espera.
Por otra parte, en su libro Arte y memoria del inocente (Universidad de Extremadura, 1988), que obtuvo el Premio Juan Manuel Rozas, aparece este bello poema: “Vivir/ para limar los ángulos/ a las esferas”.
Y seguimos un poco más con poemas geométricos. El siguiente poema es de otra de las grandes poetas en lengua española, la poeta modernista argentina Alfonsina Storni (1892-1938). Es el poema Cuadrados y ángulos, perteneciente a su libro El dulce daño (1918), pero que yo he leído en el libro Alfonsina Storni. Antología mayor (Hiperion, 2005).
Casas enfiladas, casas enfiladas,
casas enfiladas.
Cuadrados, cuadrados, cuadrados.
Casas enfiladas.
Las gentes ya tienen el alma cuadrada,
ideas en fila
y ángulo en la espalda.
Yo misma he vertido ayer una lágrima,
Dios mío, cuadrada.
De una poeta modernista argentina pasamos a una poeta modernista estadounidense, Marianne Moore (1887-1972), que entre otras distinciones recibió el Premio Pulitzer de Poesía en 1952. El siguiente poema La icosaesfera está recogido en el libro Marianne Moore. Poesía completa (Lumen, 2010).
“En los setos vivos de Buckinghamshire
los pájaros anidan en la verde espesura sumergida,
tejen trocitos de cuerda, polilla, plumas y vilanos,
en parabólicas curvas concéntricas” y,
buscando la concavidad, dejan proezas esféricas de rara eficacia;]
mientras que, por falta de integración,
ávidos de la fortuna ajena,
tres fueron asesinados y diez cometieron perjurio,
seis murieron, dos se suicidaron y dos pagaron multas por los riesgos que corrieron.]
Pero entonces aparece la icosaesfera
donde por fin se consigue cortar acero con mínimo desperdicio,]
ya que veinte triángulos unidos envuelven una
pelota o una doble concha esférica
sin apenas recortes, tal es la limpieza geométrica
de un icosaedro. ¿Quieren explicarnos los ingenieros que la construyeron,]
o Mr. J. O. Jackson
cómo pudieron los egipcios levantar verticalmente setenta y ocho pies cúbicos de granito?]
Nos gustaría saber cómo lo hicieron.
Una poeta que también cuenta con algunos poemas relacionados, de alguna forma, con las matemáticas, es la poeta y filósofa española Chantal Maillard (Bruselas, 1951), quien, entre otros galardones, ha recibido el Premio Nacional de Poesía, en 2004, por la obra Matar a Platón. Con la intención de cambiar de tema, de volver a los números poéticos que han dado lugar a esta pequeña serie de entradas del cuaderno de Cultura Científica, he elegido un poema de Chantal Maillard, perteneciente al libro La herida en la lengua (Tusquets, 2015), que nos habla de la desconexión entre el número matemático, el número en abstracto, y su significado al contabilizar objetos, como puedan ser las victimas de una guerra o las casas destruidas en la misma.
Diez millones.
Un número.
Un número tan sólo
para diez
millones
de casas incendiadas
de cuerpos mutilados
de gritos
silenciados
uno
a
uno
en boca que arde y
no entiende.
1
0
0
0
0
0
0
0
siete
veces
el signo de la nada sobre
diez
millones
de historias
que nunca contará
la lengua de los otros.
Dos palabras.
Cuatro sílabas.
Un globo que soltamos
Al final de la fiesta.
La piñata que espera
el golpe de una mano
nunca
inocente.
Antes de terminar esta entrada con algunos poemas del poeta guipuzcoano Gabriel Celaya, me ha parecido interesante incluir el poema Aritmética (traducción libre que yo mismo he realizado), del escritor y poeta estadounidense Carl Sandburg (1878-1967), quien ganó tres premios Pulitzer, uno por su biografía de Abraham Lincoln y dos por su obra poética.
La aritmética es donde los números vuelan como palomas dentro y fuera de tu cabeza.
La aritmética te dice cuánto pierdes o ganas si sabes cuánto tenías antes de perder o ganar.
La aritmética es nueve cinco llueve con ahínco – o siete ocho chocolate en el bizcocho.
La aritmética es exprimir números de tu cabeza a tu mano, a tu lápiz, a tu papel hasta encontrar la respuesta.
La aritmética es donde la respuesta es correcta y todo es agradable y puedes mirar por la ventana y ver el cielo azul – o la respuesta es incorrecta y tienes que empezar todo de nuevo y volver a intentarlo y ver cómo sale bien esta vez.
Si tomas un número y lo duplicas y lo duplicas de nuevo y entonces lo duplicas unas pocas veces más, el número se hace cada vez más grande y es cada vez más elevado y sólo la aritmética puede decirte qué número se obtiene cuando decides parar de duplicar.
La aritmética es donde tienes que multiplicar – y llevas la tabla de multiplicar en la cabeza y esperemos que no la pierdas.
Si tienes dos galletas de animales, una buena y una mala, y te comes una y una cebra toda llena de rayas se come la otra, ¿cuántas galletas de animales tendrás si alguien te ofrece cinco seis siete y tú dices No no no y tú dices nes nes nes y tú dices neis neis neis?
Si le pides a tu madre un huevo frito para el desayuno y ella te da dos huevos fritos y tú te comes ambos, ¿quién es mejor en aritmética, tú o tu madre?
Como ya habíamos anunciado, vamos a terminar con Gabriel Celaya, uno de los representantes de la conocida como poesía social, fundador de la colección de poesía Norte, junto a la poeta Amparo Gastón (su Amparitxu), y Premio Nacional de Poesía en 1986. Si se realiza un repaso sobre el conjunto de su obra, por ejemplo, a través de los tres tomos de Gabriel Celaya. Poesías Completas (Visor, 2001), se observa un profundo interés por los temas científicos, no en vano Gabriel Celaya estudió Ingeniería Industrial. Por ejemplo, la física de partículas es el tema central del poemario Lírica de cámara (1969) o utiliza las funciones matemáticas como metáfora en su libro Función de Uno, Equis, Ene (1973), donde “Uno” es el individuo, “Ene” es el colectivo y “Equis”el universo que se rige por leyes no humanas. En estos libros Gabriel Celaya transmite su idea de que el mundo, el universo, funciona con leyes que nada tienen que ver con la subjetividad humana, con el individualismo, son leyes universales, más allá del “hombre”.
Además, en su libro Exploración de la poesía (Seix Barral, 1964) el poeta de Hernani compara la poesía con las matemáticas, “el poeta se parece al matemático, que ha creado una notación peculiar y ha derivado de ésta un idioma propio” y también, “el poeta da palabras combinadas, como el matemático, ecuaciones, que ni uno ni otro pueden explicar o decir mejor que con esas mismas palabras o ecuaciones”.
La poesía de este poeta comprometido está plagada de referencias matemáticas. Los números y operaciones aritméticas son frecuentes, como en uno de sus poemas de la época inicial en la que firmaba como Rafael Múgica, que dice así “Debajo del pino verde me niego a multiplicar. Y a sumar”, en el poema Apus o el ave del paraíso, de Objetos poéticos (1948), escribe “Verá que dos y dos/ en vez de sumarse,/ se abrazan (se matan)/ o cambian sus nombres”, en el poema La Rosa, de Movimientos elementales (1947), escribe de “un torrente loco de cifras arbitrarias: mil millones, cien ceros”, en Telegrama urgente, de Avisos de Juan de Leceta (1961), nombre con el que también firmó algunos de sus poemas, puede leerse “Las máquinas tiritan/ dando diente con diente, seca cifra con cifra./ Nueve, diez, mil millones/ de ceros con ombligo y con sombrero”, en El amor multiplicado, de Lo que faltaba (1967), la suma y la multiplicación están presentes en todo el poema, que empieza con la estrofa “Yo pregunté: «¿Dos y dos? »/ Me explicaron: «No son cuatro./ Es decir, en cierto modo,/ porque bien considerado…»”, que sigue con “Insistí: «¿Dos y dos, cuatro?»/ Respondieron «¿Dice seis?»/ –«Yo decía lo que digo»./ –«Podemos seguir sumando».”, y sigue con tres estrofas más hasta la última “–«Digo dos»./ –«Yo digo Dios»./ Dos por Dios, ¡qué confusión!/ Este amor, de aguante usted,/ es la multiplicación.”, en su poema Biografía, de La higa de Arbigorriya (1975), que está escrito en forma de normas que nos imponen a lo largo de la vida, en la estrofa de su etapa escolar escribe “Extraiga la raíz cuadrada de tres mil trescientos trece” o en el poema Total, cero, de Buenos días, Buenas noches (1978), menciona el número pi, “Y pensar/ que uno va, y luego se enfada/ con su chica por diez, doce,/ tres coma catorce dieciséis minutos de retraso/ a la hora de la cita”, por citar algunos ejemplos.
Aunque quizás el poema más conocido en este sentido sea el que vamos a mostrar a continuación, titulado Tablas de Multiplicar, perteneciente al poemario Ciento volando (1953), en el cual también se incluye el poema La máquina de calcular.
UNO por otro es el hombre
cualquiera como Dios manda
y ese salvar las distancias
que –mala cuenta– se cantan.
Dos por uno es la evidencia
que en un dos por tres tendrás.
Dos por cuatro, buen compás.
Dos por cinco, la sorpresa
del diez redondo y total.
¡Qué divino es, por humano,
el sistema decimal!
Cero por cero es la luz.
Cero por uno, el problema
(pues con el yo creo el tú).
Cero por dos, el amor.
También cero, mas en ¡oh!
(¡Oh!, que es un eco de yo).
Cero por tres… ¡Atención!
Debe haber algún error,
pues cuanto más multiplico
más repito: yo, yo, yo.
En varios poemas se alude a la “matemática Urania”. Recordemos que Urania era la musa de la astronomía, y también se la suele considerar la musa de las matemáticas.
También nos encontramos con algunos conceptos geométricos en los poemas de Gabriel Celaya, y como ejemplo su poema Así se escribe la ciencia (Homenaje a Kepler), de su poemario Espejos Transparentes (1968).
KEPLER miró llorando los cinco poliedros
encajados uno en otro, sistemáticos, perfectos,
en orden musical hasta la gran esfera.
Amó al dodecaedro, lloró al icosaedro
por sus inconsecuencias y sus complicaciones
adorables y raras, pero, ¡ay!, tan necesarias,
pues no cabe idear más sólidos perfectos
que los cinco sabidos, cuando hay tres dimensiones.
Pensó, mirando el cielo matemático, lejos,
que quizá le faltara una lágrima al miedo.
La lloró cristalina: depositó el silencio,
y aquel metapoliedro, geometría del sueño,
no pensable y a un tiempo normalmente correcto,
restableció sin ruido la paz del gran sistema.
No cabía, es sabido, según lo que decían,
más orden que el dictado. Mas él soñó: pensaba.
Eran más que razones: las razones ardían.
Estaba equivocado, mas los astros giraban.
Su sistema era sólo, según lo presentido,
el orden no pensado de un mundo enloquecido,
y él buscaba el defecto del bello teorema.
Lo claro coincidía de hecho con el espanto
y en la nada, la nada le besaba a lo exacto.
Y para terminar desearos… ¡¡Mucha matemática y poesía!!
Bibliografía
1.- Raúl Ibáñez, Los números poéticos, Cuaderno de Cultura Científica, 2018.
2.- Raúl Ibáñez, Los números poéticos (2), Cuaderno de Cultura Científica, 2018.
3.- Cynthia Griffin Wolff, Emily Dickinson, Knopf, 1986.
4.- Seo-Young Jennie Chu, Dickinson and Mathematics, The Emily Dickinson Journal, Volume 15, Number 1, p. 35-55, 2006.
5.- Lista de poemas (en inglés) de Emily Dickinson en Wikipedia
6.- Blog de poemas de Emily Dickinson
7.- Página web de Chantal Maillard
8.- Página web sobre Gabriel Celaya, de la Diputación Foral de Gipuzkoa
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los números poéticos (y 3) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: