El letargo del ratón
Casi todo el mundo sabe que los osos, en otoño, entran en letargo y permanecen así hasta el final del invierno. Llamamos hibernación a ese estado aunque, en realidad, no es tal, sino una condición de reducción térmica y metabólica que se le asemeja. Hibernan los mamíferos de menor tamaño, como marmotas, ardillas o murciélagos. La hibernación es un estado que permite ahorrar en una estación en la que la temperatura ambiental es muy baja, de manera que, para mantener la corporal en niveles fisiológicos normales, haría falta gastar mucha energía. Además, el alimento escasea, por lo que quizás ni siquiera sería posible conseguir esa energía.
Lo que seguramente es menos conocido es que hay otras formas de letargo. El ratón Mus musculus es ese pequeño roedor que convive con nosotros desde hace milenios. Es un animal muy activo. Por eso, y también por su pequeño tamaño, su tasa metabólica es muy alta y, en consecuencia, sus necesidades energéticas, muy grandes.
Esas necesidades son, muy probablemente, la razón por la que en numerosas ocasiones el ratón entra en letargo. Pero curiosamente, que entre o no en ese estado, depende de las circunstancias. Por ejemplo, lo hace si se queda sin alimento o si la temperatura ambiental es muy baja. En cualquiera de esos dos casos, -ayuno o frío-, el ratón corre el riesgo de incurrir en un balance energético negativo. Si está en ayunas, el ratón no adquiere energía y el letargo es un modo excelente de ahorrarla. Y si la temperatura ambiental baja en exceso, ha de gastar demasiada energía para producir el calor necesario que compensase las pérdidas.
Así pues, la mejor vía para mantener el balance energético en esas condiciones, consiste en reducir la temperatura corporal. Esa reducción reporta dos beneficios. Por un lado, disminuye la diferencia térmica con el exterior, de manera que la pérdida de calor se atenúa mucho, porque la transferencia hacia el entorno es directamente proporcional a la diferencia térmica entre el organismo y el entorno. Y por el otro, esa reducción de la temperatura corporal conlleva, por razones puramente cinéticas, un descenso de la tasa metabólica, y gracias a ese descenso el balance energético no se deteriora demasiado.
Y hay una tercera circunstancia bajo la que puede ocurrir que el ratón entre en letargo. Si para conseguir el alimento debe realizar un gasto energético excesivo, también adoptará ese estado. La intensidad de la hipotermia (magnitud del descenso de su temperatura corporal) y la duración del tiempo durante el que los ratones permanecen en letargo dependen también de eso. Si el esfuerzo que han debido hacer para obtener el alimento es muy alto, la reducción térmica corporal será más intensa y el letargo se prolongará durante más tiempo que si ese esfuerzo ha sido menor. Todo depende de la magnitud del balance energético.
Es una característica curiosa, pero tiene sentido. Es curiosa, porque incluso los ratones alimentados ad libitum pueden entrar en letargo si para conseguir esa muy abundante comida se tienen que esforzar demasiado. Y tiene sentido porque en términos de balance energético, incluso bajo condiciones de alimentación abundante pueden comprometer su ganancia de energía.
El comportamiento metabólico de Mus musculus muestra gran flexibilidad. Pone de manifiesto que el letargo es una buena herramienta para mantener el balance energético. Y si bien hace años se consideraba como algo excepcional y muy restringido en el mundo animal, cada vez son más las especies de las que sabemos que lo adoptan de manera habitual.
Volviendo a nuestros ratones, un equipo de la Facultad de Medicina de la Universidad de Harvard (EEUU), ha dado a conocer los resultados de una investigación en la que han identificado un conjunto de neuronas implicadas en la entrada y salida del letargo. Son neuronas que muestran una actividad elevada cuando se produce la reducción de actividad muscular, metabólica y térmica. Son neuronas hipotalámicas, en concreto del área preóptica medial y lateral. Estimulando esas neuronas, los investigadores han conseguido inducir el estado de letargo, incluso en condiciones fisiológicas que no hubiesen propiciado esa transición. El hipotálamo es la estructura nerviosa que, entre otras funciones, controla la temperatura corporal en homeotermos, por lo que es lógico que el control de la entrada y salida en letargo se encuentre radicado en ella. Además, es responsable, mediante sus conexiones con la hipófisis, de la coordinación de gran parte del sistema endocrino, por lo que ejerce un control amplio sobre las funciones vegetativas, en general, y el metabolismo en particular.
Fuentes:
Hrvatin, S, Sun, S, Wilcox, O F et al. (2020): Neurons that regulate mouse torpor. Nature 583, 115–121.
Schubert, K A, Boerema, A S, et al. (2009): Daily torpor in mice: high foraging costs trigger energy-saving hypothermia. Biology Letters 6: 132–135.
Nota:
Esta anotación está basada en El ratón y su letargo cotidiano, publicada en Zoo Logik.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El letargo del ratón se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Soluciones sencillas a problemas complejos: criptografía y secuencias binarias
Estaba estos días buscando información sobre criptografía, cuando fui a parar a un libro que podemos considerar ya todo un clásico de divulgación de las matemáticas, publicado un poco antes del año 2.000 –que recordemos que fue el Año Mundial de las Matemáticas– y que lleva muchos años en mi biblioteca, Las matemáticas en la vida cotidiana, de la editorial Addison-Wesley, junto con la Universidad Autónoma de Madrid (en su edición en castellano). Allí encontré un ejemplo bonito de cómo en ocasiones los problemas difíciles, como puede ser la seguridad en las comunicaciones, pueden tener soluciones sencillas. La entrada de hoy quiero dedicarla a mostrar este curioso ejemplo.
Portada del libro Las matemáticas en la vida cotidiana, Addison-Wesley/Universidad Autónoma de Madrid, 1999En la actual era de la información vivimos rodeados de tecnología digital, desde los ordenadores, las tabletas o los Smartphones, hasta toda la comunicación a través de internet, pasando por la imagen y sonido digitales, la televisión digital o las casas inteligentes. Una de las características de la tecnología digital es que toda la información está en formato “digital”, es decir, codificada en forma de números. Y estos números están representados en la base binaria (véase Una de mates: números binarios), es decir, como secuencias de unos (1) y ceros (0).
A continuación, vamos a explicar un ejemplo en el que las secuencias binarias y la suma digito a dígito de secuencias binarias han permitido a plataformas de televisión por cable, como HBO, Showtime o Canal Disney –por citar las que se mencionan en el libro Las matemáticas en la vida cotidiana–, evitar el acceso a su contenido audiovisual a quienes no han estado abonados a las mismas.
En 1984, cuando el canal de televisión HBO empezó a codificar su señal, los usuarios accedían a la misma –en forma de ondas electromagnéticas– a través de una antena parabólica, aunque hoy en día toda la información nos llega a través de la fibra óptica u otros medios.
Logo de la plataforma HBOTres elementos eran necesarios para evitar el acceso pirata a la señal de televisión por cable. Por una parte, una contraseña mensual del canal de televisión –que se enviaba junto con la señal–, una clave para cada usuario y una operación, que explicaremos a continuación, para asegurar que ese usuario era realmente un abonado de la plataforma.
Tanto la contraseña mensual del canal de televisión, como la clave de usuario eran secuencias binarias, en aquellos años de longitud 56, aunque en esta entrada, para simplificar la explicación, utilizaremos solo secuencias de 8 dígitos, es decir, de longitud 8. Por ejemplo, 10101110 es una secuencia binaria de longitud 8.
Ya sabemos que la información –contraseña mensual y clave de usuario– va a estar dada en forma de secuencias binarias, en esta explicación consideradas de longitud 8, por lo que estamos en condiciones de explicar la operación de suma que se utilizaba para asegurar que el usuario era realmente un abonado de la plataforma. Esta suma no es una suma normal de números binarios, sino que es una suma dígito a dígito. Dadas dos secuencias binarias de la misma longitud, se suman los dígitos de las mismas posiciones, teniendo en cuenta que 0 + 0 = 0, 1 + 0 = 0 + 1 = 1 y 1 + 1 = 0, para obtener una nueva secuencia binaria de la misma cantidad de dígitos. Veamos algunos ejemplos:
Ejemplos de sumas, dígito a dígito, de secuencias binarias de longitud 8
Una propiedad importante de esta suma dígito a dígito es que la suma de dos secuencias binarias es 00000000 si, y sólo si, las dos secuencias binarias son la misma. Por ejemplo, esto es lo que ocurre en la última suma de los ejemplos que hemos mostrado, 10001110 + 10001110 = 00000000.
Veamos en qué consistía la solución al problema de que se piratease la señal de televisión de HBO, y otros canales de televisión por cable. Como ya hemos comentado, cada mes el canal de televisión cambiaba la contraseña p. Consideremos, por ejemplo, que un mes la contraseña era p = 11001011.
Por otra parte, cada uno de los abonados del canal disponía de su propia clave. Como cada abonado disponía de una clave distinta, existían tantas claves como abonados, c1, c2, …, ck (donde k = número de abonados de ese mes). Imaginemos que mi clave de usuario de HBO fuese c = 01110101.
Ese mes el canal de televisión transmitía, con la señal de televisión, la contraseña mensual p y las secuencias binarias p + c1, p + c2, …, p + ck. En cada una de las “cajas de descodificación” de los abonados, cada una de las cuales disponía de la correspondiente clave de ese usuario ci, se calculaban las sumas
ci +(p + c1), ci +(p + c2), …, ci +(p + ck).
El microprocesador de la caja de descodificación, después de realizar estas sumas, las comparaba con la contraseña p y si alguna de ellas coincidía con ella se trataba de un abonado y se descodificaba la señal. Observemos que se va a producir esa coincidencia cuando se suma ci con (p + ci), ya que, por la propiedad anterior, ci + ci = 00000000, de donde, ci +(p + ci) = p.
En nuestro ejemplo, la contraseña mensual es p = 11001011 y mi clave de abonado c = 01110101, entre las secuencias binarias que transmite el canal estará p + c = 10111110, que al sumarse en mi descodificador con mi clave c + (p + c) = 11001011, que efectivamente coincide con p, puesto que soy un abonado real del canal de televisión por cable.
Por último, tengamos en cuenta que las secuencias binarias reales son de longitud, al menos, 56, luego la cantidad de posibles claves que existen son 256, más de 72 mil millones, en concreto: 72.057.594.037.927.936. Por lo tanto, piratear una clave no es algo tan sencillo como intentar ir probando diferentes secuencias binarias de 56 dígitos.
La ceramista estadounidense Laura C. Hewitt crea cerámicas con números binarios, con tipografías de máquinas de escribir, como este hermoso plato. La imagen pertenece a su tienda de EtsyEn el libro Contemporary abstract algebra se explica que esta misma sencilla idea puede ser utilizada para proteger las transacciones a través de internet.
Supongamos que alguien quiere comprar mi libro Los secretos de la multiplicación, de los babilonios a los ordenadores (Los libros de la Catarata, 2019) en alguna de las librerías o tiendas online que existen. Para ello, cuando estamos realizando la compra, nos piden nuestra tarjeta de crédito. Pero, por supuesto, no queremos que ningún hacker pueda interceptar nuestro número de la tarjeta de crédito durante la transacción. Para ello el número de la tarjeta de crédito, escrito como una secuencia binaria, tendrá que ser enviado a la tienda online de una forma segura.
Cuando estamos rellenando la orden de compra en la tienda on-line, esta envía a nuestro ordenador, tableta o Smartphone una clave c en forma se secuencia binaria de unos y ceros con tantos dígitos como los que tiene la secuencia binaria p del número de la tarjeta de crédito. Entonces, cuando añadimos nuestra tarjeta de crédito a la orden de compra, las dos secuencias binarias – de la clave enviada por la tienda y de la tarjeta que introducimos– se suman c + p, mediante la suma dígito a dígito de secuencias binarias. El resultado de esa suma es lo que se envía, a través de internet, a la tienda de comercio en línea, de forma que cualquier hacker no accede al número de la tarjeta p, sino a la suma c + p, con lo que no consigue robar nuestra información. Una vez que esa información llega a la tienda de internet, para conocer cuál es el número de nuestra tarjeta de crédito no tienen nada más que sumar de nuevo la clave c, ya que c + (c + p) = p.
¡Están lloviendo números binarios!, ilustración realizada por KHJ y vendida en camisetas, sudaderas, tazas y pegatinas en su página de TeepublicVeamos un ejemplo concreto, pero para no complicarlo utilizaremos otra vez secuencias binarias de longitud 8. Supongamos que el número de nuestra tarjeta de crédito codificada como una secuencia binaria es p = 10011011, que la clave que nos manda la tienda online es c = 01111101, entonces nuestro ordenador envía a la tienda de internet la información c + p = 01111101 + 10011011 = 11100110. Si algún hacker accede a esa información no puede conocer cuál es la secuencia binaria de nuestra tarjeta de crédito, pero al llegar la información de nuevo a la tienda, se suma la clave c + (c + p) = 01111101 + 11100110 = 10011011, obteniendo así nuestra tarjeta de crédito p = 10011011, para efectuar la compra.
Para terminar, me gustaría agradecer a Paco Roca y a la editorial Astiberri que nos permitieran leer durante el periodo del confinamiento por el coronavirus (marzo-abril 2020), de forma gratuita, el magnífico libro de Paco Roca, publicado en Astiberri, Memorias de un hombre en pijama (2011).
En este libro tenemos además dos momentos matemáticos. El primero cuando el hombre en pijama, el Paco Roca de la ficción, está pensando en qué profesiones le habría gustado tener si no hubiese dedicado su vida a “dibujar y contar historias”. En la segunda viñeta leemos que piensa “Recuerdo que quería ser un gran científico. Un matemático famoso que resolvería la conjetura de Poincaré”, como podemos ver en la siguiente imagen.
Mientras que el segundo es el final del mismo. El Paco Roca de ficción, el hombre en pijama, decide dejar de enviar más entregas de Memorias de un hombre en pijama al periódico en el que salían estas (esta historieta fue publicada por primera vez, por entregas, en el periódico Las provincias, en 2010). La idea para la última entrega se le ocurrió en una fiesta en la que bebió mucho, por lo que la apuntó en su móvil, ya que no tenía a mano su libreta, para no olvidarse. Pero cuando va a mirar cuál es esa idea que había apuntado…
Bibliografía
1.- VV. AA. (director del proyecto Solomon Garfunkel), Las matemáticas en la vida cotidiana, Addison-Wesley/Universidad Autónoma de Madrid, 1999.
2.- Joseph A. Gallian, Contemporary abstract algebra, Brooks/Cole, 2012 (octava edición).
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Soluciones sencillas a problemas complejos: criptografía y secuencias binarias se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La masa de las partículas radiactivas
Foto: Chris Beck / Pexels
Los experimentos con campos magnéticos también permiten determinar la masa de las partículas radiactivas.
La desviación de una partícula cargada cuando atraviesa campos eléctricos y magnéticos depende tanto de su carga como de su masa. Por lo tanto, la relación de carga (q) a masa (mq) para partículas beta se puede calcular a partir de las desviaciones medidas en campos magnéticos de intensidad conocida. Becquerel, investigando partículas beta en 1900, utilizó un procedimiento que era esencialmente el mismo que el utilizado por J.J. Thomson en 1897 para obtener un valor fiable para la relación de carga a masa para las partículas en los rayos catódicos.
Para esas fechas el hecho de que se hubiera encontrado un valor único constante de e / meyahabía establecido cuantitativamente la existencia del electrón [1]. Haciendo que rayos beta atravesasen campos eléctricos y magnéticos, Becquerel pudo calcular la velocidad de las partículas. Obtuvo un valor de q / mq para partículas beta que estaba muy cerca del encontrado por Thomson para el electrón. Esto permitió deducir que las partículas de los rayos beta son electrones. [2]
La naturaleza de la radiación alfa fue más difícil de establecer. Era necesario utilizar un campo magnético muy fuerte para producir desviaciones medibles de los rayos alfa. El valor de q / mq encontrado para las partículas alfa (4.8 · 107 C / kg) era aproximadamente 4000 veces menor que q / mq para las partículas beta. La razón del pequeño valor q / mq podría ser tanto un valor pequeño de q como un valor grande de m. Otros indicios disponibles en ese momento apuntaban a que la magnitud de la carga q de una partícula alfa probablemente no era menor que la de una partícula beta. Por lo tanto, se concluyó que la masa mq tendría que ser mucho mayor para la partícula alfa que para la partícula beta.
El valor de q / mq encontrado para las partículas alfa es solo la mitad que el q / mq conocido para un ion molecular de hidrógeno. Por tanto, el valor podría explicarse razonablemente si la partícula alfa fuera como una molécula de hidrógeno menos un electrón (H2+), o si fuera un átomo de helio (cuya masa se sabía que era aproximadamente cuatro veces mayor que la de un átomo de hidrógeno) sin sus dos electrones (He2+). So podían incluso contemplar otras posibilidades. Sin embargo, la identificación correcta resultó ser la de los núcleos de helio y tiene una masa de aproximadamente cuatro unidades de masa atómica. La prueba final merece su propio artículo.
Notas:
[1] Aquí e es la carga del electrón, y me su masa.
[2] De aquí no se deduce que existan electrones en el núcleo atómico. Los electrones que forma la radiación beta se crean durante la emisión.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La masa de las partículas radiactivas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:No vas a hacer nada contra la emergencia climática si no ves la casa en llamas
Lucas Sánchez
Con la pandemia de COVID-19 estamos sufriendo las consecuencias de una falta de reacción global y es muy probable que también las suframos por el cambio climático. Ambas crisis nos ponen ante un espejo en el que no quedamos reflejados como seres tan racionales: entender es secundario, la experiencia es clave.
“Quiero que actúen como si la casa estuviera en llamas”, dijo Greta Thunberg recurriendo a la metáfora porque no somos capaces de percibir la emergencia climática. / Wearbeard, SINCSucede en la primera escena del cuarto capítulo de la serie Chernobyl. En ella, una anciana ordeña una vaca en su cabaña, cerca de la central, días después del inicio del desastre nuclear. Un soldado, a las puertas de su establo, le pide que le acompañe. La mujer se niega y le responde con un discurso sobre las decenas de años que ha sobrevivido en una zona donde ha sufrido guerras y perdido familiares, que termina con: “¿Después de todo lo que he visto, me estás diciendo que me vaya por algo que no puedo ver en absoluto?”.
La pregunta hoy duele porque estamos viendo lo que ocurre por no actuar ante cosas que no podemos ver, pero de las que se nos ha avisado. Con la pandemia por el nuevo coronavirus estamos sufriendo las consecuencias de nuestra falta de reacción y es muy probable que las suframos más adelante por culpa de la crisis climática.
La escena de Chernobyl me hizo recordar un discurso que Greta Thunberg dio delante del Consejo Social, en Bruselas, el 16 de abril de 2019. Greta arrancó con “Quiero que entren en pánico porque la casa está en llamas”. Su objetivo lo verbalizó algo mejor segundos más tarde: “Quiero que actúen como si la casa estuviera en llamas”. Y si tuvo que recurrir a la metáfora es porque muy poca gente lo ve y menos gente todavía actúa. Estamos tranquilos con la emergencia climática y también lo estábamos como testigos en la distancia de la epidemia. ¿Qué falla en nosotros?
En el 50 aniversario del primer Día de la Tierra, tenemos claro que nuestro mundo se está calentando. Lo sabemos porque podemos verlo en gráficas consensuadas por toda la comunidad científica. Eso, lamentablemente, no significa que vayamos a hacer algo.
El problema es que ver esos datos no es ver el cambio climático. Para hacer algo, ese dato debe cuadrar con la experiencia personal, con nuestra propia evidencia. Nos es más fácil ver la casa en llamas cuando realmente vemos la casa en llamas. También nos ha sido más fácil ver el virus cuando hemos sido testigos del sufrimiento de nuestros enfermos. El cambio climático y esta pandemia nos ponen delante de un espejo en el que los humanos no quedamos reflejados como seres tan racionales: entender es secundario, la experiencia es clave.
80 años para un consenso social
En 2013 los investigadores Szafran, Williams y Roth publicaron un estudio en el que calculaban cuánto tiempo haría falta para que todo el mundo pudiera vivir en sus propias carnes el fenómeno del calentamiento global. Si necesitamos experimentar tres veranos más calurosos que la media para convencernos, solo en EE UU y teniendo en cuenta sus previsiones climáticas, ya podemos esperar al menos 86 años en tener un buen consenso social. 82 si necesitamos 3 años más lluviosos que la media.
Igual que no podíamos esperar a tener el virus en España para asustarnos, ya sabemos que no podemos esperar 80 años sin hacer nada, ya que implicaría vivir en 2100 con 5 grados de media más, un escenario casi apocalíptico.
Pero si digo 80 años pongo problemas encima de la mesa. No somos animales que lidien bien con las distancias temporales y espaciales, y el cambio climático siempre lo hemos sentido lejos y en el futuro. Aunque el planeta se esté calentando rápidamente, no lo hace tan rápido como necesitamos para sentirlo como una amenaza.
Ojalá después de masticar un filete fuéramos testigos de una pequeña ola de calor, una subida de 5 grados en casa. Esa distancia causa-efecto tan corta nos permitiría experimentar el nexo entre ambos procesos y caminaríamos mucho más rápido hacia una de las soluciones: hay que dejar de comer tantos filetes.
Somos malos calculadores de riesgos
Antes de que el cambio climático fuera ni siquiera algo de lo que hablar, los expertos en economía Daniel Kahneman y Amos Tversky hicieron varios experimentos para entender cómo lidiamos con el riesgo y la toma de decisiones, y vieron que la percepción del riesgo de los humanos es horrorosa.
Tenemos grandes dificultades para juzgar la frecuencia y la magnitud de los eventos, ya que nos fiamos más de lo último que ha sucedido, porque es lo que mejor recordamos. A este proceso lo bautizaron como sesgo de disponibilidad.
De su mano también aprendimos que tenemos una aversión a las pérdidas en el corto plazo e indiferencia en el largo plazo. Si le añadimos cierto grado de incertidumbre, el efecto se agrava. Tampoco es algo nuevo: el alcohol puede generar cirrosis ya de mayor. El tabaco quizás cáncer de pulmón. Ese “puede” y ese “quizás”, esa cirrosis y ese cáncer, se parecen mucho a la enfermedad que afecta a nuestro planeta.
Por eso nos negamos a saciar nuestras ganas de filete de hoy a cambio de un ahorro energético o económico en el futuro. Por eso y porque se juntan con otros sesgos, como el sesgo optimista: tendemos a pensar que corremos menos riesgos que otras personas. Vamos a tener más suerte que los dinosaurios, extinguirse se extinguen otros. Esto no es China. Nuestro sistema sanitario es mejor que el de Italia.
Ahora que la epidemia ya está aquí hay mucha gente enfadada. Ahora. Las semanas previas circulaban memes y chistes que se burlaban de lo que podría venir.
Pero, ¿habéis visto a alguien enfadarse muchísimo por culpa del cambio climático? No digo enfadarse por que el cambio climático se esté produciendo y ya veamos sus efectos, o por la inacción de otros. Me refiero a enfadarse visceralmente hasta que te salta la vena del cuello y rompes a llorar contra el Señor Cambio Climático. Yo, nunca. Y eso es porque no existe el Señor Cambio Climático. No lleva un uniforme, no mata a niños, no sigue un patrón predecible.
Tememos lo que podemos imaginar
El enemigo, para nuestro cerebro, siempre ha sido una persona, animal o microorganismo repugnante que actuaba de forma abrupta e inmoral sobre los nuestros. Al salvaje Señor Cambio Climático sí le tendría miedo la viejecita de la granja de Chernobyl, pero, ¿cómo tememos algo abstracto, invisible, que actúa muy lentamente y que no es inmoral? Es difícil, muy difícil.
Pero supongamos que lo conseguimos. Que logramos poner a un grupo de personas delante de una casa en llamas, la ven en llamas y la sienten en llamas. Tocaría entonces empezar a apagar el fuego. Pues resulta que, aunque nos queme el fulgor de las llamas en la cara y escuchemos el crepitar del fuego, nos giraremos y esperaremos a ver qué hacen los demás.
Si alguien coge un cubo de agua, nos pondremos manos a la obra. Si nadie se mueve, nos quedaremos embobados mirando el incendio. Esta reacción tiene que ver con la cooperación condicional y el efecto espectador. Si somos los únicos que presenciamos un incidente, actuamos. Si lo sabe todo un colectivo, esperamos al consenso social.
Incluso cuando vemos y actuamos, ni siquiera hacemos todo lo que podemos. La mayoría sufrimos el sesgo de acción única. Parece que realizar determinadas acciones nos impide hacer otras igual de positivas y complementarias. Por ejemplo, usar bombillas de bajo consumo, reciclar o usar bolsas de tela ya nos hace sentir que hacemos algo significativo.
En ocasiones es incluso peor, porque compensamos nuestras actitudes sostenibles con otras que pueden incluso emitir más carbono. Como las personas que queman las calorías de media caña de cerveza corriendo y ese día se toman dos en vez de una, ¡que han salido a correr!
Límites a la preocupación
Finalmente, aunque hayamos vivido la casa en llamas, tenemos una capacidad muy limitada para preocuparnos. Crisis financieras en distintos países muestran que la preocupación por estos fenómenos hizo que el porcentaje de individuos preocupados por el cambio climático disminuyera.
Los científicos le llaman el banco finito de preocupación. Una crisis, la pérdida del empleo, la enfermedad de nuestros familiares… no podemos preocuparnos por muchas cosas graves a la vez. De hecho, es complicado publicar una columna como esta en días en los que hay una pandemia y las UCI están llenas de gente luchando por sobrevivir.
En condiciones normales la inacción climática nos lleva a una culpa casi inevitable, y eso que no nos imaginamos la situación completa. Dentro de la metafórica casa en llamas, la nevera no tendría apenas comida. Del grifo solo saldría agua a determinadas horas. Se desplazaría por corrimientos de tierras y se inundaría tres veces al año. No se podría dormir del calor y habría que elegir entre mosquiteras o malaria. Y esa casa existe ya. Las fechas 2050 o 2100 son horizontes prácticos para ayudarnos a imaginar escenarios más duros que están por venir.
Si empezamos a ver el fuego, la inundación, la sequía y las olas de frío y calor como cambio climático, este dejará de ser abstracto para ser concreto, abrupto e impactante. Vivible y sufrible. Este pequeño cambio de paradigma es un esfuerzo comunicativo y todo apunta a que los resultados merecerían la pena. Pero, además, podemos ver el cambio climático como un problema de salud pública o de refugiados.
Entrenamiento y leyes
Quizá tengamos que crear redes para recordarnos unos a otros que debemos mantenerlo presente, de la misma forma que salimos a aplaudir a las 8 de la tarde. A fin de cuentas, hay que entrenar la anticipación sobre las buenas conductas y evitar resignarte a reincidir en actitudes poco ecológicas.
También podríamos intentarnos vacunar frente a sesgos de disponibilidad y hacer campañas como las de Naciones Unidas en Davos, que enseñó mediante realidad virtual cómo era la guerra de Siria a líderes mundiales. ¿Necesitamos ver casas en llamas?, veamos casas en llamas. ¿Crisis de refugiados climáticos? Veamos crisis de refugiados climáticos. Lo importante es que el cerebro practique, que nos nutramos de experiencias, aunque sean virtuales.
Acabemos con el sesgo espectador con nuevas leyes a medida para la crisis climática. Porque las leyes nos obligan a sincronizarnos en acciones que racionalmente nos parecen positivas, pero no ocurrirán de forma espontánea. No nos habríamos quedado encerrados en casa durante semanas sin un estado de alarma.
El soldado de Chernobyl, al no convencer a la anciana, dispara y mata a su vaca para obligarla a hacerle caso. El problema es que no tenemos un soldado en nuestra cabeza que dispare a nuestros sesgos; es más probable que solo tengamos una pequeña activista que nos repita ese “How dare you?” frunciendo el ceño cada vez que cogemos un chuletón forrado de plástico en el supermercado. Pero la pobre ocupa un espacio muy pequeño de la mente de un animal que no ve llamas por ninguna parte y al que bien le apetece un filete.
Sobre el autor: Lucas Sánchez es director de la agencia de comunicación científica Scienceseed, a cargo del Departamento de Comunicación y Creatividad. Antes, durante diez años, investigador en inmunología y virología en el Centro Nacional de Biotecnología y en la Yale University School of Medicine.
Este artículo se publicó originalmente el 22 de abril de 2020 en SINC con motivo del 50 aniversario del Día de la Tierra. Artículo original.
El artículo No vas a hacer nada contra la emergencia climática si no ves la casa en llamas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Gustave le Bon y la equivalencia masa-energía
Si preguntamos a cualquier persona con una mediana formación científica sobre quién fue el primero en proponer la equivalencia entre masa y energía, nos respondería inmediatamente y sin vacilación que Albert Einstein. Puede que incluso nos diese la fecha (1905) y hasta la expresión matemática, E = m·c2. Sin embargo, puede que no sea tan evidente. Y es que Gustave le Bon tuvo una magnífica intuición poco antes.
Gustave le Bon. Fuente: Wikimedia CommonsGustave le Bon nació en 1841 en Nogent-le-Rotrou (Francia) y se doctoró en medicina en 1866 en la Universidad de París. En la actualidad se le conoce por sus trabajos en psicología de grupos y en sociología (hay quien le considera uno de los fundadores de esta disciplina), pero también escribió sobre astronomía, física y cosmología. Según le Bon el universo material habría aparecido a partir del éter primordial e imponderable y terminaría regresando a este estado, en una serie de ciclos sin fin. Como parte de este concepto incluía la equivalencia de materia y energía.
En 1896 le Bon anunció que había descubierto lo que llamó “luz negra”, un nuevo tipo de radiación invisible que él creía que estaba relacionada posiblemente con los rayos X y los rayos catódicos pero que era distinta a éstos. Sus afirmaciones atrajeron la atención de los físicos, fundamentalmente franceses, muchos de los cuales le dieron su apoyo en el descubrimiento así como a sus ideas sobre la materia, la radiación y el éter. Aunque al final la existencia de la “luz negra” fue descartada (no se pudieron reproducir sus resultados en condiciones controladas) durante un tiempo permitió que le Bon fuese una figura importante en la vida intelectual y científica francesa. En 1903 fue incluso nominado para el Nobel de física.
Entre sus amigos y admiradores se encontraban científicos de primer nivel, incluyendo el químico Henri Ferdinand-Frédéric Moissan, el astrónomo Henri Alexandre Deslandres y los matemáticos Charles Émile Picard y Jules Henri Poincaré. Pero lo que nos interesa ahora es que en sus escritos sobre la “luz negra” estaba la primera descripción cualitativa de la equivalencia entre materia y energía.
Le Bon expuso sus ideas más elaboradamente en “La evolución de la materia” (texto completo en francés, en inglés), un libro publicado, mire usted, en 1905. En él concluía que toda la materia es inestable y está degenerando, emitiendo constantemente radiación en forma de rayos X, radioactividad y “luz negra”. Las características de la materia serían epifenómenos que aparecerían durante el proceso de transformación en éter, informe e imponderable, del que había surgido. Según le Bon, la energía y la materia eran dos aspectos de la misma realidad, diferentes etapas en el gran proceso evolutivo que en un futuro lejano llevaría al universo a un estado puramente etéreo.
Su principal argumento para la continua degradación de la materia en éter era la radioactividad, que él consideraba que era algo que toda la materia exhibía en mayor o menor grado. Pero le Bon, llevaba esta idea a sus últimas consecuencias. Si todos los elementos emiten radiación por la radiactividad, todos terminarían desapareciendo, por tanto la materia, en última instancia, no se explicaría en términos materiales sino etéreos. Paradójicamente, el estudio de la materia llevaba al inmaterialismo, algo muy bien recibido por determinados círculos intelectuales del fin de siglo francés.
Le Bon tomó su versión de la evolución cósmica de la hipótesis nebular de Laplace, pero la revistió con el lenguaje de la entonces popularísima física del éter. Y, sin embargo, el éter no era para le Bon el último estadio final, ya que sugería que este fin del universo sería seguido de un renacimiento y posterior evolución, y que este proceso cíclico continuaría eternamente.
Probablemente lo más interesante de su argumento es que afirmaba que todos los átomos contenían enormes cantidades de energía que se iría liberando conforme los átomos se desintegrasen, y que esta energía “intra-atómica”, como él la llamaba, era la fuente del calor solar y de todas las otras fuerzas del universo. Incluso empleaba cálculos (elementales) de energía cinética (T = mv2/2) para encontrar órdenes de magnitud de esas energías. Cuando Einstein se hizo famoso por su demostración de que la masa y la energía eran equivalentes según E = m·c2 , le Bon reclamó parte del mérito para él. En 1922 escribió cartas a Einstein informándole de lo que él consideraba su prioridad en el descubrimiento de la reciprocidad de la masa y la energía. Ni que decir tiene que para esta época sus ideas estaban completamente desfasadas.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto se publicó originalmente el 13 de octubre de 2013 y reeditado el 16 de mayo de 2018 en el blog personal del autor.
El artículo Gustave le Bon y la equivalencia masa-energía se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:ADN, microbiota y riesgo de celiaquía
Una investigación de la Universidad del País Vasco (UPV/EHU) y del Instituto de Investigación Sanitaria Biocruces-Bizkaia es el primer estudio científico que apunta a que, dependiendo del ADN de cada persona, la microbiota intestinal (los billones de microorganismos que viven en el tubo digestivo) podría aumentar el riesgo de padecer celiaquía.
“Aunque la relación entre los microorganismos que pueblan nuestro intestino y la celiaquía se había descrito hace años, este es el primer trabajo en el que se descubre que la información genética del hospedador podría tener un papel determinante en el desarrollo de la enfermedad por medio de la modificación de la microbiota”, comenta Iraia García-Santisteban, una de las autoras del estudio.
La investigadora del departamento de Genética, Antropología Física y Fisiología Animal de la UPV/EHU y del IIS Biocruces-Bizkaia explica que la enfermedad celiaca es un trastorno inmunológico provocado por la ingesta de gluten en personas genéticamente predispuestas. “A pesar de que el gluten y la presencia de genes de susceptibilidad son necesarios, no parecen ser los únicos factores que desencadenan el desarrollo de esta enfermedad. Cada vez son más los estudios que sugieren que uno de los factores determinantes es la microbiota intestinal”, señala la Dra. García-Santisteban.
Esta comunidad microbiana, compuesta por billones de microorganismos, y única en cada persona, está compuesta principalmente por bacterias de diferentes tipos y la composición depende de numerosos factores como el parto o el modelo de lactancia, la dieta, el uso de antibióticos, y también del genotipo de cada individuo. “Este conjunto de microorganismos nos proporciona una serie de ventajas, como la protección frente a la invasión por patógenos o la provisión de vitaminas y nutrientes esenciales. Así, los cambios en la composición de la microbiota, una condición conocida como disbiosis, pueden provocar el desarrollo de enfermedades”.
Según el artículo publicado por los investigadores de la UPV/EHU y IIS Biocruces-Bizkaia se ha observado que las personas con enfermedad celiaca presentan alteraciones en su microbiota intestinal en comparación con las personas no celiacas. “Nos preguntamos si estos cambios podrían ser mediados por el genotipo de cada individuo”, detalla la investigadora de la UPV/EHU.
Para contestar a esta pregunta el grupo de investigación ha empleado un método estadístico en el que han cruzado datos de dos grandes estudios genómicos: uno sobre microbiota intestinal y otro sobre celiaquía. De esta manera, han identificado una serie de variantes genéticas que podrían explicar la relación entre microbiota intestinal y enfermedad celiaca.
Uno de los hallazgos “más relevantes”, en palabras de García-Santisteban, es que han identificado “una serie de polimorfismos en el ADN” que están relacionados con la cantidad de bacterias del orden ‘clostridiales’, microorganismos cuya abundancia está alterada en celiacos. “Las variantes genéticas podrían influir en la abundancia de este tipo de bacterias en el intestino y aportar de esta manera mayor susceptibilidad a padecer la enfermedad”, expone.
Además, el grupo de investigación ha identificado otras variantes genéticas que están ligadas a cambios en las vías metabólicas relacionadas con una mayor permeabilidad e inflamación intestinal, ambas características de la enfermedad celiaca.
El estudio ha sido dirigido por Nora Fernández-Jiménez y Jose Ramón Bilbao, profesores e investigadores de la UPV/EHU, que tienen una amplia experiencia en el estudio de la enfermedad celiaca desde un punto de vista bioinformático, utilizando herramientas como la aleatorización mendeliana. Según comentan la Dra. Nora Fernandez-Jimenez y el Dr. Jose Ramón Bilbao, no es la primera vez que utilizan este método estadístico en su grupo de investigación: “el pasado año nos ayudó a identificar un marcador diagnóstico para la enfermedad celiaca, lo que demuestra el potencial de esta metodología”.
Referencia:
Iraia García-Santisteban, Ariadna Cilleros-Portet, Elisabet Moyua-Ormazabal, Alexander Kurilshikov, Alexandra Zhernakova, Koldo Garcia-Etxebarria, Nora Fernández-Jiménez*, Jose Ramón Bilbao* (2020) A Two-Sample Mendelian Randomization Analysis Investigates Associations Between Gut Microbiota and Celiac Disease Nutrients 12(5), 1420 doi: 10.3390/nu12051420
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo ADN, microbiota y riesgo de celiaquía se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Estar obeso se parece mucho (demasiado) a envejecer
María Josefa García Barrado
Foto: Michal Jarmoluk / PixabayUna de las cuestiones que más ha preocupado al ser humano a lo largo de la historia ha sido, y sigue siendo, el envejecimiento y la enfermedad. El profesor de Medicina de la Harvard Medical School, William Chin, aseguraba que “la necesidad humana de medicinas para aliviar el sufrimiento, curar enfermedades y retrasar el envejecimiento es a la vez atemporal y personal”. Sin embargo, y a pesar de los grandes avances que se han producido en el ámbito sanitario a lo largo de los siglos XX y XXI, últimamente se han extendido otras enfermedades, como la obesidad, consecuencia de las mejoras socioeconómicas de la población, que no son precisamente benignas.
Las autoridades sanitarias mundiales, entre ellas las españolas, coinciden en definir la obesidad como una pandemia. Por ello, y en plena crisis de la COVID-19, olvidarla sería totalmente injusto. Máxime después del periodo de confinamiento obligatorio en el que muy probablemente los indicadores de la obesidad se hayan incrementado.
¿Existen rasgos comunes entre la obesidad y el envejecimiento?
La obesidad es un problema de salud global que generalmente va asociado con otras enfermedades cardiovasculares y metabólicas. Entre ellas, la hipertensión, dislipemias, y diabetes mellitus tipo 2. Los estudiosos del tema llevan años planteándose cuestiones como: ¿por qué los obesos presentan elevados índices de mortalidad prematura? O lo que es lo mismo, ¿por qué viven menos? En este contexto, todo apunta a que existen importantes similitudes entre la obesidad y el envejecimiento.
Investigadores del grupo de Madhan Subramanian de la Universidad de Oklahoma (EE UU) publicaban en 2018 un interesante estudio al respecto. En él afirmaban que la obesidad y el envejecimiento comparten una sobreestimulación crónica el sistema nervioso simpático. Esta alteración del sistema nervioso autónomo contribuye al desarrollo de múltiples enfermedades cardiovasculares, entre otras la hipertensión. Su origen es multifactorial, e incluye el envejecimiento de las células gliales detectada en la obesidad.
Por otra parte, la mayoría de los investigadores coinciden en vincular obesidad con un generalizado (aunque moderado) aumento de los niveles de moléculas proinflamatorias –como las citoquinas– en el organismo. Esta situación también es compartida con el proceso fisiológico del envejecimiento.
¿Con la obesidad se envejece antes?
La revista Obesity Review publicaba recientemente un artículo titulado “Obesidad y envejecimiento, dos caras de la misma moneda”. Los autores de esta revisión –Santosa, Tam y Morais, de la Universidad Concordia de Montreal– nos introducían en una verdadera encrucijada. Ellos conseguían que nos planteáramos si estar obeso se parece demasiado a envejecer.
La respuesta a este interrogante se halla en el propio artículo. En él se explican los mecanismos desencadenantes de la rápida aparición de enfermedades crónicas en la obesidad y que viajan paralelos a los del envejecimiento. Los autores analizan diferentes aspectos que abarcan desde la biología celular hasta el estudio en tejidos de pacientes obesos. Estos descubrimientos se sustentan en 238 artículos científicos.
A nivel molecular, se ha demostrado que la obesidad favorece la senescencia celular y la apoptosis (o muerte celular programada). A este evento le suele acompañar una disfunción en las mitocondrias, el orgánulo responsable de las reacciones metabólicas redox. Eso explica por qué el inadecuado funcionamiento mitocondrial conlleva una inflamación crónica y un aumento de especies reactivas o radicales libres. Un comportamiento muy similar al que se desarrolla en la senectud.
En condiciones normales, el proceso fisiológico de la autofagia corrige estos desajustes. En concreto, la autofagia funciona como un eficiente barrendero, que recoge y recicla todos los residuos, por ejemplo proteínas defectuosas o exceso de radicales libres, para luego transformarlos en energía. Sin embargo, en la obesidad la autofagia está frenada. Y eso da como resultado una mayor agregación de proteínas defectuosas, que son características comunes con el envejecimiento. Con ello se refuerzan los mecanismos asociados a la senescencia celular.
No acaban ahí las coincidencias. En nuestro país, investigadores del CNIO como la doctora María Blasco han realizado importantes avances en el conocimiento de los telómeros y su implicación en el envejecimiento. Los telómeros son las tapas protectoras de los extremos de los cromosomas y actúan como temporizadores celulares. Su longitud marca el número de divisiones celulares hasta que se produce la muerte celular. El desgaste de los telómeros en el envejecimiento se ha observado también en la obesidad.
Todos estos datos marcan un antes y un después en el análisis de las patologías asociadas a la edad.
La COVID-19 se ceba con los obesos, además de con los ancianos
Para colmo, se ha vinculado la obesidad con un aumento de enfermedades neurodegenerativas. La disminución en la cognición se atribuye a la presencia de inflamación neuronal. Asimismo, ambos procesos, obesidad y envejecimiento, van acompañados del debilitamiento en el sistema inmunitario. Con ello, el riesgo de infecciones aumenta.
De hecho, los obesos son más susceptibles de padecer los síntomas gripales al estar menos protegidos por la vacuna. Es más, en los últimos meses también se ha observado un empeoramiento de la sintomatología de la COVID-19 en pacientes ancianos y obesos.
A las alteraciones descritas se suma que la sarcopenia –caracterizada por una disminución de fuerza y la masa muscular–, la enfermedad de Alzheimer, además de algunos tipos de cáncer transcurren en obesos a través de mecanismos comunes al envejecimiento.
Desafortunadamente, los casos de obesidad están en continuo ascenso, y los itinerarios terapéuticos para combatir la enfermedad no han alcanzado aún resultados óptimos. Por tanto, encontrar nuevas estrategias para su tratamiento supone un reto en la sociedad actual y debería ser un compromiso de todos.
Sobre la autora: María Josefa García Barrado es profesora titular de farmacología en la Universidad de Salamanca
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Estar obeso se parece mucho (demasiado) a envejecer se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El estudio algebraico de algunos tipos de leyes matrimoniales
Les structures élémentaires de la parenté –Las estructuras elementales del parentesco– es el título de la tesis defendida por el antropólogo Claude Lévi-Strauss en 1948 –revisada y publicada en 1949– en la que sostenía la teoría de la alianza.
El antropólogo recurrió a un amigo, el matemático André Weil, para axiomatizar los sistemas de parentescos que describía en su tesis. De hecho, Weil escribió un apéndice –Sur l’étude algébrique de certains types de lois du mariage (Sobre el estudio algebraico de algunos tipos de leyes matrimoniales)– que Lévi-Strauss incorporó a la primera parte de su tesis.
Claude Lévi-Strauss y André Weil.
En sus notas autobiográficasi, André Weil dedicaba varios párrafos a este episodio con Lévi-Straussii:
A New York, [Lévi-Strauss] s’était lancé dans un vaste travail de sociologie théorique qui devint sa thèse de doctorat (aujourd’hui célèbre) sur les structures élémentaires de la parenté. Un jour, dans l’étude d’un certain type de mariage, il se heurta à des difficultés inattendues et pensa qu’un mathématicien pourrait lui venir en aide.
D’après ce qu’ont observé les sociologues travaillant « sur le terrain », les lois de mariage des tribus indigènes d’Australie comportent un mélange de règles exogamiques et endogamiques dont la description et l’étude posent des problèmes combinatoires parfois compliqués. Le plus souvent le sociologue s’en tire par l’énumération de tous les cas possibles dans l’intérieur d’un système donné. Mais la tribu des Murngin, à la pointe Nord de l’Australie, s’était donné un système d’une telle ingéniosité que Lévi-Strauss n’arrivait plus à en dérouler les conséquences. En désespoir de cause il me soumit son problème.
Le plus difficile pour le mathématicien, lorsqu’il s’agit de mathématique appliquée, est souvent de comprendre de quoi il s’agit et de traduire dans son propre langage les données de la question. Non sans mal, je finis par voir que tout se ramenait à étudier deux permutations et le groupe qu’elles engendrent. Alors apparut une circonstance imprévue. Les lois de mariage de la tribu Murngin, et de beaucoup d’autres, comportent le principe suivant : « Tout homme peut épouser la fille du frère de sa mère, » ou, bien entendu, l’équivalent de celle-ci dans la classification matrimoniale de la tribu. Miraculeusement, ce principe revient à dire que les deux permutations dont il s’agit sont échangeables, donc que le groupe qu’elles engendrent est abélien. Un système qui à première vue menaçait d’être d’une complication inextricable devient ainsi assez facile à décrire dès lors qu’on introduit une notation convenable. Je n’ose dire que ce principe a été adopté pour faire plaisir aux mathématiciens, mais j’avoue qu’il m’en est resté une certaine tendresse pour les Murngin.
La tribu de los Murngin estudiada por Lévi-Strauss vivía en el noreste de la Tierra de Arnhem (Australia); su estructura de parentesco es bastante compleja. Más sencilla es la de la tribu de los Kariera que vivían en el noroeste. Según la descripción de Lévi-Strauss, los Kariera se dividen en cuatro clanes: Banaka, Karimera, Burung, Palyeri. Esta división rige, entre otros, los matrimonios –siempre con personas del sexo opuesto– y las filiaciones. Una persona Banaka se casa con una Burung y una Karimera con una Palyeri. Respecto a la descendencia, las hijas o hijos de un hombre Banaka y una mujer Burung son Palyeri, mientras que los hijos de un hombre Burung y una mujer Banaka son Karimera. Del mismo modo, los descendientes de un hombre Karimera y una mujer Palyeri son Burung, y los de una mujer Karimera y un hombre Palyeri son Banaka. Esto puede resumirse en la siguiente tabla:
André Weil estudió la situación propuesta por Lévi-Strauss, generalizándola a una tribu con n clanes, lo que le permitía tratar diferentes casos. Vamos a detallar en el caso n=4 el estudio de Weil con la situación propuesta por Lévi-Strauss. Sea K el conjunto de los clanes de la tribu Kaiera:
K= {Banaka, Karimera, Burung, Palyeri}.
Definimos tres permutaciones de K en K –f, p y m– que expresan las relaciones matrimoniales (f), las filiaciones patrilineales (p, tanto de padres a hijas/os como de hijas/os a padres) y las filiaciones matrilineales (m, tanto de madres a hijas/os como de hijas/os a madres) antes indicadas.
La tabla 1 puede entonces reescribirse en términos de funciones:
Observamos que una persona x tiene dos tipos de primos cruzados: los hijos e hijas de las hermanas de su padre y los hijos e hijas de los hermanos de su madre. El padre –y las hermanas del padre– de x son miembros del clan p(x); por lo tanto, los hijos e hijas de sus tías por parte de padre pertenecen al clan m(p(x)). La madre –y los hermanos (varones) de la madre– de x son miembros del clan m(x); por lo tanto, los hijos e hijas de sus tíos (varones) por parte de madre pertenecen al clan p(m(x)). En la tabla 3 se resumen estas propiedades (donde m◦p denota la composición de las funciones p y m):
Como m(p(x)) = p(m(x)) = f(x), se deduce que x puede casarse con m(p(x)) y p(m(x)). Es decir, una persona puede casarse con cualquiera de sus primos cruzados del sexo opuesto.
Observamos también que p◦p = m◦m = id, donde id es la función identidad (ver tabla 1). Una persona del clan x tiene entonces dos clases de primos paralelos: los hijos e hijas de las hermanas de su madre –ya que m◦m = id– y los hijos e hijas de los hermanos de su padre –por ser p◦p = id–. Como todos los primos paralelos de una persona pertenecen al mismo clan, se deduce que no pueden casarse entre ellos.
Si P={id,f,p,m} y se dota a este conjunto de la operación de composición de funciones, las anteriores relaciones dicen que el par (P,◦) es un subgrupo abeliano del grupo de las permutaciones de K. De hecho es (isomorfo a) el grupo de Klein, el menor grupo no trivial y no cíclico.
Este es un caso particular de estudio matemático de las estructuras de parentesco abordadas por Weil. Sin embargo, este modelo posee algunas dificultades pues permitiría teóricamente el matrimonio entre parientes directos de dos generaciones diferentesiii. Así que ha sido retrabajado por otros muchos matemáticos, como puede verse en las referencias propuestas.
Referencias
-
Klaus Hamberger, Espaces de la parenté, L’Homme 195-196 (2010) 451-468
-
Paul Jorion et Gisèle De Meur. La Question murngin, un artefact de la littérature anthropologique. L’Homme 20 (2) (1980) 39-70
-
Paul Lavoie, Claude Lévi-Strauss et les mathématiques, Bulletin AMQ 52 (2) (2012) 37-61
Notas:
iAndré Weil, Œuvres scientifiques / Collected Works (tomo 1), Springer-Verlag, 1979 (páginas 567-568).
ii[Traducido por la autora] En Nueva York, [Lévi-Strauss] se había embarcado en un vasto trabajo de sociología teórica que se convirtió en su (ahora famosa) tesis doctoral sobre las estructuras elementales del parentesco. Un día, al estudiar cierto tipo de matrimonio, encontró dificultades inesperadas y pensó que un matemático podría ayudarlo.
Según lo que han observado sociólogos que hacen «trabajo de campo», las leyes de matrimonio de las tribus nativas de Australia contienen una mezcla de reglas exógamas y endógamas, cuya descripción y estudio plantean problemas combinatorios a veces complicados. En la mayoría de los casos, el sociólogo sale adelante enumerando todos los posibles casos dentro de un sistema dado. Pero la tribu Murngin, en el extremo norte de Australia, presentaba un sistema de tal ingenio que Lévi-Strauss no era capaz desarrollar las consecuencias. Desesperado, me presentó su problema.
Lo más difícil para el matemático, cuando se trata de matemática aplicada, es a menudo comprender de qué se trata y traducir a su propio idioma los datos del problema. No sin dificultad, finalmente comprendí que todo se reducía a estudiar dos permutaciones y el grupo que generan. Entonces surgió una circunstancia imprevista. Las leyes de matrimonio de la tribu Murngin, y muchas otras, incluyen el siguiente principio: «Cualquier hombre puede casarse con la hija del hermano de su madre» o, por supuesto, el equivalente de ella en la clasificación matrimonial de la tribu. Milagrosamente, este principio equivale a decir que las dos permutaciones en cuestión son intercambiables, de modo que el grupo que generan es abeliano. Un sistema que, a primera vista, amenazaba con ser de una complicación enmarañada se vuelve así bastante fácil de describir una vez que se introduce una notación adecuada. No me atrevo a decir que este principio fue adoptado para complacer a los matemáticos, pero debo admitir que todavía conservo un cierto cariño por los Murngin.
iiiPor ejemplo, supongamos que una abuela Burung y un abuelo Banaka tienen una hija Palyeri. Imaginemos que la hija se casa con un hombre Karimera y que de esta unión nace una niña Burung. Esta niña Burung podría casarse entonces con su abuelo materno que es Banaka –o con un hermano de este–…
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo El estudio algebraico de algunos tipos de leyes matrimoniales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La carga de las partículas radiactivas
Otro experimento realizado para estudiar los rayos emitidos en la radioactividad fue hacerlos pasar por un campo magnético para ver hasta qué punto se desviaban de sus direcciones iniciales por la acción del campo. Este método llegó a proporcionar una de las herramientas más utilizadas para el estudio de eventos atómicos y nucleares. Se basa en el hecho ahora familiar de que actúa una fuerza sobre una partícula cargada cuando esta se mueve a través de un campo magnético. Esta fuerza siempre actúa en ángulo recto con respecto a la dirección de movimiento de la partícula cargada. De aquí que la partícula experimente una desviación continua y, si pasa a través de un campo uniforme en ángulo recto, se mueva siguiendo un arco de círculo.
Esta propiedad había sido utilizada en la década de 1890 por J.J. Thomson en sus estudios sobre los rayos catódicos. Demostró que estos rayos consisten en partículas muy pequeñas cargadas negativamente, o electrones. Becquerel, los Curies y otros descubrieron que los rayos alfa, beta y gamma se comportaban de manera diferente en un campo magnético. El comportamiento de los rayos se ilustra en la figura siguiente.
Efectos de un campo magnético sobre las partículas radiactivas. a) Los rayos alfa, beta y gamma de una muestra radiactiva se hacen pasar por un campo magnético uniforme y en ángulo recto a la dirección de propagación. b) Sin campo magnético. c) Con un campo magnético débil. d) Con un campo magnético más fuerte. e) Con un campo magnético muy fuerte. Fuente: Cassidy Physics LibrarySupongamos que colocamos una muestra de material radioactivo, uranio por ejemplo, en el fondo de un agujero estrecho y algo profundo que hemos hecho en un bloque de plomo. Por la boca del agujero saldrá un haz estrecho de rayos alfa, beta y gamma. Si colocamos un campo magnético lo suficientemente fuerte y uniforme (como en los últimos dos dibujos), los tres tipos de rayos seguirán trayectorias diferentes. Los rayos gamma continúan en línea recta sin ninguna desviación. Los rayos beta se desviarán hacia un lado, moviéndose en arcos circulares de radios diferentes. Los rayos alfa se desviarán ligeramente hacia el otro lado, moviéndose en un arco circular de gran radio [1]
La dirección de la desviación de los rayos beta en dicho campo magnético es la misma que se observó anteriormente en los estudios de Thomson sobre las propiedades de los rayos catódicos. Se concluyó, por lo tanto, que los rayos beta, como los rayos catódicos, consisten en partículas cargadas negativamente. [2]
Como la dirección de la desviación de los rayos alfa era opuesta a la de los rayos gamma, se deduce que los rayos alfa consisten en partículas cargadas positivamente. Como los rayos gamma no se desvían en absoluto, se sigue que son neutros, es decir, no tienen carga eléctrica neta.[3][4]
Notas:
[1] El experimento no se hace en el vacío, por lo que tras pasar por el campo magnético el aire los absorbe rápidamente.
[2] Los Curies confirmaron la carga negativa de los rayos gamma en 1900 usando un electroscopio.
[3] La radiación electromagnética es neutra, al igual que las partículas que transportan cantidades iguales de carga positiva y negativa.
[4] No se puede sacar ninguna conclusión de este tipo de experimento sobre si los rayos gamma son, o no, partículas.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La carga de las partículas radiactivas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Preparados para matar: a modo de conclusión
“Nada tiene sentido en biología excepto a la luz de la evolución”.
Theodosius Dobzhansky, 1973.
“El tiro lo pega el asesino, no sus genes”.
Reyes Calderón. En una entrevista en El Norte de Castilla, 10 de octubre de 2010.
“Una vez explicado por todos los factores sociopsicológicos imaginables, el crimen sigue siendo el misterio de nuestra especie”.
Daniel Pennac.
“Así podría razonar tanto a priori como a posteriori”.
Bert Leston Taylor (1866-1921), poeta y escritor, al comentar los dos cerebros de los dinosaurios, uno en la cabeza y otro en la cola.
Foto: Tbel Abuseridze / UnsplashYa que nunca he comprendido por qué nos matamos unos a otros, y la única explicación que me parece plausible viene de la psicología evolutiva y de los mecanismos de selección natural aplicada a la conducta humana, permítanme presentar los siguientes argumentos en defensa de un enfoque que, lo he experimentado, tanto molesta.
Una de las características más sorprendentes de la violencia, y en último término, del asesinato en nuestra especie es que nadie pone en duda este comportamiento. La violencia es algo asumible, consustancial a nuestra especie y muchos, aunque haya quien lo niegue, la usan, o la usamos, con mayor o menor intensidad y frecuencia, si se dan las circunstancias adecuadas.
Cerca de la aldea de Koszyce, en el sur de Polonia, Hace unos 5000 años
El grupo que excavó el yacimiento, dirigido por Hannes Schroeder, de la Universidad de Copenhague, encontró una tumba con 15 cadáveres de hombre mujeres y niños, muertos con golpes en la cabeza. El análisis de ADN demostró que eran miembros de una misma familia. Son siete mujeres y ocho hombres y, entre ellos, hay tres niñas.
Los hallazgos en la ciencias de la evolución pueden ayudar a entender y a formar y guiar las decisiones colectivas que debemos tomar sobre los actos de violencia. La perspectiva evolutiva nos da un enfoque útil para conocer la violencia en nuestra especie. Somos seres biológicos que se relacionan entre sí y coevolucionan con otros humanos y con otras especies. Un paradigma evolutivo puede enriquecer el conocimiento de uno mismo, de nuestra especie y de nuestro entorno. El futuro sin violencia pasa por conocer sus causas con nuevos conocimientos en neurociencias y en genética, y por cambios en las conductas. Así, quizá podamos mitigar y, finalmente, erradicar la violencia, por lo menos entre individuos. Soy poco optimista sobre acabar con la violencia entre grupos, pero se puede conseguir que esté controlada y sea menos dañina y letal.
Biblia de Jerusalén, Josué 6: 21.
“Consagraron al anatema todo lo que había en la ciudad, hombres y mujeres, jóvenes y viejos, ovejas y asnos, a filo de espada”.
Josué 8: 25.
“El total de los que cayeron aquel día, hombres y mujeres, fue 12000, todos los habitantes de Ay”.
Josué 8: 28.
“Josué incendió Ay y la convirtió para siempre en una ruina, en desolación hasta el día de hoy”.
La eliminación de la violencia se ha intentado en nuestra historia por muchos individuos e instituciones. Incluso hay quienes han promovido movimientos a favor de la paz que, de inmediato, han sido despreciados y deshumanizados por quienes se oponen a ellos y han procurado eliminarlos. A veces, se ha conseguido la paz por quienes han luchado para ello pero, a la larga, la violencia ha vuelto al comportamiento de nuestra especie.
Pero, ya lo he mencionado, hay datos, muchos datos que demuestran que el número de asesinatos está disminuyendo en países de todo el mundo. Sergio Parra, en el blog Yorokobu, recoge que, en España, en 2003 hubo 587 homicidios y en 2013 fueron 302. O, en Nueva York, en 1975 fueron 22 muertos por cada 100000 habitantes, y en 2005 fueron 6. Por su parte, el historiador Ian Morris apunta que el porcentaje de muertes violentas fue entre el 10% y el 20% en el Neolítico, entre el 2% y el 5% en imperios clásicos como el romano o los persas, y del 1%-2% en el siglo XX.
Primera Cruzada, 1096-1099.
Karen Armstrong, en sus Campos de sangre, transcribe que “mataron a todos los turcos y sarracenos que encontraron”. Los mataron a todos, hombres y mujeres. La sangre corría por las calles. Se reunió a los judíos en la sinagoga y se les pasó por la espada, y unos diez mil musulmanes que buscaron la salvación en el santuario en el Haram-al-Sharif fueron brutalmente masacrados. “Se veían montañas de cabezas, manos y pies: la sangre llegaba a las rodillas. De hecho, que el lugar estuviera empapado por la sangre de los infieles constituía el justo y espléndido juicio de Dios”.
Estos porcentajes se han corroborado desde otro enfoque muy distinto. El grupo de José María Gómez, de la Universidad de Granada, revisó los datos de violencia letal en mamíferos y su legado filogenético hasta nuestra especie. Calcularon que el porcentaje de muertes en Homo causadas por violencia entre individuos está en el 2%, con un descenso paulatino hasta la actualidad, como propone Morris.
La violencia es el producto de la evolución de mecanismos que ayudaban a nuestros antepasados a conseguir recursos para la supervivencia y la reproducción. Así, sus genes, violentos, pasaban a las siguientes generaciones. Contaba Napoleon Chagnes que, entre los yanomamis del Amazonas, uno de cada cuatro muere violentamente, y dos de cada cinco participan en al menos un homicidio. Y los asesinos, los que matan, tienen tres veces más hijos que los que no lo hacen. Fue así durante millones de años, y pretender que desaparezcan sin más y sin mucho esfuerzo es una ilusión.
Matanza de los indios pequot, 1637
Lo cuenta William Bradford y lo transcribe Karen Armstrong: “Quienes escaparon al fuego perecieron por la espada; algunos fueron despedazados, y muy pocos escaparon. En aquella ocasión mataron a unos cuatrocientos. Verlos quemarse en el fuego era una terrible visión, y los ríos de sangre enfriándose, y era horrible el hedor, pero la victoria parecía un dulce sacrificio, y se ofrecieron plegarias a Dios, que tan maravillosamente se había portado con ellos”.
La violencia puede ser una necesidad para defendernos a nosotros mismos, a los más cercanos, a nuestro grupo o a otros individuos que consideremos débiles y oprimidos. Si eliminamos la violencia, algunos opinan que dejamos de lado nuestros mecanismos de defensa contra aquellos que clasificamos como criminales, opresores o genocidas. Siempre hay quien está dispuesto a atacar a los buenos, a los débiles, a los pacíficos, en otra de las conductas humanas típicas y habituales. Incluso si se controla la violencia, siempre habrá violentos que deban controlarla y, antes o después, volverán esa violencia contra quienes dicen que defienden. Así, desde la evolución ganarán pues tendrán más recursos para sobrevivir y para reproducirse. Opino que, como ven, solo hay dos alternativas: o eliminamos la violencia o no hacemos nada. Y todavía, ni como especie ni como cultura, hemos encontrado un camino aceptable contra la violencia entre humanos.
Rebelión en La Vendée, 1793-1796
Nos lo cuenta Karen Armstrong:
“Atravesad con las bayonetas a todos los que encontréis en vuestro camino. Sé que puede haber algunos patriotas en la región: no importa, hemos de sacrificarlos a todos”. “Todos los bandidos en posesión de armas o sospechosos de haberlas poseído serán pasados por la bayoneta. Actuaremos igual con mujeres, muchachas y niños … no se perdonará a los sospechosos. La Vendée ya no existe. Siguiendo las órdenes que he recibido, he aplastado a niños bajo las pezuñas de nuestros caballos, y masacrado a mujeres … Los caminos están atestados de cadáveres”.
La Revolución Francesa asesinó a doscientas cincuenta mil personas.
Hay, sin embargo, un camino para atenuar la violencia, por lo menos cierto tipo de violencia. En general, en los países desarrollados hay menos violencia, menos asesinatos y menos delitos. Por lo menos en muchos países y culturas aunque, es evidente, no en todos los países ricos. No olvidemos Estados Unidos, con su escaso control de armas y la pena de muerte, Rusia en Chechenia, China y sus ejecuciones o Brasil y Filipinas y la violencia mafiosa e institucional o la destrucción de tribus en el Amazonas.
Es evidente que se ha conseguido mitigar el uso de la violencia porque la riqueza de algunos países permite que todos los miembros del grupo reciban suficientes recursos para sobrevivir y reproducirse y, por tanto, a atenuar sus impulsos evolutivos como especie. Además, en estas sociedades, más grandes y pacíficas hacia adentro, hay educación para el control de las conductas violentas, aunque, en realidad, no sea contra la violencia en sí. Por ejemplo, son estos países ricos los que tienen los ejércitos más potentes y con armamento más mortífero y personal entrenado más letal. Disminuye la violencia en el interior de sus sociedades pero, hacia el exterior, está institucionalizada y produce muchas muertes. Estos grandes estados tienen las armas nucleares y algunos todavía mantienen la pena de muerte. Lo que ocurre con la guerra, sobre todo con las guerras mundiales del siglo XX, ha provocado que algunos investigadores nieguen que la violencia haya disminuido. Es un debate todavía abierto. Quizá la tasa de muertes ha disminuido pero es indudable que, llegado el caso, son igualmente violentos los que viven en pequeños grupos como los que pertenecen a grandes estados.
Ejecución en Roma, 1844, El Conde Montecristo
Alejandro Dumas describe una ejecución en la Plaza del Popolo de Roma:
“El condenado intentó levantarse, pero antes de que le diera tiempo, la maza se abatió sobre su sien izquierda; se oyó un ruido sordo y velado, el ajusticiado cayó como un buey, con la cara pegada al suelo, después de un contragolpe, se dio la vuelta sobre la espalda. Entonces el verdugo dejó caer la maza, sacó el cuchillo del cinturón, y de un solo tajo le abrió la garganta, y, subido sobre el vientre del condenado, se puso a aprisionarle con los pies. A cada presión, un surtidor de sangre salía del cuello”.
Y, para terminar, hay que corregir la idea equivocada de que unos mecanismos psicológicos evolucionados, como los que son la base de la violencia, implican, sin más, un determinismo biológico. Según Steven Pinker, cinco serían las conductas que llevan a la violencia: depredación, dominación, venganza, sadismo e ideología.
Como decía Reyes Calderón, quien mata no son los genes, son los asesinos. Nuestra especie siempre tiene capacidad de elegir, sobre todo si a los individuos se les educa para hacerlo. Los genes reaccionan cuando son estimulados por la información externa adecuada. En el caso de la violencia, utilizarla de manera habitual es enormemente costoso, tanto para quien la usa como para quien la sufre, y, desde la evolución, se ha seleccionado que solo se active con estímulos muy concretos y específicos. Y, de nuevo Steven Pinker, hay cuatro conductas que moderan la violencia: compasión, autocontrol, moralidad y razonamiento.
En el Amazonas, a principios del siglo XX.
El periodista y viajero estadounidense Fritz W. Up de Graff nos cuenta:
“La victoria es para los indios del Alto Amazonas la señal para dar principio al más odioso e importante de todos sus ritos … Habiendo dejado el enemigo tras de sí los muertos y moribundos los vencedores avanzaban para apoderarse de los despojos más preciados de la batalla, las cabezas. Con hachas de piedra, machetes de madera de chonta y conchas afiladas en la arena, iban de un cadáver a otro cortando y reuniendo sus horrendos emblemas de victoria … Yo mismo tuve ocasión de presencias la suerte de una mujer huambisa que cayó al suelo herida por tres lanzas … Los aguarunas, ansiosos por cortar su cabeza, empezaron la obra cuando la infeliz estaba aún viva, aunque incapaz de defenderse. Mientras uno le retorcía la cabeza, otro la sujetaba en tierra y un tercero empezó a darle tajos en el cuello con su hacha de piedra. Por último, me llamaron para que les prestara mi machete, arma mucho más a propósito para ejecutar la operación empezada … Cualquier intervención por mi parte hubiera equivalido a un suicidio”.
No podemos justificar la violencia actual porque sirvió como adaptación y por selección natural a nuestros antepasados. Ya he mencionado que una explicación evolutiva de la violencia no implica que sea inevitable o imposible de prevenir. Comprender las causas de la violencia y de los asesinatos no implica que sea deseable, inevitable o que no deba ser erradicada. El estudio de la violencia desde una perspectiva evolutiva, analizar los contextos en que aparece, y los estímulos que la provocan puede llevarnos a conocer mejor los mecanismos que llevan a la violencia, lo que nos colocará en una posición mejor para controlar la activación de esos mecanismos.
Acabemos. Somos lo que somos y aceptamos que venimos, aunque haya todavía quien lo dude, de ancestros del grupo de los primates. Nuestros pies y el andar bípedo, nuestras manos y su capacidad de, nunca mejor dicho, manipulación, el cerebro, nuestros estómago y nuestro hígado y nuestra digestión, los riñones y el pene o la vagina, los ojos y las orejas, hasta el pelo, si algo queda, son el resultado de la selección natural y de la evolución y, todo ello, lo encontramos en los primates. Todo lo aceptamos excepto, para muchos, que nuestra psicología, el pensamiento, las emociones y las conductas tengan el mismo origen. Incluso se puede decir que aceptamos el cerebro pero en absoluto aceptamos las funciones de ese cerebro, o sea, lo que hace. Entre lo que no aceptamos es que la violencia también sea el resultado de los procesos evolutivos.
Somos unos 10 millones de especies en el planeta, y quizá muchos cientos de millones en la historia de la vida, y todas las especies, lo aceptamos, son consecuencia de la evolución. Todas menos, para muchos, nuestra mente. Es un hecho extraordinario afirmar que nuestra mente no es resultado de la evolución. Es el único caso. Y como se les exige a los que practican las pseudociencias, una afirmación extraordinaria debe ser probada con un experimento extraordinario. Es lo que debemos exigir, lo que exijo, a los que defienden la extraordinaria exclusividad de la mente humana. Adelante con ello. Mientras tanto, aprendamos de la violencia para conocernos mejor.
Foto: Luz Fuertes / UnsplashOrdizia, 1986: Yoyes y Kubati en la Plaza Nueva
El 10 de septiembre de ese año, Yoyes paseaba por la Plaza Nueva de su pueblo, Ordizia, con su hijo de tres años, Akaitz. Se acercan dos hombres. Uno de ellos, José Miguel Latasa, “Fermín”, la señala: “Es Yoyes”. El segundo, José Antonio López Ruiz, “Kubati”, le pregunta: “¿Eres Yoyes?”. A la respuesta afirmativa, dice “¿Sabes quién soy?”. “No”.- responde Yoyes. “Soy militante de ETA y vengo a ejecutarte”. Suenan dos tiros, Yoyes cae al suelo, y otro tiro más en la cabeza para rematarla. El hijo, Akaitz, le grita poco después a su abuela: “Abuela, dos hombres la han matado”.
El 21 de septiembre de 1994, en el diario Egin aparece una carta de Kubati:
“¡Cómo os gustaría que al que acusáis de matar a Yoyes os fuera pidiendo perdón de rodillas! No os preocupéis … que nunca pediré salir de la cárcel si antes tengo que hacerme merecedor de vuestro perdón y/o renunciar a mis ideas … Me despido de todos vosotros con desprecio y con el deseo esperanzador de que algún día, al poner la radio, oiga por ella una buena noticia que me alegre el día .. Por todo ello, y por mucho más: os odio”.
Guerra de Iraq: a principios de los noventa
Lo cuenta Tim Kelsey en el Independent on Sunday: un oficial iraquí dijo a sus padres que iban a liberar a su hijo y ”estaban llenos de alegría, cocinaron exquisiteces, y cuando oyeron que se aproximaban coches fueron a la puerta. Cuando sacaron del coche a Ahmad Quazabard, los padres vieron que le habían extirpado las orejas, la nariz y los genitales. Salió del coche con los ojos en las manos. Luego los iraquíes le dispararon, una bala de lleno en el estómago y otra en la cabeza, y dijeron a la madre que se cuidara de no mover el cadáver durante tres días”.
Bosnia, en diciembre de 1992
Lo cuentan José Antonio Marina y Javier Rambaud, según una noticia del 13 de diciembre de 1992 en el New York Times:
“En Bosnia, unos soldados detienen a una muchacha con su hijo. La llevan al centro del salón. Le ordenan que se desnude. Puso el bebé en el suelo, a su lado. Cuatro chetniks la violaron. Ella miraba en silencio a su hijo, que lloraba. Cuando terminó la violación, la joven preguntó si podía amamantar al bebé. Entonces, un chetnik decapitó al niño con un cuchillo y dio la cabeza ensangrentada a la madre. La pobre mujer gritó. La sacaron del edificio y no se la volvió a ver más”.
Referencias:
Antolín, M. 2002. Mujeres de ETA. Piel de serpiente. Ed. Temas de Hoy. Madrid. 245 pp.
Ardrey, R. 1969. Génesis en África. La evolución y el origen del hombre. Ed. Hispano Europea. Barcelona. 457 pp.
Arjona, D. 2017. Hobbes contra Rousseau: ¿somos buenos salvajes o lobos? Una solución inesperada. El Confidencial 10 agosto.
Armstrong, K. 2015. Campos de sangre. La religión y la historia de la violencia. Paidós. Barcelona. 575 pp.
Bartlett, T.Q. et al. 1993. Infant killing in primates: A review of observed cases with specific reference to the sexual selection hypothesis. American Anthropologist 95: 958-990.
Baumeister, R.F. 2001. Raíces de la violencia. Investigación y Ciencia junio.
Blanco, A. 2012. La zona gris: aproximación psicosocial a la violencia. Mente y Cerebro 52: 68-74.
Boutwell, B.B. et al. 2015. A unified crime theory: The evolutionary taxonomy. Aggression and Violent Behavior 25: 343-353.
Buss, D.M. 2005. The murdered next door: Why the mind is designed to kill. Penguin Books. New York. 278 pp.
Buss, D.M. 2012. The evolutionary psychology of crime. Journal of Theoretical and Philosophical Criminology Special Edition January: 90-98.
Crego, A. 2015. La seducción del lado oscuro. Investigación y Ciencia Scilogs 14 enero.
Dobzhansky, T. 1973. Nothing in Biology makes sense except in the light of Evolution. American Biology Teacher 35: 125-129.
Duntley, J.D. & D.M. Buss. 2004. The plausability of adaptations for homicide. En “The structure of the innate mind”. Ed. por P. Carruthers, S. Laurence & S. Stich. Oxford University Press. New York.
Duntley, J.D. & D.M. Buss. 2011. Homicide adaptations. Aggression and Violent Behavior 16: 399-410.
Falke, D. & C. Hildebott. 2017. Annual war deaths in small versus state societies scale with population size rather than violence. Current Anthropology DOI: 10.1086/694568
García, J.E. 2015. El comportamiento criminal desde un punto evolucionista. Persona 18: 27-46.
Geher, G. 2006. Evolutionary psychology is not evil! (… and here’s why…). Psychological Topics 15: 181-202.
Gómez, J.M. et al. 2016. The phylogenetic roots of human lethal violence. Nature 538: 233-237.
Gorelik, G. et al. 2012. Human violence and evolutionary consciousness. Review of General Psychology 16: 343-356.
Kelly, R.C. 2005. The evolution of lethal intergroup violence. Proceedings of the National Academy of Sciences USA 102: 15294-15298.
Liddle, J.R. et al. 2012. Why can’t we all just get along? Evolutionary perspectives on violence, homicide, and war. Review of General Psychology 16: 24-36.
Marina, J.A. & J. Rambaud. 2018. Biografía de la Humanidad. Historia de la evolución de las culturas. Ed. Ariel. Barcelona. 592 pp.
Morris, I. 2017. Guerra, ¿para qué sirve? Ático de los LIbros. Barcelona. 639 pp.
Moya Albiol, L. 2011. La violencia: la otra cara de la empatía. Mente y Cerebro 47: 14-21.
Oka, R.C. et al. 2017. Population is the main driver of war group size and conflicto casualties. Proceedings of the National Academy of Sciences USA DOI: 10.1073/pnas.1713972114
Parra, V. 2016. Aunque no lo parezca, cada vez hay menos asesinatos en el mundo. Yorokobu Blog 24 octubre.
Pinker, S. 2012. Los ángeles que llevamos dentro. El declive de la violencia y sus implicaciones. Paidós. Barcelona. 1152 pp.
Schroeder, H. et al. 2019. Unraveling ancestry, kinship, and violence in a Late Neolithic mass grave. Proceedings of the National Academy of Sciences USA DOI: 10.1073/pnas.1820210116
Up de Graff, F.W. 1961 (1921). Cazadores de cabezas del Amazonas. Siete años de exploración y aventuras. Espasa-Calpe. Madrid. 255 pp.
Victoroff, J. 2012. Emotional and evolutionary aspects of contagious violence. Forum on Global Violence Prevention, Washington DC, April 30.
Wilson, C. 1984. A criminal history of Mankind. Granada Publ. Ltd. London. 702 pp.
Winter, D.A. 2016. Construing homicide. En “The Wiley handbook of personal construct psychology”, p. 416-425. Ed. Por D.A. Winter & N. Reed. John Wiley & Sons. New York.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Preparados para matar: a modo de conclusión se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La barba humana
¿Se ha preguntado alguna vez acerca de la razón de ser de la cola del pavo real? Es espectacular, mucho más grande y colorida que la de la hembra. ¿Qué presión selectiva ha propiciado algo tan grande, aparatoso y lleno de color? Cuesta mantener un adorno de esas dimensiones y el coste van en detrimento de la satisfacción de otras necesidades.
La cola del pavo real, como muchos otros atributos, principalmente masculinos, se ha desarrollado en el mundo animal porque ha sido seleccionado por las parejas reproductivas, principalmente las hembras. Son rasgos que, al imponer un hándicap para la supervivencia y el potencial reproductor del macho, exigen a su poseedor un excelente estado de salud y forma física. Informarían, por ello, de su “aptitud” (fitness en términos darwinianos), de manera que las hembras se emparejarían con los machos que exhiben ese tipo de rasgos en sus versiones más exageradas. Serían los machos con “los mejores genes”, por así decir, los que mejor bagaje biológico pueden legar a su descendencia. Nada de esto es consciente, por supuesto. Se trata de mecanismos que operan de forma automática. A este proceso se le denomina selección sexual.
¿Se ha preguntado alguna vez por qué somos tan diferentes hombres y mujeres en lo relativo a la densidad del vello facial? Cuando un rasgo es muy diferente en los machos y las hembras de una especie, decimos que presenta dimorfismo sexual. Pues bien, en nuestra especie hay dimorfismo en lo relativo al vello facial. Formulemos ahora la pregunta en otros términos: ¿Se ha preguntado por qué los hombres tenemos barba y las mujeres no?
Probablemente responda que, como la cola del pavo real, la barba humana es el resultado de la selección sexual. Pensará, quizás, que las mujeres heterosexuales prefieren a los hombres barbudos como parejas. También una barba tiene sus contrapartidas: tiende a acumular restos de comida, atrae parásitos y, en algunos casos, dificulta la comunicación. Sin embargo, los hombres con barba son percibidos como más masculinos, dominantes y agresivos que los que vamos afeitados. Darwin, de hecho, pensaba que la barba era un ejemplo de selección sexual.
Seguramente no debe descartarse que la barba haya surgido en virtud de ese mecanismo. Sin embargo, hay posibilidades alternativas. La violencia física es mucho más frecuente entre hombres que entre mujeres, y cuando se pelean dos hombres, lo normal es que la cara sea el objetivo de los golpes. Le sonará eso de “le voy a partir la cara”, ¿no? De hecho, a eso se atribuye la anatomía ósea de la cara masculina, más robusta que la femenina.
Por esa razón se ha considerado la posibilidad de que la barba ofrezca protección física. Y lo que se ha observado mediante experimentos es que, efectivamente, protege los huesos de la mandíbula, que son los que con más facilidad se fracturan en las peleas entre dos individuos y cuyas consecuencias, antes de la llegada de la cirugía moderna, podían costar la vida. La protección se produce al reducir la fuerza del impacto sobre los tejidos subyacentes, gracias a la absorción y dispersión de la energía del golpe. El vello facial puede absorber hasta un 30% de la energía transferida mediante un impacto, una diferencia que puede resultar determinante de que se produzca o no la fractura de la mandíbula.
Estas conclusiones, no obstante, han de tomarse con cautela. Porque no siempre es posible deslindar el efecto de diferentes factores. Y esto es especialmente cierto si nos referimos a diferentes posibles presiones selectivas, que pudieron haber actuado a la vez, o también haberse sucedido en el tiempo.
Fuente: E A Beseris, S E Naleway, D R Carrier (2020): Impact Protection Potential of Mammalian Hair: Testing the Pugilism Hypothesis for the Evolution of Human Facial Hair Integrative Organismal Biology 2 (1) obaa005, https://doi.org/10.1093/iob/obaa005
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La barba humana se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Juan Ignacio Cirac – P4K 2019: ¿Cómo serán los ordenadores cuánticos?
¿Qué es un ordenador cuántico? ¿Qué hace que sea diferente? Y, de ser posible, ¿cuándo es razonable esperar que podamos tener uno que haga cosas que no haga uno convencional? Juan Ignacio Cirac, director de la División Teórica del Instituto Max-Planck de Óptica Cuántica y uno de los mayores expertos mundiales en información cuántica, responde a estas preguntas en esta excepcional conferencia.
La conferencia se impartió dentro del marco del festival Passion for Knowledge 2019 (P4K) organizado por el Donostia International Physics Center (DIPC).
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Juan Ignacio Cirac – P4K 2019: ¿Cómo serán los ordenadores cuánticos? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El precio de la electricidad es más volátil en épocas de incertidumbre en la regulación de renovables
Tres miembros del grupo de investigación BiRTE de la Facultad de Economía y Empresa de la UPV/EHU han analizado la evolución del precio de la electricidad durante un periodo de 16 años (desde el 2002 al 2017). El objetivo del estudio ha sido ver el efecto de distintos factores relacionados con la energía renovable en el precio de la electricidad. Como punto de partida, “es conocido que la incorporación de esta energía tiene un doble efecto: por un lado es que baja el precio, es decir, la energía que se transacciona es más barata, porque la energía renovable tiene un coste unitario de producción muy cercano a cero. Pero por el otro lado, aumenta la volatilidad del precio, las fluctuaciones que se dan en el precio, porque como es una energía intermitente, no siempre se puede garantizar la generación, y por tanto, la disponibilidad”, explica Aitor Ciarreta Antuñano, investigador principal del grupo de investigación BiRTE y coautor de la presente publicación.
Sin embargo, el grupo de investigación quiso dar un paso más en el análisis de la volatilidad, e incorporar en el análisis la influencia que tiene el marco regulatorio, las políticas que regulan la instalación de plantas de energía renovable y las ayudas con las que se incentivan. “El marco regulatorio es muy importante en el mercado eléctrico, y además está muy influenciado por las directivas europeas. Hemos querido ver si los periodos en los que ha habido incertidumbre en este aspecto han influido en la volatilidad del precio de la electricidad”, comenta Ciarreta. Para ello, “construimos un modelo estadístico con los datos de los precios eléctricos del mercado español, que abarcaba los datos de un periodo de 16 años”, para poder ver en base a qué indicadores variaba la volatilidad.
El análisis estadístico de los datos puso de manifiesto “un agrupamiento o cluster de volatilidad en el periodo concreto en el que hubo una incertidumbre en el marco regulatorio en España”. En el periodo analizado, desde el 2002 al 2017, el doctor en Economía destaca que se diferencian “fases en las que existe un marco regulatorio muy estable, como la que se dio entre el 2007 y el 2012, donde se ofrecían unas ayudas directas a la generación de energía eléctrica renovable. En el año 2012, sin embargo, hubo un cambio en la reglamentación, que no se estabilizó hasta el 2014, y esos dos años de incertidumbre regulatoria coinciden con el periodo en el que se registró el mayor nivel de volatilidad de los precios de la electricidad, que nada tiene que ver con el hecho de que las energías renovables provoquen cierta volatilidad por su naturaleza intermitente. A los agentes económicos les perturba más la incertidumbre asociada a las políticas reguladoras”.
El periodo de incertidumbre regulatoria descrito fue provocado por diferentes factores, tal como describe Ciarreta: “A partir del año 2010 la crisis económica llegó también al mercado eléctrico, y esta crisis se vio acentuada por el alto crecimiento de déficit que se había producido en el periodo anterior, donde estaba regulado un nivel de financiación de renovables tal, que llegó a representar casi el 3 % del PIB. Además, la Unión Europea también estaba presionando bastante a España para que controlara ese déficit”.
Ante esa situación el gobierno intentó articular un nuevo sistema que promoviera las energías renovables, porque, por otra parte, España tenía que cumplir con los objetivos de disminución de emisiones de CO2. Encontrar y establecer el nuevo sistema le llevó dos años, y cuando se implantó, volvió la certidumbre a los mercados. “La tasa de retorno que ofrece el nuevo sistema regulatorio es menor, y se puede estar más o menos de acuerdo con lo establecido, pero vemos que eso no afecta a la volatilidad del precio de la electricidad, afecta mucho más la incertidumbre. A los inversores les da mayor seguridad saber a qué deben atenerse —comenta el investigador—. Y a fin de cuentas, también nos afecta a la ciudadanía, porque la mayoría estamos acogidos a tarifas que dependen del precio de mercado diario”, añade.
El investigador considera que los resultados obtenidos en este análisis deberían servir “como llamada de atención a los reguladores, para que no tomen medidas de cambio de regulaciones a la ligera, y que mantengan la regulación lo más estable posible. Y si van a hacer algún cambio, que permitan a los agentes reaccionar de tal manera que no introduzcan incertidumbre en los mercados eléctricos”.
Referencia:
Aitor Ciarreta, Cristina Pizarro-Irizar, Ainhoa Zarraga (2020) Renewable energy regulation and structural breaks: An empirical analysis of Spanish electricity price volatility Energy Economics doi: 10.1016/j.eneco.2020.104749
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El precio de la electricidad es más volátil en épocas de incertidumbre en la regulación de renovables se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La caracola más grave del mundo
«El caracol debía tocar el trombón que lleva a cuestas.»
Ramón Gómez de la Serna. Greguerías.
Steve Turre es un virtuoso del trombón, arreglista y compositor de jazz estadounidense. Con más de cincuenta años de carrera a sus espaldas, veinte discos liderados por él e incontables colaboraciones, se ha convertido en uno de los trombonistas más prolíficos de la historia del jazz. Sin embargo, cuando uno busca su nombre en internet es mucho más fácil asociarlo a sus sorprendentes habilidades con otro instrumento de viento metal: la caracola. O, mejor dicho, las caracolas. En cada concierto, Turre alterna entre conchas vacías como un pulpo avaricioso en una mariscada. No es por presumir de instrumentos, ni un síntoma de indecisión. Cada una le ofrece un color propio, un timbre nuevo y, sobre todo, la capacidad de tocar una nota distinta.
Fuente: Wikimedia CommonsEl tono de un instrumento depende de su forma y, sobre todo, de su tamaño. En una caracola grande, el aire tarda más en recorrer la cámara de resonancia, por lo que las ondas estacionarias que se forman en su interior son más largas o, lo que es lo mismo, tienen un sonido más grave. Las caracolas pequeñas, en cambio, producen sonidos más agudos. Por ese mismo motivo, casi todos los instrumentos de una orquesta se estructuran en familias: un mismo artilugio que, a distintas escalas, consigue producir rangos de frecuencias diferentes.
Octobajo y violino piccolo. Créditos: Fotografía de Henrik Beck / nyMusikk.La familia orquestal más conocida es, sin duda, la de la cuerda frotada. Probablemente, porque todos sus miembros tienen un nombre propio y ocupan un montón de hueco en el escenario. Mientras que los distintos saxofones, por poner ejemplo, se distinguen únicamente mediante su apellido (saxofón tenor, alto, soprano…), los violines mutan en violas, violonchelos y contrabajos según van aumentando de peso1. Pero existen también otros miembros menos conocidos dentro de esta gran familia. Los luthiers fabrican violines fraccionarios para los violinistas de brazos diminutos. En el extremo opuesto encontramos el gigantesco octabajo de 4 metros de altura. No existen gigantes que puedan trepar por sus cuerdas, así que el instrumento cuenta con una serie de trastes y palancas que permiten pulsarlas. Fue inventado a finales del siglo XIX por Jean Baptiste Vuillaume y se llama así por producir sonidos una octava más graves que los de un bajo. Como resultado, el octabajo suena a truenos y a rugir de tripas. Alcanza, de hecho, el límite de nuestro rango auditivo.
No existe un equivalente del tamaño del octabajo en la familia de las caracolas. Pero si hubiese que elegir uno, sin duda sería miembro de la especie Syrinx aruanus. Estos gasterópodos pueden alcanzar casi un metro de altura y llegar a pesar 18 kg. El espécimen más grande conocido se encuentra en el Museo de Ciencias Naturales de Houston y tiene una altura de 91 centímetros. Con este dato y gracias a las propiedades geométricas de su espiral logarítmica podemos calcular la longitud de su cavidad interna: unos 3 metros, según la foto que se encuentra en la Wikipedia. Ahora, para calcular su frecuencia, debemos modelar la caracola como un cono cerrado en un extremo (la punta desde donde se sopla) y abierto en el opuesto. En ese sentido, sería parecida a un saxofón o a una tuba. En un tubo cónico, la frecuencia fundamental se calcula como f=c/2L, siendo c la velocidad del sonido y L, la longitud del tubo.
Otros instrumentos cónicos son el saxofón y la tuba. El saxofón más grave del mundo, de apellido subcontrabajo y con una altura superior a 2 metros (lo que equivale a una longitud de unos 6 metros según calculo a ojo), alcanza sonidos de 29 Hz. No fue posible construirlo hasta 1999. La tuba de la misma tesitura, cuyo tubo se pierde en un nido de espirales mucho más difícil de seguir, retumba hasta una frecuencia parecida. La caracola más grave del mundo, en cambio, se parece mucho más a una trompa alpina; se podría decir que no es más que su versión desenrollada. Aunque este instrumento tiene una tesitura menos estandarizada que la del saxofón o la tuba, su voz resuena en los graves sin llegar a la tenebrosa caverna de los subcontrabajos. Más o menos, a partir del do2 o 65 hercios: la nota más grave del bajo más profundo; el sonido más grave que un ser humano puede cantar.
Trompa alpina. Fuente: Wikimedia Commons
Nota:
1Por motivos históricos, existen diferencias entre las propiedades acústicas de estos instrumentos. Ha habido propuestas en el siglo XX para cambiar esto, como el octeto de violín.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo La caracola más grave del mundo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las curiosas reglas de divisibilidad (II)
En la anterior entrada del Cuaderno de Cultura Científica titulada Las curiosas reglas de divisibilidad presentamos algunos criterios de divisibilidad de los números de un solo dígito, es decir, de las cifras básicas -no nulas- de nuestro sistema de numeración, y de algún número más, como 11, 12, 13 o 15.
En esta entrada vamos a seguir analizando las reglas de divisibilidad de la aritmética. Algunos son nuevos criterios para números ya vistos, como 7, 8 u 11, mientras que otros serán de números nuevos, como el 17. Además, muchos de estos criterios, incluidos algunos de los vistos en la entrada anterior, emanan de una idea general de la divisibilidad, el criterio de Pascal.
Infinito a Cannaregio (2019), del artista italiano Tobia Rava. Imagen de la galería Sist’Art
Reglas de divisibilidad del número 7. En la anterior entrada ya vimos un criterio para el número 7, que la suma alternada de los grupos de tres dígitos del número, empezando por la derecha, también sea divisible por 7. Por ejemplo, sabemos que el número 417.885.713 es divisible por 7 porque 713 – 885 + 417 = 245 también lo es, 245 = 7 x 35.
Pero existen más reglas de divisibilidad para este número. Los primeros criterios que vamos a mostrar son bastante sencillos de aplicar, si se hace de forma recursiva. La primera regla dice:
Un número es divisible por 7 si, y sólo si, la resta de dos veces el dígito de las unidades del resto de los dígitos del número es divisible por 7.
Por ejemplo, si tomamos el número 539, como 53 – 2 x 9 = 35, entonces es divisible por 7, mientras que 713 no lo es, ya que 71 – 2 x 3 = 65. Y para números grandes se puede utilizar de forma recursiva, así el número 4.357 será divisible por 7 si lo es 435 – 2 x 7 = 421, pero este lo será si 42 – 2 x 1 = 40 lo es. Pero 40 no es divisible por 7, luego tampoco 421, ni 4.357. Para números con muchos dígitos puede ser un criterio un poco largo, aunque efectivo.
El motivo por el que funciona este criterio es que el 21 es divisible por 7. Dado un número N, este puede escribirse de la forma N = 10 a + b, donde b son las unidades, y si fuese múltiplo de 7 se podría expresar de la forma 7k. Por lo tanto, si le restamos la cantidad 21b, entonces se obtiene que 10a – 20b = 7k – 21b, es decir, la igualdad
10 (a – 2b) = 7 (k – 3b),
de donde sale el criterio, ya que N es divisible por 7 si, y sólo si, a – 2b lo es.
Un razonamiento similar, pero utilizando que 49 es divisible por 7, nos permite obtener otro criterio muy parecido:
Un número es divisible por 7 si, y sólo si, la suma de cinco veces el dígito de las unidades y el resto de los dígitos del número también lo es.
Es decir, si escribimos el número como 10 a + b, este es divisible por 7 si, y sólo si, a + 5b lo es. Por ejemplo, tomemos el número 3.791, este será divisible por 7 si lo es 379 + 5 x 1 = 384, que a su vez es divisible por 7 si lo es 38 – 5 x 4 = 18, que como no lo es, en consecuencia, no lo es ninguno de los anteriores, ni 384, ni 3.791.
Y el mismo tipo de argumento nos lleva, por ejemplo, a obtener el siguiente criterio:
Un número es divisible por 7 si, y sólo si, la suma del dígito de las unidades y tres veces el resto de los dígitos del número es divisible por 7.
Es decir, si escribimos el número como 10 a + b, este es divisible por 7 si, y sólo si, 3a + b lo es. Curiosamente, en el Talmud, que como señala el diccionario de la RAE es el “libro que contiene la tradición oral, doctrinas, ceremonias y preceptos de la religión judía”, está escrito otro criterio similar a los anteriores, basado en el hecho de que 98 es divisible por 7, que dice que 100 a + b es divisible por 7 si, y sólo si, 2a + b lo es.
Un reto sencillo para las personas que estáis leyendo esta entrada del Cuaderno de Cultura Científica consiste en probar estas tres últimas reglas de divisibilidad, de forma paralela a como hemos hecho para la primera.
Número 7 (2011), del artista conceptual danés de origen vietnamita Danh Vô. Imagen de la página web de Sotheby’sPara la siguiente regla de divisibilidad se necesitan los restos de dividir por 7 las potencias de 10, asociadas a la representación decimal de los números. Como 100 = 1, 101 = 7 + 3, 102 = 7 x 14 + 2, 103 = 7 x 142 + 6, 104 = 7 x 1.428 + 4 y 105 = 7 x 14.285 + 5, los restos de dividir las anteriores potencias de 10 por 7 son 1, 3, 2, 6, 4, 5 y para las siguientes potencias de 10 los restos se repiten de forma cíclica 1, 3, 2, 6, 4 y 5.
El criterio dice lo siguiente:
Un número es divisible por 7 si, y sólo si, al multiplicar los dígitos del número por el resto correspondiente a la potencia de 10 de su posición, el resultado es divisible por 7.
Veamos el criterio mediante un ejemplo concreto. El número 234.647 será divisible por 7 si lo es 2 x 5 + 3 x 4 + 4 x 6 + 6 x 2 + 4 x 3 + 2 x 1 = 77, luego sí lo es (77 = 7 x 11).
Veamos la justificación de esta regla de divisibilidad del 7 para números de seis dígitos, aunque realmente funciona para cualquier cantidad de dígitos. Sea un número de seis dígitos a5a4a3a2a1a0, entonces
Por lo tanto, N es divisible por 7 si, y sólo si, (a5 x 5) + (a4 x 4) + (a3 x 6) + (a2 x 2) + (a1 x 3) + (a0 x 1) también es divisible por 7.
De hecho, podríamos ir un poco más allá para simplificar esta regla. Como 7 = 7 + 0, 8 = 7 + 1 y 9 = 7 + 2, podemos sustituir, a la hora de aplicar la regla al número, el 7 por 0, el 8 por 1 y el 9 por 2, en el número original. Así, para saber si el número 144.879, basta verlo para el número 144.102, así como 1 x 5 + 4 x 4 + 4 x 6 + 1 x 2 + 0 x 3 + 2 x 1 = 49, entonces sí es divisible por 7.
Litografía de Blaise Pascal. Imagen de Wellcome Collection
De hecho, este es solamente un caso particular del criterio de Pascal, que introdujo el matemático francés Blaise Pascal (1623-1662), de quien ya hablamos en la entrada Blaise Pascal, Dios y la cicloide, en su libro De Numeris Multiplicibus. El criterio de Pascal es el siguiente.
Criterio de Pascal: Un número N = an an–1 … a2 a1 a0, es decir,
es divisible por un número m si, y sólo si, el número
es divisible por m, donde rk es resto de dividir 10k por m (r0 = 1).
La demostración del criterio de Pascal es similar a la explicación que hemos dado para la última regla de divisibilidad del 7.
Muchas de las reglas vistas en la entrada Las curiosas reglas de divisibilidad son realmente consecuencia del criterio de Pascal. Por ejemplo, si miramos de nuevo a la regla de divisibilidad del 3, realmente se utiliza que el resto de dividir las potencias de 10 por 3 es siempre 1, por eso sale que la suma de los dígitos del número debe ser divisible por 3.
A continuación, vamos a mostrar un pequeño truco de magia que el divulgador estadounidense Martin Gardner (1914-2010) nos enseñó en su columna de juegos matemáticos en la revista Scientific American. Aunque no es una aplicación de las reglas de la divisibilidad, si tiene que ver con la divisibilidad. En concreto, está relacionado con el hecho, visto en la anterior entrada, de que 1.001 = 7 x 11 x 13.
Portada de la revista Scientific American de 1958 con una ilustración del artículo “How rectangles, including squares, can be divided into squares of unequal size” de la columna de juegos matemáticos de Martin GardnerEl truco conocido como El misterio de las mil y una noches consiste en lo siguiente. Se le pide a una persona de nuestro “público” que piense en un número de tres cifras –ABC– y que lo escriba en una calculadora, que tendremos preparada para el truco. Después se le pide que vuelva a escribir, seguido, el mismo número, quedando entonces en la calculadora ABCABC. Nosotros no debemos saber el número y lo mejor es que estemos de espalda al “público” para que no haya sospechas.
Luego llega el momento de adivinar el número que ha pensado esa persona y hay que hacerlo con teatralidad. Puede empezar diciéndose algo así como “esperad que me concentre en el número que está escrito en la calculadora, estoy captando algo, sí creo que sí, … si no me equivoco es divisible por el número de la mala suerte, el 13”. Le pedimos que lo compruebe, que divida el número que está en la calculadora –ABCABC– por 13. Y se le pregunta, “¿Es cierto? ¿Era divisible por 13?” y cuando nos diga que sí, volvemos al teatro de mentalista.
Se puede seguir diciendo algo así como “sigo teniendo una sensación extraña, me parece que … sí, también creo que es divisible por el número de la buena suerte, el 7. ¿Estaré equivocado? ¿Divide el número que tienes en la calculadora por 7?¿Se ha podido dividir?”. Realizará la división –el resultado de dividir ABCABC por 13, lo divide ahora por 7– y contestará que sí.
Llega entonces el momento final del truco. El mago debe seguir ejerciendo de mentalista y decir algo así como “Percibo más cosas… percibo un uno, qué raro … espera … no, son dos unos, es el número 11 … divide el número que te ha quedado por 11”. Cuando la persona del “público” realice esa división, llega el efecto final… “fíjate bien en la pantalla de la calculadora, ¿no es ese el número que habías pensado?” y efectivamente, ahí está el número que había pensado, ABC.
El truco es muy sencillo y funciona porque ABCABC = 1.001 x ABC, pero 1.001 = 7 x 11 x 13.
Lucky number 8 (2012), de la artista Belinda Capol. Imagen de la página web de Belinda CapolLas reglas de divisibilidad del 8. Con el número 8 también podemos dar criterios de los dos tipos que hemos mostrado para el número 7, además del que mostramos ya en la anterior entrada. Un criterio de la primera clase es:
Un número 10 a + b es divisible por 8 si, y sólo si, 2a + b es divisible por 8.
Veamos un ejemplo. El número 5.176 será divisible por 8 si lo es 2 x 517 + 6 = 1.040, que a su vez es divisible por 8 si lo es 2 x 104 + 0 = 208, que claramente es divisible por 8, aunque podríamos volver a usar el criterio, ya que 2 x 20 + 8 = 48, divisible por 8.
Si ahora adaptamos el criterio de Pascal al número 8, necesitamos los restos de dividir las potencias de 10 por 8, que son 1, 2, 4 y el resto 0, ya que 1.000 y las potencias mayores son todas múltiplos de 8 (pensemos que cada 10 aporta un 2). Por lo tanto, el criterio de Pascal para el 8 queda:
Un número es divisible por 8 si, y sólo si, el resultado de sumar el dígito de las unidades, dos veces el de las decenas y cuatro veces el de las centenas es divisible por 8.
Veámoslo con el número anterior, 5.176, para el que 6 + 2 x 7 + 4 x 1 = 24, divisible por 8, como ya sabíamos.
Las reglas de divisibilidad del 11. El criterio visto en la anterior entrada, la suma alternada de sus dígitos (es decir, se va alternando suma y resta) es divisible por 11, no es el criterio de Pascal, pero está muy cerca, puesto que como demostramos entonces las potencias de 10 son casi múltiplos de 11, un número arriba o debajo de un múltiplo de 11.
Como 11 es mayor que 10, podemos aplicar la misma idea del criterio de Pascal, pero para la expresión del número como potencias de 100 y tomar los restos de dividir estas potencias por 11 (aunque también nos valdría para otros números de dos dígitos). Por ejemplo, el número 979.957 lo podemos expresar de la forma 97 x 1002 + 99 x 100 + 57. De esta forma, se puede demostrar un nuevo criterio de tipo Pascal:
Criterio de tipo Pascal: Un número N = an an–1 … a2 a1 a0(con una cantidad par de dígitos, en caso contrario es como si tuviese el dígito 0 a la izquierda, para que sea par), es decir,
es divisible por un número m si, y sólo si, el número
es divisible por m, donde rk es resto de dividir 102k por m (r0 = 1).
Como el resto de dividir las potencias de 100 por 11 siempre es 1, la regla de divisibilidad que se genera es:
Un número es divisible por 11 si, y sólo si, también lo es el resultado de sumar los grupos de dos dígitos (desde la derecha) del número.
Por ejemplo, 3.719 no es divisible por 11 ya que 37 + 19 = 56 no lo es. Sin embargo, el número anterior, 979.957, sí lo es ya que 97 + 99 + 57 = 253 es divisible por 11, para lo cual volvemos a utilizar el criterio, 53 + 2 = 55, múltiplo de 11.
O podemos dar algún criterio del otro tipo, como:
Un número 10 a + b es divisible por 11 si, y sólo si, a – b es divisible por 11.
Once, del artista Kevin P. Robinson. Imagen de la página web de Kevin P. RobinsonAntes de ver más criterios, incluyamos uno de esos problemas de ingenio que tanto nos gustan, relacionado con este tema.
Problema: Encontrar el número capicúa más pequeño que es divisible por 3, 5 y 11.
Os animo a que lo resolváis por vosotros mismos, ya que es sencillo y lo divertido con los juegos es intentarlo uno mismo. De todas formas, damos a continuación la solución al mismo.
Como se trata de un número divisible por 5, debe terminar en 0 o 5, pero como no hay números que empiecen por 0 (a la izquierda), necesariamente el primer y último dígitos debe ser 5. Solo hay uno con dos dígitos –55–, pero no es divisible por 3. De tres dígitos que sean múltiplos de 3, por la regla de divisibilidad del 3, están 525, 555, 585, pero ninguno es múltiplo de 11, ya que la suma alternada de sus dígitos –8, 5 y 2, respectivamente– no es en ningún caso múltiplo de 11. Cualquier número capicúa de cuatro dígitos es divisible por 11 (en general, todos los números capicúas con una cantidad par de dígitos, como vimos en la entrada Las curiosas reglas de divisibilidad, son divisibles por 11), luego solo hay que buscar el número más pequeño de la forma 5aa5, divisible por 3, es decir, 5.115.
Toro algorítmico (2018), del artista italiano Tobia Rava. Imagen de la galería Sist’ArtLas reglas de divisibilidad del 13. La regla de divisibilidad del 13 vista en la anterior entrada del Cuaderno de Cultura Científica es la misma que para 7 y 11, que la suma alternada de los grupos de tres dígitos del número, empezando por la derecha, también sea divisible por 13. Pero podemos dar algunos criterios similares a los del primer tipo estudiados para el 7.
Criterio 1: Un número 10 a + b es divisible por 13 si, y sólo si, a + 4b es divisible por 13.
Criterio 2: Un número 100 a + b es divisible por 13 si, y sólo si, 4a – b es divisible por 13.
Criterio 3: Un número 10 a + b es divisible por 13 si, y sólo si, a – 9b es divisible por 13.
Veamos la divisibilidad por 13 del número 8.333. Por el criterio 1 sería divisible si lo es 833 + 4 x 3 = 845, que a su vez lo será si lo es 84 + 4 x 5 = 104, que es divisible por 13 ya que 10 + 4 x 4 = 26.
Aplicando el criterio 2, 8.333 es divisible por 13 si lo es 4 x 83 – 33 = 299, que es múltiplo de 13, puesto que 4 x 2 – 99 = 91, que es siete veces 13.
Y mediante el criterio 3, tenemos 833 – 9 x 3 = 806 y a partir de este, 80 – 9 x 6 = 26.
Casa no. 13, del artista alemán Jack N. Mohr. Imagen de la página Saatchi ArtLas reglas de divisibilidad del 17. Para este número se pueden encontrar, de nuevo, varios criterios de divisibilidad del primer tipo, aunque vamos a citar solamente uno.
Un número 10 a + b es divisible por 17 si, y sólo si, a – 5b es divisible por 17.
Por ejemplo, el número 289 es divisible por 17 ya que 28 – 5 x 9 = – 17, lo es.
Como hicimos para el número 11 podemos intentar aplicar el criterio de tipo Pascal anterior para el número 17. Para lo cual necesitamos conocer los restos de dividir las potencias de 100 por 17, que son (además del resto inicial 1) los siguientes: el resto de dividir 100 por 17 es 15, pero como es muy grande y nos interesa los múltiplos de 17, podemos restarle 17, quedando – 2; el resto para 1002 es 4; el resto para 1003 es 9; el resto para 1004 es 16, que restándole 17 queda – 1; el resto para 1005 es 2; y así podríamos seguir.
Veamos un ejemplo de aplicación de este criterio de tipo Pascal para el número 17. Tomemos el número 333.333.331 (más adelante entenderemos el motivo de elegir este), será divisible por 17 si lo es
3 x (– 1) + 33 x 9 + 33 x 4 + 33 x (– 2) + 31 x 1 = 391,
que es múltiplo de 17 (al multiplicarlo por 23), aunque podemos utilizar una vez más el criterio, por lo que 391 es múltiplo de 17 si lo es
3 x (– 2) + 91 x 1 = 85,
que es 17 x 5. Por lo tanto, el número 333.333.331 se puede dividir por 17.
Instalación con post-its del número 17 en el Centro Comercial de Munich, en 2011, del artista Andreas Kopp, dentro de un proyecto de post-it-artVeamos una cuestión sobre patrones de números primos que se puede leer en el libro de Martin Gardner, Huevos, nudos y otras mistificaciones matemáticas.
Si se observa la sucesión de números 31, 331, 3.331, 33.331, 333.331, 3.333.331, 33.333.331… se verá que esos primeros miembros son todos números primos, la cuestión es si toda la sucesión será de números primos y en caso contrario, cuál es el primero que no lo es.
Las reglas de la divisibilidad no son la mejor herramienta para resolver este problema, ya que con una calculadora podemos hacer rápidamente algunas cuentas y observar la solución. Además, ya hemos probado más arriba que el siguiente miembro de la sucesión 333.333.331 es divisible por 17, luego no primo. De hecho,
333.333.331 = 17 x 19.607.843.
Sin embargo, podemos utilizar las reglas de la divisibilidad para obtener algunas conclusiones generales sobre esta sucesión de números, 31, 331, 3.331, etc.
Claramente, los miembros de esa sucesión no son múltiplos de 2 o 5, ya que el dígito de las unidades es 1. Tampoco ningún miembro es múltiplo de 3, ya que la suma de sus dígitos es de la forma 3 k + 1, donde k es el número de treses que tiene el número, luego nunca puede ser múltiplo de 3.
Veamos qué pasa con el siguiente primo, el 7. Si utilizamos el criterio de que un número 10 a + b es divisible por 7 si, y sólo si, lo es a – 2b, se observa que, para cada miembro de la sucesión, al aplicar el criterio se genera el miembro anterior. Por ejemplo, dado 3.331, este sería divisible por 7 si lo fuese 333 – 2 x 1 = 331, que es el elemento anterior. Por lo tanto, como los primeros miembros de la sucesión son primos, ningún elemento de esta sucesión es múltiplo de 7.
Si utilizamos la regla de divisibilidad del 11 de las sumas alternadas, observaremos que las sumas alternadas de los miembros de la sucesión 31, 331, 3.331, 33.3331, … son siempre 2 y 1, repitiéndose de forma cíclica, luego nunca múltiplos de 11. De la misma forma, si se utiliza el criterio de divisibilidad del 13 de las sumas alternadas de los grupos de tres dígitos, se obtienen siempre las sumas – 328, – 298, 2, 1, 31 y 331, repitiéndose de forma cíclica, luego tampoco son múltiplos de 13.
Resumiendo, con estos criterios de divisibilidad, hemos probado que los miembros de la sucesión infinita
31, 331, 3.331, 33.331, 333.331, …
no son divisibles por los números primos 2, 3, 5, 7, 11 y 13.
Podríamos dar reglas de divisibilidad para más números, pero “creo que lo dejaré aquí” (véase la entrada Euler y el último teorema de Fermat, para ver donde esta última expresión tuvo un sentido muy especial).
Sidewalk white, del artista canadiense Michael Soltis. Imagen de la página web de Michael SoltisBibliografía
1.- Martin Gardner, The Unexpected Hanging and other Mathematical Diversions, University of Chicago Press, 1991.
2.- Branislav Kisacanin, Mathematical Probems and Proofs, Kluwer, 2002.
3.- Wikipedia: Divisibility rule
4.- James J. Tattersall, Elementary Number Theory in Nine Chapters, Cambridge University Press, 1999.
5.- Página web del artista Tobia Ravá
6.- Página web del artista Andreas Kopp
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Las curiosas reglas de divisibilidad (II) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Rayos alfa, beta y gamma
Una vez que se conocieron las extraordinarias propiedades del radio, el interés en ellas se disparó tanto dentro como fuera del mundo científico, y el número de personas que pasaron a estudiar el fenómeno aumentó rápidamente, tanto desde el punto de vista puramente científico como en sus aplicaciones, digamos, “prácticas”.
Desde que el mundo es mundo los estafadores han intentado hacer negocio con la incultura científica popular, con base en lo último que asomaba a los medios generalistas. Parche de mineral de radio curalotodo. Completamente natural porque solo contiene mineral de radio silvestre. En fin. Fuente: OobjectLa cuestión principal que atrajo la atención científica fue: ¿qué son las misteriosas radiaciones emitidas por los cuerpos radiactivos?
En 1899, Ernest Rutherford, en lo que serían los primeros pasos de lo que después resultaría en su teoría del átomo nuclear, comenzó a buscar respuestas a esta pregunta. Rutherford descubrió que una muestra de uranio emite al menos dos tipos distintos de rayos: uno que se absorbe muy fácilmente, que llamó rayos α (rayos alfa) [1], y el otro más penetrante, que llamó rayos β (rayos beta) . Un año después, en 1900, Paul Ulrich Villard observó que la emisión del radio contenía rayos mucho más penetrantes que incluso los rayos β; este tipo de emisión recibió el nombre de rayos γ (gamma). El poder de penetración de los tres tipos de “rayos”, como se conocían en ese momento, lo midió Rutherford en términos del espesor necesario que tenía que tener una lámina de aluminio para absorberlos completamente. En 1903 publicó una tabla fiable de valores:
Rayos alfa → 0,0005 cm
Rayos beta → 0,05 cm
Rayos gamma → 8 cm
Por lo tanto, los «rayos Becquerel» eran más complejos de lo que se había pensado. Y eso que aún no se había determinado la naturaleza de los distintos tipos de rayos. De los tres tipos de rayos, los rayos alfa son los más fuertemente ionizantes y los rayos gamma los menos. El poder de penetración es inversamente proporcional al poder de ionización. Esto es lógico: el poder de penetración de los rayos alfa del uranio es bajo porque “gastan” su energía muy rápidamente en causar una ionización intensa.
Los rayos alfa emitidos por una fuente son casi todos [2] absorbidos por aproximadamente 0.0005 cm de aluminio, o por una hoja de papel de escribir ordinario o por unos pocos centímetros de aire. Los rayos beta se detienen por completo solo después de viajar muchos metros en el aire, o 0.05 cm en aluminio. Los rayos gamma pueden atravesar muchos centímetros de aluminio o plomo, o un metro de hormigón, antes de ser absorbidos casi por completo [2].
Una consecuencia de estas propiedades de los rayos es que a veces se necesita un blindaje muy pesado y muy caro para proteger a las personas de los efectos nocivos de los rayos cuando estudian o usan estas radiaciones, ya sea en aceleradores, reactores nucleares o instalaciones radioterápicas o de radiodiagnóstico. En algunos casos estos blindajes alcanzan los 3 metros de grosor.
Los rayos de las sustancias radiactivas ionizan y, en consecuencia, descomponen las moléculas que constituyen las células vivas, causando «quemaduras» por radiación, y lesiones fatales en las células. Estos daños pueden conducir al crecimiento de células cancerosas y a la aparición de mutaciones peligrosas en la estructura de las moléculas de ADN. [3]
Notas:
[1] De alguna forma tenía que llamarlos. Así que, como había varios tipos pero no sabía a priori cuantos decidió usar el alfabeto griego, por llevar una sistemática: alfa, beta, gamma, delta, épsilon, etc.
[2] Esto es un valor estadístico. Es decir, si le das el tiempo suficiente algún rayo va a atravesar lo que sea. Por lo tanto hay que poner un límite: si en determinado tiempo la cantidad de rayos que se detectan es menor que cierto valor umbral, entonces podemos decir que, a efectos prácticos, los rayos no atraviesan.
[3] No, ni la wifi, ni el 5G, ni la televisión ionizan. No tienen energía para ello. Rock FM provoca la ionización del pelo, pero eso es solo porque los melenudos que tocan la guitarra de aire mientras la escuchan sacuden la cabeza.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Rayos alfa, beta y gamma se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La Covid-19 revoluciona el sistema de publicación científica
Elea Giménez Toledo y Antonio Lafuente
Foto: REVOLT / UnsplashEn los últimos meses hemos visto abundancia de prepublicaciones y estudios sobre la COVID-19 y el coronavirus que la provoca. El motivo está en la necesidad de contar de manera inmediata con evidencias y resultados fiables.
En este periodo se han detectado tres tipos de reacciones en la comunidad científica: la de la propia comunidad académica, la de la editorial y la de los especialistas en Inteligencia Artificial (IA), tecnología semánticas y recuperación de información.
Más de una veintena de artículos sobre la COVID-19 han sido retractados, según The Retraction Watch.
Algunos de los estudios retirados habían sido publicados en revistas muy prestigiosas del área –The Lancet y The New England Journal of Medicine–, lo que ha provocado que se cuestionara de nuevo el sistema de revisión por expertos (peer review).
Este sistema representa el primer filtro y la validación por parte de especialistas de los contenidos de un artículo. Las críticas a este proceso han existido siempre, pero en esta ocasión, por el impacto social de la pandemia, han traspasado la frontera de la comunidad científica y alcanzado la esfera pública a través de los medios de comunicación.
La propia comunidad científica ha reivindicado durante la pandemia la necesidad de velar por la calidad de los contenidos y su solidez antes de la publicación.
En este tema, se identifican posiciones para todos los gustos. Vincent Lariviére, un especialista en estudios de la ciencia, dijo recientemente:
Si la revisión por pares fuera un fármaco no llegaría al mercado, ya que no tenemos claras sus ventajas pero conocemos muchos efectos adversos.
Otros defienden el método, aceptando sus limitaciones. Tal y como lo ven algunos expertos, estas retractaciones son la muestra de que la comunidad científica cuida constantemente de los resultados que se producen y se autocorrige.
El peer review no acaba cuando se publica un artículo. Implica un primer control sobre los contenidos, que se produce dentro del equipo editorial de una revista, y con el peso específico de dos o tres evaluadores para cada artículo. Naturalmente, no es un proceso exento de errores. Pero allí donde falla el sistema está la propia comunidad académica que detecta fallos, identifica carencias y descubre debilidades.
Por otra parte, no es solo que los ojos de los académicos estén alerta ante lo que se publica. La publicación científica forma parte de un complejo ecosistema, en el que cada vez hay más herramientas y prácticas científicas recomendadas que permiten incrementar las garantías sobre lo que se publica.
Una de ellas, especialmente relevante en estos días, es la vinculación de un artículo a datos abiertos en los que se basa y su cumplimiento de los principios FAIR (Encontrable, Accesible, Interoperable y Reusable, por sus siglas en inglés, que significan “justo”).
Las reacciones de la comunidad editorial
Más allá de los naturales llamamientos por parte de las asociaciones de editoriales para asegurar la calidad y la agilidad en la evaluación de originales, han sido especialmente destacadas las iniciativas colaborativas entre editoriales.
Se ha visto que la solución al problema de contar con artículos de rápida publicación, pasaba por compartir procesos y recursos. También por crear vasos comunicantes entre estructuras que antes no estaban comunicadas, precisamente por cuestiones de mercado, de competencia entre revistas.
Acelerar las revisiones de los artículos y facilitar el intercambio de informes de revisión entre revistas han sido fórmulas para garantizar revisiones rápidas, pero con garantías.
Si ha habido un foco de interés en esta época de pandemia, que además ha marcado un cambio en la comunicación científica, han sido los servidores de prepublicaciones como MedRxiv y BioRxiv.
Con un crecimiento imprevisto e inundados de artículos (5071 medRxiv, 1317 bioRxiv) han tenido que comenzar a filtrar y rechazar de partida algunos artículos que derivaban a revistas científicas para que los trabajos pasaran por los correspondientes procesos de revisión. Eso hizo bioRxiv con los estudios predictivos basados en cálculo computacional. El riesgo de hacer públicas investigaciones no contrastadas puede causar mucho daño.
Al margen de la gestión de los repositorios de prepublicaciones, son destacables las nuevas iniciativas entre editoriales, por cuanto cambian las dinámicas de lo editorial. PreReview es un ejemplo: una plataforma que permite a cualquier investigador identificado mediante su ORCID solicitar la revisión de una prepublicación.
Esa petición será atendida por toda una red de evaluadores que se han comprometido a realizar evaluaciones rápidas, basadas en un cuestionario estructurado y que conducen a decidir si ese texto debe pasar a revisión por expertos, ya en el marco de una revista científica.
Así se crea el vaso comunicante, pues se produce un trasvase de textos desde los servidores de prepublicaciones a las revistas científicas, impulsado por los propios investigadores. Es una iniciativa que trasciende a los sellos editoriales particulares. Se trata de una acción editorial conjunta, infrecuente en un mercado tan competitivo como el de la edición académica.
Merece la pena detenerse en cómo la gobernanza de la ciencia se modifica en parte. Sale un poco del radio de acción de las grandes editoriales académicas y reposa un poco más en las necesidades reales de la comunidad académica, en la acción colectiva editorial, en los principios de la ciencia abierta y, desde luego, en los grupos y entidades que promueven la integridad de la investigación y las nuevas formas de evaluación científica. Todo ello muy relacionado entre sí.
Colaboración, intercambio de datos e IA
La Inteligencia Artificial es una aliada clave en el tratamiento de grandes corpus de textos científicos, en la búsqueda sobre ellos para localizar datos, hallazgos relevantes o asociaciones entre temas. Ha permitido de algún modo ordenar y filtrar entre el maremágnum de literatura científica que se ha producido durante la pandemia.
Un desarrollo anunciado por Nature, scite.ai, permite ver la red de citas que recibe una prepublicación, ya sea para validarla o refutarla. Esto ayuda a discernir entre lo que puede ser valioso y lo que no.
Lo abierto, ya sean textos, datos o citas, es crítico en la comunicación científica actual. Porque textos, datos o citas son bases también del trabajo realizado por los equipos de Semantic Scholar y el Instituto Allen: están compartiendo miles de textos aunados en el corpus CORD-19 (COVID-19 Open Research Dataset). Equipos de IA de todo el mundo desarrollan herramientas para responder a preguntas de la comunidad científica que pueden ser respondidas a partir del análisis de ese inmenso corpus.
Uno de ellos ha sido el grupo Ontology Engineering Group (Universidad Politécnica de Madrid), que ha desarrollado un buscador terminológico para contribuir a esta tarea.
Estas aplicaciones, que han constituido una solución ante la avalancha de publicaciones científicas, hacen pensar de algún modo que la ciencia abierta ha acabado de arraigar con la COVID-19.
Ya no basta, además, con disponer de literatura científica y datos en abierto. Su estructura y su marcado semántico son esenciales para poder analizar y encontrar aquello que la comunidad científica -y la sociedad– quiere encontrar. Muchas grandes editoriales y productores de contenidos de perfil internacional lo tienen claro desde hace tiempo y han afrontado con determinación su transformación digital. De ello depende, por ejemplo que recibamos con puntualidad lo que publican, que lo encontremos fácilmente y bien posicionado en buscadores y que puedan ofrecer contenidos de manera inmediata.
Así ha sucedido durante la pandemia: la comunidad académica ha podido acceder a miles de artículos científicos para su consulta pero también para su tratamiento mediante técnicas de minería de datos.
De la transformación digital de las editoriales seremos beneficiarios todos los académicos, tanto para el acceso a la literatura científica y a los datos, como para su uso con fines de investigación. Pero es necesario considerar un factor crítico, relacionado con el hecho de que la comunicación de la ciencia es multilingüe.
El inglés es necesario para difundir, hacer visibles e intercambiar resultados de investigación con académicos de todo el mundo. Eso está fuera de toda duda. Sin embargo, tanto para la comunicación entre especialistas dentro de un país o de una región, como para la comunicación con la sociedad, las lenguas nacionales y locales son necesarias.
Por ello, además de admirar y valorar las innovaciones que se están produciendo en la comunicación científica, debemos preguntarnos hasta qué punto esas transformaciones pueden darse y proponerse en las estructuras editoriales del conjunto de países de habla hispana.
Apenas ha habido artículos científicos en español sobre la COVID-19 en revistas científicas de España. Esto se relaciona con que los artículos españoles han sido enviados a revistas internacionales. La ciencia producida en español, los nuevos hallazgos y los nuevos datos no se han publicado en revistas científicas nacionales, sino en medios de comunicación generalistas y más especializados, como SINC o The Conversation.
Los ritmos de evaluación, la publicación de números cerrados que no permiten la publicación según finaliza la evaluación, la falta de dinamismo en redes, lo “estático” de las estructuras editoriales y los formatos de los contenidos son algunos de los factores que han influido en esta situación.
Al mismo tiempo cabe preguntarse de qué forma las comunidades académica y editorial españolas participan en las redes internacionales que se organizan para agilizar la evaluación y mejorar la disponibilidad de contenidos científicos rigurosos. ¿Participamos en las infraestructuras y organizaciones internacionales? ¿Qué implica eso para la comunicación científica en español? ¿Debe la comunidad iberoamericana participar más activamente o proponer sistemas cooperativos y colectivos para afrontar el desafío de comunicar la ciencia en español?
Quizá debería haber un mayor compromiso de la comunidad académica por cuidar la comunicación científica en español, como una derivada más de la difusión de su actividad. Pero también debería haber una reflexión colectiva, seguida de acciones, por parte las instituciones de política científica y lingüística para que las estructuras editoriales de nuestros países pudieran afrontar una verdadera transformación digital. Así lograremos que los contenidos científicos en español puedan ser versátiles, valiosos y visibles para la comunidad académica hispanoblante y para nuestras sociedades.
Sobre los autores: Elea Giménez Toledo es científica titular del CSIC y Antonio Lafuente, investigador científico, en el Instituto de Historia, Centro de Ciencias Humanas y Sociales (CCHS – CSIC)
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo La Covid-19 revoluciona el sistema de publicación científica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Un paseo por la ciudad
“Caminar es la mejor medicina para el hombre”.
Hipócrates, hace 2400 años.
“El buen paseante sale a pasear cuando le apetece”.
Ramón Juventeny, 2014.
“Andar no es un deporte”.
Frédéric Gros, 2014.
Lo afirmaba Hipócrates hace casi 2500 años, pasear, caminar, deambular, es bueno para la salud. Sabemos que reduce el riesgo y ayuda en el tratamiento y la rehabilitación de las enfermedades no transmisibles. David Boatman menciona la diabetes tipo II, el infarto de miocardio, el derrame cerebral, el cáncer y la obesidad.
Foto: Tomas Llorente / PixabayEl caminar se puede cuantificar con el número de pasos por día o por semana. Wattanapisit y Thanamee, de Tailandia, clasifican el tipo de vida según el número de pasos por día: sedentario con menos de 5000 pasos al día; activo bajo, entre 5000 y 7499 pasos al día; algo activo, entre 7500 y 9999; activo, con más de 10000; y muy activo, con más de 12500 pasos al día.
Los autores publican un meta análisis de los beneficios para la salud al caminar 10000 pasos al día o, según la clasificación anterior, de tener un tipo de vida activo. Después de revisar las bases de datos, encuentran 49 artículos, publicados entre 2006 y 2016. Después de su revisión, hay 17 que cumplen los requisitos metodológicas para su inclusión en la revisión.
Con 10000 pasos al día disminuye la circunferencia corporal, el peso, el Índice de Masa Corporal (IMC), y la grasa corporal. También baja la tensión sanguínea y sube la concentración en sangre del colesterol “bueno”. Además, se mantiene la densidad ósea en adultos entre 49 y 64 años.
En conclusión, con 10000 pasos al día, como afirmaba Hipócrates, caminar es bueno para la salud. Y, si parece necesario, podemos mencionar lo escrito por Frédéric Gros cuando aconsejaba que “para ir más despacio no se ha encontrado nada mejor que andar”.
Pero hay que recordar que no siempre que se camina se hace por el ejercicio físico que supone. Por ejemplo, Prabasaj Paul y su grupo, del Centro de Control y Prevención de Enfermedades de Atlanta, han revisado una encuesta nacional de salud de Estados Unidos, de 2010, y encuentran que se camina por obligación, por transporte o por tiempo libre, que sería el paseo sin objetivo. Tienen datos de 24017 voluntarios.
Los resultados indican que por obligación caminan el 29.4% de los voluntarios, y por tiempo libre lo hacen el 50%. Por obligación, lo hacen más los hombres que las mujeres, y por tiempo libre es al contrario, y lo hacen más las mujeres que los hombres. El paseo por obligación, para más del 50% de los voluntarios, dura entre 10 y 15 minutos. En cambio, el 17% del paseo por tiempo libre dura entre 41 y 60 minutos. En los hombres, si pasean por obligación, la duración del paseo es menor si tienen el IMC alto, y, en general, el paseo por tiempo libre crece con la edad y con el IMC bajo.
Un meta análisis publicado en 2017 por Tessa Pollard y Janelle Wagnild, de la Universidad de Durham, en Inglaterra, revisa 33 estudios sobre las diferencias en el paseo según el género. La primera conclusión es que las mujeres pasean más que los hombres. Sobre todo las más jóvenes pasean más que los jóvenes de su edad, pero es una tendencia que se invierte con los años y los hombres de más edad pasean más que las mujeres de su edad.
Después de entrevistar, en 2017, a cinco grupos de mujeres caminantes del nordeste de Inglaterra, con 51 mujeres en total, Stephanie Morris y su grupo, detectan los importancia de estos paseos para los mujeres y, en primer lugar, supone, para ellas, una pausa en su vida cotidiana. Les gusta el ambiente entre las paseantes y, por ello, los valoran muy alto, son espacios de intercambio, de buena salud y disfrute, son un recurso positivo para su vida y, también, de su contacto con el entorno social.
En Estados Unidos, y con una muestra de 3653 voluntarios, con el 52.4% de mujeres, y un rango de edad de 18 a 65 años, según Kathleen Watson y su grupo, del Centro de Control y Prevención de Enfermedades de Atlanta, es que el 43% considera que caminar una milla, o 1609 metros, o hacerlo durante 20 minutos, es razonable.
El ambiente del lugar de paseo anima a caminar, a pasear a gusto, y, como estudiaron Inés Ferreira y sus colegas, de la Universidad de Lund, en Suecia, la emoción y las ganas de caminar las provoca el entorno, la vecindad más cercana, tanto el lugar físico como el contexto social.
Entrevistaron a 110 vecinos de Malmoe, con el 64.5% de mujeres, y edad media de 38 años. Los resultados muestran que las mujeres y los adultos de edad evitan las calles menos seguras, buscan las menos solitarias y las que facilitan el trato con otros paseantes y la sociabilidad entre vecinos. Son los vecinos con el nivel económico más bajo los que más tiempo dedican a pasear.
En conclusión, anima a caminar, en primer lugar, sentirse con seguridad y a gusto en el barrio y, además, el paseo relaja y elimina el estrés y estimula al paseante frente al aburrimiento.
Incluso se ha investigado que caminar juntos ayuda a resolver conflictos pues, según Christine Webb y su grupo, de la Universidad Columbia de Nueva York, implica que los caminantes deben cooperar para hacer el paseo en conjunto. Comparten experiencias sobre lo que hacen y ven en entornos nuevos y, todo ello, ayuda a la conversación y al debate.
Creo que es evidente que caminar no es solo un deporte, es algo más. Carlos García Gual, en 2014, y después de revisar varios libros sobre caminar, termina con que “caminar invita a pensar e imaginar con frescor, temple airoso y libertad”. O sea, lo que el título del texto da García Gual afirma con claridad: “Pasear y pensar”. Jean-Jacques Rousseau lo confirma en su escrito en que nos cuenta que ha descubierto lo que, ahora, consideraríamos una nueva especie, el Homo viator.
Y este Homo viator nos introduce en los paseos del llamado, en francés, flâneur, el que deambula por la ciudad. Es un descubrimiento del París del siglo XIX, y ahora es un término y un concepto habitual en muchos idiomas y culturas. Beatriz Sarlo lo define como “paseante urbano, consumidor, neurasténico y un poco dandy que … sintetiza una idea: la del anonimato en la ciudad moderna y en el mercado”.
Para el flâneur inicial, el del París del XIX, comprar va acompañado de una actividad novedosa: deambular por los espacios comerciales. El flâneur deambula sin un propósito concreto, pasea por la ciudad porque es un concepto adaptado a lo urbano, y lo hace, sobre todo, por las zonas comerciales. En tiempos recientes y para algunos autores, el flâneur ha perdido su deambular y se ha quedado, como mucho, en un consumidor o, más fácil, en un comprador. Tampoco es un turista que pasea por la ciudad con un objetivo concreto: conocerla y, en los últimos tiempos, fotografiarla para demostrar que allí se ha paseado. Lo importante no es comprar o acumular imágenes sino disfrutar de lo que la ciudad ofrece y, así, ver a otros, ser visto y lo habitual debe ser no comprar nada. Es el nuevo pasatiempo de la burguesía para su tiempo libre.
Referencias:
Abad, M. 2014. Caminar como técnica para pensar. Yorokobu Blog 6 octubre.
Boatman, D.C. 2012. Hippocrates: “Walking is man’s best medicine!”. Occupational Medicine 62: 320-324.
Ferreira, I.A. et al. 2016. Transport walking in urban neighbourhoods – Impact of perceived neighbourhood qualities and emotional relationship. Lanscape and Urban Planning 150: 60-69.
García Gual, C. 2014. Pasear y pensar. El País 29 diciembre.
Gros, F. 2014. Andar, una filosofía. Taurus. Barcelona. 248 pp.
Hiernaux-Nicolás, D. 2006. De flâneur a consumidor: reflexiones sobre el transeúnte en los espacios comerciales. En “Pensar y habitar la ciudad: afectividad, memoria y significado”, p 145-156. Ed. por Ramírez-Kuri et al. Anthropos Ed. Barcelona.
Morris, S. et al. 2019. Group walking as a “lifeline”: Understanding the place of outdoor walking groups in women’s lives. Social Science & Medicine 238: 112489.
Paul, P. et al. 2015. Walking for transportation and leisure among U.S. adults – National Health Interview Survey 2010. Journal of Physical Activity and Health 12, Suppl. 1: S62-S69.
Pollard, T.M. & J.M. Wagnild. 2017. Gender differences in walking (for leisure, transport and in total) across adult life: a systematic review. BMC Public Health 17: 34.
Quijano, E. 2018. El flâneur bogotano contemporáneo: reflexiones sobre el deambular en los espacios comerciales de Bogotá. Cuadernos de Vivienda y Urbanismo doi: 10.11144/Javeriana.cvu11-22.fbcr
Sarlo, B. 2000. Siete ensayos sobre Walter Benjamin. Fondo de Cultura Económica. México. 108 pp.
Walson, K.B. et al. 2015. Walking for transportation: What do U.S. adults think is a reasonable distance and time? Journal of Physyical Activity and Health 12, Suppl. 1: S53-S61.
Wattanapisit, A. & S. Thanamee. 2017. Evidence behind 1.000 steps walking. Journal of Health Research 31: 241-248.
Webb, C.E. et al. 2017. Stepping forward together: Could walking facilitate interpersonal conflicto resolution? American Psychologist 72: 374-385.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Un paseo por la ciudad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:María Martinón-Torres – P4K 2019: Homo sapiens y la sombra del ciprés
La consciencia de su vulnerabilidad es una de esas cosas que hacen a los humanos, humanos. María Martinón- Torres, doctora en medicina, paleoantropóloga y directora del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH) expone en esta estupenda charla cuando aparece esa consciencia y si esto supone alguna ventaja.
La conferencia se impartió dentro del marco del festival Passion for Knowledge 2019 (P4K) organizado por el Donostia International Physics Center (DIPC).
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo María Martinón-Torres – P4K 2019: Homo sapiens y la sombra del ciprés se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Un estudio paleoceanográfico apunta a que los ciclos naturales de cambio climático están siendo alterados
Un estudio paleoceanográfico de la UPV/EHU ofrece una descripción detallada de los cambios climáticos ocurridos en el golfo de Bizkaia en los últimos 37.000 años y apunta a que se está alterando el ciclo natural.
Gofo de Vizcaya. Foto: Envisat / ESAEl clima representa el conjunto de condiciones atmosféricas que caracterizan una región. Esas condiciones, no obstante, son consecuencia de una interacción global entre la tierra emergida, la vegetación, el hielo, la atmósfera y el océano. “Teniendo en cuenta que los océanos ocupan el 75 % de la superficie terrestre, la influencia que estos tienen sobre el clima es muy fuerte, y viceversa, los cambios en el clima influyen fuertemente en los océanos. En nuestro grupo nos dedicamos al estudio de la paleoceanografía, donde buscamos y analizamos las evidencias de cómo ha cambiado el océano en los diferentes periodos o intervalos climáticos. Nuestro estudio se centra en el golfo de Bizkaia, que es el trozo de océano que tenemos delante de nuestras costas”, describe Julio Rodríguez Lázaro, catedrático del Departamento de Estratigrafía y Paleontología de la Facultad de Ciencia y Tecnología de la UPV/EHU, y uno de los autores del estudio.
Un trabajo de este grupo ha detallado con gran precisión muchos de los eventos climáticos que han sucedido en los últimos 37.000 años. Para ello, los investigadores han recurrido al estudio de los microfósiles de 176 especies de foraminíferos bénticos, obtenidos de sondeos del fondo oceánico. Los foraminíferos estudiados son unos pequeños seres marinos (de una sola célula, pero muy grande), caracterizados por una concha de carbonato, del tamaño de granos de arena, muy utilizados en paleoceanografía, porque dependiendo de las especies que abundan en una época geológica u otra, “conocemos las condiciones que se daban en ese lugar y en ese periodo concreto. Este análisis faunístico es posible porque muchas de las especies de foraminíferos son muy sensibles a los parámetros medioambientales básicos, como la temperatura, la concentración de oxígeno o el contenido de materia orgánica”, relata el investigador.
Así, han podido identificar en el sedimento del golfo de Bizkaia analizado, evidencias de los episodios climáticos conocidos, tanto los periodos fríos, como el Younger Dryas, o eventos Heinrich, como los intervalos cálidos, Bolling-Allerod, o el Holoceno, sucedidos a lo largo de la historia geológica reciente, que comprende los últimos milenios. Además, consideran la identificación de las 176 especies de foraminíferos bentónicos descritas como “una contribución al conocimiento de la biodiversidad existente en el golfo de Bizkaia durante el periodo Cuaternario”.
Este estudio se enmarca en un proyecto cuyo objetivo es la detección de los cambios climáticos habidos en el golfo de Bizkaia en los últimos 150.000 años. Rodríguez lo resume de la siguiente manera: “El clima del planeta en este periodo de tiempo se caracteriza por la alternancia brusca de periodos cálidos y fríos, y estos cambios climáticos parecen haber ocurrido cada 1.500 años, aproximadamente. El calentamiento (hasta 10 °C) se produce en pocas décadas, mientras que el enfriamiento ocurre a lo largo de varios siglos. Cuando ocurre un enfriamiento, la consecuencia es que el agua del océano Atlántico norte se enfría a la vez que ocurre una descarga masiva de icebergs procedentes de la fragmentación de las capas de hielo en el Océano Ártico, y esto conlleva un periodo climático frío en el hemisferio norte”.
Estos cambios climáticos rápidos son producidos por alteraciones de la llamada AMOC (Atlantic Meridional Overturnig Circulation) que es el transporte de calor que se da desde el Atlántico sur hacia el norte a través de los movimientos de las masas de agua oceánicas, donde las aguas cálidas tropicales, menos densas, se mueven hacia el norte, mientras que las frías y densas aguas del Atlántico norte se dirigen en profundidad hacia el sur. Estos movimientos de agua modifican en su tránsito no solo el clima de Europa (templándolo), sino del conjunto del planeta. La AMOC se altera cuando hay entrada de aguas poco salinas en el Ártico, por el deshielo del permafrost, así como por cambios del espesor del hielo en estas latitudes árticas.
El momento geológico que estamos viviendo ahora es una época interglaciar “o cálida” (Holoceno), y “si fuéramos al ritmo que ha transcurrido en los intervalos de frío y calor anteriores, deberíamos estar yendo hacia un enfriamiento, pero esto no está ocurriendo —advierte Rodríguez—. Debido a la actividad humana, estamos alterando ese ciclo, estamos modificando el equilibrio natural. Y esto podría tener consecuencias graves en los siguientes ciclos climáticos de un futuro próximo”.
Referencia:
Ana Pascual, Julio Rodríguez-Lázaro, Blanca Martínez-García, Zeltia Varela (2020) Palaeoceanographic and palaeoclimatic changes during the last 37,000 years detected in the SE Bay of Biscay based on benthic foraminifera. Quaternary International doi: 10.1016/j.quaint.2020.03.043
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Un estudio paleoceanográfico apunta a que los ciclos naturales de cambio climático están siendo alterados se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: